JP5968081B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5968081B2
JP5968081B2 JP2012121387A JP2012121387A JP5968081B2 JP 5968081 B2 JP5968081 B2 JP 5968081B2 JP 2012121387 A JP2012121387 A JP 2012121387A JP 2012121387 A JP2012121387 A JP 2012121387A JP 5968081 B2 JP5968081 B2 JP 5968081B2
Authority
JP
Japan
Prior art keywords
image
pupil
contrast
focus
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012121387A
Other languages
Japanese (ja)
Other versions
JP2013246375A5 (en
JP2013246375A (en
Inventor
木村 正史
正史 木村
福田 浩一
浩一 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012121387A priority Critical patent/JP5968081B2/en
Publication of JP2013246375A publication Critical patent/JP2013246375A/en
Publication of JP2013246375A5 publication Critical patent/JP2013246375A5/ja
Application granted granted Critical
Publication of JP5968081B2 publication Critical patent/JP5968081B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、デジタルカメラ等の撮像装置における、オートフォーカス(以下AF)技術に関するものである。   The present invention relates to an autofocus (hereinafter referred to as AF) technique in an imaging apparatus such as a digital camera.

従来、ピント調整のためのオートフォーカス装置として、デジタル一眼レフカメラはいわゆる位相差AFを、コンパクトカメラはコントラストAFを備えた装置が多い。これらのAFの特徴として位相差AFは高速なピント調整が可能であり、コントラストAFは厳密なピント合わせが可能という点があげられる。   Conventionally, as an autofocus device for focus adjustment, many digital single-lens reflex cameras have so-called phase difference AF, and compact cameras have contrast AF. As a feature of these AFs, the phase difference AF is capable of high-speed focus adjustment, and the contrast AF is capable of strict focus adjustment.

例えば、特許文献1ではコントラスト評価を行うための像取得の際に同時に絞りを動作させる方法が開示されている。特許文献2では、異なる瞳領域を通過した光束を個別に受光可能な撮像装置であって、撮像後にピント調整を行った画像を生成する手法が開示されている。   For example, Patent Document 1 discloses a method of simultaneously operating a diaphragm when acquiring an image for performing contrast evaluation. Japanese Patent Application Laid-Open No. 2004-228561 discloses an image pickup apparatus that can individually receive light beams that have passed through different pupil regions, and that generates an image that has been subjected to focus adjustment after image pickup.

特開2003−279838号公報JP 2003-279838 A 特開2007−4471号公報JP 2007-4471 A

しかしながら、上述の特許文献に開示された従来技術では、ピント合わせの速度とピント精度の両立が難しい場合がある。すなわち特許文献1では、コントラスト評価を行うために多数の像を取得する必要があるので、ピント合わせの速度が遅くなってしまう場合がある。特許文献2では、後ほどピント位置を変化させた像を得ることができるが、いわゆるピント合わせのための信号の活用方法に関しては十分に述べられていない。   However, in the conventional techniques disclosed in the above-mentioned patent documents, it may be difficult to achieve both the focusing speed and the focusing accuracy. That is, in Patent Document 1, since it is necessary to acquire a large number of images in order to perform contrast evaluation, the focusing speed may be slow. In Patent Document 2, an image in which the focus position is changed can be obtained later, but a method of utilizing a signal for so-called focusing is not sufficiently described.

本発明は上述した課題に鑑みてなされたものであり、その目的は、高速かつピント精度の高いAFを行うことを可能にした撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging apparatus capable of performing AF with high speed and high focus accuracy.

本発明に係わる撮像装置は、撮像素子と、前記撮像素子上の画素へ入射する光束を撮影レンズの特定の瞳領域に制限する瞳分割手段と、前記撮像素子から得られた電気信号に対して、所定の像面の画像信号が得られるように前記撮像素子上の各画素を前記所定の像面に応じて組み合わせを異ならせて加算し、前記所定の像面の画像信号を生成する像生成手段と、前記像生成手段において加算を行う画素に対応する瞳領域を制御する像加算制御手段と、前記像生成手段から得られた画像信号のコントラストを計算するコントラスト評価手段と、前記所定の像面を変化させたときの前記コントラスト評価手段の出力からピント評価値を得るピント評価手段と、を備え、前記像加算制御手段は、少なくとも前記撮影レンズの光軸中心に最も近い瞳領域を含んだ瞳領域に対応する画素を加算することを特徴とする。 An image pickup apparatus according to the present invention is configured to output an image pickup element, pupil dividing means for limiting a light beam incident on a pixel on the image pickup element to a specific pupil region of a photographing lens, and an electric signal obtained from the image pickup element. Image generation for generating an image signal of the predetermined image plane by adding each pixel on the image sensor in a different combination according to the predetermined image plane so as to obtain an image signal of the predetermined image plane Means, image addition control means for controlling a pupil region corresponding to a pixel to be added in the image generation means, contrast evaluation means for calculating contrast of an image signal obtained from the image generation means, and the predetermined image and a focus evaluation means for obtaining the focus evaluation value from an output of the contrast evaluation means with respect to a change in the surface, the image addition control means, closest pupil territory to the optical axis center of at least the imaging lens It is added to pixels corresponding to the pupil region including a characterized Rukoto.

本発明によれば、高速かつピント精度の高いAFを行うことを可能にした撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of performing AF with high speed and high focus accuracy.

本発明の撮像装置の一実施形態であるデジタルカメラおよびレンズの電気的構成を示すブロック図。1 is a block diagram showing an electrical configuration of a digital camera and a lens that are an embodiment of an imaging apparatus of the present invention. 本発明の一実施形態における撮影光学系の要部を説明する図。FIG. 3 is a diagram illustrating a main part of a photographing optical system according to an embodiment of the present invention. 一実施形態のピント評価値を得るための動作を示すフローチャート。The flowchart which shows the operation | movement for obtaining the focus evaluation value of one Embodiment. 一実施形態のピント評価値を得るための動作を示すフローチャート。The flowchart which shows the operation | movement for obtaining the focus evaluation value of one Embodiment. コントラストAFの動作を説明する模式図。The schematic diagram explaining operation | movement of contrast AF. 像の再構成動作を示す模式図。The schematic diagram which shows the reconstruction operation | movement of an image. 本発明に適用可能な光学系の他の例を示す模式図。FIG. 6 is a schematic diagram showing another example of an optical system applicable to the present invention.

以下、本発明の一実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の撮像装置の一実施形態であるデジタルカメラおよびレンズの電気的構成を示すブロック図である。カメラ1およびレンズ(撮影レンズ)2からなるカメラシステムは、撮像系、画像処理系、記録再生系、制御系を有する。撮像系は、撮影光学系3 、撮像素子6を含み、画像処理系は、画像処理部7を含む。また、記録再生系は、メモリ8、表示部9を含み、制御系は、カメラシステム制御回路5、操作検出部10、およびレンズシステム制御回路12、レンズ駆動部13を含む。レンズ駆動部13は、焦点レンズ、ブレ補正レンズ、絞りなどを駆動することができる。   FIG. 1 is a block diagram showing an electrical configuration of a digital camera and a lens which are an embodiment of an imaging apparatus of the present invention. A camera system including a camera 1 and a lens (photographing lens) 2 has an imaging system, an image processing system, a recording / reproducing system, and a control system. The imaging system includes a photographing optical system 3 and an imaging element 6, and the image processing system includes an image processing unit 7. The recording / reproducing system includes a memory 8 and a display unit 9, and the control system includes a camera system control circuit 5, an operation detection unit 10, a lens system control circuit 12, and a lens driving unit 13. The lens driving unit 13 can drive a focus lens, a shake correction lens, a diaphragm, and the like.

撮像系は、物体からの光を、撮影光学系3を介して撮像素子6の撮像面に結像する光学処理系である。撮像素子6は結像された光学像を所定の電気信号に変換する。撮影素子6の表面にはマイクロレンズが格子状に配置してあり、いわゆるマイクロレンズアレイ(以下、MLA)を形成している。MLAは本実施形態において、瞳分割手段を構成する。MLAの機能や配置の詳細については図2を用いて後述する。後述するように、撮影素子6からピント評価量/適当な露光量が得られるので、この信号に基づいて適切に撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光するとともに、撮像素子6近傍で被写体像が結像される。   The imaging system is an optical processing system that forms an image of light from an object on the imaging surface of the imaging device 6 via the imaging optical system 3. The image sensor 6 converts the formed optical image into a predetermined electric signal. Microlenses are arranged in a lattice pattern on the surface of the imaging element 6 to form a so-called microlens array (hereinafter referred to as MLA). In this embodiment, the MLA constitutes pupil dividing means. Details of the functions and arrangement of the MLA will be described later with reference to FIG. As will be described later, since the focus evaluation amount / appropriate exposure amount can be obtained from the imaging element 6, the imaging optical system 3 is appropriately adjusted based on this signal, so that an appropriate amount of object light can be obtained from the imaging element 6. And an object image is formed in the vicinity of the image sensor 6.

画像処理部7は、内部にA/D変換器、補間演算回路、ホワイトバランス回路、ガンマ補正回路等を有しており、記録用の画像を生成することができる。また、本実施形態の要部である、像シフト手段、像生成手段、コントラスト評価手段、相関計算手段等を含めることもできる。ただし、本実施形態では、これらの要素はカメラシステム制御回路5内に配置する場合を想定して説明する。   The image processing unit 7 includes an A / D converter, an interpolation calculation circuit, a white balance circuit, a gamma correction circuit, and the like, and can generate an image for recording. In addition, an image shift unit, an image generation unit, a contrast evaluation unit, a correlation calculation unit, and the like, which are main parts of the present embodiment, can be included. However, in the present embodiment, description will be given assuming that these elements are arranged in the camera system control circuit 5.

メモリ8は実際の記憶部に加えて記録に必要な処理回路を備えている。メモリ8は、記憶部へ出力を行うとともに、表示部9に出力する像を生成、保存する。また、メモリ8は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。   The memory 8 includes a processing circuit necessary for recording in addition to an actual storage unit. The memory 8 outputs to the storage unit and generates and stores an image to be output to the display unit 9. Further, the memory 8 compresses images, moving images, sounds, and the like using a predetermined method.

カメラシステム制御回路5は撮像の際のタイミング信号などを生成して出力する。外部操作に応答して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のシャッターレリーズボタンの押下を操作検出回路10が検出して、撮像素子6の駆動、画像処理部7の動作、メモリ8の圧縮処理などを制御する。さらに表示部9によって液晶モニタ等に情報表示を行う情報表示装置の各セグメントの状態を制御する。   The camera system control circuit 5 generates and outputs a timing signal at the time of imaging. In response to an external operation, the imaging system, the image processing system, and the recording / reproducing system are controlled. For example, the operation detection circuit 10 detects that a shutter release button (not shown) is pressed, and controls driving of the image sensor 6, operation of the image processing unit 7, compression processing of the memory 8, and the like. Further, the display unit 9 controls the state of each segment of the information display device that displays information on a liquid crystal monitor or the like.

次に、制御系による光学系の調整動作について説明する。カメラシステム制御回路5には画像処理部7が接続されており、撮像素子6からの信号を元に適切な焦点位置、絞り位置を求める。カメラシステム制御回路5は、電気接点11を介してレンズシステム制御回路12に指令を出し、レンズシステム制御回路12はレンズ駆動部13を適切に制御する。さらにレンズシステム制御回路12には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号を元にレンズ駆動部13を介してブレ補正レンズを適切に制御する。   Next, the adjustment operation of the optical system by the control system will be described. An image processing unit 7 is connected to the camera system control circuit 5 and an appropriate focal position and aperture position are obtained based on a signal from the image sensor 6. The camera system control circuit 5 issues a command to the lens system control circuit 12 via the electrical contact 11, and the lens system control circuit 12 appropriately controls the lens driving unit 13. Further, a camera shake detection sensor (not shown) is connected to the lens system control circuit 12, and in the camera shake correction mode, the camera shake correction sensor is appropriately controlled based on the signal of the camera shake detection sensor. To do.

図2は、本実施形態における撮影光学系の要部を説明する図である。本実施形態では、いわゆる光線空間情報等といわれる、光線の位置に加えて角度の情報を取得する必要がある。本実施形態では、角度情報の取得のために撮影光学系3の結像面近傍にMLAを配置するとともに、MLAを構成する1つのレンズに対して複数の画素を対応させている。   FIG. 2 is a diagram for explaining a main part of the photographing optical system in the present embodiment. In the present embodiment, it is necessary to acquire angle information in addition to the position of the light beam, which is so-called light space information. In the present embodiment, an MLA is arranged in the vicinity of the imaging plane of the photographing optical system 3 for obtaining angle information, and a plurality of pixels are associated with one lens constituting the MLA.

図2(a)は撮像素子6とMLA20の関係を模式的に示す図である。図2(b)は撮像素子の画素とMLAの対応を示す模式図である。図2(c)はMLAによってMLA下に設けられた画素が特定の瞳領域と対応づけられることを示す図である。   FIG. 2A is a diagram schematically illustrating the relationship between the image sensor 6 and the MLA 20. FIG. 2B is a schematic diagram showing the correspondence between the pixels of the image sensor and the MLA. FIG. 2C is a diagram showing that pixels provided under the MLA by the MLA are associated with a specific pupil region.

図2(a)に示すように撮像素子6上にはMLA20が設けられており、MLA20の前側主点は撮影光学系3の結像面近傍になるように配置されている。図2(a)は撮影装置の横からと、正面からMLAを見た状態を示しており、撮影装置正面から見るとMLAのレンズが撮像素子6上の画素を覆うように配置されている。なお、図2(a)ではMLAを構成する各マイクロレンズを見やすくするために、大きく記載したが、実際には各マイクロレンズは画素の数倍程度の大きさしかない。実際の大きさについては図2(b)を用いて説明する。   As shown in FIG. 2A, the MLA 20 is provided on the image sensor 6, and the front principal point of the MLA 20 is arranged in the vicinity of the imaging plane of the photographing optical system 3. FIG. 2A shows a state where the MLA is viewed from the side and from the front of the imaging apparatus, and the lens of the MLA is disposed so as to cover the pixels on the image sensor 6 when viewed from the front of the imaging apparatus. In FIG. 2A, the microlenses constituting the MLA are illustrated in large size so that the microlenses are easy to see, but each microlens is actually only about several times as large as a pixel. The actual size will be described with reference to FIG.

図2(b)は図2(a)の装置正面からの図を一部拡大した図である。図2(b)に示す格子状の枠は、撮像素子6の各画素を示している。一方MLAを構成する各マイクロレンズは太い円20a,20b,20c,20dで示している。図2(b)から明らかなようにマイクロレンズ1つに対して複数の画素が割り当てられており、図2(b)の例では、5行×5列=25個の画素が1つのマイクロレンズに対して設けられている。すなわち、各マイクロレンズの大きさは画素の大きさの5倍×5倍の大きさである。   FIG. 2B is a partially enlarged view from the front of the apparatus of FIG. A grid-like frame shown in FIG. 2B indicates each pixel of the image sensor 6. On the other hand, each microlens constituting the MLA is indicated by thick circles 20a, 20b, 20c, and 20d. As apparent from FIG. 2B, a plurality of pixels are assigned to one microlens. In the example of FIG. 2B, 5 rows × 5 columns = 25 pixels are one microlens. Is provided against. That is, the size of each microlens is 5 × 5 times the size of the pixel.

図2(c)は撮像素子6を、マイクロレンズの光軸を含みセンサの長手方向が図の横方向になるように切断した図である。図2(c)の21、22、23、24、25は撮像素子6の画素(1つの光電変換部)を示している。一方図2(c)の上方に示した図は撮影光学系3の射出瞳面を示している。実際には、図2(c)の下方に示したセンサの図と方向を合わせると、射出瞳面は図2(c)の紙面垂直方向になるが、説明を分かりやすくするために投影方向を変化させている。また、図2(c)においては説明を簡単にするために、1次元の投影/信号処理について説明する。実際の装置においては、これを容易に2次元に拡張することができる。   FIG. 2C is a diagram in which the image pickup element 6 is cut so that the longitudinal direction of the sensor includes the optical axis of the microlens and the horizontal direction of the drawing. 2, 21, 22, 23, 24, and 25 in FIG. 2C indicate pixels (one photoelectric conversion unit) of the image sensor 6. On the other hand, the figure shown above FIG. 2C shows the exit pupil plane of the photographing optical system 3. Actually, when the direction is aligned with the sensor diagram shown in the lower part of FIG. 2 (c), the exit pupil plane is in the direction perpendicular to the paper plane of FIG. 2 (c). It is changing. In FIG. 2C, one-dimensional projection / signal processing will be described to simplify the description. In an actual device, this can be easily extended to two dimensions.

図2(c)の画素21、22、23、24、25は図2(b)の21a、22a、23a、24a、25aとそれぞれ対応する位置関係にある。図2(c)に示すように、マイクロレンズ20によって各画素は撮影光学系3の射出瞳面上の特定の領域と共役になるように設計されている。図2(c)の例では画素21と領域31が、画素22と領域32が、画素23と領域33が、画素24と領域34が、画素25と領域35がそれぞれ対応している。すなわち画素21には撮影光学系3の射出瞳面上の領域31を通過した光束のみが入射する。他の画素も同様である。結果として、瞳面上での通過領域と撮像素子6上の位置関係から角度の情報を取得することが可能となる。   The pixels 21, 22, 23, 24, and 25 in FIG. 2C are in a positional relationship corresponding to 21a, 22a, 23a, 24a, and 25a in FIG. As shown in FIG. 2C, each pixel is designed to be conjugate with a specific area on the exit pupil plane of the photographing optical system 3 by the microlens 20. In the example of FIG. 2C, the pixel 21 and the region 31 correspond to the pixel 22 and the region 32, the pixel 23 and the region 33, the pixel 24 and the region 34, and the pixel 25 and the region 35, respectively. That is, only the light beam that has passed through the region 31 on the exit pupil plane of the photographing optical system 3 enters the pixel 21. The same applies to the other pixels. As a result, it is possible to obtain angle information from the passing area on the pupil plane and the positional relationship on the image sensor 6.

本実施形態で示した撮影光学系を利用して、撮像素子6の信号からピント評価値(合焦評価値)を得る処理について図3〜図6を用いて説明する。   Processing for obtaining a focus evaluation value (focus evaluation value) from a signal from the image sensor 6 using the photographing optical system shown in the present embodiment will be described with reference to FIGS.

図3及び図4は本実施形態のピント評価値を得るための動作を示すフローチャートである。図3(a)はピント評価値を得る全体の動作を、図3(b)は像シフト手段の動作を、図4(a)は像生成手段の動作を、図4(b)はコントラスト評価手段の動作をそれぞれ示している。   3 and 4 are flowcharts showing the operation for obtaining the focus evaluation value of this embodiment. 3A shows the overall operation for obtaining the focus evaluation value, FIG. 3B shows the operation of the image shift means, FIG. 4A shows the operation of the image generation means, and FIG. 4B shows the contrast evaluation. The operation of each means is shown.

図3(a)から各ステップ順に説明する。ステップS1はピント評価値取得動作の開始を示している。例えば、図1にあった操作検出部10が撮影者からの特定の動作を検出した時(例えばレリーズボタンの押下)などが該当する。   Description will be given in order of each step from FIG. Step S1 indicates the start of the focus evaluation value acquisition operation. For example, this is the case when the operation detection unit 10 shown in FIG. 1 detects a specific operation from the photographer (for example, pressing the release button).

ステップS2は撮像素子6を適当な時間露光して、読み出す(A/D変換する)ことによりデータを取得することに対応する。この時の露光時間と露光量から撮影において適当な露出量を計算することもできる。ただし本実施形態の要部ではないので説明は割愛する。   Step S2 corresponds to acquiring data by exposing the image sensor 6 for an appropriate time and reading (A / D conversion). An appropriate exposure amount in photographing can be calculated from the exposure time and the exposure amount at this time. However, since it is not the main part of this embodiment, description is omitted.

ステップS3からステップS11はループを形成している。ステップS3ではコントラストを用いたピント評価を複数回に分けて行うループを形成している。すなわち最初は粗く、その後精密にピント調整(ピント合わせ)を行う。粗くピント調整を行う動作を粗調、精密にピント調整を行う動作を微調と呼ぶことにする。   Steps S3 to S11 form a loop. In step S3, a loop for performing focus evaluation using contrast in a plurality of times is formed. That is, it is rough at first, and then the focus is adjusted precisely. The operation for coarse focus adjustment is called coarse adjustment, and the operation for fine focus adjustment is called fine adjustment.

ステップS4では、現在の調整に合わせて加算すべき瞳位置を決定する。粗調においては、次のステップS5以下で評価位置を粗くしながら評価を行う。このため、ローカルミニマムに陥ることを避けるために、ピント位置に対するコントラスト評価が緩慢になるように(=物理的には被写界深度が深い像を得ることと対応する)、加算すべき瞳位置を決定する。一例としては、加算する領域を少なくかつ隣接するように設定すれば良い。例えば図2(c)において、領域33と領域32のみを加算すれば良い。さらに一般的にするためには、粗調に対応する瞳位置の加算数を2より大きく、瞳の分割数より小さくすればよい。   In step S4, a pupil position to be added is determined in accordance with the current adjustment. In coarse adjustment, evaluation is performed while roughening the evaluation position in the next step S5 and thereafter. For this reason, in order to avoid falling into the local minimum, the pupil position to be added so that the contrast evaluation for the focus position becomes slow (= physically corresponds to obtaining an image with a deep depth of field). To decide. As an example, the area to be added may be set to be small and adjacent. For example, in FIG. 2C, only the region 33 and the region 32 may be added. In order to make it more general, the number of pupil positions added corresponding to coarse tone may be larger than 2 and smaller than the number of pupil divisions.

一方で、微調時にはローカルミニマムに陥る可能性は低いので、ピント精度を向上させるためにピント位置に対するコントラスト評価が急峻になるように(=物理的には被写界深度が浅い像を得ることと対応する)、加算すべき瞳位置を決定する。一例としては、加算する領域を多く設定すれば良い。例えば図2(c)において、領域31から領域35のすべてを加算すれば良い。このように設定することでピント精度を向上させることが可能となる。   On the other hand, since there is little possibility of falling into a local minimum at the time of fine adjustment, in order to improve the focus accuracy, the contrast evaluation for the focus position becomes steep (= physically obtaining an image with a shallow depth of field) Corresponding), the pupil position to be added is determined. As an example, a large number of areas to be added may be set. For example, in FIG. 2C, all of the areas 31 to 35 may be added. With this setting, the focus accuracy can be improved.

別の方法としては、ピントへの感度を向上させるために、射出瞳の中心を含まないように設定しても良い(=いわゆる輪体瞳となる)。図2(c)において、領域31と領域35を加算すれば良い。このように設定することでピント精度を向上させることが可能となる。   As another method, in order to improve the sensitivity to focus, it may be set so as not to include the center of the exit pupil (= a so-called ring-shaped pupil). In FIG. 2C, the region 31 and the region 35 may be added. With this setting, the focus accuracy can be improved.

さらに別の方法としては、記録時のコントラストが最適となるように、記録(=現像)画像のFナンバーと一致するように加算すべき瞳位置を決定する。例えば図2(c)において、やや絞った像を現像する場合においては領域32から領域34を加算すれば良い。このように設定することで収差の影響を排除して(収差がある場合には通過する瞳位置によって最良となるピント位置が変化する)ピント精度を向上させることが可能となる。   As another method, the pupil position to be added is determined so as to coincide with the F number of the recorded (= development) image so that the contrast at the time of recording becomes optimum. For example, in FIG. 2C, when developing a slightly narrowed image, the region 32 to the region 34 may be added. With this setting, it is possible to improve the focus accuracy by eliminating the influence of aberration (when there is an aberration, the best focus position changes depending on the position of the passing pupil).

さらにステップS3からステップS11のループで粗密スキャンを行うことで高速化が可能となる。前述した様にローカルミニマムを避けるために粗調においてはピント位置に対するコントラスト評価が緩慢になるように加算すべき瞳位置の調整を行う。このような操作を行わずに大域的な最適解を得ようとすると非常に多くのサンプリング点が必要となる。すなわちピントへの感度が高い評価値を用いて、非常に細かいピッチで多くの点でピント評価値を得る必要がある。一方で、粗密スキャンという方法をとると、粗調時には粗く大まかなピークを探索して、微調時には粗調で求めたピーク近傍で細かくサンプリングを行う。この動作を行うことで、より少ないサンプリング点で大域的な最適解に到達することが出来る。このように、一般的なブロックマッチングなどでは良く知られているように、コントラストによるピント評価においても粗密スキャンを行うことで高速化を図ることが出来る。   Furthermore, it is possible to increase the speed by performing the coarse / fine scan in the loop from step S3 to step S11. As described above, in order to avoid the local minimum, in the rough adjustment, the pupil position to be added is adjusted so that the contrast evaluation with respect to the focus position becomes slow. If an attempt is made to obtain a global optimal solution without performing such an operation, a very large number of sampling points are required. That is, it is necessary to obtain a focus evaluation value at many points with a very fine pitch by using an evaluation value having high sensitivity to focus. On the other hand, when the method of coarse / fine scan is used, a rough rough peak is searched for during coarse adjustment, and fine sampling is performed in the vicinity of the peak obtained by coarse adjustment during fine adjustment. By performing this operation, the global optimum solution can be reached with fewer sampling points. In this way, as is well known in general block matching and the like, it is possible to increase the speed by performing the coarse / fine scan even in the focus evaluation by contrast.

以上説明した様にステップS4は加算すべき瞳を制御しており、本実施形態における像加算制御手段として動作する。   As described above, step S4 controls the pupils to be added, and operates as image addition control means in the present embodiment.

ステップS5からステップS9はループを形成しており、評価位置(図6を用いて後述する画像の再構成位置に対応)を予め与えられた初期値から適当なステップずらしながら予め与えられた終了値まで計算を行う。前述の初期値は粗調/微調で異なるように設定することができ、ステップS5では粗調時は粗く広く設定がなされ、微調時は細かく狭く設定がなされる。   Steps S5 to S9 form a loop, and an evaluation value (corresponding to an image reconstruction position, which will be described later with reference to FIG. 6) is set in advance by shifting the evaluation position by an appropriate step from a predetermined initial value. Calculate until. The above-mentioned initial values can be set differently depending on the coarse / fine adjustment. In step S5, the coarse adjustment is set to be coarse and wide, and the fine adjustment is set to fine and narrow.

ステップS6では像シフト手段を動作させて結果を得る。像シフト手段の動作の詳細は図3(b)を用いて後述する。ステップS7では像生成手段を動作させて結果を得る。像生成手段の動作の詳細は図4(a)を用いて後述する。   In step S6, the image shift means is operated to obtain a result. Details of the operation of the image shift means will be described later with reference to FIG. In step S7, the image generating means is operated to obtain a result. Details of the operation of the image generating means will be described later with reference to FIG.

ステップS8ではコントラスト評価手段を動作させて結果を得る。コントラスト評価手段の動作の詳細は図4(b)を用いて後述する。   In step S8, the contrast evaluation means is operated to obtain a result. Details of the operation of the contrast evaluation means will be described later with reference to FIG.

ステップS10ではステップS8で得られた最後の結果(ステップS8はステップS5からステップS9のループ内なのでピント位置を変化させながら複数の評価値が得られる)を基に、ピント位置を決定する。すなわちコントラストが最も高くなる位置を決定し、ピント最良の位置とする。粗調では大まかなピント位置を決定して、次のループのS5で設定する初期値、終了値等を設定する。微調ではここで得られた結果が最終画像のピント位置となる。   In step S10, the focus position is determined based on the last result obtained in step S8 (since step S8 is in the loop from step S5 to step S9, a plurality of evaluation values can be obtained while changing the focus position). That is, the position where the contrast is highest is determined and set as the best focus position. In rough adjustment, an approximate focus position is determined, and initial values, end values, and the like set in S5 of the next loop are set. In fine adjustment, the result obtained here becomes the focus position of the final image.

ステップS12で一連の動作を終了する。結果として、撮像素子6の読み出しはステップS2で1回行われるのみで、コントラスト評価値を含むピント評価値を得ることが可能である。   A series of operation | movement is complete | finished by step S12. As a result, reading of the image sensor 6 is performed only once in step S2, and a focus evaluation value including a contrast evaluation value can be obtained.

図3(b)を用いて像シフト手段(像シフト処理)の動作の詳細を説明する。ステップS21は像シフト手段の動作開始を示している。   Details of the operation of the image shift means (image shift processing) will be described with reference to FIG. Step S21 indicates the start of the operation of the image shift means.

ステップS22からステップS26はループを形成している。ステップS22では瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置に応じた計算がなされる。図6を用いて後述するように、像の再構成を考えると同じ再構成面であっても入射角度が異なると(射出瞳が十分遠い場合には、通過する瞳領域が異なることとほぼ同義)像をシフトさせる量が異なる。これを適切に反映させるためのループである。   Steps S22 to S26 form a loop. In step S22, loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since it is divided into 25, calculation according to each pupil position of 25 is performed. As will be described later with reference to FIG. 6, considering the reconstruction of the image, if the incident angle is different even on the same reconstruction surface (if the exit pupil is sufficiently far away, it is almost synonymous with the different pupil areas passing through. ) The amount of image shift is different. This is a loop for appropriately reflecting this.

ステップS23ではステップS24からのデータをもとに、評価位置に対応する各瞳領域での像シフト量を計算する。ステップS24では、メモリ8に記憶されている各画素とMLAとの対応関係、すなわち各画素がどの瞳領域の光線を受光しているかが分かる情報を読み出す。   In step S23, the image shift amount in each pupil region corresponding to the evaluation position is calculated based on the data from step S24. In step S24, the correspondence between each pixel stored in the memory 8 and the MLA, that is, information indicating which pupil region of each pixel is receiving light is read.

ステップS25ではステップS23の情報をもとに同じ入射角の光線を得ている(同じ瞳領域からの光線を得ている)画素をシフトさせる。実際の動作としては、メモリ8に記憶されている撮像素子6からの出力データから像生成手段(像生成処理)により像生成のために加算対象の画素を選択する際に、選択するアドレスをシフトさせる。あるいはメモリ8上で評価位置に対応する並びに画素を並び替える。同じ入射角の光線を得ている画素は例えば図2の25aと25bが該当する。このような画素がMLAを構成するマイクロレンズの数だけ存在している。像シフト処理は、後に図6を用いて図解する。   In step S25, pixels that have obtained light rays with the same incident angle (obtain light rays from the same pupil region) are shifted based on the information in step S23. As an actual operation, when selecting an addition target pixel for image generation by image generation means (image generation processing) from output data from the image sensor 6 stored in the memory 8, the selection address is shifted. Let Alternatively, the pixels corresponding to the evaluation positions are rearranged on the memory 8. For example, pixels 25a and 25b in FIG. 2 correspond to pixels that obtain light rays having the same incident angle. There are as many such pixels as the number of microlenses constituting the MLA. The image shift process will be illustrated later using FIG.

ステップS27において、呼び出し元のステップS6に戻る。   In step S27, the process returns to the caller step S6.

図4(a)を用いて像生成手段の動作の詳細を説明する。ステップS31は像生成手段の動作開始を示している。   Details of the operation of the image generating means will be described with reference to FIG. Step S31 indicates the start of the operation of the image generating means.

ステップS32では、ステップS35での加算のための領域のデータを初期化(0で埋める)する。この時のデータ領域の大きさはMLAの数量分あれば良く、データの階調は元のデータの階調と瞳分割数の積を格納できるだけあれば都合がよい。例えば元のデータが8bitで25分割の場合、13bit(>8bit+log225)あればデータの桁あふれを考慮する必要が無い。 In step S32, the area data for addition in step S35 is initialized (filled with 0). The size of the data area at this time may be as much as the number of MLA, and it is convenient if the data gradation can store the product of the original data gradation and the number of pupil divisions. For example, if the original data is 8 bits and divided into 25, if 13 bits (> 8 bits + log 2 25), it is not necessary to consider overflow of data.

ステップS33からステップS37はループを形成している。ステップS33ではMLAを構成するマイクロレンズの数に応じてループ計算が実行される。例えば、図4に示した例では、元の撮像素子の画素数÷25(瞳分割数)がマイクロレンズの数となる。   Steps S33 to S37 form a loop. In step S33, loop calculation is executed according to the number of microlenses constituting the MLA. For example, in the example illustrated in FIG. 4, the number of microlens is the number of pixels of the original image sensor ÷ 25 (number of pupil divisions).

ステップS34からステップS37はループを形成している。ステップS34では、瞳分割数に応じた数だけループ計算が実行される。例えば、図2に示した例では、25に分割されていたので、25のそれぞれの瞳位置からの光束が存在する。   Steps S34 to S37 form a loop. In step S34, the loop calculation is executed by the number corresponding to the number of pupil divisions. For example, in the example shown in FIG. 2, since the light is divided into 25, there are light fluxes from 25 pupil positions.

ステップS35では加算を行う領域か否かの判断がなされる。図3(a)で説明した様にステップS4の像加算制御手段によって、加算すべき瞳が指示されている。加算すべき瞳に該当するときはステップS36に進み加算される。その他の場合はステップS37に進む。シフト量が画素の整数倍でない場合は、加算ステップS36において、適切に内分されながら加算される。重なっている面積に応じて適切に加算すればよい。像生成手段は、後に図6を用いて図解する。   In step S35, it is determined whether or not the region is to be added. As described in FIG. 3A, the pupil to be added is instructed by the image addition control means in step S4. When it corresponds to the pupil to be added, the process proceeds to step S36 and is added. In other cases, the process proceeds to step S37. If the shift amount is not an integer multiple of the pixel, the addition is performed while being appropriately divided in addition step S36. What is necessary is just to add appropriately according to the overlapping area. The image generating means will be illustrated later using FIG.

ステップS39において、呼び出し元のステップS7に戻る。   In step S39, the process returns to the caller step S7.

図4(b)を用いてコントラスト評価手段の動作の詳細を説明する。ステップS41はコントラスト評価手段の動作開始を示している。   The details of the operation of the contrast evaluation means will be described with reference to FIG. Step S41 indicates the start of the operation of the contrast evaluation means.

ステップS42では、コントラスト評価を行う評価点の数と、評価枠の大きさを設定する。評価点数は多くなると画面全体を覆うことが可能となるが評価に時間がかかるという問題がある。ユーザーの設定などにより適切に設定する。一方評価枠の大きさは、大きくすると局所的にはあまりパターンを有していないテクスチャであってもピントを合わせることが可能となるが、あまりにも大きくなると距離の異なる被写体の像を同時に評価するいわゆる遠近競合が発生してしまう。これらの問題を解決できるように評価枠の大きさを適切に設定する。   In step S42, the number of evaluation points for contrast evaluation and the size of the evaluation frame are set. When the number of evaluation points increases, it becomes possible to cover the entire screen, but there is a problem that it takes time to evaluate. Set appropriately according to user settings. On the other hand, if the size of the evaluation frame is increased, it is possible to focus even on textures that do not have a pattern locally, but if it is too large, images of subjects with different distances are evaluated simultaneously. A so-called perspective conflict will occur. The size of the evaluation frame is set appropriately so that these problems can be solved.

ステップS43では適切なフィルタリングを行う。適切なフィルタリングとしては、粗調時にはより低周波に着目したフィルタリングを行い、微調時には粗調時に比べて高周波に着目したフィルタリングを行うとよい。そのようにすることでローカルミニマムを避けつつピント精度を向上することが可能となる。   In step S43, appropriate filtering is performed. Appropriate filtering may be performed by focusing on a lower frequency during coarse adjustment, and by focusing on a higher frequency than during coarse adjustment during fine adjustment. By doing so, it is possible to improve the focus accuracy while avoiding the local minimum.

ステップS44からステップS52はループを形成している。ステップS44では、ステップS42で決定された評価数に対応した評価値を得るように繰り返し演算を行う。   Steps S44 to S52 form a loop. In step S44, the calculation is repeated so as to obtain an evaluation value corresponding to the evaluation number determined in step S42.

ステップS45からステップS47はループを形成している。ステップS45では、ステップS42で決定された評価枠の大きさに応じた画素数の範囲で一次コントラスト演算を行う。一次コントラスト演算はステップS46にあるようにΣ|Si −Si-1|で計算すればよい。ここで、Siはi番目の像生成手段から出力された輝度を示している。このようにすることで隣接画素間の輝度差を積分することができる。ただしこのステップの説明においては、説明を明瞭にするために画像が1次元的に配置されているような式を示した。2次元の画像においては、縦横両方向の輝度差を積分しても良いし、片方の輝度のみ積分しても良い。   Steps S45 to S47 form a loop. In step S45, the primary contrast calculation is performed in the range of the number of pixels corresponding to the size of the evaluation frame determined in step S42. The primary contrast calculation may be calculated by Σ | Si-Si-1 | as in step S46. Here, Si represents the luminance output from the i-th image generating means. In this way, the luminance difference between adjacent pixels can be integrated. However, in the description of this step, an expression in which images are arranged one-dimensionally is shown for the sake of clarity. In a two-dimensional image, the luminance difference in both the vertical and horizontal directions may be integrated, or only one luminance may be integrated.

ステップS48からステップS50はループを形成している。ステップS49では、ステップS42で決定された評価枠の大きさに応じた画素数の範囲で二次コントラスト演算を行う。二次コントラスト演算はステップS49にあるようにΣ(Si−Si-1)2で計算すればよい。このステップの説明においても、説明を明瞭にするために画像が1次元的に配置されているような式を示した。 Steps S48 to S50 form a loop. In step S49, the secondary contrast calculation is performed in the range of the number of pixels corresponding to the size of the evaluation frame determined in step S42. The secondary contrast calculation may be calculated by Σ (Si−Si−1) 2 as in step S49. In the description of this step, an expression in which images are arranged one-dimensionally is shown for the sake of clarity.

図5にピント位置を変更した時のSiの変化を模式的に示した。図5は、横軸が各像面において生成された画像の画素(すなわち像生成処理によって加算後の画素)をある一方向(縦、横、斜めなどいずれでもよい)に並べたものであり、縦軸が各画素の輝度値である。図5においては真ん中の図が最も良いピント状態にあり、上の図および下の図はピントがぼけていることを示している。また図5中に図示したようにピント位置を変化させると、輝度の変化値が大きくなる個所(=コントラストが高い個所、図5では真ん中の図)が現れその前後ではコントラストが低くなる。ただし、コントラストが小さくなった場合でも隣接画素の輝度差の積分(=一次コントラスト)はあまり大きく変化しない。図5ではSi-3からSi+3の一次コントラストはほぼSi-3とSi+3の差になりピント位置に対して大きくは変化しない。一方で二次コントラストはピント位置に応じて大きく変化する。   FIG. 5 schematically shows changes in Si when the focus position is changed. In FIG. 5, the horizontal axis is an arrangement of pixels of an image generated on each image plane (that is, pixels after addition by image generation processing) arranged in one direction (any of vertical, horizontal, diagonal, etc.) The vertical axis represents the luminance value of each pixel. In FIG. 5, the middle figure is in the best focus state, and the upper figure and the lower figure show that the image is out of focus. Further, when the focus position is changed as shown in FIG. 5, a location where the brightness change value becomes large (= a location where the contrast is high, the middle diagram in FIG. 5) appears, and the contrast decreases before and after that. However, even when the contrast is reduced, the integral (= primary contrast) of the luminance difference between adjacent pixels does not change much. In FIG. 5, the primary contrast of Si-3 to Si + 3 is almost the difference between Si-3 and Si + 3 and does not change greatly with respect to the focus position. On the other hand, the secondary contrast changes greatly depending on the focus position.

そこでステップS51では、二次コントラストを一次コントラストの二乗で割ることでコントラスト評価値とした。このようにすることで輝度に対して正規化されるとともに、ピント位置に応じた被写体のコントラスト評価値を得ることができる。   In step S51, the contrast evaluation value is obtained by dividing the secondary contrast by the square of the primary contrast. In this way, it is possible to obtain the contrast evaluation value of the subject according to the focus position while being normalized with respect to the luminance.

本実施形態では上記のような方法でコントラスト評価値を得たが、ピント変動にともなうコントラスト評価値で有れば他の計算方法も活用できる。例えば異なる通過帯域を持つ帯域通過フィルタを用意しておき、その出力の比を用いる方法などが考えられる。   In this embodiment, the contrast evaluation value is obtained by the method as described above. However, other calculation methods can be used as long as the contrast evaluation value according to the focus variation is obtained. For example, a method of preparing band pass filters having different pass bands and using the output ratio can be considered.

ステップS53において、呼び出し元のステップS8に戻る。   In step S53, the process returns to the caller step S8.

次に図6を用いて像シフトおよび像生成を模式的に示し、像の再構成によるコントラスト計算の有用性について述べる。図6は上から(a)、(b)、(c)と並んでおり、図6(b)は実際に撮像素子6が存在して画像を取得した面を、図6(a)は図6(b)よりも物体側の再構成面(再構成面1とする)を、図6(c)は図6(b)よりも物体側から遠い側の再構成面(再構成面2とする)をそれぞれ示している。   Next, image shift and image generation are schematically shown in FIG. 6, and the usefulness of contrast calculation by image reconstruction will be described. FIG. 6 is lined up from the top (a), (b), and (c). FIG. 6 (b) shows the surface where the image sensor 6 actually exists and the image is acquired, and FIG. 6 (b) shows a reconstruction surface on the object side (referred to as reconstruction surface 1), and FIG. 6 (c) shows a reconstruction surface on the side farther from the object side than FIG. 6 (b) (reconstruction surface 2 and Each).

図6(b)において、X1,i、X2,i、X3,i、X4,i、X5,i、はそれぞれ瞳領域1、2、3、4、5を通過してマイクロレンズXiに入射して得られたデータを示している。すなわち、添え字のうち前半は通過する瞳領域を、後半は画素の番号を示している。また、図6においても説明を明瞭にするためにデータを1次元的な広がりしかもたないものとして記述している。物理的な位置との関係においては、X1,iは図2(c)の21領域から得られるデータを、X2,iは図2(c)の22領域から得られるデータを、以下添え字の3、4、5は領域23、24、25に対応していることを示している。   In FIG. 6B, X1, i, X2, i, X3, i, X4, i, and X5, i pass through pupil regions 1, 2, 3, 4, and 5, respectively, and enter the microlens Xi. The obtained data is shown. That is, of the subscripts, the first half indicates the passing pupil region, and the second half indicates the pixel number. Also, in FIG. 6, data is described as having only a one-dimensional spread for the sake of clarity. In relation to the physical position, X1, i is the data obtained from the 21 region in FIG. 2 (c), X2, i is the data obtained from the 22 region in FIG. 3, 4, and 5 indicate that they correspond to the regions 23, 24, and 25, respectively.

取得面での画像を生成するためには、図6(b)にあるように、マイクロレンズXiに入射したデータを加算すればよい。具体的には、Si=X1,i+X2,i+X3,i+X4,i+X5,iでXiに入射した光の角度方向の積分値を得ることができる。これにより通常のカメラと同様の像が生成される。   In order to generate an image on the acquisition surface, data incident on the microlens Xi may be added as shown in FIG. Specifically, the integrated value in the angular direction of the light incident on Xi can be obtained with Si = X1, i + X2, i + X3, i + X4, i + X5, i. As a result, an image similar to that of a normal camera is generated.

粗調時には加算する瞳を制限すれば良い。図6は中央寄りの3つの領域に限定した例を示した。具体的には、Si=X2,i+X3,i+X4,iでXiに入射した光束とする。このようにすることで、物理的に絞り径を小さくしたのと同様に被写界深度の深い像を得ることが出来る。微調時はすべてを加算する方法(Si=X1,i+X2,i+X3,i+X4,i+X5,i)、輪体瞳とする方法(Si=X1,i+X5,i)、記録と同じ領域とする方法等が考えられる。図6は微調時にすべてを加算する例を示した。   What is necessary is just to restrict | limit the pupil to add at the time of rough adjustment. FIG. 6 shows an example limited to three regions closer to the center. Specifically, it is assumed that Si = X2, i + X3, i + X4, i and a light beam incident on Xi. By doing so, an image having a deep depth of field can be obtained in the same manner as when the aperture diameter is physically reduced. For fine adjustment, a method of adding all of them (Si = X1, i + X2, i + X3, i + X4, i + X5, i), a method of using a ring-shaped pupil (Si = X1, i + X5, i), a method of setting the same area as the recording, etc. It is done. FIG. 6 shows an example of adding all during fine adjustment.

次に再構成面1での像の生成方法を考える。図2で説明したように、本実施形態の撮影光学系は、各画素に入射する光束を特定の瞳領域に限定しているために、入射角度が既知である。この角度に沿って再構成面での各画素の位置を再構成する。具体的にはX1,iのように瞳領域の添え字が1のものは図6右側において41に示すような角度で入射しているとする。以下瞳領域の添え字2,3,4,5はそれぞれ42,43,44,45に対応しているとする。この時再構成面1でのマイクロレンズXiに入射した光束は、取得面においては、Xi-2からXi+2に分散して入射していることになる。より具体的には、X1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散している。Xiに限らず再構成面1での像を復元するためには、入射角度に応じて像をシフトさせて加算すれば良いことが分かる。再構成面1での像を生成するためには、瞳領域の添え字が1のものは右に2画素シフト、瞳領域の添え字が2のものは右に1画素シフト、瞳領域の添え字が3のものはシフトなし、瞳領域の添え字が4のものは左に1画素シフト、瞳領域の添え字が5のものは左に2画素シフトすることで入射角度に応じたシフトを与えることができる。その後図6(a)の縦方向に加算することで再構成面1でのデータを得ることができる。具体的には、Si=X1,i-2+X2,i-1+X3,i+X4,i+1+X5,i+2で再構成面1において、Xiに入射した光の角度方向の積分値を得ることができる。これにより再構成面での画像が得られた。   Next, a method for generating an image on the reconstruction plane 1 will be considered. As described with reference to FIG. 2, the imaging optical system of the present embodiment limits the luminous flux incident on each pixel to a specific pupil region, and thus the incident angle is known. The position of each pixel on the reconstruction plane is reconstructed along this angle. Specifically, it is assumed that a pupil region with a subscript of 1 such as X1, i is incident at an angle as shown at 41 on the right side of FIG. Hereinafter, it is assumed that the subscripts 2, 3, 4, and 5 of the pupil region correspond to 42, 43, 44, and 45, respectively. At this time, the light beam incident on the microlens Xi on the reconstruction surface 1 is scattered and incident on the acquisition surface from Xi-2 to Xi + 2. More specifically, it is distributed in X1, i-2, X2, i-1, X3, i, X4, i + 1, X5, i + 2. In order to restore the image on the reconstruction plane 1 as well as Xi, it is understood that the image may be shifted and added according to the incident angle. In order to generate an image on the reconstruction plane 1, a pupil region with a subscript of 1 shifts 2 pixels to the right, a pupil region with a subscript of 2 shifts to the right with a 1 pixel shift, and a pupil region has a subscript. Shifting according to the incident angle by shifting 3 characters without shift, shifting pupil pixels with 4 subscripts by 1 pixel to the left, and shifting pupil regions with 5 subscripts by 2 pixels to the left Can be given. Thereafter, the data in the reconstruction plane 1 can be obtained by adding in the vertical direction of FIG. Specifically, the integrated value in the angular direction of the light incident on Xi can be obtained on the reconstruction plane 1 with Si = X1, i-2 + X2, i-1 + X3, i + X4, i + 1 + X5, i + 2. As a result, an image on the reconstruction surface was obtained.

粗調時には図6(b)と同様に加算する瞳を制限すれば良い。具体的には、Si=X2,i-1+X3,i+X4,i+1で再構成面1においてXiに入射した光束とする。微調時はすべてを加算する方法(Si=X1,i-2+X2,i-1+X3,i+X4,i+1+X5,i+2)、中心を除外した輪体瞳とする方法(Si=X1,i-2+X5,i+2)、記録(記録画像生成時)と同じ領域とする方法等が考えられる。   In coarse adjustment, the pupils to be added may be limited in the same manner as in FIG. Specifically, it is assumed that Si = X2, i-1 + X3, i + X4, i + 1 and the light beam incident on Xi on the reconstruction surface 1. A method of adding all during fine adjustment (Si = X1, i-2 + X2, i-1 + X3, i + X4, i + 1 + X5, i + 2), a method of using a ring-shaped pupil excluding the center (Si = X1, i-2 + X5) , i + 2), a method of making the same area as recording (at the time of generating a recorded image), and the like.

ここで、再構成面1において、Xiに輝点があったとすると、取得面においてはX1,i-2、X2,i-1、X3,i、X4,i+1、X5,i+2に分散していわゆるボケ状態にある。しかしながら、上述した再構成面1での像を生成すると、再びXiに輝点が生成されコントラストの高い像が得られる。すなわち像を再構成してコントラストを計算することで、いわゆるコントラストAFを行うことが可能となる。   Here, if Xi has a bright spot on the reconstruction plane 1, X1, i-2, X2, i-1, X3, i, X4, i + 1, X5, i + 2 on the acquisition plane. It is dispersed and in a so-called blurred state. However, when the image on the reconstruction plane 1 described above is generated, a bright spot is generated again in Xi, and an image with high contrast is obtained. That is, so-called contrast AF can be performed by reconstructing the image and calculating the contrast.

また、図6(c)から分かるように、再構成面2においても再構成面1と全く同様に像を生成することができる。再構成面を配置する方向が異なると(物体に対して反対側という意味)シフトさせる方向を反転させれば良いだけである。   Further, as can be seen from FIG. 6C, an image can be generated on the reconstruction plane 2 in the same manner as the reconstruction plane 1. If the direction in which the reconstruction plane is arranged is different (meaning opposite to the object), it is only necessary to reverse the direction of shifting.

以上のように、取得面にしても、再構成面1、2にしても、所定の像面の画像信号を得るためには、撮像素子上の各画素を所定の像面に応じて組み合わせを異ならせて加算し、画像信号を生成すればよい。   As described above, in order to obtain an image signal of a predetermined image plane regardless of whether it is the acquisition plane or the reconstruction planes 1 and 2, each pixel on the image sensor is combined according to the predetermined image plane. What is necessary is just to produce | generate an image signal by making it differ.

図7を用いて、本実施形態に適用可能な別の光学系の例について説明する。図7は物体(被写体)からの光線が撮像素子6上に結像する状態を模式的に示した図である。図7(a)は図2で説明した光学系と対応しており、撮影光学系3の結像面近傍にMLA20を配置した例である。図7(b)は撮影光学系3の結像面よりも物体寄りにMLA20を配置した例である。図7(c)は撮影光学系3の結像面よりも物体から遠い側にMLA20を配置した例である。   An example of another optical system applicable to the present embodiment will be described with reference to FIG. FIG. 7 is a diagram schematically showing a state in which light rays from an object (subject) form an image on the image sensor 6. FIG. 7A corresponds to the optical system described in FIG. 2 and is an example in which the MLA 20 is disposed in the vicinity of the imaging surface of the photographing optical system 3. FIG. 7B shows an example in which the MLA 20 is arranged closer to the object than the imaging plane of the photographing optical system 3. FIG. 7C shows an example in which the MLA 20 is arranged on the side farther from the object than the imaging plane of the photographing optical system 3.

図7において、6は撮像素子を、20はMLAを、31から35は図2で用いた瞳領域を、51は物体平面を、51a,51bは物体上の適当な点を、52は撮影光学系の瞳平面を、61、62、71,72,73,81,82,83,84はMLA上の特定のマイクロレンズをそれぞれ示している。図7(b)および図7(c)に示した6aは仮想的な撮像素子を、20aは仮想的なMLAを示している。これらは、図7(a)との対応関係を明確にするために参考に示した。また、物体上の点51aから出て瞳平面上の領域31および33を通過する光束を実線で、物体上の点51bから出て瞳平面上の領域31および33を通過する光束を破線で図示した。   In FIG. 7, 6 is an image sensor, 20 is an MLA, 31 to 35 are pupil regions used in FIG. 2, 51 is an object plane, 51a and 51b are appropriate points on the object, and 52 is imaging optics. In the pupil plane of the system, 61, 62, 71, 72, 73, 81, 82, 83, and 84 indicate specific microlenses on the MLA, respectively. In FIG. 7B and FIG. 7C, 6a represents a virtual image sensor, and 20a represents a virtual MLA. These are shown for reference in order to clarify the correspondence with FIG. Also, a light beam that passes from the point 51a on the object and passes through the regions 31 and 33 on the pupil plane is indicated by a solid line, and a light beam that passes from the point 51b on the object and passes through the regions 31 and 33 on the pupil plane is indicated by a broken line. did.

図7(a)の例では、図2でも説明したように、撮影光学系3の結像面近傍にMLA20を配置することで、撮像素子6と撮影光学系の瞳平面52が共役の関係にある。さらに、物体平面51とMLA20が共役の関係にある。このため物体上の点51aから出た光束はマイクロレンズ61に、51bを出た光束はマイクロレンズ62に到達し、領域31から35それぞれを通過した光束はマイクロレンズ下に設けられたそれぞれ対応する画素に到達する。   In the example of FIG. 7A, as described with reference to FIG. 2, the MLA 20 is disposed in the vicinity of the imaging plane of the photographing optical system 3, so that the imaging device 6 and the pupil plane 52 of the photographing optical system have a conjugate relationship. is there. Furthermore, the object plane 51 and the MLA 20 are in a conjugate relationship. Therefore, the light beam emitted from the point 51a on the object reaches the microlens 61, the light beam emitted from the point 51b reaches the microlens 62, and the light beams that have passed through the regions 31 to 35 respectively correspond to those provided below the microlens. Reach the pixel.

図7(b)の例では、マイクロレンズ20で撮影光学系3からの光束を結像させ、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6は共役の関係にある。物体上の点51aから出て瞳平面上の領域31を通過した光束はマイクロレンズ71に到達し、物体上の点51aから出て瞳平面上の領域33を通過した光束はマイクロレンズ72に到達する。物体上の点51bから出て瞳平面上の領域31を通過した光束はマイクロレンズ72に到達し、物体上の点51bから出て瞳平面上の領域33を通過した光束はマイクロレンズ73に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。このように物体上の点と、瞳平面上の通過領域によって、異なる位置にそれぞれ結像する。これらを、仮想的な撮像面6a上の位置に並べなおせば、図7(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 7B, the light beam from the photographing optical system 3 is imaged by the microlens 20, and the imaging element 6 is provided on the imaging surface. By arranging in this way, the object plane 51 and the image sensor 6 are in a conjugate relationship. The light beam that has exited from the point 51a on the object and passed through the region 31 on the pupil plane reaches the microlens 71, and the light beam that has exited from the point 51a on the object and passed through the region 33 on the pupil plane reaches the microlens 72. To do. The light beam that has exited from the point 51b on the object and passed through the region 31 on the pupil plane reaches the microlens 72, and the light beam that has exited from the point 51b on the object and passed through the region 33 on the pupil plane reaches the microlens 73. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. In this way, images are formed at different positions depending on the point on the object and the passing area on the pupil plane. If these are rearranged at positions on the virtual imaging surface 6a, the same information as in FIG. 7A can be obtained. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図7(c)の例では、マイクロレンズ20で撮影光学系3からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子6を設ける。このように配置することで、物体平面51と撮像素子6は共役の関係にある。物体上の点51aから出て瞳平面上の領域31を通過した光束はマイクロレンズ82に到達し、物体上の点51aから出て瞳平面上の領域33を通過した光束はマイクロレンズ81に到達する。物体上の点51bから出て瞳平面上の領域31を通過した光束はマイクロレンズ84に到達し、物体上の点51bから出て瞳平面上の領域33を通過した光束はマイクロレンズ83に到達する。各マイクロレンズを通過した光束は、マイクロレンズ下に設けられたそれぞれ対応する画素に到達する。図7(b)と同様に、仮想的な撮像面6a上の位置に並べなおせば、図7(a)と同様の情報を得ることができる。すなわち、通過した瞳領域(入射角度)と撮像素子上の位置の情報を得ることができる。   In the example of FIG. 7C, the microlens 20 re-images the light beam from the photographic optical system 3 (this is called re-imaging because the light beam once imaged is diffused). ), An image pickup device 6 is provided on the image plane. By arranging in this way, the object plane 51 and the image sensor 6 are in a conjugate relationship. The light beam that has exited from the point 51a on the object and passed through the region 31 on the pupil plane reaches the micro lens 82, and the light beam that has exited from the point 51a on the object and passed through the region 33 on the pupil plane reaches the micro lens 81. To do. The light beam that has exited from the point 51b on the object and passed through the region 31 on the pupil plane reaches the microlens 84, and the light beam that has exited from the point 51b on the object and passed through the region 33 on the pupil plane reaches the microlens 83. To do. The light beam that has passed through each microlens reaches a corresponding pixel provided under the microlens. Similar to FIG. 7B, information similar to that in FIG. 7A can be obtained by rearranging the positions on the virtual imaging surface 6a. That is, information on the pupil region (incident angle) that has passed through and the position on the imaging device can be obtained.

図7ではMLA(位相変調素子)を瞳分割手段として用いて、位置情報と角度情報を取得可能な例を示したが、位置情報と角度情報(瞳の通過領域を制限することと等価)を取得可能なものであれば他の光学構成も利用可能である。例えば、適切なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。   FIG. 7 shows an example in which the position information and the angle information can be acquired by using the MLA (phase modulation element) as the pupil dividing means. However, the position information and the angle information (equivalent to restricting the passing area of the pupil) are shown. Other optical configurations can be used as long as they can be obtained. For example, a method of inserting a mask (gain modulation element) with an appropriate pattern into the optical path of the photographing optical system can be used.

以上に説明したように、本実施形態によると、撮像素子において異なる瞳領域を通過した光束の情報をもとに、位相差AFとコントラストAFを同時に実現することで高速かつピント精度の高いAFを行うことを可能にした撮像装置を提供することが出来る。   As described above, according to the present embodiment, high-speed AF with high focus accuracy can be achieved by simultaneously realizing phase difference AF and contrast AF based on information on light beams that have passed through different pupil regions in the image sensor. An imaging device that can be performed can be provided.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (5)

撮像素子と、
前記撮像素子上の画素へ入射する光束を撮影レンズの特定の瞳領域に制限する瞳分割手段と、
前記撮像素子から得られた電気信号に対して、所定の像面の画像信号が得られるように前記撮像素子上の各画素を前記所定の像面に応じて組み合わせを異ならせて加算し、前記所定の像面の画像信号を生成する像生成手段と、
前記像生成手段において加算を行う画素に対応する瞳領域を制御する像加算制御手段と、
前記像生成手段から得られた画像信号のコントラストを計算するコントラスト評価手段と、
前記所定の像面を変化させたときの前記コントラスト評価手段の出力からピント評価値を得るピント評価手段と、を備え
前記像加算制御手段は、少なくとも前記撮影レンズの光軸中心に最も近い瞳領域を含んだ瞳領域に対応する画素を加算することを特徴とする撮像装置。
An image sensor;
Pupil dividing means for restricting a light beam incident on a pixel on the image sensor to a specific pupil region of the photographing lens;
The electrical signals obtained from the image sensor are added with different combinations of the pixels on the image sensor according to the predetermined image plane so that an image signal of a predetermined image plane is obtained, Image generating means for generating an image signal of a predetermined image plane;
Image addition control means for controlling a pupil region corresponding to a pixel to be added in the image generation means;
Contrast evaluation means for calculating the contrast of the image signal obtained from the image generation means;
A focus evaluation unit that obtains a focus evaluation value from an output of the contrast evaluation unit when the predetermined image plane is changed , and
The image addition control means, the image pickup apparatus characterized that you add the pixels corresponding to the pupil region including the closest pupil region to the optical axis center of at least the imaging lens.
前記像加算制御手段による瞳領域の指示する範囲を変更しながら前記ピント評価手段により複数回のピント評価を行ってピント合わせを行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the focus evaluation unit performs a plurality of focus evaluations while performing a focus adjustment while changing a range designated by a pupil region by the image addition control unit. 前記像加算制御手段が最後のピント評価において、すべての瞳領域を指示することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image addition control unit instructs all pupil regions in the final focus evaluation. 前記像加算制御手段が最後のピント評価において、記録画像生成と同じ瞳領域を指示することを特徴とする請求項1に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the image addition control unit indicates the same pupil region as that of the recorded image generation in the final focus evaluation. 撮像素子と、前記撮像素子上の画素へ入射する光束を撮影レンズの特定の瞳領域に制限する瞳分割手段と、を有する撮像装置の制御方法であって、
前記撮像素子から得られた電気信号に対して、所定の像面の画像信号が得られるように前記撮像素子上の各画素を前記所定の像面に応じて組み合わせを異ならせて加算し、前記所定の像面の画像信号を生成する像生成ステップと、
前記像生成ステップにおいて加算を行う画素に対応する瞳領域を制御する像加算制御ステップと、
前記像生成ステップで得られた画像信号のコントラストを計算するコントラスト評価ステップと、
前記所定の像面を変化させたときの前記コントラスト評価ステップの出力からピント評価値を得るピント評価ステップと、を備え
前記像加算制御ステップでは、少なくとも前記撮影レンズの光軸中心に最も近い瞳領域を含んだ瞳領域に対応する画素を加算することを特徴とする撮像装置の制御方法。
An imaging device control method comprising: an imaging device; and pupil dividing means for limiting a light beam incident on a pixel on the imaging device to a specific pupil region of a photographing lens,
The electrical signals obtained from the image sensor are added with different combinations of the pixels on the image sensor according to the predetermined image plane so that an image signal of a predetermined image plane is obtained, An image generating step for generating an image signal of a predetermined image plane;
An image addition control step for controlling a pupil region corresponding to a pixel to be added in the image generation step;
A contrast evaluation step of calculating a contrast of the image signal obtained in the image generation step;
A focus evaluation step for obtaining a focus evaluation value from an output of the contrast evaluation step when the predetermined image plane is changed , and
The method of the imaging device in the image addition control step, characterized that you add the pixels corresponding to the pupil region including the closest pupil region to the optical axis center of at least the imaging lens.
JP2012121387A 2012-05-28 2012-05-28 Imaging apparatus and control method thereof Expired - Fee Related JP5968081B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012121387A JP5968081B2 (en) 2012-05-28 2012-05-28 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012121387A JP5968081B2 (en) 2012-05-28 2012-05-28 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013246375A JP2013246375A (en) 2013-12-09
JP2013246375A5 JP2013246375A5 (en) 2015-06-25
JP5968081B2 true JP5968081B2 (en) 2016-08-10

Family

ID=49846169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012121387A Expired - Fee Related JP5968081B2 (en) 2012-05-28 2012-05-28 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5968081B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129846A (en) * 2014-01-07 2015-07-16 キヤノン株式会社 Image capturing device and control method therefor

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55144211A (en) * 1979-04-27 1980-11-11 Fuji Photo Optical Co Ltd Focus detector of camera
JPH07199052A (en) * 1993-12-28 1995-08-04 Olympus Optical Co Ltd Focus detecting method and distance measuring method
JP5157128B2 (en) * 2006-11-02 2013-03-06 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5130178B2 (en) * 2008-03-17 2013-01-30 株式会社リコー Focal length detection apparatus, imaging apparatus, imaging method, and camera
JP5526733B2 (en) * 2009-11-25 2014-06-18 株式会社ニコン Image composition device, image reproduction device, and imaging device

Also Published As

Publication number Publication date
JP2013246375A (en) 2013-12-09

Similar Documents

Publication Publication Date Title
US9279955B2 (en) Image pickup apparatus, control method thereof, and program
JP5914192B2 (en) Imaging apparatus and control method thereof
JP5970816B2 (en) Image processing apparatus, imaging device, and imaging apparatus
US10009533B2 (en) Image pickup apparatus and control method thereof with contrast focus evaluation
JP6220148B2 (en) Imaging apparatus and control method thereof
JP5943596B2 (en) Imaging device
JP2017107204A (en) Information processing apparatus and information processing method
JP2009258610A (en) Focal length detecting device, imaging apparatus, imaging method, camera, focusing device, and focusing method
JP6198395B2 (en) Imaging apparatus and control method thereof
JP5968081B2 (en) Imaging apparatus and control method thereof
JP6196772B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD AND PROGRAM, AND IMAGING DEVICE
JP5893412B2 (en) Imaging apparatus and control method thereof
JP6046922B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP6188290B2 (en) Ranging device, imaging device, focus evaluation method, program, and storage medium
JP2017161941A (en) Reproducer, imaging apparatus, and control method of reproducer
JP6039958B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2017207695A (en) Optical device
JP5142807B2 (en) Imaging apparatus and control method thereof
JP2016220016A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2016057402A (en) Imaging device and method for controlling the same
JP6336316B2 (en) Imaging apparatus, control method, and program
JP2013254114A5 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2015154112A (en) Image processing device, method for controlling the same, and program
JP2014149460A (en) Imaging apparatus and method for controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160705

R151 Written notification of patent or utility model registration

Ref document number: 5968081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees