JP6254843B2 - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP6254843B2
JP6254843B2 JP2013263020A JP2013263020A JP6254843B2 JP 6254843 B2 JP6254843 B2 JP 6254843B2 JP 2013263020 A JP2013263020 A JP 2013263020A JP 2013263020 A JP2013263020 A JP 2013263020A JP 6254843 B2 JP6254843 B2 JP 6254843B2
Authority
JP
Japan
Prior art keywords
blur amount
image
amount
parallax
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013263020A
Other languages
Japanese (ja)
Other versions
JP2015119416A (en
Inventor
福田 浩一
浩一 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013263020A priority Critical patent/JP6254843B2/en
Publication of JP2015119416A publication Critical patent/JP2015119416A/en
Application granted granted Critical
Publication of JP6254843B2 publication Critical patent/JP6254843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置およびその制御方法に関する。   The present invention relates to an image processing apparatus and a control method thereof.

撮影レンズ(結像光学系)の射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視差画像を同時に撮影することができる撮像装置が提案されている。   There has been proposed an imaging apparatus that can divide an exit pupil of a photographing lens (imaging optical system) into a plurality of regions and simultaneously photograph a plurality of parallax images corresponding to the divided pupil regions.

特許文献1では、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部(副画素)が形成されている2次元撮像素子を用いた撮像装置が開示されている。個々の光電変換部は、撮影レンズの射出瞳のうち、互いに異なる部分領域の出射光を受光するように構成され、瞳分割を行っている。同じ部分領域を受光する光電変換部の信号を複数の画素から取得することにより、部分領域に応じた複数の視差画像を生成することができる。   Patent Document 1 discloses an imaging apparatus using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units (subpixels) are formed for one pixel. Each photoelectric conversion unit is configured to receive outgoing light from different partial areas of the exit pupil of the photographing lens, and performs pupil division. A plurality of parallax images corresponding to the partial areas can be generated by acquiring signals from the photoelectric conversion units that receive the same partial area from the plurality of pixels.

得られる複数の視差画像は、光強度の空間分布および角度分布情報であるライトフィールド(LF)データと等価である。非特許文献1では、取得されたLFデータを用いて撮像面とは異なる仮想結像面における画像を合成することで、撮影後に撮像画像の合焦位置を変更するリフォーカス技術が開示されている。   The plurality of obtained parallax images are equivalent to light field (LF) data which is spatial distribution and angle distribution information of light intensity. Non-Patent Document 1 discloses a refocus technique for changing the in-focus position of a captured image after shooting by synthesizing images on a virtual imaging plane different from the imaging plane using the acquired LF data. .

米国特許第4410804号明細書US Pat. No. 4,410,804

Ren.Ng、他、”Light Field Photography with a Hand-Held Plenoptic Camera”,Stanford Tech Report CTSR 2005-02、2005.4.20Ren.Ng, et al., “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02, 2005.4.20

レンズ交換式カメラなどで、撮影レンズの射出瞳距離と撮像素子の設定瞳距離が異なる場合に、周辺像高(像高が大きな領域)において各視差画像間で実効絞り値が異なり、視差画像間のボケ量が異なるという課題がある。   When the exit pupil distance of the photographic lens and the set pupil distance of the image sensor are different in an interchangeable lens camera, the effective aperture value differs between the parallax images at the peripheral image height (region where the image height is large), and between the parallax images There is a problem that the amount of blur is different.

本発明は、上記の課題に鑑みてなされたものであり、結像光学系の射出瞳のうち、異なる部分領域の出射光を受光する複数の副画素の出力信号を用いて得られる複数の視差画像間のボケ量の差異を低減することを目的とする。   The present invention has been made in view of the above problems, and a plurality of parallaxes obtained by using output signals of a plurality of sub-pixels that receive light emitted from different partial regions of the exit pupil of the imaging optical system. The object is to reduce the difference in blur amount between images.

上述の目的は、複数の画素が配列された撮像素子であって、画素の各々には、それぞれが結像光学系の異なる瞳部分領域を通過する光束を受光する複数の副画素が設けられた撮像素子から得られる入力画像を取得する取得手段と、同じ瞳部分領域を通過する光束を受光する副画素の信号に基づいて視差画像を生成することにより、入力画像から複数の視差画像を生成する生成手段と、複数の視差画像から、デフォーカス量の分布を求めるデフォーカス量算出手段と、デフォーカス量の分布、複数の副画素の各々に対する結像光学系の射出瞳の実効絞り値、および像高から、複数の視差画像の各々についてボケ量の分布を求めるボケ量算出手段と、複数の視差画像の各々について、他の視差画像とのボケ量の差を抑制する補正処理を適用する補正手段と、を有することを特徴とする画像処理装置によって達成される。   The above-described object is an imaging device in which a plurality of pixels are arranged, and each of the pixels is provided with a plurality of sub-pixels that receive light beams that pass through different pupil partial regions of the imaging optical system. A plurality of parallax images are generated from an input image by generating parallax images based on an acquisition unit that acquires an input image obtained from an image sensor and a signal of a subpixel that receives a light beam passing through the same pupil partial region. A generating means, a defocus amount calculating means for obtaining a defocus amount distribution from a plurality of parallax images, a defocus amount distribution, an effective aperture value of an exit pupil of an imaging optical system for each of a plurality of sub-pixels, and A blur amount calculation unit that obtains a blur amount distribution for each of a plurality of parallax images from an image height, and a correction process that applies a correction process that suppresses a difference in the amount of blur between each of the plurality of parallax images and another parallax image. It is achieved by an image processing apparatus characterized by comprising a means.

本発明により、結像光学系の射出瞳のうち、異なる部分領域の出射光を受光する複数の副画素の出力信号を用いて得られる複数の視差画像間のボケ量の差異を低減することができる。   According to the present invention, it is possible to reduce a difference in blur amount between a plurality of parallax images obtained by using output signals of a plurality of sub-pixels that receive light emitted from different partial areas in an exit pupil of an imaging optical system. it can.

本発明の実施形態に係る画像処理装置の一例としてのデジタルスチルカメラの機能構成例を示す図1 is a diagram illustrating a functional configuration example of a digital still camera as an example of an image processing apparatus according to an embodiment of the present invention. 本発明の実施形態における撮像素子の画素配列の概略を示す図The figure which shows the outline of the pixel arrangement | sequence of the image pick-up element in embodiment of this invention. 本発明の実施形態における撮像素子が有する画素の構成例を示す図The figure which shows the structural example of the pixel which the image pick-up element in embodiment of this invention has. 本発明の実施形態における画素と瞳分割の概略を説明するための図The figure for demonstrating the outline of the pixel and pupil division in embodiment of this invention 本発明の実施形態における撮像素子と瞳分割の概略ならびに視差画像間の像ずれ量とデフォーカス量の概略を説明するための図The figure for demonstrating the outline of the image pick-up element in the embodiment of this invention, pupil division, and the outline of the image shift amount and defocus amount between parallax images 瞳ずれの概略を説明するための図Diagram for explaining the outline of pupil shift 実効絞り値の差による複数の視差画像間のボケ量の差異の例を示す図The figure which shows the example of the difference in the amount of blurs between several parallax images by the difference in an effective aperture value 本発明の実施形態におけるボケ補正処理を説明するためのフローチャートFlowchart for explaining blur correction processing in an embodiment of the present invention

●(第1の実施形態)
以下、本発明の例示的な実施形態を、図面に基づいて詳細に説明する。
[全体構成]
図1は、本発明の実施形態に係る画像処理装置の一例としてのデジタルスチルカメラ100(以下、単にカメラ100という)の機能構成例を示す図である。なお、本発明は撮像装置はもちろん、カメラを備えた任意の電子機器(コンピュータ、タブレット端末、ゲーム機、携帯電話機、ロボットなど)にも適用可能である。また、撮像機能は必須ではないため、カメラを備えない任意の電子機器(汎用コンピュータや組み込み機器など)にも適用可能である。
● (first embodiment)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
[overall structure]
FIG. 1 is a diagram illustrating a functional configuration example of a digital still camera 100 (hereinafter simply referred to as a camera 100) as an example of an image processing apparatus according to an embodiment of the present invention. Note that the present invention can be applied not only to an imaging apparatus but also to any electronic device (computer, tablet terminal, game machine, mobile phone, robot, etc.) provided with a camera. In addition, since an imaging function is not essential, the present invention can be applied to any electronic device (such as a general-purpose computer or an embedded device) that does not include a camera.

第1レンズ群101は撮影光学系(結像光学系)の先端に配置され、光軸に沿って前後に移動可能に保持される。シャッタ102は、静止画撮像時の露光時間を制御するためのシャッタとしてだけでなく、開口径を調節することで撮像時の光量調節を行なう絞りとしても機能する。シャッタ102の背面(撮像素子側)に配置された第2レンズ群103は、シャッタ102と一体となって光軸に沿って前後に可能であり、第1レンズ群101とともにズーム機能を実現する。   The first lens group 101 is disposed at the tip of the photographing optical system (imaging optical system) and is held so as to be movable back and forth along the optical axis. The shutter 102 functions not only as a shutter for controlling the exposure time at the time of still image shooting, but also as an aperture for adjusting the amount of light at the time of shooting by adjusting the aperture diameter. The second lens group 103 disposed on the back surface (on the imaging element side) of the shutter 102 can be moved back and forth along the optical axis integrally with the shutter 102, and realizes a zoom function together with the first lens group 101.

第3レンズ群105はフォーカスレンズであり、光軸に沿って前後に移動可能である。光学ローパスフィルタ106は、撮像素子107の前方に配置され、撮像画像に発生する偽色やモアレを軽減する。撮像素子107は2次元CMOSイメージセンサとその周辺回路で構成され、結像光学系の結像面に配置される。   The third lens group 105 is a focus lens and can move back and forth along the optical axis. The optical low-pass filter 106 is disposed in front of the image sensor 107 and reduces false colors and moire generated in the captured image. The image sensor 107 is composed of a two-dimensional CMOS image sensor and its peripheral circuit, and is disposed on the image forming surface of the image forming optical system.

ズームアクチュエータ111は、ズーム駆動回路129の制御に従い、不図示のカム筒を回動して第1レンズ群101と第3レンズ群105の少なくとも一方を光軸に沿って駆動して、ズーム(変倍)機能を実現する。シャッタアクチュエータ112は、シャッタ駆動回路128の制御に従い、シャッタ102開口径を制御して撮像光量を調節すると共に、静止画撮像時の露光時間を制御する。
フォーカスアクチュエータ114は、フォーカス駆動回路126の制御に従い、第3レンズ群105を光軸に沿って駆動する。
Under the control of the zoom drive circuit 129, the zoom actuator 111 rotates a cam cylinder (not shown) to drive at least one of the first lens group 101 and the third lens group 105 along the optical axis to zoom (change). Double) to realize the function. The shutter actuator 112 controls the exposure light amount at the time of capturing a still image while controlling the aperture diameter of the shutter 102 to adjust the amount of imaged light according to the control of the shutter drive circuit 128.
The focus actuator 114 drives the third lens group 105 along the optical axis according to the control of the focus drive circuit 126.

フラッシュ115は、好ましくはキセノン管を用いた閃光照明装置であるが、連続発光するLEDを備えた照明装置であってもよい。AF補助光出力部116は、所定の開口パターンを有するマスクの像を投稿レンズを介して被写界に投影し、低輝度の被写体や低コントラストの被写体に対する焦点検出能力を向上させる。   The flash 115 is preferably a flash illumination device using a xenon tube, but may be an illumination device including LEDs that emit light continuously. The AF auxiliary light output unit 116 projects an image of a mask having a predetermined aperture pattern onto a subject field via a posting lens, and improves the focus detection capability for a low-luminance subject or a low-contrast subject.

CPU121は、カメラ100全体の動作を制御し、図示しない演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。CPU121は、ROMに記憶されたプログラムを実行して、カメラ100が有する各種回路を制御し、AF、AE、画像処理、記録等、カメラ100の機能を実現する。   The CPU 121 controls the operation of the entire camera 100, and includes a calculation unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like (not shown). The CPU 121 executes a program stored in the ROM and controls various circuits included in the camera 100 to realize functions of the camera 100 such as AF, AE, image processing, and recording.

フラッシュ制御回路122は、撮像動作に同期してフラッシュ115を点灯制御する。補助光駆動回路123は、焦点検出動作時にAF補助光出力部116を点灯制御する。撮像素子駆動回路124は、撮像素子107の動作を制御するとともに、撮像素子107から読み出した画像信号をA/D変換してCPU121に出力する。画像処理回路125は、画像信号に対してγ変換、色補間、JPEG符号化などの画像処理を適用する。   The flash control circuit 122 controls the lighting of the flash 115 in synchronization with the imaging operation. The auxiliary light drive circuit 123 controls the lighting of the AF auxiliary light output unit 116 during the focus detection operation. The image sensor driving circuit 124 controls the operation of the image sensor 107 and A / D converts the image signal read from the image sensor 107 and outputs the image signal to the CPU 121. The image processing circuit 125 applies image processing such as γ conversion, color interpolation, and JPEG encoding to the image signal.

フォーカス駆動回路126は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動することにより第3レンズ群105を光軸に沿って移動させ、焦点調節を行なう。シャッタ駆動回路128は、シャッタアクチュエータ112を駆動してシャッタ102の開口径及び開閉タイミングを制御する。ズーム駆動回路129は、例えば操作スイッチ132に含まれるズーム操作スイッチの押下によって撮像者から入力されるズーム操作に応じてズームアクチュエータ111を駆動する。   The focus drive circuit 126 moves the third lens group 105 along the optical axis by driving the focus actuator 114 based on the focus detection result, and performs focus adjustment. The shutter drive circuit 128 controls the opening diameter and opening / closing timing of the shutter 102 by driving the shutter actuator 112. The zoom drive circuit 129 drives the zoom actuator 111 according to a zoom operation input from the photographer by pressing a zoom operation switch included in the operation switch 132, for example.

表示器131はLCD等であり、カメラ100の撮像モードに関する情報、撮像前のプレビュー画像と撮像後の確認用画像、焦点検出時の合焦状態の情報等を表示する。操作スイッチ132は、電源スイッチ、レリーズ(撮像トリガ)スイッチ、ズーム操作スイッチ、撮像モード選択スイッチ等を含む。記録媒体133は例えば着脱可能な半導体メモリカードであり、撮像画像を記録する。   The display 131 is an LCD or the like, and displays information related to the imaging mode of the camera 100, a preview image before imaging and a confirmation image after imaging, information on a focusing state at the time of focus detection, and the like. The operation switch 132 includes a power switch, a release (imaging trigger) switch, a zoom operation switch, an imaging mode selection switch, and the like. The recording medium 133 is a detachable semiconductor memory card, for example, and records captured images.

[撮像素子]
図2は、撮像素子107における撮像画素と焦点検出画素の配置例を模式的に示す図であり、撮像画素が横4画素×縦4画素配列された領域を代表的に示している。本実施形態においては、各撮像画素の光電変換領域が縦横方向にそれぞれ2分割されており、各光電変換領域を副画素と呼ぶ。従って、図2においては、副画素が横8画素×縦8画素配列された領域とも言うことができる。
[Image sensor]
FIG. 2 is a diagram schematically illustrating an arrangement example of the imaging pixels and the focus detection pixels in the imaging element 107, and representatively illustrates an area in which the imaging pixels are arranged in 4 horizontal pixels × 4 vertical pixels. In the present embodiment, the photoelectric conversion area of each imaging pixel is divided into two in the vertical and horizontal directions, and each photoelectric conversion area is referred to as a sub-pixel. Therefore, in FIG. 2, it can also be said that the sub-pixels are regions in which 8 horizontal pixels × 8 vertical pixels are arranged.

本実施形態では、画素周期ΔXが10μm、有効画素数NLFが横3600列×縦24000行=約860万画素(副画素周期Δxが5μm、有効副画素数Nが横7200列×縦4800行=約3460万画素)の撮像素子として説明を行う。 In this embodiment, the pixel period ΔX is 10 μm, the effective pixel number N LF is 3600 horizontal rows × 24,000 vertical rows = approximately 8.6 million pixels (the sub pixel cycle Δx is 5 μm, and the effective sub pixel number N is 7200 horizontal rows × 4800 vertical rows). The description will be made assuming that the image pickup device is approximately 34.6 million pixels.

本実施形態において、図2の左上の2×2の画素群200は、撮像素子107に設けられた原色ベイヤー配列のカラーフィルタの繰り返し単位に対応している。従って、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。また、図2の右上の画素に代表的に示すように、各画素は、横2×縦2に等分割された光電変換部である副画素201〜204を有している。   In the present embodiment, the 2 × 2 pixel group 200 in the upper left of FIG. 2 corresponds to a repeating unit of a primary color Bayer array color filter provided in the image sensor 107. Accordingly, the pixel 200R having R (red) spectral sensitivity is arranged at the upper left, the pixel 200G having G (green) spectral sensitivity is arranged at the upper right and lower left, and the pixel 200B having B (blue) spectral sensitivity is arranged at the lower right. Has been. Further, as representatively shown in the upper right pixel in FIG. 2, each pixel has sub-pixels 201 to 204 which are photoelectric conversion units equally divided into 2 × 2.

図2に示した1つの画素(ここでは200Gとする)を、撮像素子107の受光面側(+z側)から見た平面図を図3(a)に示し、図3(a)のa−a断面を−y側から見た断面図を図3(b)に示す。   FIG. 3A shows a plan view of one pixel shown in FIG. 2 (here, 200G) as viewed from the light receiving surface side (+ z side) of the image sensor 107, and a- in FIG. FIG. 3B shows a cross-sectional view of the a cross section viewed from the −y side.

図3に示すように、本実施形態の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にN分割(2分割)、y方向にN分割(2分割)された光電変換部301〜304が形成される。光電変換部301〜304が、それぞれ、副画素201〜204に対応する。   As shown in FIG. 3, in the pixel 200 </ b> G of the present embodiment, a microlens 305 for condensing incident light is formed on the light receiving side of each pixel, and is divided into N (two divisions) in the x direction and N in the y direction. Divided (divided into two) photoelectric conversion units 301 to 304 are formed. The photoelectric conversion units 301 to 304 correspond to the subpixels 201 to 204, respectively.

光電変換部301〜304は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしてもよい。   The photoelectric conversion units 301 to 304 may be a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer, or an intrinsic layer may be omitted as necessary to form a pn junction photodiode. Also good.

各画素には、マイクロレンズ305と光電変換部301〜304との間に、カラーフィルタ306が形成される。また、必要に応じて、副画素ごとにカラーフィルタの分光透過率を変えても良いし、カラーフィルタを省略してもよい。   In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion units 301 to 304. Further, as necessary, the spectral transmittance of the color filter may be changed for each sub-pixel, or the color filter may be omitted.

図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306で分光されたのち、光電変換部301〜304で受光される。   Light incident on the pixel 200 </ b> G illustrated in FIG. 3 is collected by the microlens 305, dispersed by the color filter 306, and then received by the photoelectric conversion units 301 to 304.

光電変換部では、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層に蓄積され、ホールは定電圧源(不図示)に接続されたp型層300を通じて撮像素子107の外部へ排出される。   In the photoelectric conversion unit, a pair of electrons and holes are generated according to the amount of received light, separated by a depletion layer, negatively charged electrons are accumulated in an n-type layer, and the holes are connected to a constant voltage source (not shown). Then, it is discharged to the outside of the image sensor 107 through the p-type layer 300.

光電変換部301〜304のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。   The electrons accumulated in the n-type layers of the photoelectric conversion units 301 to 304 are transferred to the capacitance unit (FD) via the transfer gate and converted into a voltage signal.

図3に示した本実施形態の画素構造によってどのように瞳分割が行われるかを、図4および図5(a)を用いて説明する。図4は、図3(b)に示した画素200Gのa−a断面と、結像光学系の射出瞳との関係を示している。図4では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。また、図5(a)は、被写体から光電変換部303,304への光路を模式的に示している。   How pupil division is performed by the pixel structure of this embodiment shown in FIG. 3 will be described with reference to FIGS. 4 and 5A. FIG. 4 shows the relationship between the aa cross section of the pixel 200G shown in FIG. 3B and the exit pupil of the imaging optical system. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis of the cross-sectional view are inverted with respect to FIG. FIG. 5A schematically shows an optical path from the subject to the photoelectric conversion units 303 and 304.

撮像素子107は、撮影レンズ(結像光学系)の結像面近傍に配置され、被写体からの光束は、結像光学系の射出瞳400を通過して、それぞれの画素に入射する。撮像素子が配置された面を撮像面800(図5(a))とする。瞳部分領域501〜504は、Nθ×Nθ分割(本実施形態ではNθ=2)された光電変換部301〜304(副画素201〜204)の受光面と、マイクロレンズによって、概ね、共役関係を有する。従って、瞳部分領域501〜504はそれぞれ、光電変換部301〜304(副画素201〜204)が受光可能な瞳部分領域を表している。 The image sensor 107 is disposed in the vicinity of the imaging surface of the photographing lens (imaging optical system), and the light flux from the subject passes through the exit pupil 400 of the imaging optical system and enters each pixel. A surface on which the image sensor is arranged is defined as an imaging surface 800 (FIG. 5A). The pupil partial regions 501 to 504 are roughly divided by the light receiving surfaces of the photoelectric conversion units 301 to 304 (subpixels 201 to 204) divided by N θ × N θ (N θ = 2 in this embodiment) and the microlenses. Has a conjugate relationship. Accordingly, the pupil partial areas 501 to 504 represent pupil partial areas that can be received by the photoelectric conversion units 301 to 304 (subpixels 201 to 204), respectively.

結像光学系の射出瞳400は、異なる瞳部分領域にN(=Nθ×Nθ)分割され、Nを瞳分割数とよぶ。結像光学系の絞り値をFとすると、瞳部分領域の実効絞り値は、概ねNθFとなる。また、図4で、瞳領域500は、光電変換部301〜304(副画素201〜204)を合わせた、画素200G全体で受光可能な瞳領域である。 The exit pupil 400 of the imaging optical system is N p (= N θ × N θ) divided into different partial pupil region, called the N p and the pupil division number. When the aperture value of the imaging optical system is F, the effective aperture value of the pupil partial region is approximately N θ F. In FIG. 4, a pupil region 500 is a pupil region that can receive light in the entire pixel 200 </ b> G including the photoelectric conversion units 301 to 304 (subpixels 201 to 204).

図5(a)を用いて、本実施形態における視差画像の生成原理について説明する。各画素の光電変換部301〜304(副画素201〜204)は、それぞれ、瞳部分領域501〜504の異なる瞳部分領域を通過する光束を受光する。図5(a)には、光電変換部303が瞳部分領域503を出射する光束を、光電変換部304が瞳部分領域504を出射する光束を受光する光路を示している。   The generation principle of the parallax image in the present embodiment will be described with reference to FIG. The photoelectric conversion units 301 to 304 (subpixels 201 to 204) of each pixel receive light beams that pass through different pupil partial areas of the pupil partial areas 501 to 504, respectively. FIG. 5A shows an optical path where the photoelectric conversion unit 303 receives a light beam emitted from the pupil partial region 503 and the photoelectric conversion unit 304 receives a light beam emitted from the pupil partial region 504.

このように、光電変換部301〜304はそれぞれ異なる瞳部分領域を出射した光束を受光する。異なる瞳部分領域を出射する光束を受光するということは、視点が異なることに相当するので、特定の光電変換部(副画素)の信号を各画素から取得すれば、受光する光束が出射する瞳部分領域に対応した視差画像を得ることができる。例えば、各画素から副画素203(光電変換部303)の信号を取得すれば、結像光学系の瞳部分領域503に対応した有効画素数の解像度を有する視差画像を得ることができる。他の副画素でも同様である。よって、本実施形態では、結像光学系の異なる瞳部分領域を通過する光束を受光する複数の副画素が設けられた画素を複数配列した撮像素子により、異なる瞳部分領域ごとの(すなわち瞳分割数Nに等しい数の)視差画像が得られる。
また、画素ごとに副画素201〜204の信号を加算することで、有効画素数の解像度の撮像画像を生成することができる。
In this way, the photoelectric conversion units 301 to 304 receive the light beams emitted from different pupil partial regions. Receiving light beams emitted from different pupil partial areas corresponds to different viewpoints. Therefore, if a signal of a specific photoelectric conversion unit (sub-pixel) is acquired from each pixel, the pupil from which the received light beams are emitted. A parallax image corresponding to the partial area can be obtained. For example, if a signal of the sub-pixel 203 (photoelectric conversion unit 303) is acquired from each pixel, a parallax image having a resolution of the effective number of pixels corresponding to the pupil partial region 503 of the imaging optical system can be obtained. The same applies to other sub-pixels. Therefore, in the present embodiment, an imaging device in which a plurality of pixels provided with a plurality of sub-pixels that receive light beams that pass through different pupil partial regions of the imaging optical system are arranged for each different pupil partial region (that is, pupil division). equal number of) the parallax image number N p is obtained.
Further, by adding the signals of the sub-pixels 201 to 204 for each pixel, it is possible to generate a captured image having a resolution of the effective number of pixels.

以下、本発明における視差画像の像ずれ量とデフォーカス量の関係について説明する。
図5(b)に、視差画像間の像ずれ量とデフォーカス量の概略関係図を示す。撮像面800に撮像素子107が配置され、図5(a)と同様に、結像光学系の射出瞳が、瞳部分領域501〜504にN分割(4分割)される。
Hereinafter, the relationship between the image shift amount and the defocus amount of the parallax image in the present invention will be described.
FIG. 5B shows a schematic relationship diagram between the image shift amount and the defocus amount between parallax images. Arranged imaging element 107 to the imaging surface 800, similarly to FIG. 5 (a), the exit pupil of the imaging optical system is N p divided into partial pupil region 501 - 504 (4 split).

デフォーカス量dは、被写体の結像位置から撮像面までの距離の絶対値|d|と、被写体の結像位置と撮像面との位置関係を表す符号とによって定義される。被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)で表す。被写体の結像位置が撮像面にある合焦状態はd=0である。図5(b)においては、位置801の被写体は合焦状態(d=0)であり、位置802の被写体は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。   The defocus amount d is defined by the absolute value | d | of the distance from the imaging position of the subject to the imaging surface, and a code representing the positional relationship between the imaging position of the subject and the imaging surface. A negative sign (d <0) indicates a front pin state where the imaging position of the subject is on the subject side from the imaging surface, and a positive sign indicates a rear pin state where the imaging position of the subject is on the opposite side of the subject from the imaging surface (d> 0). ). The in-focus state where the imaging position of the subject is on the imaging surface is d = 0. FIG. 5B shows an example in which the subject at position 801 is in focus (d = 0) and the subject at position 802 is in the front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are combined to form a defocus state (| d |> 0).

前ピン状態(d<0)では、位置802の被写体からの光束のうち、瞳部分領域503(504)を通過した光束は、一度、集光した後、光束の重心位置G3(G4)を中心として幅Γ3(Γ4)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素を構成する副画素203(204)により受光され、瞳部分領域503(504)に対応した視差画像が生成される。よって、副画素203(204)の信号から生成される視差画像には、重心位置G3(G4)に、位置802にいる被写体が幅Γ3(Γ4)にボケた被写体像として記録される。被写体像のボケ幅Γ3(Γ4)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、視差画像間の被写体像の像ずれ量p(=G3−G4)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)は、視差画像間の被写体像の像ずれ方向が前ピン状態と反対となることを除き、前ピン状態と同様である。合焦状態(d=0)では、視差画像間の被写体像の重心位置が一致(p=0)し、像ずれは生じない。   In the front pin state (d <0), the light beam that has passed through the pupil partial region 503 (504) out of the light beam from the subject at the position 802 is once condensed and then centered on the gravity center position G3 (G4) of the light beam. And spreads to the width Γ3 (Γ4), resulting in a blurred image on the imaging surface 800. The blurred image is received by the sub-pixel 203 (204) that constitutes each pixel arranged in the image sensor, and a parallax image corresponding to the pupil partial region 503 (504) is generated. Therefore, in the parallax image generated from the signal of the sub-pixel 203 (204), the subject at the center of gravity G3 (G4) is recorded as a subject image in which the subject at the position 802 is blurred by the width Γ3 (Γ4). The blur width Γ3 (Γ4) of the subject image generally increases in proportion to the amount of defocus amount d | d |. Similarly, the magnitude | p | of the image shift amount p (= G3-G4) of the subject image between the parallax images is approximately proportional as the magnitude | d | of the defocus amount d increases. It will increase. The rear pin state (d> 0) is the same as the front pin state except that the image shift direction of the subject image between the parallax images is opposite to the front pin state. In the focused state (d = 0), the positions of the centers of gravity of the subject images between the parallax images match (p = 0), and no image shift occurs.

したがって、本実施形態で得られる複数の視差画像間の像ずれ量は、視差画像のデフォーカス量の大きさが増加するのに伴って増加する。本実施形態では、視差画像のデフォーカス量の大きさが増加するのに伴って視差画像間の像ずれ量が増加するという関係性から、視差画像間の像ずれ量を相関演算により算出することで、撮像面位相差方式の焦点検出を行う。像高ごとに撮像面位相差方式の焦点検出を行うことにより、デフォーカスマップを算出する。   Therefore, the image shift amount between the plurality of parallax images obtained in the present embodiment increases as the defocus amount of the parallax image increases. In the present embodiment, the amount of image shift between parallax images is calculated by correlation calculation because of the relationship that the amount of image shift between parallax images increases as the defocus amount of the parallax image increases. Thus, focus detection by the imaging surface phase difference method is performed. A defocus map is calculated by performing focus detection using an imaging surface phase difference method for each image height.

結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsとの大小関係に応じて撮像素子の周辺像高(像高の大きな位置)で生じる瞳ずれについて説明する。図6は、撮像素子の周辺部に位置する画素の副画素201〜204がそれぞれ受光する瞳部分領域501a(501b、501c)〜504a(504b、504c)と、結像光学系の射出瞳400との位置関係を示す。   The pupil shift that occurs at the peripheral image height (position where the image height is large) of the image sensor according to the magnitude relationship between the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor will be described. FIG. 6 shows pupil partial areas 501a (501b, 501c) to 504a (504b, 504c) received by the subpixels 201 to 204 of the pixels located in the periphery of the image sensor, and the exit pupil 400 of the imaging optical system. The positional relationship of is shown.

図6(a)は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが、概ね一致する場合(D1≒Ds)を示している。この場合、像高の小さい中央部の画素と像高の大きい周辺部の画素のいずれにおいても、結像光学系の射出瞳400が、概ね均等に、瞳部分領域501a〜504aに瞳分割される。   FIG. 6A shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor substantially coincide (D1≈Ds). In this case, the exit pupil 400 of the imaging optical system is pupil-divided into pupil partial areas 501a to 504a almost uniformly in both the central pixel having a small image height and the peripheral pixels having a large image height. .

これに対して、図6(b)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合(D1<Ds)を示している。この場合、周辺部の画素では、結像光学系の射出瞳400が、不均一に、瞳部分領域501b〜504bに瞳分割される。図6(b)の例では、瞳部分領域501bと504bの実効絞り値に対して、瞳部分領域503bの実効絞り値はより小さい(明るい)値となり、瞳部分領域502bの実効絞り値はより大きい(暗い)値となる。光軸中心を挟んで対象の位置における画素では、逆に、瞳部分領域501bと瞳部分領域504bの実効絞り値に対して、瞳部分領域502bの実効絞り値はより小さい(明るい)値となり、瞳部分領域503bの実効絞り値はより大きい(暗い)値となる。   On the other hand, FIG. 6B shows a case where the exit pupil distance Dl of the imaging optical system is shorter than the set pupil distance Ds of the image sensor (D1 <Ds). In this case, in the peripheral pixels, the exit pupil 400 of the imaging optical system is non-uniformly divided into pupil partial regions 501b to 504b. In the example of FIG. 6B, the effective aperture value of the pupil partial region 503b is smaller (brighter) than the effective aperture values of the pupil partial regions 501b and 504b, and the effective aperture value of the pupil partial region 502b is higher. Large (dark) value. Conversely, in the pixel at the target position across the optical axis center, the effective aperture value of the pupil partial region 502b is smaller (brighter) than the effective aperture values of the pupil partial region 501b and the pupil partial region 504b. The effective aperture value of the pupil partial area 503b is a larger (darker) value.

図6(c)は、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い(D1>Ds)場合を示している。この場合も、周辺部の画素では、結像光学系の射出瞳400が、不均一に、瞳部分領域501c〜504cに瞳分割される。図6(c)の例では、図6(b)の例とは逆に、瞳部分領域501cと504cの実効絞り値に対して、瞳部分領域502cの実効絞り値はより小さい(明るい)値となり、瞳部分領域503cの実効絞り値はより大きい(暗い)値となる。光軸中心を挟んで反対側の位置における画素では、逆に、瞳部分領域501cと504cの実効絞り値に対して、瞳部分領域503cの実効絞り値はより小さい(明るい)値となり、瞳部分領域502cの実効絞り値はより大きい(暗い)値となる。   FIG. 6C shows a case where the exit pupil distance Dl of the imaging optical system is longer than the set pupil distance Ds of the image sensor (D1> Ds). Also in this case, in the peripheral pixels, the exit pupil 400 of the imaging optical system is non-uniformly divided into pupil partial regions 501c to 504c. In the example of FIG. 6C, contrary to the example of FIG. 6B, the effective aperture value of the pupil partial region 502c is smaller (brighter) than the effective aperture values of the pupil partial regions 501c and 504c. Thus, the effective aperture value of the pupil partial region 503c is a larger (darker) value. In contrast, in the pixel at the opposite position across the center of the optical axis, the effective aperture value of the pupil partial region 503c is smaller (brighter) than the effective aperture value of the pupil partial regions 501c and 504c. The effective aperture value in the region 502c is a larger (darker) value.

このように、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsとが異なる場合、周辺部の画素における実効絞り値が視差画像間で異なるため、周辺部におけるボケ量が視差画像間で相違するという現象が生じる。   As described above, when the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor are different, the effective aperture values in the peripheral pixels are different between the parallax images, and thus the amount of blur in the peripheral portion is the parallax image. The phenomenon of difference between them occurs.

図7は、瞳部分領域501〜504に対応した異なる視点の複数の視差画像601〜604の例を示す図である。
図7において、各視差画像の左上の周辺部における、デフォーカス状態(|d|>0)の領域701、702、703、704は、領域703のボケ量が最も多く、領域701と704は中間のボケ量で、領域702のボケ量が最も少ないことがわかる。逆に、各視差画像の右側の周辺部におけるデフォーカス状態(|d|>0)の領域705〜708は、領域706のボケ量が最も多く、領域705と708は中間のボケ量で、領域707のボケ量が最も少ないことがわかる。
FIG. 7 is a diagram illustrating an example of a plurality of parallax images 601 to 604 at different viewpoints corresponding to the pupil partial regions 501 to 504.
In FIG. 7, regions 701, 702, 703, and 704 in the defocused state (| d |> 0) in the upper left peripheral portion of each parallax image have the largest amount of blur in the region 703, and regions 701 and 704 are intermediate. It can be seen that the amount of blur in the region 702 is the smallest. On the contrary, areas 705 to 708 in the defocused state (| d |> 0) in the peripheral portion on the right side of each parallax image have the largest amount of blur in the area 706, and areas 705 and 708 have an intermediate blur amount. It can be seen that the amount of blur of 707 is the smallest.

本実施形態では、各視差画像の像高ごとの実効絞り値と、視差画像間の像ずれ量から算出されたデフォーカスマップとに応じて視差画像ごとにボケ量を調整し、視差画像の同一領域におけるボケ量の差を補正する。   In this embodiment, the blur amount is adjusted for each parallax image according to the effective aperture value for each image height of each parallax image and the defocus map calculated from the image shift amount between the parallax images, and the same parallax image is obtained. The difference in blur amount in the area is corrected.

[ボケ量補正処理]
以下、本実施形態におけるボケ量の補正処理について、図8(a)に示すフローチャートを用いて説明する。なお、本実施形態においてボケ量の補正処理はCPU121がソフトウェアを実行することによって実現されるものとするが、その一部または全部の処理をASICなどの回路によって実現してもよい。
[Defocus amount correction processing]
Hereinafter, the blur amount correction processing in the present embodiment will be described with reference to the flowchart shown in FIG. In this embodiment, the blur amount correction process is realized by the CPU 121 executing software, but part or all of the process may be realized by a circuit such as an ASIC.

S100でCPU121は、撮像素子駆動回路124を通じて、撮像素子107の各副画素201〜204から信号を読み出し、画像処理回路125で少なくとも色補間(デモザイキング)を適用した入力画像を取得する。なお、同等の画像を記録媒体133や他の機器から取得してもよい。なお、撮像素子107から画像を取得する場合、一般的なデジタルカメラで行われているような自動露出設定によって予め露出条件が設定されているものとする。
なお、以下の説明では説明及び理解を容易にするため、各画素がRGB(またはYUV)の各成分の情報を有するものとする。しかし、入力画像はデモザイキング前のRAW画像であってもよく、この場合は同色画素ごとに以下の処理を適用した後、モザイク画像に戻し、デモザイキング処理を行えばよい。
In S <b> 100, the CPU 121 reads out signals from the sub-pixels 201 to 204 of the image sensor 107 through the image sensor drive circuit 124, and acquires an input image to which at least color interpolation (demosaiking) is applied by the image processing circuit 125. Note that an equivalent image may be acquired from the recording medium 133 or another device. Note that when an image is acquired from the image sensor 107, it is assumed that the exposure condition is set in advance by the automatic exposure setting that is performed by a general digital camera.
In the following description, it is assumed that each pixel has information on each component of RGB (or YUV) for ease of explanation and understanding. However, the input image may be a RAW image before demosaicing. In this case, after applying the following processing for each pixel of the same color, the mosaic image may be returned and demosaicing processing may be performed.

撮像素子107のx方向の画素数をN、y方向の画素数をN、x方向の位置をi(=1〜N)、y方向の位置をj(=1〜N)とする。位置の始点は例えば左上隅の画素であってよい。従って、撮像素子107の有効画素数NLF=N×Nである。また、撮像素子107の位置(i,j)の画素をP(i,j)とし、整数a=1〜Nθとして、画素P(i,j)のa番目の副画素をP(i,j)とする。さらに、副画素P(i,j)で受光される信号をL(i,j)とする。 The number of pixels in the x direction of the image sensor 107 is N x , the number of pixels in the y direction is N y , the position in the x direction is i (= 1 to N x ), and the position in the y direction is j (= 1 to N y ). To do. The starting point of the position may be, for example, the pixel at the upper left corner. Therefore, the number of effective pixels of the image sensor 107 is N LF = N x × N y . Further, the pixel position of the image sensor 107 (i, j) and P (i, j), the integer a = a 1 to N theta, pixel P (i, j) of the a-th sub-pixel P a (i , J). Further, a signal received by the sub-pixel P a (i, j) is defined as L a (i, j).

従って、入力画像は、信号L(i,j)の全ての集合L={L(i,j)|i=1〜N,j=1〜N,a=1〜Nθ}と表される。 Therefore, the input image has all the sets L = {L a (i, j) | i = 1 to N x , j = 1 to N y , a = 1 to N θ } of the signal L a (i, j). It is expressed.

S200でCPU121は、各画素の同じ副画素の信号をまとめることにより、結像光学系の瞳部分領域501から504に対応した4つの視差画像を生成する。上述したように、これらの視差画像は、視差画像のデフォーカス量の大きさが増加するのに伴い、複数の視差画像間の像ずれ量の大きさが増加する。   In S200, the CPU 121 generates four parallax images corresponding to the pupil partial regions 501 to 504 of the imaging optical system by collecting the signals of the same sub-pixels of the respective pixels. As described above, in these parallax images, as the defocus amount of the parallax image increases, the amount of image shift between the plurality of parallax images increases.

a番目の副画素の信号に限定した集合L={L(i,j)|i=1〜N,j=1〜N}がそれぞれの視差画像である。複数の視差画像{L|a=1〜Nθ}が生成される。 A set L a = {L a (i, j) | i = 1 to N x , j = 1 to N y } limited to the signal of the a-th subpixel is each parallax image. A plurality of parallax images {L a | a = 1 to N θ } are generated.

本実施形態では瞳分割数Nθ=4であるから、副画素201〜204をそれぞれ1〜4番目の副画素とする。つまり、a=1は副画素201、a=2は副画素202、a=3は副画素203、a=4は副画素204に相当する。従って、瞳部分領域501に対応する視差画像はL、瞳部分領域502に対応する視差画像はL、瞳部分領域503に対応する視差画像はL、瞳部分領域504に対応する視差画像はLである。 Since in this embodiment is a pupil division number N θ = 4, the sub-pixels 201 to 204 and 1 to 4 th sub-pixel, respectively. That is, a = 1 corresponds to the subpixel 201, a = 2 corresponds to the subpixel 202, a = 3 corresponds to the subpixel 203, and a = 4 corresponds to the subpixel 204. Therefore, the parallax image corresponding to the pupil partial region 501 is L 1 , the parallax image corresponding to the pupil partial region 502 is L 2 , the parallax image corresponding to the pupil partial region 503 is L 3 , and the parallax image corresponding to the pupil partial region 504 it is L 4.

S300でCPU121は、視差画像のデフォーカス量の大きさが増加するのに伴い、視差画像間の像ずれ量の大きさが増加する関係性から、デフォーカスマップを算出する。デフォーカス量算出手段としてのCPU121は、2つの視差画像間の像ずれ量を相関演算により計算し、像ずれ量に、レンズのフォーカスステート、ズームステート、絞り値、センサー像高座標などに応じた変換係数をかけてデフォーカス量を計算する。デフォーカスマップは、例えば視差画像の座標ごとに求めたデフォーカス量の集合であり、デフォーカス量の分布を表す。座標ごとのデフォーカス量の算出方法に特に制限は無いが、例えば以下の方法で求めることができる。   In S300, the CPU 121 calculates a defocus map from the relationship in which the magnitude of the image shift amount between the parallax images increases as the magnitude of the defocus amount of the parallax images increases. The CPU 121 as the defocus amount calculation means calculates the image shift amount between the two parallax images by correlation calculation, and the image shift amount corresponds to the focus state, zoom state, aperture value, sensor image height coordinate, etc. of the lens. The defocus amount is calculated by multiplying the conversion factor. The defocus map is a set of defocus amounts obtained for each coordinate of the parallax image, for example, and represents a distribution of the defocus amounts. There is no particular limitation on the method of calculating the defocus amount for each coordinate, but it can be obtained by the following method, for example.

視差画像Lと視差画像Lを加算した視差画像L13、視差画像Lと視差画像Lを加算した視差画像L24とする。対象となる座標を中心とした所定数の画素からなる水平画素ラインを所定数、視差画像L13と視差画像L24の2つの視差画像から取り出し、両者の相関演算により水平方向のデフォーカス量を算出する。また、視差画像Lと視差画像Lを加算した視差画像L12、視差画像Lと視差画像Lを加算した視差画像L34とする。同様に、対象となる座標を中心とした所定数の画素からなる垂直画素ラインを所定数、視差画像L12と視差画像L34の2つの視差画像から取り出し、両者の相関演算により垂直方向のデフォーカス量を算出する。水平方向と垂直方向の平均デフォーカス量を、対象となる座標のデフォーカス量とする。なお、水平画素ラインや垂直画素ラインを用いる方法以外にも、対象となる座標を中心とした画素ブロックを用いてデフォーカス量を求めるなど、他の方法を用いてもよい。なお、デフォーカス量の算出は、2つの視差画像の他の組み合わせについて算出してもよい。 A parallax image L 13 obtained by adding the parallax image L 1 and the parallax image L 3 , and a parallax image L 24 obtained by adding the parallax image L 2 and the parallax image L 4 are used. Predetermined number of horizontal pixel lines of a predetermined number of pixels centered on the coordinates of interest, taken from two parallax images of the parallax images L 13 and parallax images L 24, the defocus amount of the horizontal direction by the correlation operation between the two calculate. Also, a parallax image L 12 obtained by adding the parallax image L 1 and the parallax image L 2 , and a parallax image L 34 obtained by adding the parallax image L 3 and the parallax image L 4 are used. Similarly, a predetermined number of vertical pixel lines of a predetermined number of pixels centered on the coordinates of interest, taken from two parallax images of the parallax images L 12 and parallax images L 34, the correlation operation of both vertical de Calculate the focus amount. The average defocus amount in the horizontal direction and the vertical direction is set as the defocus amount of the target coordinates. In addition to the method using a horizontal pixel line or a vertical pixel line, other methods such as obtaining a defocus amount using a pixel block centered on a target coordinate may be used. The defocus amount may be calculated for other combinations of two parallax images.

S400でCPU121は、視差画像ごとにボケ量を調整する補正処理を行う。補正処理の詳細について、図8(b)のフローチャートを用いて説明する。
まず、CPU121は、視差画像ごとに像高と実効絞り値との関係を示す情報を生成する。CPU121は、視差画像Lごとに、a副画素の瞳強度分布(受光率の入射角度依存性)と結像光学系の射出瞳の情報から、像高と、a副画素が受光する瞳部分領域の実効絞り値との関係を計算する。
In S400, the CPU 121 performs a correction process for adjusting the amount of blur for each parallax image. Details of the correction processing will be described with reference to the flowchart of FIG.
First, the CPU 121 generates information indicating the relationship between the image height and the effective aperture value for each parallax image. CPU121, for each parallax image L a, the information of the exit pupil of the imaging optical system (the incident angle dependence of the light-receiving rate) pupil intensity distribution of a sub-pixel, and the image height, the pupil portion a sub-pixel is received Calculate the relationship with the effective aperture value of the area.

レンズ瞳距離はレンズユニットから取得可能であり、センサ瞳距離はカメラに記憶されている。従って、CPU121はレンズ瞳距離とセンサ瞳距離の大小関係を知ることができ、それによって像高の大きな周辺部で射出瞳の中心と画素の中心とがどの方向にずれるかが分かる。また、CPU121は、現在のF値とレンズ瞳距離とから、現在の射出瞳400の大きさを算出することができる。射出瞳の大きさがわかれば、像高に応じた瞳のずれ量を求めることができる。   The lens pupil distance can be acquired from the lens unit, and the sensor pupil distance is stored in the camera. Therefore, the CPU 121 can know the magnitude relationship between the lens pupil distance and the sensor pupil distance, and thereby know in which direction the center of the exit pupil and the center of the pixel are shifted in the peripheral portion where the image height is large. Further, the CPU 121 can calculate the current size of the exit pupil 400 from the current F value and the lens pupil distance. If the size of the exit pupil is known, the pupil shift amount corresponding to the image height can be obtained.

副画素の実効絞り値は、図6に点線で示す各副画素の受光部と、射出瞳400との重なりが大きけいほど小さく、重なりが小さいほど大きな値になる。また、副画素の受光効率には入射角度依存性があり、瞳強度分布と呼ぶ。一般には画素の中心を最大効率として、周辺部に向かって効率が低下する分布である。従って、CPU121は、各副画素についての瞳強度分布と、現在の射出瞳との重なりに応じた実効F値を求める。像高が小さい位置の画素と大きい位置の画素では光の入射角が異なるため、瞳強度分布は像高に応じて異なる。従って、予め各座標に対応した瞳強度分布を求めておくか、像高0における瞳強度分布から、センサ瞳距離を用いて像高が0より大きい座標における瞳強度分布を推定することができる。
このようにして、CPU121は、画素の座標ごとの実効絞り値を求め、視差画像ごとに、像高と実効絞り値の関係もしくは実効絞り値の分布を表す実効絞り値マップを作成する(S401)。
The effective aperture value of the sub-pixel is smaller as the overlap between the light receiving portion of each sub-pixel indicated by the dotted line in FIG. 6 and the exit pupil 400 is larger, and becomes larger as the overlap is smaller. In addition, the light receiving efficiency of the sub-pixel has an incident angle dependency and is called a pupil intensity distribution. In general, the distribution is such that the efficiency decreases toward the periphery with the center of the pixel as the maximum efficiency. Therefore, the CPU 121 obtains an effective F value corresponding to the overlap between the pupil intensity distribution for each sub-pixel and the current exit pupil. Since the incident angle of light is different between a pixel at a small image height and a pixel at a large image height, the pupil intensity distribution differs depending on the image height. Accordingly, the pupil intensity distribution corresponding to each coordinate is obtained in advance, or the pupil intensity distribution at coordinates where the image height is greater than 0 can be estimated from the pupil intensity distribution at image height 0 using the sensor pupil distance.
In this way, the CPU 121 obtains an effective aperture value for each pixel coordinate, and creates an effective aperture value map representing the relationship between the image height and the effective aperture value or the distribution of the effective aperture value for each parallax image (S401). .

次にボケ量算出手段としてのCPU121は、視差画像ごとに求めた実効絞り値マップとデフォーカスマップとから、視差画像ごとに、座標ごとのボケ量の分布を表すボケ量マップを算出する(S402)。ボケ量はデフォーカス量/実効絞り値で求めることができる。   Next, the CPU 121 as the blur amount calculation unit calculates a blur amount map representing the distribution of the blur amount for each coordinate for each parallax image from the effective aperture value map and the defocus map obtained for each parallax image (S402). ). The blur amount can be obtained by defocus amount / effective aperture value.

次に平均ボケ量算出手段としてのCPU121は、4つの視差画像について作成したボケ量マップから、座標ごとの平均ボケ量の分布を表す平均ボケ量マップを生成する(S403)。さらにボケ量差分算出手段としてのCPU121は、ボケ量マップと平均ボケ量マップとから、座標ごとのボケ量の差分の分布を表すボケ量差分マップを各視差画像について生成する(S404)。なおCPU121は、ボケ量差分マップを生成する際、平均より小さいボケ量については差分に負の符号を、平均より大きいボケ量については差分に正の符号を付与する。   Next, the CPU 121 serving as an average blur amount calculation unit generates an average blur amount map representing the distribution of the average blur amount for each coordinate from the blur amount map created for the four parallax images (S403). Further, the CPU 121 as the blur amount difference calculating unit generates a blur amount difference map representing the distribution of the blur amount difference for each coordinate for each parallax image from the blur amount map and the average blur amount map (S404). When generating the blur amount difference map, the CPU 121 gives a negative sign to the difference for a blur amount smaller than the average, and gives a positive sign to the difference for a blur amount larger than the average.

そしてCPU121は、視差画像ごとに平均ボケ量との差分に応じたボケ補正処理を適用する(S405)。本実施形態でCPU121は、ボケ量差分マップの値が負であれば(平均ボケ量よりボケ量が少なければ)、ボケ量を増加させる処理を適用する。例えば、平均ボケ量マップの値となるようにボケ量を増加させることができる。一方、ボケ量差分マップの値が正かつ所定量より大きければ(ボケ量が平均ボケ量より所定量を超えて大きければ)、CPU121はボケ量を削減する処理、例えばエッジ強調処理を行う。例えば、平均ボケ量マップの値となるようにエッジ強調処理を行うことができる。ボケ量差分マップの値が正かつ所定量以下であれば、特にボケ量の補正は行わない。
なお、ボケ補正処理は、各座標(画素)について実施してもよいし、差分量が同様の値を有する領域に対してまとめて実施してもよい。
Then, the CPU 121 applies blur correction processing corresponding to the difference from the average blur amount for each parallax image (S405). In this embodiment, if the value of the blur amount difference map is negative (if the blur amount is smaller than the average blur amount), the CPU 121 applies processing for increasing the blur amount. For example, the blur amount can be increased so as to be the value of the average blur amount map. On the other hand, if the value of the blur amount difference map is positive and larger than the predetermined amount (if the blur amount is larger than the average blur amount by a predetermined amount), the CPU 121 performs processing for reducing the blur amount, for example, edge enhancement processing. For example, the edge enhancement processing can be performed so that the average blur amount map value is obtained. If the value of the blur amount difference map is positive and less than or equal to the predetermined amount, the blur amount is not particularly corrected.
Note that the blur correction process may be performed for each coordinate (pixel), or may be performed collectively on a region where the difference amount has a similar value.

このようにしてボケ補正処理を実施した視差画像は、その1つを表示器131に表示することができる。また、表示器131が立体表示器であれば、2つの視差画像を表示器131で表示して立体表示を提供することができる。   One of the parallax images subjected to the blur correction process in this way can be displayed on the display 131. If the display 131 is a stereoscopic display, two parallax images can be displayed on the display 131 to provide a stereoscopic display.

このように、本実施形態では、複数の視差画像からデフォーカスマップを算出するとともに、像高に応じた副画素の実効絞り値とデフォーカスマップとから各視差画像内の位置に応じたボケ量を求める。そして、視差画像間のボケ量の差を削減するように各視差画像に対してボケ量を補正する処理を適用するので、レンズ瞳距離とセンサ瞳距離が異なる場合などに特に周辺部で生じる瞳ずれによる副画素間の実効絞り値のばらつきの影響を抑制することができる。   As described above, in this embodiment, the defocus map is calculated from a plurality of parallax images, and the amount of blur according to the position in each parallax image from the effective aperture value of the sub-pixel according to the image height and the defocus map. Ask for. Then, since the process of correcting the blur amount is applied to each parallax image so as to reduce the difference in blur amount between the parallax images, the pupil generated in the peripheral portion particularly when the lens pupil distance and the sensor pupil distance are different. It is possible to suppress the influence of variation in the effective aperture value between the sub-pixels due to the shift.

なお、必要に応じて、ダーク補正、シェーディング補正などを、画像処理回路125を用いて入力画像、視差画像のいずれかもしくは両方に対して実施するようにしてもよい。   If necessary, dark correction, shading correction, and the like may be performed on either or both of the input image and the parallax image using the image processing circuit 125.

また、本実施形態は、結像光学系の射出瞳が異なる瞳部分領域に2×2分割される場合で説明を行ったが、他の瞳分割数の場合でも同様である。x方向の瞳分割数とy方向の瞳分割数は異なっていても良い。また、瞳分割方向は、x方向やy方向と異なっていても良い。   Further, although the present embodiment has been described in the case where the exit pupil of the imaging optical system is divided into 2 × 2 into different pupil partial regions, the same applies to other pupil division numbers. The number of pupil divisions in the x direction and the number of pupil divisions in the y direction may be different. Further, the pupil division direction may be different from the x direction and the y direction.

●(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態に係る画像処理装置の機能構成は第1の実施形態と同一であってよく、また視差画像に対するボケ量の補正処理も、S400で視差画像ごとにボケ量マップを算出するまでは、図8を用いて第1の実施形態で説明したものと同様である。
● (Second Embodiment)
Next, a second embodiment of the present invention will be described. The functional configuration of the image processing apparatus according to the present embodiment may be the same as that of the first embodiment, and the blur amount correction processing for the parallax image is also calculated until the blur amount map is calculated for each parallax image in S400. This is the same as that described in the first embodiment with reference to FIG.

第1の実施形態では、平均ボケ量より小さいボケ量についてはボケ量を増加させ、平均ボケ量より所定量以上大きなボケ量についてはボケ量を低減する補正処理を行うものであった。   In the first embodiment, correction processing is performed to increase the blur amount for a blur amount smaller than the average blur amount, and to reduce the blur amount for a blur amount larger than the average blur amount by a predetermined amount or more.

一方、本実施形態は、4つの視差画像について作成したボケ量マップから、座標ごとの4視差画像中の最大ボケ量の分布を表す最大ボケ量マップを生成する。さらに、ボケ量マップから最大ボケ量マップを引くことにより、座標ごとの最大ボケ量からのボケ量の差分の分布を表すボケ量差分マップを各視差画像について生成する。本実施形態のボケ量差分マップは、ボケ量マップから最大ボケ量マップを引くため、非正(0か負)の値である。
その後、視差画像ごとに最大ボケ量との差分に応じたボケ補正処理を適用する。本実施形態でCPU121は、ボケ量差分マップの値が負であれば(平均ボケ量よりボケ量が少なければ)、ボケ量を増加させる処理を適用する。例えば、最大ボケ量マップの値となるようにボケ量を増加させることができる。
On the other hand, in the present embodiment, a maximum blur amount map representing the distribution of the maximum blur amount in the four parallax images for each coordinate is generated from the blur amount map created for the four parallax images. Further, by subtracting the maximum blur amount map from the blur amount map, a blur amount difference map representing the distribution of the difference in blur amount from the maximum blur amount for each coordinate is generated for each parallax image. The blur amount difference map of the present embodiment is a non-positive (0 or negative) value because the maximum blur amount map is subtracted from the blur amount map.
Thereafter, a blur correction process corresponding to the difference from the maximum blur amount is applied to each parallax image. In this embodiment, if the value of the blur amount difference map is negative (if the blur amount is smaller than the average blur amount), the CPU 121 applies processing for increasing the blur amount. For example, the blur amount can be increased so as to be the value of the maximum blur amount map.

ボケ量が少ない部分に対してボケ量を増加させる補正を行うことで、処理を軽減しつつ各視差画像間のボケ量の差異を低減することができる。   By performing the correction for increasing the blur amount for a portion with a small blur amount, it is possible to reduce the difference in the blur amount between the parallax images while reducing the processing.

●(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態に係る画像処理装置の機能構成は第1の実施形態と同一であってよい。また視差画像に対するボケ量の補正処理も、S400で点像データを生成し、ボケ補正にボケ量差分マップに加えて点像データを利用すること以外は図8を用いて第1の実施形態で説明したものと同様である。
● (Third embodiment)
Next, a third embodiment of the present invention will be described. The functional configuration of the image processing apparatus according to the present embodiment may be the same as that of the first embodiment. Further, the blur amount correction processing for the parallax image is also performed in the first embodiment using FIG. 8 except that point image data is generated in S400 and the point image data is used in addition to the blur amount difference map for blur correction. The same as described.

本実施形態では、実効絞り値マップ、ボケ量マップ、平均ボケ量マップ、ボケ量差分マップに加えて、視差画像ごと、かつ像高ごとに、点像データを算出する。F値、レンズ瞳距離、および瞳強度分布から点像を特定することができる。点像データはボケの拡がり方を表すので、点像データを用いることにより、精度の良いボケ量の補正を実現することができる。   In the present embodiment, point image data is calculated for each parallax image and for each image height in addition to the effective aperture value map, the blur amount map, the average blur amount map, and the blur amount difference map. A point image can be identified from the F value, the lens pupil distance, and the pupil intensity distribution. Since the point image data represents how the blur is spread, the use of the point image data makes it possible to accurately correct the blur amount.

S400でCPU121は、実効絞り値マップに加え、視差画像ごとに点像データを算出する。点像データは、視差画像ごとに、視差画像を形成する副画素の瞳強度分布(受光率の入射角度依存性)、F値、レンズ瞳距離とから、座標ごとの点像データを算出する。またCPU121は、第1の実施形態と同様にして、ボケ量マップ、平均ボケ量マップ、ボケ量差分マップを生成する。   In S400, the CPU 121 calculates point image data for each parallax image in addition to the effective aperture value map. For the point image data, point image data for each coordinate is calculated from the pupil intensity distribution (incidence angle dependency of the light reception rate) of the subpixels forming the parallax image, the F value, and the lens pupil distance for each parallax image. Further, the CPU 121 generates a blur amount map, an average blur amount map, and a blur amount difference map in the same manner as in the first embodiment.

そしてCPU121は、視差画像の座標ごとに、ボケ量差分マップの値が負であれば、ボケ量差分マップの値と点像データとに基づくコンボリューション処理(ボケを増加させる処理)を行う。一方、ボケ量差分マップの値が正でかつ所定値よりも大きい場合は、ボケ量差分マップの値と点像データとに基づくデコンボリューション処理(ボケを減少させる処理)を行う。   If the value of the blur amount difference map is negative for each coordinate of the parallax image, the CPU 121 performs a convolution process (a process for increasing blur) based on the value of the blur amount difference map and the point image data. On the other hand, when the value of the blur amount difference map is positive and larger than the predetermined value, deconvolution processing (processing for reducing blur) based on the value of the blur amount difference map and the point image data is performed.

本実施形態によれば、処理の負荷は増すが、精度の良いボケ量の補正を行うことができ、視差画像間のボケ量の差をより精度良く抑制することが可能になる。なお、ここでは第1の実施形態と同様にボケ量が平均より小さい場合と平均より所定量以上大きい場合に補正する場合を説明したが、第2の実施形態と同様の補正を行うこともできる。   According to the present embodiment, although the processing load increases, it is possible to correct the blur amount with high accuracy, and it is possible to more accurately suppress the difference in blur amount between parallax images. Here, as in the first embodiment, the case where the correction is performed when the blur amount is smaller than the average and when the blur amount is larger than the average by a predetermined amount has been described. However, the same correction as in the second embodiment can be performed. .

(その他の実施形態)
なお、上述の実施形態においては、視差画像の座標ごとに値を求めることで各種マップを生成していたが、複数の画素からなる画素ブロックごとに値を求めて各種マップを生成してもよい。
(Other embodiments)
In the above-described embodiment, various maps are generated by obtaining values for each coordinate of the parallax image. However, various maps may be generated by obtaining values for each pixel block including a plurality of pixels. .

また、上述の実施形態においては、平均ボケ量との差を小さくするようにボケ量を補正する方法について説明したが、視差画像間のボケ量の差が抑制されれば、平均ボケ量以外の値を基準としてボケ量を補正してもよい。   In the above-described embodiment, the method of correcting the blur amount so as to reduce the difference from the average blur amount has been described. However, if the difference in the blur amount between parallax images is suppressed, the method other than the average blur amount is described. The blur amount may be corrected based on the value.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (11)

複数の画素が配列された撮像素子であって、前記画素の各々には、それぞれが結像光学系の異なる瞳部分領域を通過する光束を受光する複数の副画素が設けられた撮像素子から得られる入力画像を取得する取得手段と、
同じ瞳部分領域を通過する光束を受光する副画素の信号に基づいて視差画像を生成することにより、前記入力画像から複数の視差画像を生成する生成手段と、
前記複数の視差画像から、デフォーカス量の分布を求めるデフォーカス量算出手段と、
前記デフォーカス量の分布、前記複数の副画素の各々に対する前記結像光学系の射出瞳の実効絞り値、および像高から、前記複数の視差画像の各々についてボケ量の分布を求めるボケ量算出手段と、
前記複数の視差画像の各々について、他の視差画像とのボケ量の差を抑制する補正処理を適用する補正手段と、
を有することを特徴とする画像処理装置。
An imaging device in which a plurality of pixels are arranged, and each of the pixels is obtained from an imaging device provided with a plurality of sub-pixels that receive light beams that pass through different pupil partial regions of the imaging optical system. Acquisition means for acquiring an input image
Generating means for generating a plurality of parallax images from the input image by generating a parallax image based on a signal of a sub-pixel that receives a light beam passing through the same pupil partial region;
Defocus amount calculating means for obtaining a distribution of defocus amount from the plurality of parallax images;
A blur amount calculation for obtaining a blur amount distribution for each of the plurality of parallax images from the distribution of the defocus amount, the effective aperture value of the exit pupil of the imaging optical system for each of the plurality of sub-pixels, and the image height. Means,
A correction unit that applies a correction process that suppresses a difference in blur amount from another parallax image for each of the plurality of parallax images;
An image processing apparatus comprising:
さらに、前記ボケ量の分布から、前記複数の視差画像の平均ボケ量の分布を求める平均ボケ量算出手段を有し、
前記補正手段が、前記平均ボケ量との差を小さくするように前記視差画像のボケ量を補正することにより、他の視差画像とのボケ量の差を抑制することを特徴とする請求項1記載の画像処理装置。
Further, an average blur amount calculating means for obtaining a distribution of average blur amounts of the plurality of parallax images from the blur amount distribution,
2. The correction unit suppresses a difference in blur amount from another parallax image by correcting the blur amount in the parallax image so as to reduce a difference from the average blur amount. The image processing apparatus described.
前記補正手段は、
前記平均ボケ量よりボケ量が小さい領域に対しては平均ボケ量との差分に応じたボケ量を増加させ、
前記平均ボケ量よりボケ量が所定量を超えて大きい領域に対してはボケ量を減少させ、
前記平均ボケ量よりボケ量が所定量以下だけ大きい領域に対してはボケ量の補正を行わない
ことにより、他の視差画像とのボケ量の差を抑制することを特徴とする請求項2記載の画像処理装置。
The correction means includes
For areas where the blur amount is smaller than the average blur amount, increase the blur amount according to the difference from the average blur amount,
The blur amount than the average blur amount reduces the volume Ke amount for large area exceeds a predetermined amount,
3. The blur amount difference from another parallax image is suppressed by not correcting the blur amount for a region where the blur amount is larger than the average blur amount by a predetermined amount or less. Image processing apparatus.
前記ボケ量の分布から、前記複数の視差画像の間での最大ボケ量との差分の分布を求めるボケ量差分算出手段を有し、
前記補正手段が、前記差分の分布における差分に応じて前記視差画像のボケ量を補正することにより、他の視差画像とのボケ量の差を抑制することを特徴とする請求項1記載の画像処理装置。
A blur amount difference calculating means for obtaining a difference distribution with respect to the maximum blur amount between the plurality of parallax images from the blur amount distribution;
The image according to claim 1, wherein the correction unit corrects a blur amount of the parallax image in accordance with a difference in the difference distribution, thereby suppressing a difference in blur amount with another parallax image. Processing equipment.
前記ボケ量算出手段は、前記副画素の瞳強度分布と、前記結像光学系の射出瞳との重なりの大きさに応じた前記実効絞り値を求めることにより、前記実効絞り値と像高との関係を求めることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。   The blur amount calculation means obtains the effective aperture value according to the size of the overlap between the pupil intensity distribution of the sub-pixel and the exit pupil of the imaging optical system, thereby obtaining the effective aperture value and the image height. The image processing apparatus according to claim 1, wherein the relationship is obtained. 前記補正手段は、前記他の視差画像よりボケ量が小さい領域に対してはボケ量を増加させ、前記他の視差画像よりボケ量が大きい領域に対してはボケ量を減少させることにより、他の視差画像とのボケ量の差を抑制することを特徴とする請求項1,2および5のいずれか1項に記載の画像処理装置。   The correction unit increases the blur amount for an area where the blur amount is smaller than that of the other parallax image, and decreases the blur amount for an area where the blur amount is larger than the other parallax image. The image processing apparatus according to claim 1, wherein a difference in blur amount with respect to the parallax image is suppressed. 前記補正手段は、前記他の視差画像よりボケ量が小さい領域に対してはボケ量を増加させ、前記他の視差画像よりボケ量が所定量以上大きい領域に対してはボケ量を減少させることにより、他の視差画像とのボケ量の差を抑制することを特徴とする請求項1,2および5のいずれか1項に記載の画像処理装置。   The correction unit increases the blur amount for a region where the blur amount is smaller than that of the other parallax image, and decreases the blur amount for a region where the blur amount is greater than a predetermined amount than the other parallax image. The image processing apparatus according to claim 1, wherein a difference in blur amount from another parallax image is suppressed. さらに、前記複数の視差画像の各々について、点像データを生成する手段を有し、
前記補正手段は、ボケ量を増加させる場合には前記点像データを用いたコンボリューション処理を適用し、ボケ量を減少させる場合には前記点像データを用いたコンボリューション処理を適用することにより、他の視差画像とのボケ量の差を抑制することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
Furthermore, it has means for generating point image data for each of the plurality of parallax images,
Wherein the correction means, when increasing the blur amount applies the convolution processing using the point image data, applying the deconvolution processing using the point image data when reducing the blur amount The image processing apparatus according to claim 1, wherein a difference in blur amount from another parallax image is suppressed.
前記撮像素子と、
請求項1から8のいずれか1項に記載の画像処理装置と、
前記結像光学系の情報を取得する手段と、
を有することを特徴とする撮像装置。
The imaging element;
The image processing apparatus according to any one of claims 1 to 8,
Means for acquiring information of the imaging optical system;
An imaging device comprising:
画像処理装置の制御手段が実行するための制御方法であって、
複数の画素が配列された撮像素子であって、前記画素の各々には、それぞれが結像光学系の異なる瞳部分領域を通過する光束を受光する複数の副画素が設けられた撮像素子から得られる入力画像を取得する工程と、
同じ瞳部分領域を通過する光束を受光する副画素の信号に基づいて視差画像を生成することにより、前記入力画像から複数の視差画像を生成する工程と、
前記複数の視差画像から、デフォーカス量の分布を求める工程と、
前記デフォーカス量の分布、前記複数の副画素の各々に対する前記結像光学系の射出瞳の実効絞り値、および像高から、前記複数の視差画像の各々についてボケ量の分布を求める工程と、
前記複数の視差画像の各々について、他の視差画像とのボケ量の差を抑制する補正処理を適用する工程と、
を有することを特徴とする画像処理装置の制御方法。
A control method for execution by a control means of an image processing apparatus,
An imaging device in which a plurality of pixels are arranged, and each of the pixels is obtained from an imaging device provided with a plurality of sub-pixels that receive light beams that pass through different pupil partial regions of the imaging optical system. Obtaining an input image to be obtained;
Generating a plurality of parallax images from the input image by generating a parallax image based on a signal of a sub-pixel that receives a light beam passing through the same pupil partial region; and
Obtaining a defocus amount distribution from the plurality of parallax images;
Obtaining a blur amount distribution for each of the plurality of parallax images from the defocus amount distribution, an effective aperture value of an exit pupil of the imaging optical system for each of the plurality of sub-pixels, and an image height;
Applying a correction process that suppresses a difference in blur amount from another parallax image for each of the plurality of parallax images;
A control method for an image processing apparatus, comprising:
コンピュータを、請求項1から8のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 8.
JP2013263020A 2013-12-19 2013-12-19 Image processing apparatus and control method thereof Active JP6254843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013263020A JP6254843B2 (en) 2013-12-19 2013-12-19 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013263020A JP6254843B2 (en) 2013-12-19 2013-12-19 Image processing apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2015119416A JP2015119416A (en) 2015-06-25
JP6254843B2 true JP6254843B2 (en) 2017-12-27

Family

ID=53531757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013263020A Active JP6254843B2 (en) 2013-12-19 2013-12-19 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6254843B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298853B2 (en) 2016-01-13 2019-05-21 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
JP6727856B2 (en) * 2016-03-02 2020-07-22 キヤノン株式会社 Imaging device and control method thereof
WO2021024577A1 (en) * 2019-08-06 2021-02-11 ソニー株式会社 Imaging control device, imaging control method, program, and imaging device
CN118169131A (en) * 2024-05-11 2024-06-11 合肥埃科光电科技股份有限公司 Multi-frequency camera design method, system and medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5066851B2 (en) * 2006-07-05 2012-11-07 株式会社ニコン Imaging device
JP5028930B2 (en) * 2006-09-28 2012-09-19 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5195506B2 (en) * 2009-02-24 2013-05-08 株式会社ニコン Imaging apparatus and image composition method
US8593509B2 (en) * 2010-03-24 2013-11-26 Fujifilm Corporation Three-dimensional imaging device and viewpoint image restoration method
JP5762002B2 (en) * 2011-01-06 2015-08-12 キヤノン株式会社 Imaging device

Also Published As

Publication number Publication date
JP2015119416A (en) 2015-06-25

Similar Documents

Publication Publication Date Title
CN107465866B (en) Image processing apparatus and method, image capturing apparatus, and computer-readable storage medium
JP6789833B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP6071374B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus including image processing apparatus
JP6239857B2 (en) Imaging apparatus and control method thereof
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP6239855B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
CN107431755B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
CN107960120B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6700986B2 (en) Image processing device, imaging device, image processing method, and program
JP6671130B2 (en) Imaging device, imaging device, focus detection device, image processing device, and control method therefor
JP6254843B2 (en) Image processing apparatus and control method thereof
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP2015194736A (en) Imaging device and method for controlling the same
JP2015210285A (en) Imaging device, manufacturing method of the same, program thereof and recording medium
JP7150785B2 (en) Image processing device, imaging device, image processing method, and storage medium
JP6525829B2 (en) Control device, imaging device, control method, program, and storage medium
JP2015145970A (en) Imaging device, control method of the same, program abd recording medium
JP7022575B2 (en) Focus detectors and methods, and imaging devices
JP2017219782A (en) Control device, imaging device, control method, program, and storage medium
CN113596431B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2015225310A (en) Image capturing device, control method therefor, program, and storage medium
JP2015225311A (en) Image capturing device, control method therefor, program, and storage medium
JP2016009024A (en) Focus detector, control method of the same, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171201

R151 Written notification of patent or utility model registration

Ref document number: 6254843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151