JP2017022528A - Image processing apparatus, control method therefor, program and imaging apparatus - Google Patents

Image processing apparatus, control method therefor, program and imaging apparatus Download PDF

Info

Publication number
JP2017022528A
JP2017022528A JP2015138084A JP2015138084A JP2017022528A JP 2017022528 A JP2017022528 A JP 2017022528A JP 2015138084 A JP2015138084 A JP 2015138084A JP 2015138084 A JP2015138084 A JP 2015138084A JP 2017022528 A JP2017022528 A JP 2017022528A
Authority
JP
Japan
Prior art keywords
photoelectric conversion
unit
pixel
combination
unit pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015138084A
Other languages
Japanese (ja)
Inventor
智史 生田
Satoshi Ikuta
智史 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015138084A priority Critical patent/JP2017022528A/en
Publication of JP2017022528A publication Critical patent/JP2017022528A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of correcting influences of saturation of a photoelectric conversion part upon a pupil divided image.SOLUTION: An imaging apparatus comprises: input means for inputting an image signal generated by receiving light fluxes passing different pupil regions of an imaging optical system by a plurality of photoelectric conversion parts forming a unit pixel and includes information about an angle and an intensity of the light flux incident to an imaging plane; combination determination means which exchanges a combination of signals received by the plurality of photoelectric conversion parts forming the unit pixel while using the information about the angle and the intensity of the incident light flux, thereby determining a combination of signals when focusing a specific subject; and correction means for correcting influences of saturation upon the plurality of photoelectric conversion parts caused by saturating any one of the plurality of photoelectric conversion parts forming the unit pixel during imaging on the basis of the determined combination of signals.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置及びその制御方法、プログラムならびに撮像装置に関する。   The present invention relates to an image processing apparatus, a control method therefor, a program, and an imaging apparatus.

従来、1つのマイクロレンズに対して複数の光電変換部を配置した撮像素子を利用して瞳分割像(視差画像ともいう)を取得する技術が知られている。1つのマイクロレンズに対して光電変換部を複数配置する場合、各光電変換部で変換できる容量が小さくなって各光電変換部の信号が飽和し易くなることがある。   2. Description of the Related Art Conventionally, a technique for acquiring a pupil division image (also referred to as a parallax image) using an image sensor in which a plurality of photoelectric conversion units are arranged for one microlens is known. When a plurality of photoelectric conversion units are arranged with respect to one microlens, the capacity that can be converted by each photoelectric conversion unit becomes small, and the signal of each photoelectric conversion unit may be easily saturated.

このような撮像素子から出力される画像信号を処理する場合、同一のマイクロレンズに対応する光電変換部の出力を加算すれば、視差のない表示用画像が得られることが知られている。しかし、複数配置された光電変換部の1つが飽和に達すると、加算結果が線形に増加しないため画質の劣化が生じる。このような課題に対して、特許文献1では、ある光電変換部が飽和に達した場合に、同一マイクロレンズに対応する別の光電変換部に電荷が漏れ出す画素構造を提案している。提案された画素構造によれば、画素が飽和した場合であっても失われる電荷の量が低減するため、各光電変換部の出力を加算した場合に画像の許容飽和レベルが改善する。   When processing an image signal output from such an image sensor, it is known that a display image without parallax can be obtained by adding the outputs of photoelectric conversion units corresponding to the same microlens. However, when one of a plurality of arranged photoelectric conversion units reaches saturation, the addition result does not increase linearly, resulting in degradation of image quality. In response to such a problem, Patent Document 1 proposes a pixel structure in which charges leak to another photoelectric conversion unit corresponding to the same microlens when a certain photoelectric conversion unit reaches saturation. According to the proposed pixel structure, the amount of charge lost is reduced even when the pixel is saturated, so that the allowable saturation level of the image is improved when the outputs of the respective photoelectric conversion units are added.

特開2013−84742号公報JP 2013-84742 A

しかしながら、光電変換部自体の許容飽和レベルは変化しないため、飽和している光電変換部と対になっている光電変換両部に電荷が漏れこめば、瞳分割像では本来の光の強度とは異なる強度になる。従って、それぞれの瞳分割像に対して信号処理を行う場合、飽和の影響により所望の結果を得られないことがある。   However, since the allowable saturation level of the photoelectric conversion unit itself does not change, if the charge leaks to both photoelectric conversion units paired with the saturated photoelectric conversion unit, the original light intensity in the pupil division image is Become different strength. Therefore, when signal processing is performed on each pupil division image, a desired result may not be obtained due to the influence of saturation.

本発明は、上述の従来技術の問題点に鑑みてなされたものであり、瞳分割像に対する光電変換部の飽和の影響を補正することが可能な画像処理装置及びその制御方法、プログラムならびに撮像装置を提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and is an image processing apparatus capable of correcting the influence of saturation of a photoelectric conversion unit on a pupil divided image, a control method thereof, a program, and an imaging apparatus The purpose is to provide.

この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、撮像光学系の異なる瞳領域を通過する光束を、単位画素を構成する複数の光電変換部のそれぞれで受光して生成された画像信号であって、撮像面に入射した光束の角度と強度の情報を含む画像信号を入力する入力手段と、単位画素を構成する複数の光電変換部で受光した信号の組み合わせを、入射した光束の角度と強度の情報を用いて組み替えることにより、特定の被写体に合焦させる場合に、信号の組み合わせを決定する組み合わせ決定手段と、決定した信号の組み合わせに基づいて、撮像時に単位画素を構成する複数の光電変換部のいずれかが飽和したことにより複数の光電変換部が受ける飽和の影響を補正する補正手段と、を有することを特徴とする。   In order to solve this problem, for example, an image processing apparatus of the present invention has the following configuration. That is, an image signal generated by receiving a light beam passing through different pupil regions of the imaging optical system by each of a plurality of photoelectric conversion units constituting a unit pixel, and an angle and intensity of the light beam incident on the imaging surface By combining the input means for inputting the image signal including the information of the signal and the signals received by the plurality of photoelectric conversion units constituting the unit pixel by using the information on the angle and intensity of the incident light beam, a specific subject is obtained. In the case of focusing on a plurality of photoelectric conversion units, a combination determination unit that determines a combination of signals and a plurality of photoelectric conversion units based on the determined combination of signals due to saturation of any of a plurality of photoelectric conversion units that constitute a unit pixel at the time of imaging. Correction means for correcting the influence of saturation on the conversion unit.

本発明によれば、瞳分割像に対する光電変換部の飽和の影響を補正することが可能になる。   According to the present invention, it is possible to correct the influence of the saturation of the photoelectric conversion unit on the pupil divided image.

本発明の実施形態に係る画像処理装置の一例としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram illustrating a functional configuration example of a digital camera as an example of an image processing apparatus according to an embodiment of the present invention. 本実施形態に係る撮像素子の構成及び画素の構成を説明する図2A and 2B are diagrams illustrating the configuration of an image sensor and the configuration of pixels according to the present embodiment. 本実施形態に係るリフォーカス処理を説明する図The figure explaining the refocus process which concerns on this embodiment 分割画素の飽和特性の一例を説明する図The figure explaining an example of the saturation characteristic of a division | segmentation pixel 像崩れの一例を説明する図A figure explaining an example of image collapse ケラレの一例を説明する図A figure explaining an example of vignetting 本実施形態に係る画素補正処理を説明する図The figure explaining the pixel correction process which concerns on this embodiment 実施形態1に係るリフォーカス処理の一連の動作を示すフローチャート7 is a flowchart showing a series of operations of refocus processing according to the first embodiment. 実施形態1に係る飽和補正処理の一連の動作を示すフローチャート7 is a flowchart showing a series of operations of saturation correction processing according to the first embodiment. 実施形態1に係る画素補正処理の一連の動作を示すフローチャート7 is a flowchart showing a series of operations of pixel correction processing according to the first embodiment. 実施形態2に係るデジタルカメラの機能構成例を示すブロック図FIG. 3 is a block diagram illustrating an example of a functional configuration of a digital camera according to a second embodiment 実施形態2に係る補正処理の一連の動作を示すフローチャート7 is a flowchart showing a series of operations of correction processing according to the second embodiment. 実施形態2に係る補正終了判定処理の一連の動作を示すフローチャート8 is a flowchart showing a series of operations of correction end determination processing according to the second embodiment.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、1つのマイクロレンズに複数の光電変換部を対応させた撮像素子からの出力を取得可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、1つのマイクロレンズに複数の光電変換部を対応させた撮像素子からの出力を取得可能な任意の電子機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、パーソナルコンピュータ等の電子機器、時計型や眼鏡型の情報端末、車載機器や医療機器などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, as an example of the image processing apparatus, an example in which the present invention is applied to an arbitrary digital camera capable of acquiring an output from an imaging element in which a plurality of photoelectric conversion units are associated with one microlens will be described. However, the present invention is not limited to a digital camera, and can be applied to any electronic device that can acquire an output from an image sensor in which a plurality of photoelectric conversion units are associated with one microlens. These devices may include, for example, electronic devices such as mobile phones, game machines, personal computers, clock-type or glasses-type information terminals, in-vehicle devices, medical devices, and the like.

(デジタルカメラ100の構成)
図1は、本実施形態の画像処理装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 100)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an image processing apparatus according to the present embodiment. One or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

撮像光学系101は、フォーカスレンズやズームレンズ等の光学系を含み、被写体から入射する光束を撮像素子102の撮像面上に結像させて被写体光学像を形成させる。   The imaging optical system 101 includes an optical system such as a focus lens and a zoom lens, and forms a subject optical image by forming a light beam incident from the subject on the imaging surface of the imaging element 102.

撮像素子102は、光電変換素子を有する画素が複数、2次元状に配列された構成を有すると共に各画素は複数の光電変換部を有する。撮像素子102は、撮像光学系101の異なる瞳領域を通過する光束を複数の光電変換部で分離して受光することにより、入射した光束の強度と角度の情報(光線空間情報ともいわれる)を含んだ信号を出力することができる。撮像素子102は、光電変換部の出力をA/D変換回路によってアナログ・デジタル変換して、光電変換部ごとのデジタル信号(画像信号)を出力する。各画素は、R(赤)G(緑)B(青)のいずれかのカラーフィルタを備え、ベイヤー状に配置されている。撮像素子102は、これらの色成分ごとに分離したRGB形式で画像信号を出力する。撮像素子102及び画素の詳細については後述する。   The imaging element 102 has a configuration in which a plurality of pixels each having a photoelectric conversion element are arranged two-dimensionally, and each pixel has a plurality of photoelectric conversion units. The imaging element 102 includes information on the intensity and angle of the incident light beam (also referred to as light space information) by separating and receiving the light beam passing through different pupil regions of the imaging optical system 101 by a plurality of photoelectric conversion units. Can output a signal. The image sensor 102 converts the output of the photoelectric conversion unit from analog to digital by an A / D conversion circuit, and outputs a digital signal (image signal) for each photoelectric conversion unit. Each pixel includes any color filter of R (red), G (green), and B (blue), and is arranged in a Bayer shape. The image sensor 102 outputs an image signal in the RGB format separated for each of these color components. Details of the image sensor 102 and the pixels will be described later.

制御部103は、例えばCPUあるいはMPUを含み、不図示のROMに格納されたプログラムを不図示のRAMの作業エリアに展開し、実行することにより、デジタルカメラ100の内部状態に応じて例えば撮影や記録などの動作を制御する。   The control unit 103 includes, for example, a CPU or MPU, and develops a program stored in a ROM (not shown) in a work area of a RAM (not shown) and executes it, for example, according to the internal state of the digital camera 100. Control operations such as recording.

飽和検出部104は、検出回路又は機能ブロックを含み、撮像素子102から出力される画像信号に基づいて画像信号中の飽和した光電変換部(飽和画素ともいう)の位置を検出する。なお、飽和検出部104の動作の詳細については後述する。   The saturation detection unit 104 includes a detection circuit or a functional block, and detects the position of a saturated photoelectric conversion unit (also referred to as a saturation pixel) in the image signal based on the image signal output from the image sensor 102. Details of the operation of the saturation detection unit 104 will be described later.

補正量算出部105は、演算回路又は機能ブロックを含み、後述する画素補正処理によって補正処理に用いる補正値を算出する。なお、補正量算出部105の動作の詳細については後述する。   The correction amount calculation unit 105 includes an arithmetic circuit or a functional block, and calculates a correction value used for the correction process by a pixel correction process described later. Details of the operation of the correction amount calculation unit 105 will be described later.

飽和補正部106は、演算回路又は機能ブロックを含み、補正量算出部105において算出された補正値に基づいて画像信号を補正する。なお、飽和補正部106の詳細な動作については後述する。   The saturation correction unit 106 includes an arithmetic circuit or a functional block, and corrects the image signal based on the correction value calculated by the correction amount calculation unit 105. The detailed operation of the saturation correction unit 106 will be described later.

組み合わせ決定部107は、演算回路又は機能ブロックを含み、所定の被写体に合焦する分割画素の組み合わせを決定する。なお、組み合わせ決定部107の動作の詳細については後述する。   The combination determination unit 107 includes an arithmetic circuit or a functional block, and determines a combination of divided pixels to be focused on a predetermined subject. Details of the operation of the combination determination unit 107 will be described later.

リフォーカス画像生成部108は、演算回路又は機能ブロックを含み、分割画素の並べ替え及び加算処理によって任意の焦点面で取得される画像データを再構成(リフォーカスともいう)する。なお、リフォーカス画像生成部108の動作の詳細については後述する。   The refocus image generation unit 108 includes an arithmetic circuit or a functional block, and reconstructs (also referred to as refocus) image data acquired at an arbitrary focal plane by rearranging and adding the divided pixels. Details of the operation of the refocus image generation unit 108 will be described later.

(撮像素子102の構成)
次に、本実施形態に係る撮像素子102の構成について、図2及び図3を参照して説明する。
(Configuration of the image sensor 102)
Next, the configuration of the image sensor 102 according to the present embodiment will be described with reference to FIGS.

まず、撮像素子102の画素配列の一部を図2(a)に示している。上述したように、撮像素子102は、RGBのいずれかのカラーフィルタを有する画素がベイヤー状に配置されている。また、撮像素子102上の各画素の構成を図2(b)及び図2(c)に示している。図2(b)は、撮像素子102上のある1画素を正面(図2(a)と同一の方向)から観察した構成を示している。マイクロレンズ201は、画素の前面に配置されたレンズであり、撮像光学系101を通過した光束を集光する。光電変換部202及び光電変換部203は、それぞれ光電変換領域を含み、受光した光束をそれぞれ光電変換して、個別に信号を出力することができる。また、図2(c)は、図2(b)に示す線分P−P´における画素の断面を示している。カラーフィルタ204は、マイクロレンズ201を通過した光束のうち、R、G、Bのうちの特定の波長の光を透過させる。   First, a part of the pixel array of the image sensor 102 is shown in FIG. As described above, in the image sensor 102, pixels having any of RGB color filters are arranged in a Bayer shape. The configuration of each pixel on the image sensor 102 is shown in FIGS. 2B and 2C. FIG. 2B shows a configuration in which one pixel on the image sensor 102 is observed from the front (the same direction as FIG. 2A). The micro lens 201 is a lens disposed in front of the pixel, and condenses the light beam that has passed through the imaging optical system 101. Each of the photoelectric conversion unit 202 and the photoelectric conversion unit 203 includes a photoelectric conversion region, and can photoelectrically convert each received light beam and output a signal individually. FIG. 2C shows a cross section of the pixel along the line P-P ′ shown in FIG. The color filter 204 transmits light of a specific wavelength among R, G, and B out of the light flux that has passed through the microlens 201.

上述した撮像素子102の構成において画素とは、撮像素子102上の1つのマイクロレンズ下に構成される201〜204の各要素の集合単位であり、単位画素ともいう場合がある。また、画素中の光電変換部202の位置に対応する光電変換部を分割画素A、光電変換部203の位置に対応する光電変換部を分割画素Bと呼ぶ場合がある。   In the configuration of the image sensor 102 described above, a pixel is a set unit of elements 201 to 204 configured under one microlens on the image sensor 102 and may be referred to as a unit pixel. In addition, the photoelectric conversion unit corresponding to the position of the photoelectric conversion unit 202 in the pixel may be referred to as a divided pixel A, and the photoelectric conversion unit corresponding to the position of the photoelectric conversion unit 203 may be referred to as a divided pixel B.

分割画素Aのみの画素を集めて構成した画像と分割画素Bのみの画素を集めて構成した画像(瞳分割像ともいう)では、射出瞳上の異なる領域を通過した光束をそれぞれ独立して受光しているため、視差が生じる。瞳分割像は、視差を有するため、焦点検出処理、ステレオマッチング処理又はリフォーカス処理などに利用することができる。また、分割画素Aと分割画素Bの出力(画素値)を加算すれば、瞳分割を行わない構成の画素で得られる画素値と同一になる。このため、分割画素Aと分割画素Bの出力を加算して得られた画素値に対して通常の信号処理を行うことができ、通常の表示用画像を得ることができる。なお、図2では1つの画素に対して2つの分割画素を有する形態を例示したが、1つの画素に対する分割画素の数はこれに限定されない。1つの画素に対する複数の光電変換部が、射出瞳上の異なる領域を通過した光束をそれぞれ独立して受光可能な構成であればよい。また、本実施形態ではRGBのベイヤー配列による構成を例示したが、光電変換部を積層して光の波長ごとにRGBを出力する等の構成であってもよい。   In an image configured by collecting only pixels of divided pixels A and an image configured by collecting pixels of only divided pixels B (also referred to as pupil-divided images), light beams that have passed through different areas on the exit pupil are independently received. Therefore, parallax occurs. Since the pupil division image has parallax, it can be used for focus detection processing, stereo matching processing, refocus processing, or the like. Further, if the outputs (pixel values) of the divided pixel A and the divided pixel B are added, the pixel value is the same as the pixel value obtained by a pixel having no pupil division. Therefore, normal signal processing can be performed on the pixel value obtained by adding the outputs of the divided pixels A and B, and a normal display image can be obtained. In addition, although the form which has two division | segmentation pixels with respect to one pixel was illustrated in FIG. 2, the number of the division | segmentation pixels with respect to one pixel is not limited to this. It is only necessary that the plurality of photoelectric conversion units for one pixel can independently receive light beams that have passed through different regions on the exit pupil. Further, in the present embodiment, the configuration based on the RGB Bayer array is exemplified, but a configuration in which photoelectric conversion units are stacked and RGB is output for each wavelength of light may be used.

(リフォーカス処理)
次に、リフォーカス画像生成部108によって行われるリフォーカス処理について、図3を参照して説明する。
(Refocus processing)
Next, the refocus processing performed by the refocus image generation unit 108 will be described with reference to FIG.

図3(a)は、撮像素子102の所定の領域における入射光と撮像時における焦点面の関係を示している。図3(a)では、焦点面がマイクロレンズ201の位置にある場合に光束が各分割画素301〜310に入射する様子を表している。この場合に異なるマイクロレンズに入射する光束は実線、1点鎖線、点線等の異なる種類の線で示されており、マイクロレンズに対応する2つの分割画素に入射する光束のそれぞれは同一の種類の線で示されている。この場合、撮像時の撮像素子の撮像面には、合焦した像が形成される。   FIG. 3A shows a relationship between incident light in a predetermined region of the image sensor 102 and a focal plane at the time of imaging. FIG. 3A shows a state in which a light beam enters each of the divided pixels 301 to 310 when the focal plane is at the position of the microlens 201. In this case, the light beams incident on different microlenses are indicated by different types of lines such as a solid line, a one-dot chain line, and a dotted line, and each of the light beams incident on the two divided pixels corresponding to the microlens is of the same type. Shown with lines. In this case, a focused image is formed on the imaging surface of the image sensor at the time of imaging.

図3(b)は、図3(a)においてそれぞれの分割画素が受光する光束を模式的に示している。1つのマイクロレンズの位置を単位とした場合に、位置が揃っている分割画素Aと分割画素Bを上下に並べている。即ち、焦点面がマイクロレンズ201の位置にある場合、例えば分割画素301及び分割画素302、分割画素303及び分割画素304、分割画素305及び分割画素306等の位置がそれぞれ同一のマイクロレンズの位置に揃っている。この場合に各分割画素Aと分割画素Bの信号をそれぞれ加算することにより同一の種類の線で示す光束が結像した画像(即ち合焦した画像)を得ることができる。   FIG. 3B schematically shows light beams received by the respective divided pixels in FIG. When the position of one microlens is used as a unit, the divided pixels A and the divided pixels B that are aligned are arranged vertically. That is, when the focal plane is at the position of the micro lens 201, for example, the positions of the divided pixel 301 and the divided pixel 302, the divided pixel 303 and the divided pixel 304, the divided pixel 305 and the divided pixel 306, and the like are the same micro lens position. It's all there. In this case, by adding the signals of the divided pixels A and the divided pixels B, it is possible to obtain an image (that is, an in-focus image) in which light beams indicated by the same type of line are imaged.

図3(c)は、仮定的に焦点面の位置を変更した場合の、焦点面(仮想焦点面1とする)における入射光と分割画素との対応を示している。なお、分割画素301〜310のそれぞれは実際には図3(a)で示した状態で光束を受光して光線情報を取得する。図3(d)は、図3(a)で受光した信号の位置をシフトして加算することにより、仮想焦点面1において入射する光束の状態を再構成して、仮想焦点面1におけるリフォーカス画像を生成する例を示している。この例では、図3(a)で得られた一方の瞳分割像(例えば分割画素301、303、305、・・から構成される画像)の各画素の位置を紙面左方向にシフトし、他方の瞳分割像(分割画素302、304、・・から構成される画像)と加算する。これにより、異なる種類の線の光束が結像した画像データを得ることができる。これは、図3(c)に示す仮想焦点面1で取得できる画像データと等価なリフォーカス画像となる。   FIG. 3C shows the correspondence between the incident light and the divided pixels on the focal plane (referred to as the virtual focal plane 1) when the focal plane position is changed hypothetically. Each of the divided pixels 301 to 310 actually receives the light beam in the state shown in FIG. In FIG. 3D, the position of the signal received in FIG. 3A is shifted and added, thereby reconstructing the state of the light beam incident on the virtual focal plane 1, and refocusing on the virtual focal plane 1. An example of generating an image is shown. In this example, the position of each pixel of one pupil division image (for example, an image composed of division pixels 301, 303, 305,...) Obtained in FIG. Are added to the pupil divided images (images formed from the divided pixels 302, 304,...). Thereby, image data in which light beams of different types of lines are imaged can be obtained. This is a refocus image equivalent to the image data that can be acquired on the virtual focal plane 1 shown in FIG.

図3(e)及び図3(f)は、図3(c)及び図3(d)と異なる方向に信号の位置をシフトして加算を行った例を示している。この焦点面(仮想焦点面2とする)における入射光と分割画素の関係を示している。このように信号の位置をシフトさせることにより、仮想焦点面2において入射する光束の状態を再構成している。従って、信号の位置をシフトする量を制御してシフト後の信号を加算することにより、任意の被写体領域に合焦させたリフォーカス画像を生成することができる。換言すれば、特定の被写体に対して最も相関像の一致度が高くなるようにシフト量を制御すれば、特定の被写体に合焦させた画像を生成することができる。   FIGS. 3E and 3F show an example in which addition is performed by shifting the position of the signal in a direction different from that in FIGS. 3C and 3D. The relationship between incident light and divided pixels on this focal plane (referred to as virtual focal plane 2) is shown. Thus, by shifting the position of the signal, the state of the light beam incident on the virtual focal plane 2 is reconstructed. Therefore, a refocus image focused on an arbitrary subject region can be generated by controlling the amount of signal shift and adding the shifted signals. In other words, an image focused on a specific subject can be generated by controlling the shift amount so that the degree of coincidence of the correlation image is the highest for the specific subject.

(飽和画素に対する補正処理)
次に、本実施形態に係る飽和画素に対する補正処理について説明する。そのために、撮像素子102の画素構造における画素の飽和について図4を参照して説明する。図4は入射光と出力の関係を示している。横軸はマイクロレンズに入射する光量を示し、縦軸は画素から出力される画素値を示す。出力特性401は、画素を分割しない場合の出力特性を示し、この例では飽和レベルに達するまで出力が線形に増加する。マイクロレンズを通過した光束がそれぞれの分割画素に均等に入射する場合、分割画素の出力を加算するとその出力特性は401のようになる。
(Correction processing for saturated pixels)
Next, correction processing for saturated pixels according to the present embodiment will be described. Therefore, pixel saturation in the pixel structure of the image sensor 102 will be described with reference to FIG. FIG. 4 shows the relationship between incident light and output. The horizontal axis indicates the amount of light incident on the microlens, and the vertical axis indicates the pixel value output from the pixel. An output characteristic 401 indicates an output characteristic when the pixel is not divided. In this example, the output increases linearly until the saturation level is reached. When the light beam that has passed through the microlens is uniformly incident on each divided pixel, the output characteristics of the divided pixel are added as 401 when the outputs of the divided pixels are added.

しかし、マイクロレンズの位置が像高中心であり且つ焦点が合っている状態を除き、マイクロレンズを通過した光束はそれぞれの分割画素に均等に入射しない。画面の周辺(即ち像高の大きい)の画素では、光束はマイクロレンズの光軸に対して傾いて入射するため、一方の分割画素(例えば分割画素B)のほとんどに光束が入射せず、他方の分割画素(分割画素A)には光束が入射することになる。このため、より光束の入射する分割画素(分割画素A)が先に飽和に達してしまう。分割画素についての出力特性を示すと、例えば分割画素Aの出力特性403及び分割画素Bの出力特性404のようになる。出力特性403と出力特性404とを比較すると、分割画素Aが先に飽和レベルに達する。このため分割画素Aと分割画素Bを加算した画素の特性は、出力特性402のようになり、出力特性401と比較して早く飽和の影響が出る。このような飽和の影響を低減するため、上述した特許文献1に示した公知の画素構造を採用することができる。即ち、分割画素Aで飽和に達した電荷が分割画素Bに漏れこむ構造にすれば、分割画素Aと分割画素Bの出力の総和は変化しないため、それぞれの分割画素の出力を加算した出力特性は、出力特性401のようになる。なお、分割画素Aから電荷が漏れこむ分割画素Bの特性は、図4(b)の出力特性405のようになる。   However, except for a state where the position of the microlens is the center of the image height and in focus, the light beam that has passed through the microlens does not enter the divided pixels equally. In pixels around the screen (that is, with a large image height), the light flux is incident on the optical axis of the microlens so that the light flux does not enter most of one divided pixel (for example, divided pixel B), and the other The luminous flux is incident on the divided pixels (divided pixels A). For this reason, the divided pixel (divided pixel A) on which the light beam is incident reaches saturation first. The output characteristics for the divided pixels are, for example, the output characteristics 403 of the divided pixels A and the output characteristics 404 of the divided pixels B. When the output characteristic 403 and the output characteristic 404 are compared, the divided pixel A first reaches the saturation level. For this reason, the characteristic of the pixel obtained by adding the divided pixel A and the divided pixel B becomes an output characteristic 402, and the saturation effect appears earlier than the output characteristic 401. In order to reduce the influence of such saturation, a known pixel structure shown in Patent Document 1 described above can be employed. That is, if a structure in which the charge that has reached saturation in the divided pixel A leaks into the divided pixel B, the sum of the outputs of the divided pixel A and the divided pixel B does not change. Becomes the output characteristic 401. Note that the characteristics of the divided pixel B in which charges leak from the divided pixels A are as shown by the output characteristics 405 in FIG.

上述した飽和は、例えば瞳分割像の間で相関を算出する場合に影響する。図5(a)〜図5(c)には、横軸を画素の位置とした場合の、各分割画素から出力された画像信号の波形を示している。図中の501は分割画素Aによる画像を、502は分割画素Bによる画像信号をそれぞれ表す。   The above-described saturation affects, for example, the case of calculating a correlation between pupil division images. 5A to 5C show the waveforms of the image signals output from the respective divided pixels when the horizontal axis is the pixel position. In the figure, reference numeral 501 denotes an image by the divided pixel A, and 502 denotes an image signal by the divided pixel B.

図5(a)は、飽和が発生しない場合の理想的な画像信号を示しており、501及び502はそれぞれ飽和レベルを超えた出力を行う画素がある。図5(b)は、飽和が発生する場合を示しており、飽和して漏れた電荷によって各分割画素の出力が変化し、それぞれの像が変形している(像くずれを起こしている)様子を示している。図5(c)は、図5(b)に示した両方の像を重ね合わせた場合の分割画像Aと分割画像Bによる像の差異を示している。即ち、図5(c)の丸で囲んだ部分は、像くずれによって画像信号の波形が変形した部分であり、分割画像Aと分割画像Bによる像を重ね合わせて相関演算を行う際に誤差として現れる。このため、相関演算を行うリフォーカス処理やステレオ処理によって生成される画像データの画質劣化の原因となりうる。   FIG. 5A shows an ideal image signal when saturation does not occur. Reference numerals 501 and 502 each have a pixel that outputs an output exceeding the saturation level. FIG. 5B shows a case where saturation occurs, and the output of each divided pixel is changed by the saturated and leaked charge, and the respective images are deformed (images are displaced). Is shown. FIG. 5C shows the difference in image between the divided image A and the divided image B when both the images shown in FIG. That is, the circled portion in FIG. 5C is a portion in which the waveform of the image signal is deformed due to image displacement, and an error occurs when performing correlation calculation by superimposing the images of the divided image A and the divided image B. appear. For this reason, it can cause image quality degradation of image data generated by refocus processing or stereo processing for performing correlation calculation.

次に図6〜図7を参照して、本実施形態に係る飽和画素に対する補正処理について説明する。分割画素A及び分割画素Bによる像の重ね合わせを行う場合、原理的には、合焦した状態になれば分割画素A及び分割画素Bによる像の間には視差がなくなり、分割画素A及び分割画素Bの加算画像とも一致する。   Next, correction processing for saturated pixels according to the present embodiment will be described with reference to FIGS. When superimposing the images of the divided pixel A and the divided pixel B, in principle, there is no parallax between the images of the divided pixel A and the divided pixel B in the focused state, and the divided pixel A and the divided pixel are divided. It also matches the added image of pixel B.

しかし、画素の位置が像高中心でない場合、光束の入射角の違いとケラレによって分割画素Aと分割画素Bに入射する光束のバランスが均等ではなくなり、一方の分割画素に飽和が生じる場合がある。そして、画素の位置が像高中心が離れるほどケラレの影響が大きくなる。なお、ケラレとは絞りを開放付近にしたときに撮像光学系の被写体側や本体側の縁によって光束が制限される現象であり、口径食ともいわれる。   However, when the pixel position is not the center of the image height, the balance of the light beams incident on the divided pixel A and the divided pixel B is not uniform due to the difference in the incident angle of the light beam and the vignetting, and saturation may occur in one of the divided pixels. . The influence of vignetting increases as the pixel position is further away from the center of the image height. Note that vignetting is a phenomenon in which the luminous flux is limited by the object side or the body side edge of the imaging optical system when the aperture is close to the full open, and is also referred to as vignetting.

上述したように、画素に対する入射角及びケラレは像高の高さに応じて変化する。しかし、本実施形態では、画素に対する入射角及びケラレが像高中心から像高が高くなるにつれてなだらかに変化する点に着目している。即ち、ある像高の画素についてみると、その近傍の画素同士は同様に入射角やケラレの影響を受けるため、ほぼ同じ特性を示すことを利用する。換言すれば、合焦状態にある領域における分割画素A及び分割画素Bの光量比率(出力の割合)は、近傍の画素の分割画素A及び分割画素Bであれば、その光量比率は同等になる。例えば、図6(b)に示すように、図6(a)に示す撮像素子102上の近傍の画素は、それぞれの画素においてケラレの影響が同等となる。このような特徴を利用すれば、合焦状態にある領域における飽和画素の補正処理では、補正対象となる画素の分割画素A及び分割画素Bの光量比率を、近傍の飽和の発生していない画素の光量比率と同等になるように補正すればよい。   As described above, the incident angle and vignetting with respect to the pixel change according to the height of the image height. However, in the present embodiment, attention is paid to the fact that the incident angle and vignetting with respect to the pixel change gently as the image height increases from the center of the image height. That is, regarding a pixel having a certain image height, pixels in the vicinity thereof are similarly affected by the incident angle and vignetting, and therefore, it is utilized that they exhibit substantially the same characteristics. In other words, the light amount ratios (output ratios) of the divided pixel A and the divided pixel B in the in-focus region are the same if the divided pixel A and the divided pixel B are neighboring pixels. . For example, as shown in FIG. 6B, the neighboring pixels on the image sensor 102 shown in FIG. 6A have the same vignetting effect. If such a feature is used, in the saturation pixel correction process in the in-focus region, the light quantity ratio of the divided pixel A and the divided pixel B of the pixel to be corrected is set to a neighboring pixel where saturation is not generated. It may be corrected so as to be equal to the light quantity ratio.

飽和画素に対する補正処理について、より具体的に説明する。図7(a)は、合焦状態にある領域に対する補正処理を示している。この例では、分割画素704が飽和して、分割画素703に電荷が漏れていることを図中の矢印で表している。分割画素703と分割画素704の光量比率が、分割画素701と分割画素702の光量比率と同等になることを利用すれば、分割画素704から分割画素703に漏れ出た(或いは移動した)電荷量を推定することができる。

704+α:703−α = 702:701 (1)

このように、式1を満たすような補正量αを求めて、分割画素703及び分割画素704の出力を補正することができる。
The correction process for saturated pixels will be described more specifically. FIG. 7A shows a correction process for a region in a focused state. In this example, the fact that the divided pixel 704 is saturated and the charge leaks to the divided pixel 703 is indicated by an arrow in the drawing. Using the fact that the light quantity ratio between the divided pixel 703 and the divided pixel 704 is equal to the light quantity ratio between the divided pixel 701 and the divided pixel 702, the amount of charge leaked (or moved) from the divided pixel 704 to the divided pixel 703 Can be estimated.

704 + α: 703−α = 702: 701 (1)

In this way, the correction amount α that satisfies Equation 1 is obtained, and the outputs of the divided pixels 703 and 704 can be corrected.

一方、合焦していない領域では、対となっている分割画素が同じ被写体を参照していない。そこで、上述したリフォーカス処理の原理を用いて、分割画素同士の組み合わせを変更することによって、合焦している状態の分割画素の組み合わせに組み替える。   On the other hand, in a region that is not in focus, a pair of divided pixels does not refer to the same subject. Therefore, the combination of the divided pixels is changed to a combination of the divided pixels by changing the combination of the divided pixels using the principle of the refocus processing described above.

図7(b)は、分割画素Bから出力された画像信号を、紙面右方向に3画素分シフトさせて分割画素の組み合わせを組み替えた場合の位置関係を示している。飽和画素とその影響を受けた画素について、合焦した状態が得られる場合の位置関係を示している。図7(b)の例では、物理的な分割画素の組み合わせである、飽和画素(例えば分割画素704)とその影響を受けた画素(例えば分割画素703)とは、論理上シフト数分だけずれた位置に離れて存在する。従って、以下の式を満たすような補正量αを求めることにより、分割画素704及び分割画素703を補正することができる。

704+α :706 = 702:705 (2)

このように、分割画素をシフトさせて(即ち、分割画素の組み合わせを組み替えて)合焦状態を作ることにより、瞳分割像における飽和の影響を、各分割画素の出力ごとに補正することができる。
FIG. 7B shows the positional relationship when the image signal output from the divided pixel B is shifted by three pixels in the right direction on the paper and the combination of the divided pixels is rearranged. The positional relationship when a focused state is obtained for a saturated pixel and a pixel affected by the saturation pixel is shown. In the example of FIG. 7B, the saturation pixel (for example, the divided pixel 704), which is a combination of the physical divided pixels, and the pixel (for example, the divided pixel 703) affected by the shift are logically shifted by the number of shifts. Exists at a certain distance. Therefore, the divided pixel 704 and the divided pixel 703 can be corrected by obtaining a correction amount α that satisfies the following expression.

704 + α: 706 = 702: 705 (2)

In this way, by shifting the divided pixels (that is, changing the combination of the divided pixels) to create a focused state, the influence of saturation in the pupil divided image can be corrected for each output of each divided pixel. .

(飽和画素に対する補正処理に係る一連の動作)
次に、図8〜図10を参照して、飽和画素に対する補正処理の一連の動作について説明する。なお、本処理は、例えばユーザが不図示のシャッタボタンを押下したことを、制御部が検出した場合に開始される。また、本処理は、制御部103が不図示の記録部に記憶されたプログラムを不図示の記憶部の作業用領域に展開し、実行することにより実現される。
(A series of operations related to correction processing for saturated pixels)
Next, a series of operations for correction processing for saturated pixels will be described with reference to FIGS. This process is started when the control unit detects that the user has pressed a shutter button (not shown), for example. Further, this processing is realized by the control unit 103 developing and executing a program stored in a recording unit (not shown) in a work area of a storage unit (not shown).

S801において、制御部103は、撮影処理を開始して、撮像素子102から出力された画像信号を取得する。制御部103は、ユーザによる設定又は自動で撮像光学系101を所定の撮影条件に設定し、撮像光学系101を通過して撮像素子102に結像した被写体光学像を撮像する。制御部103は、撮像素子102から出力された画像信号を入力して、後述する各部に当該画像信号を出力する。或いは、制御部103は、入力した画像信号を不図示の記憶部に一時的に格納し、後述する各部が当該記憶部から画像信号を入力してもよい。   In step S <b> 801, the control unit 103 starts shooting processing and acquires an image signal output from the image sensor 102. The control unit 103 sets the imaging optical system 101 to a predetermined imaging condition by a user setting or automatically, and captures an object optical image formed on the imaging element 102 through the imaging optical system 101. The control unit 103 receives the image signal output from the image sensor 102 and outputs the image signal to each unit described later. Alternatively, the control unit 103 may temporarily store the input image signal in a storage unit (not illustrated), and each unit described later may input the image signal from the storage unit.

次に、S802において、制御部103は、飽和検出部104等の複数の機能ブロックを制御して、補正処理を実行する。なお、補正処理に係る一連の動作については後述する。   In step S <b> 802, the control unit 103 controls a plurality of functional blocks such as the saturation detection unit 104 and executes correction processing. A series of operations related to the correction process will be described later.

S803において、制御部103は、リフォーカス画像生成部108を用いてリフォーカス画像を生成する。具体的には、リフォーカス画像生成部108は、S802において補正処理の施された画像信号を入力して上述したリフォーカス処理を行い、特定の被写体に合焦させた画像、即ちリフォーカス画像を生成する。リフォーカス画像生成部108は、リフォーカス処理を実行する際に、特定の被写体を指定するユーザ操作を入力したうえでリフォーカス処理を行ってもよい。制御部103は、リフォーカス画像生成部108からリフォーカス画像が出力されると、出力されたリフォーカス画像を不図示の表示部に表示させて、本一連の処理を終了する。   In step S <b> 803, the control unit 103 generates a refocus image using the refocus image generation unit 108. Specifically, the refocus image generation unit 108 inputs the image signal that has been subjected to the correction process in S802, performs the above-described refocus process, and obtains an image focused on a specific subject, that is, a refocus image. Generate. When executing the refocus processing, the refocus image generation unit 108 may perform the refocus processing after inputting a user operation for designating a specific subject. When the refocus image is output from the refocus image generation unit 108, the control unit 103 displays the output refocus image on a display unit (not illustrated), and ends the series of processes.

(補正処理に係る一連の動作)
次に、上述したS802における補正処理の一連の流れについて、図9を参照して説明する。
(A series of operations related to correction processing)
Next, a series of correction processing in S802 described above will be described with reference to FIG.

S901において、制御部103は、飽和検出部104を用いて、入力した画像信号に対する飽和位置検出処理を実行する。より具体的には、制御部103は、注目している画素位置を示す座標と、この注目画素の位置における分割画素Aの画素値及び分割画素Bの画素値を、飽和検出部104に入力する。飽和検出部104は、分割画素Aの画素値及び分割画素Bの画素値を、それぞれ予め定められた飽和判定用の閾値H_LIMITと比較する。
H_LIMIT<分割画素Aの画素値 (3)
H_LIMIT<分割画素Bの画素値 (4)

飽和検出部104は、式3、式4のいずれか一方または両方を満たす場合、注目している画素が飽和画素であると判定する。そして、対応する分割画素A及び分割画素Bのそれぞれに飽和判定用のフラグ情報を付与し、飽和している画素位置を制御部103の記憶部に記憶する。
In step S <b> 901, the control unit 103 uses the saturation detection unit 104 to execute saturation position detection processing on the input image signal. More specifically, the control unit 103 inputs the coordinates indicating the pixel position of interest and the pixel value of the divided pixel A and the pixel value of the divided pixel B at the position of the target pixel to the saturation detection unit 104. . The saturation detection unit 104 compares the pixel value of the divided pixel A and the pixel value of the divided pixel B with a predetermined threshold value H_LIMIT for determining saturation.
H_LIMIT <pixel value of divided pixel A (3)
H_LIMIT <pixel value of divided pixel B (4)

The saturation detection unit 104 determines that the pixel of interest is a saturated pixel when either or both of Expression 3 and Expression 4 are satisfied. Then, flag information for saturation determination is assigned to each of the corresponding divided pixel A and divided pixel B, and the saturated pixel position is stored in the storage unit of the control unit 103.

S902において、制御部103は、画素補正処理の繰り返し回数を示すカウンタiを初期化する。そして、S903において、制御部103は、補正量算出部105、飽和補正部106及び組み合わせ決定部107の其々を用いて、画素補正処理を実行する。本ステップに係る画素補正処理については、図10に示すフローチャートを参照して後述する。   In step S902, the control unit 103 initializes a counter i indicating the number of pixel correction processing repetitions. In step S <b> 903, the control unit 103 performs pixel correction processing using each of the correction amount calculation unit 105, the saturation correction unit 106, and the combination determination unit 107. The pixel correction process according to this step will be described later with reference to the flowchart shown in FIG.

S904において、制御部103は、S903における画素補正処理が終了すると、画素補正処理の繰り返し回数を示すカウンタiをインクリメント(カウンタを1つ増加させる)。   In step S904, when the pixel correction process in step S903 ends, the control unit 103 increments a counter i indicating the number of repetitions of the pixel correction process (increments the counter by one).

S905において、制御部103は、カウンタiが予め定められた繰り返し回数を示す定数(例えば2)よりも小さいかを判定する。制御部103は、カウンタiが2に満たない場合、S903に処理を戻して再びS903において画素補正処理を実行する。一方、カウンタiが2以上である場合、制御部103は補正処理を終了して、処理を呼出し元に戻す。   In step S905, the control unit 103 determines whether the counter i is smaller than a predetermined constant (for example, 2) indicating the number of repetitions. When the counter i is less than 2, the control unit 103 returns the process to S903 and executes the pixel correction process again in S903. On the other hand, when the counter i is 2 or more, the control unit 103 ends the correction process and returns the process to the caller.

なお、S903〜S905に示したように、画素補正処理を繰り返すようにした。このようにすれば、繰り返し回数を重ねるごとに像崩れの影響が低減された画像信号を用いて画素補正処理を行うことになり、補正処理の精度が向上させることができる。なお、繰り返し回数は、本実施形態において例示した2回に限定されず、より多くの回数を繰り返してもよい。   In addition, as shown in S903 to S905, the pixel correction process is repeated. In this way, every time the number of repetitions is repeated, pixel correction processing is performed using an image signal in which the influence of image corruption is reduced, and the accuracy of the correction processing can be improved. Note that the number of repetitions is not limited to the two illustrated in the present embodiment, and a larger number of repetitions may be repeated.

(画素補正処理に係る一連の動作)
さらに、画素補正処理に係る一連の動作について、図10に示すフローチャートを参照して説明する。
(A series of operations related to pixel correction processing)
Further, a series of operations related to pixel correction processing will be described with reference to a flowchart shown in FIG.

S1001において、制御部103は補正対象となる飽和画素を決定する。制御部103は、S901において制御部103の記憶部に記憶された座標に基づいて、補正対象となる飽和画素を選択し、さらにS1002において、制御部103は、補正対象となる飽和画素を中心とした近傍の領域の画像信号を読み出す。   In step S1001, the control unit 103 determines a saturated pixel to be corrected. The control unit 103 selects a saturated pixel to be corrected based on the coordinates stored in the storage unit of the control unit 103 in S901, and further in S1002, the control unit 103 centers on the saturated pixel to be corrected. The image signal of the adjacent area is read out.

S1003にいて、制御部103は、組み合わせ決定部107に対して、S1002で読み出した画像信号を用いて画像信号領域が合焦する分割画素の組み合わせを決定させる。より具体的には、組み合わせ決定部107は、分割画素A及び分割画素Bの画像信号の所定の領域を(ここではそれぞれ像信号A、Bという)入力して両画像信号の相関量CORを算出する。例えば、像信号Aを1画素ずつシフトさせてゆき、シフトした像信号Aと像信号Bの差の絶対値の和を算出する。ここで、シフト量をiで表す。また、xは画像信号領域の開始座標、yは画像信号領域の終了座標である。これらを用いて、相関量CORは以下の式によって算出することができる。   In step S1003, the control unit 103 causes the combination determination unit 107 to determine a combination of divided pixels in which the image signal area is focused using the image signal read in step S1002. More specifically, the combination determining unit 107 inputs a predetermined area of the image signal of the divided pixel A and the divided pixel B (here, referred to as image signals A and B, respectively) and calculates a correlation amount COR between the two image signals. To do. For example, the image signal A is shifted pixel by pixel, and the sum of the absolute values of the differences between the shifted image signal A and image signal B is calculated. Here, the shift amount is represented by i. Further, x is the start coordinate of the image signal area, and y is the end coordinate of the image signal area. Using these, the correlation amount COR can be calculated by the following equation.

式5においては相関量CORが小さいほど像信号Aと像信号Bの一致度が高くなる(即ち、相関が高くなる)。従って、相関量CORが最も低くなるシフト量で対応付けられた分割画素A及び分割画素Bを加算した場合に、最もコントラストは高くなる。換言すれば、算出されたシフト量(像ずれ量ともいう)における分割画素同士の組み合わせは、合焦状態に最も近い組み合わせとして扱うことができる。   In Equation 5, the smaller the correlation amount COR, the higher the degree of coincidence between the image signal A and the image signal B (that is, the correlation becomes higher). Accordingly, when the divided pixel A and the divided pixel B that are associated with the shift amount with the smallest correlation amount COR are added, the contrast becomes the highest. In other words, a combination of divided pixels in the calculated shift amount (also referred to as an image shift amount) can be handled as a combination closest to the in-focus state.

制御部103は、組み合わせ決定部107により算出された、最も相関の高くなるシフト量を記憶部に一時的に格納する。   The control unit 103 temporarily stores the shift amount calculated by the combination determination unit 107 and having the highest correlation in the storage unit.

なお、相関量を算出することにより分割画素の組み合わせを決定したが、相関量以外の方法を用いることもできる。例えば、予め不図示の外測センサ等により得られる被写界の距離情報を用いてシフト量を決定し、分割画素の組み合わせを決定してもよい。   Although the combination of the divided pixels is determined by calculating the correlation amount, a method other than the correlation amount can be used. For example, the shift amount may be determined in advance using the distance information of the object field obtained by an external measurement sensor (not shown) or the like, and the combination of divided pixels may be determined.

S1004において、制御部103は、補正量算出部105を用いて補正量を算出する。より具体的には、補正量算出部105は、分割画素A及び分割画素Bの画像信号と、S1003で求めたシフト量を入力する。そして、補正量算出部105は、当該シフト量だけ分割画素Aの画像信号と、分割画素Bの画像信号をずらし、最も相関の高くなる対応関係において一対の像信号を生成する。この一対の像信号を加算して得られる画像は、上述したように、被写体に合焦している状態として扱うことができるから、近傍(所定の範囲内)の分割画素Aと分割画素Bの光量比率はケラレと入射角の影響が支配的となっている。   In step S <b> 1004, the control unit 103 calculates a correction amount using the correction amount calculation unit 105. More specifically, the correction amount calculation unit 105 inputs the image signals of the divided pixel A and the divided pixel B and the shift amount obtained in S1003. Then, the correction amount calculation unit 105 shifts the image signal of the divided pixel A and the image signal of the divided pixel B by the shift amount, and generates a pair of image signals in the correspondence relationship having the highest correlation. As described above, the image obtained by adding the pair of image signals can be handled as being in focus on the subject, so that the divided pixels A and B in the vicinity (within a predetermined range). The influence of the vignetting and the incident angle is dominant in the light quantity ratio.

そこで、補正量算出部105は、注目している飽和画素の近傍に位置する分割画素A(NEI_A)と分割画素B(NEI_B)の光量比率に基づいて、飽和によって漏れ出た電荷の量、あるいは漏れ込んだ電荷の量αを推定する。即ち、注目している飽和画素(SAT_A)と、飽和画素の対になっている分割画素(SAT_B)の光量比率を用いると、式6を満たすαを求めることができる。

NEI_A:NEI_B = SAT_A+α:SAT_B (6)

なお、算出されたαは、本来の信号強度との差分量であるため、本実施形態では、このαを飽和に対する補正量とする。
Therefore, the correction amount calculation unit 105 determines the amount of charge leaked due to saturation based on the light amount ratio between the divided pixel A (NEI_A) and the divided pixel B (NEI_B) located in the vicinity of the saturation pixel of interest. Estimate the amount of leaked charge α. That is, α satisfying Expression 6 can be obtained by using the light amount ratio of the saturation pixel (SAT_A) of interest and the divided pixel (SAT_B) that is a pair of saturation pixels.

NEI_A: NEI_B = SAT_A + α: SAT_B (6)

Since the calculated α is a difference amount from the original signal strength, in the present embodiment, this α is set as a correction amount for saturation.

S1005において、制御部103は、飽和補正部106に対して、補正量算出処理により算出された補正量αを用いて、注目している飽和画素を補正させる。飽和補正部106は、注目している分割画素Aの画素値に対して補正量αを加算するとともに、対応する分割画素Bの画素値から補正量αを減算する。

飽和分割画素A+α (7)
飽和分割画素B‐α (8)

このようにすれば、飽和による像崩れの影響を補正することができる。
In step S1005, the control unit 103 causes the saturation correction unit 106 to correct the saturation pixel of interest using the correction amount α calculated by the correction amount calculation process. The saturation correction unit 106 adds the correction amount α to the pixel value of the divided pixel A of interest, and subtracts the correction amount α from the pixel value of the corresponding divided pixel B.

Saturated divided pixel A + α (7)
Saturated division pixel B-α (8)

In this way, it is possible to correct the influence of image corruption due to saturation.

S1006において、制御部103は全飽和画素に対する補正処理が終了したか否かを判定する。制御部103は、補正処理を行っていない飽和画素が存在する場合、処理を再びS1001に戻して次の飽和画素の補正処理を実行する。一方、制御部103は、全飽和画素の補正が終了している場合、画素補正処理の一連の動作を終了して、処理を呼び出し元に戻す。上述したように、制御部103は、S905において繰り返し処理を終了している場合、補正処理に係る一連の動作を終了する。   In step S1006, the control unit 103 determines whether correction processing for all saturated pixels has been completed. If there is a saturated pixel that has not been subjected to the correction process, the control unit 103 returns the process to S1001 again and executes the next saturated pixel correction process. On the other hand, when the correction of all saturated pixels has been completed, the control unit 103 ends a series of operations of the pixel correction process and returns the process to the caller. As described above, the control unit 103 ends the series of operations related to the correction process when the repetition process is ended in S905.

なお、本一連の処理では、ユーザがシャッタボタンを押下して撮影指示を行った場合に処理を開始するようにしたが、例えばユーザが記録済みのデータを特定して再生指示を行った場合に上述した一連の処理を行うようにしてもよい。このようにすれば、すでに撮影された画像を不図示の表示部に表示させる際に飽和画素に対する補正処理を適用することができる。   In this series of processing, the processing is started when the user gives a shooting instruction by pressing the shutter button. For example, when the user specifies recorded data and issues a playback instruction. The series of processes described above may be performed. In this way, it is possible to apply correction processing to saturated pixels when displaying an already captured image on a display unit (not shown).

また、本実施形態では、補正した画像信号をリフォーカス処理に用いる例を示したが、ステレオ画像として距離情報の算出処理に用いる場合や焦点検出に用いる場合に本補正方法を適用してもよい。   In the present embodiment, an example in which the corrected image signal is used for the refocus processing has been described. However, the present correction method may be applied when the stereo image is used for the distance information calculation processing or used for focus detection. .

以上説明したように、本実施形態では、1つのマイクロレンズに対応する複数の光電変換部を有する画素構成であって、飽和が起こる際に電荷が隣接する光電変換部に漏れ出す画素構成において取得した画像信号に対して、飽和画素に対する補正処理を行う。本実施形態に係る補正処理では、分割画素の出力を合焦状態になるように組み替えて、組み替えた後の光電変換部の組における光量比率に基づいて飽和画素に対する補正量を算出するようにした。このようにすることにより、瞳分割像に対する光電変換部の飽和の影響を補正することが可能になる。さらに、当該補正量の算出を複数回行うことにより、像くずれの影響を低減し、分割画素ごとに良好な画像信号を得ることができる。   As described above, in this embodiment, the pixel configuration includes a plurality of photoelectric conversion units corresponding to one microlens, and is acquired in a pixel configuration in which charge leaks to an adjacent photoelectric conversion unit when saturation occurs. Correction processing for saturated pixels is performed on the processed image signal. In the correction processing according to the present embodiment, the output of the divided pixels is rearranged to be in a focused state, and the correction amount for the saturated pixel is calculated based on the light amount ratio in the photoelectric conversion unit after the rearrangement. . By doing so, it becomes possible to correct the influence of the saturation of the photoelectric conversion unit on the pupil divided image. Furthermore, by calculating the correction amount a plurality of times, it is possible to reduce the influence of image shift and obtain a good image signal for each divided pixel.

(実施形態2)
次に実施形態2について説明する。実施形態1では、補正処理を予め定められた回数繰り返す例について説明したが、実施形態2では、補正処理の繰り返し回数を動的に制御する。このため、本実施形態のデジタルカメラ1100は、実施形態1と異なり飽和補正終了判定部1109を有する構成であり、その他の構成は実施形態1と同一である。このため、本実施形態の説明について参照する図面において、実施形態1と同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment, the example in which the correction process is repeated a predetermined number of times has been described, but in the second embodiment, the number of repetitions of the correction process is dynamically controlled. For this reason, the digital camera 1100 of the present embodiment has a configuration including a saturation correction end determination unit 1109 unlike the first embodiment, and the other configurations are the same as those of the first embodiment. For this reason, in the drawings to which reference is made to the description of the present embodiment, the same components as those of the first embodiment are denoted by the same reference numerals, and redundant description is omitted, and differences are mainly described.

(デジタルカメラ1100の構成)
図11は、実施形態2に係るデジタルカメラ1100の機能構成例を示している。上述したように、実施形態1で示したデジタルカメラ100に対して、飽和補正終了判定部1109を更に備える。
(Configuration of digital camera 1100)
FIG. 11 shows a functional configuration example of the digital camera 1100 according to the second embodiment. As described above, the digital camera 100 shown in the first embodiment further includes a saturation correction end determination unit 1109.

飽和補正終了判定部1109は、演算回路又は機能ブロックを含み、所定の条件に基づいて、補正処理が終了しているか否かを判定する。飽和補正終了判定部1109の詳細な動作は後述する。   The saturation correction end determination unit 1109 includes an arithmetic circuit or a functional block, and determines whether or not the correction process has ended based on a predetermined condition. The detailed operation of the saturation correction end determination unit 1109 will be described later.

(飽和画素に対する補正処理に係る一連の動作)
図12、図13を参照して、本実施形態に係る、飽和画素に対する補正処理について説明する。なお、図8に示した動作(S801〜S803)、及び図10に示した画素補正処理(S1001〜S1006)は共通であるため、以下では補正処理について説明する。
(A series of operations related to correction processing for saturated pixels)
With reference to FIGS. 12 and 13, correction processing for saturated pixels according to the present embodiment will be described. Since the operation (S801 to S803) shown in FIG. 8 and the pixel correction processing (S1001 to S1006) shown in FIG. 10 are common, the correction processing will be described below.

図12は、本実施形態に係る補正処理の一連の動作を示している。まず、制御部103は、実施形態1と同様にS901及びS903の処理を行って、画素補正処理を行う。制御部103は、画素補正処理が終了するとS1201に処理を進める。   FIG. 12 shows a series of operations of the correction processing according to this embodiment. First, the control unit 103 performs the pixel correction process by performing the processes of S901 and S903 as in the first embodiment. When the pixel correction process ends, the control unit 103 advances the process to S1201.

S1201において、制御部103は、飽和補正終了判定部1109を用いて、補正終了判定処理を実行する。飽和補正終了判定部1109による補正終了判定処理の一連の動作については、図13を参照して後述する。飽和補正終了判定部1109は、補正処理を終了させる程度にシフト量が収束している場合には判定フラグの値を0に設定し、補正処理を終了させずに更に繰り返す場合には判定フラグを0以外の値に設定する。   In step S <b> 1201, the control unit 103 executes a correction end determination process using the saturation correction end determination unit 1109. A series of operations of the correction end determination process performed by the saturation correction end determination unit 1109 will be described later with reference to FIG. The saturation correction end determination unit 1109 sets the value of the determination flag to 0 when the shift amount has converged to such an extent that the correction process is ended, and sets the determination flag when the correction process is repeated without repeating the correction process. Set to a value other than 0.

S1202において、制御部103は、補正終了判定処理においてカウントされた判定用カウントの値が0であるか否かを判定する。制御部103は、判定用カウントの値が0である場合、補正処理を完了する。一方、判定用カウントが0ではない場合は処理をS903に戻して、再度、補正後の結果を用いて画素補正処理を実行する。   In step S1202, the control unit 103 determines whether or not the value of the determination count counted in the correction end determination process is zero. When the determination count value is 0, the control unit 103 completes the correction process. On the other hand, if the determination count is not 0, the process returns to S903, and the pixel correction process is executed again using the corrected result.

次に、飽和補正終了判定部1109による補正終了判定処理の一連の動作を、図13を参照して説明する。   Next, a series of operations of the correction end determination process by the saturation correction end determination unit 1109 will be described with reference to FIG.

S1301において、飽和補正終了判定部1109は、制御部103がS1202において補正処理の終了を判定するための、判定用のカウントを0に初期化する。   In step S1301, the saturation correction end determination unit 1109 initializes a determination count for the control unit 103 to determine the end of the correction processing in step S1202.

S1302において、飽和補正終了判定部1109は、前回の画素補正処理においてS1003で算出された、飽和画素のシフト量を不図示の記憶部から読み出す。なお、初回の画素補正処理では1度しか実行されていないため、読み出したシフト量として0を設定する。   In step S1302, the saturation correction end determination unit 1109 reads the shift amount of the saturated pixel calculated in step S1003 in the previous pixel correction process from a storage unit (not illustrated). Since the first pixel correction process is executed only once, 0 is set as the read shift amount.

S1303において、飽和補正終了判定部1109は、今回の画素補正処理においてS1003で算出された、飽和画素のシフト量を記憶部から読み出す。なお、S1302及びS1303で読み出されるシフト量は、それぞれ同一の座標に位置する飽和画素に対するシフト量である。   In step S1303, the saturation correction end determination unit 1109 reads the saturation pixel shift amount calculated in step S1003 in the current pixel correction process from the storage unit. Note that the shift amounts read in S1302 and S1303 are shift amounts for saturated pixels located at the same coordinates.

S1304において、飽和補正終了判定部1109は、読み出した2つのシフト量を比較し、両者が一致するか否かを判定する。シフト量が一致する場合、即ちN−1回目とN回目の画素補正処理におけるシフト量が同一となる場合、補正による像くずれの影響が収束したと判定することができる。従って、飽和補正終了判定部1109は、判定用カウントの値をそのままにして処理をS1306に進める。   In step S1304, the saturation correction end determination unit 1109 compares the two read shift amounts, and determines whether or not they match. When the shift amounts match, that is, when the shift amounts in the (N−1) th and Nth pixel correction processes are the same, it can be determined that the influence of the image shift due to the correction has converged. Accordingly, the saturation correction end determination unit 1109 advances the processing to S1306 while leaving the determination count value as it is.

一方、シフト量が一致しない場合、S1305において判定用カウントに1を加え、処理をS1306に進める。   On the other hand, if the shift amounts do not match, 1 is added to the determination count in S1305, and the process proceeds to S1306.

S1306において、飽和補正終了判定部1109は、全ての飽和画素位置に対してシフト量の比較判定が終了したか否かを判定する。全ての飽和画素位置に対して判定が終了していない場合は処理をS1302に戻して次の座標のシフト量を読み出す。一方、飽和補正終了判定部1109は、全ての飽和画素位置に対して判定が終了している場合、補正終了判定処理を終了して呼出し元に処理を戻す。   In step S1306, the saturation correction end determination unit 1109 determines whether or not the shift amount comparison determination has been completed for all saturated pixel positions. If the determination is not completed for all the saturated pixel positions, the process returns to S1302 to read the shift amount of the next coordinate. On the other hand, when the determination for all saturated pixel positions is completed, the saturation correction end determination unit 1109 ends the correction end determination process and returns the process to the caller.

このように補正処理によって算出されるシフト量が収束するか否かを判定するようにすれば、補正の繰り返し回数を動的に制御可能となる。なお、本実施形態では、シフト量の変動を利用して補正処理の終了判定を行う例を説明したが、シフト量以外にも補正された画素値の変動(即ち補正量の変動)を用いて補正処理の終了判定を行ってもよい。このようにすれば、補正量が安定したことを利用して繰り返し処理を終了することができ、信頼性の高い補正量を算出することが可能になる。   By determining whether or not the shift amount calculated by the correction process converges in this way, the number of correction repetitions can be dynamically controlled. In the present embodiment, an example in which the correction processing end determination is performed using the shift amount variation has been described. However, in addition to the shift amount, the corrected pixel value variation (that is, the correction amount variation) is used. You may determine completion | finish of a correction process. In this way, it is possible to end the iterative process using the fact that the correction amount is stable, and it is possible to calculate a highly reliable correction amount.

以上説明したように本実施形態では、補正処理を繰り返し実行するあたり、繰り返しの前後において補正処理の結果が収束するまで繰り返し処理を実行するようにした。このようにすることにより、補正処理の繰り返し回数を動的に制御することができると共に、補正処理の信頼性を向上させることができる。   As described above, in the present embodiment, when the correction process is repeatedly performed, the process is repeatedly performed until the result of the correction process converges before and after the repetition. By doing so, it is possible to dynamically control the number of repetitions of the correction process and improve the reliability of the correction process.

(その他の実施形態)
本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101…撮像光学系、102…撮像素子、104…飽和検出部、105…補正量算出部、106…飽和補正部、107…組み合わせ決定部、1109…飽和補正終了判定部 DESCRIPTION OF SYMBOLS 101 ... Imaging optical system, 102 ... Image sensor, 104 ... Saturation detection part, 105 ... Correction amount calculation part, 106 ... Saturation correction part, 107 ... Combination determination part, 1109 ... Saturation correction end determination part

Claims (14)

撮像光学系の異なる瞳領域を通過する光束を、単位画素を構成する複数の光電変換部のそれぞれで受光して生成された画像信号であって、撮像面に入射した光束の角度と強度の情報を含む画像信号を入力する入力手段と、
前記単位画素を構成する複数の光電変換部で受光した信号の組み合わせを、前記入射した光束の角度と強度の情報を用いて組み替えることにより、特定の被写体に合焦させる場合に、前記信号の組み合わせを決定する組み合わせ決定手段と、
前記決定した信号の組み合わせに基づいて、撮像時に前記単位画素を構成する複数の光電変換部のいずれかが飽和したことにより前記複数の光電変換部が受ける飽和の影響を補正する補正手段と、を有する
ことを特徴とする画像処理装置。
An image signal generated by receiving a light beam passing through different pupil regions of the imaging optical system by each of a plurality of photoelectric conversion units constituting a unit pixel, and information on the angle and intensity of the light beam incident on the imaging surface Input means for inputting an image signal including:
The combination of signals when a combination of signals received by a plurality of photoelectric conversion units constituting the unit pixel is focused on a specific subject by recombination using information on the angle and intensity of the incident light beam. A combination determining means for determining
Correcting means for correcting the influence of saturation on the plurality of photoelectric conversion units due to saturation of any of the plurality of photoelectric conversion units constituting the unit pixel based on the determined combination of signals; An image processing apparatus comprising:
前記補正手段は、前記決定した信号の組み合わせにおいて、前記単位画素から所定の範囲内にある単位画素を構成する複数の光電変換部で受光する信号の組み合わせを用いて、前記複数の光電変換部が受ける飽和の影響を補正する
ことを特徴とする請求項1に記載の画像処理装置。
The correcting means uses a combination of signals received by a plurality of photoelectric conversion units constituting a unit pixel within a predetermined range from the unit pixel in the determined combination of signals, so that the plurality of photoelectric conversion units The image processing apparatus according to claim 1, wherein an influence of saturation received is corrected.
前記補正手段は、前記決定した信号の組み合わせにおいて、前記単位画素を構成する複数の光電変換部で受光する信号の組み合わせと、前記単位画素から所定の範囲内にある単位画素を構成する複数の光電変換部で受光する信号の組み合わせとが、それぞれ同等の出力の割合になるように、前記複数の光電変換部が受ける飽和の影響を補正する
ことを特徴とする請求項2に記載の画像処理装置。
The correction means includes, in the determined combination of signals, a combination of signals received by a plurality of photoelectric conversion units constituting the unit pixel, and a plurality of photoelectric elements constituting a unit pixel within a predetermined range from the unit pixel. The image processing apparatus according to claim 2, wherein an influence of saturation received by the plurality of photoelectric conversion units is corrected so that a combination of signals received by the conversion units has an equivalent output ratio. .
前記組み合わせ決定手段は、前記単位画素を構成する複数の光電変換部で受光する信号にそれぞれに対応する、瞳分割像の相関に基づいて、前記特定の被写体に合焦させる場合において前記単位画素を構成する複数の光電変換部で受光する信号の組み合わせを決定する
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The combination determining unit is configured to select the unit pixel when focusing on the specific subject based on a correlation of pupil-divided images corresponding to signals received by a plurality of photoelectric conversion units constituting the unit pixel. The image processing apparatus according to any one of claims 1 to 3, wherein a combination of signals received by a plurality of photoelectric conversion units is determined.
前記補正手段は、前記単位画素を構成する所定の光電変換部で受光した信号に対する補正量を用いて、前記単位画素を構成する他の光電変換部で受光した信号を補正する
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The correction unit corrects a signal received by another photoelectric conversion unit configuring the unit pixel by using a correction amount with respect to a signal received by a predetermined photoelectric conversion unit configuring the unit pixel. The image processing apparatus according to claim 1.
前記補正手段は、前記単位画素を構成する所定の光電変換部が飽和したことにより当該所定の光電変換部から漏れ出した電荷量を特定し、前記特定した電荷量に基づいて、当該所定の光電変換部で受光した信号と前記単位画素を構成する他の光電変換部で受光した信号とを補正する
ことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
The correcting unit specifies an amount of charge leaked from the predetermined photoelectric conversion unit due to saturation of the predetermined photoelectric conversion unit constituting the unit pixel, and the predetermined photoelectric conversion unit is based on the specified charge amount. 6. The image processing apparatus according to claim 1, wherein a signal received by a conversion unit and a signal received by another photoelectric conversion unit configuring the unit pixel are corrected.
前記画像処理装置は、前記組み合わせ決定手段による信号の組み合わせの決定と、前記補正手段による前記単位画素を構成する光電変換部のそれぞれで受光した信号の補正と、を繰り返す
ことを特徴とする請求項5または6に記載の画像処理装置。
The image processing apparatus repeats determination of a signal combination by the combination determination unit and correction of a signal received by each of the photoelectric conversion units constituting the unit pixel by the correction unit. The image processing apparatus according to 5 or 6.
前記画像処理装置は、前記組み合わせ決定手段による信号の組み合わせの決定と、前記補正手段による前記単位画素を構成する光電変換部のそれぞれで受光した信号の補正と、を前記補正量が収束するまで繰り返す
ことを特徴とする請求項5に記載の画像処理装置。
The image processing apparatus repeats determination of a signal combination by the combination determination unit and correction of a signal received by each of the photoelectric conversion units constituting the unit pixel by the correction unit until the correction amount converges. The image processing apparatus according to claim 5.
前記補正手段によって補正された、前記単位画素を構成する複数の光電変換部のそれぞれで受光した信号を用いて、所定の被写体に合焦させたリフォーカス画像を生成するリフォーカス画像生成手段をさらに有する
ことを特徴とする請求項5から8のいずれか1項に記載の画像処理装置。
Refocus image generation means for generating a refocus image focused on a predetermined subject using signals received by each of a plurality of photoelectric conversion units constituting the unit pixel, corrected by the correction means; The image processing apparatus according to claim 5, wherein the image processing apparatus is provided.
撮像光学系の異なる瞳領域を通過する光束を、単位画素を構成する複数の光電変換部のそれぞれで受光して生成された画像信号であって、撮像面に入射した光束の角度と強度の情報を含む画像信号を入力する入力手段と、
前記単位画素を構成する複数の光電変換部で受光した信号の組み合わせを、前記入射した光束の角度と強度の情報を用いて組み替えることにより、特定の被写体に合焦させる場合に、前記信号の組み合わせを決定する組み合わせ決定手段と、
前記決定した信号の組み合わせに基づいて、撮像時に前記単位画素を構成する所定の光電変換部が飽和したことによって当該所定の光電変換部から漏れ出した電荷量を特定し、前記漏れ出した電荷量に基づいて当該所定の光電変換部で受光した信号と前記単位画素を構成する他の光電変換部で受光した信号とを補正する補正手段と、を有する
ことを特徴とする画像処理装置。
An image signal generated by receiving a light beam passing through different pupil regions of the imaging optical system by each of a plurality of photoelectric conversion units constituting a unit pixel, and information on the angle and intensity of the light beam incident on the imaging surface Input means for inputting an image signal including:
The combination of signals when a combination of signals received by a plurality of photoelectric conversion units constituting the unit pixel is focused on a specific subject by recombination using information on the angle and intensity of the incident light beam. A combination determining means for determining
Based on the determined combination of signals, the amount of electric charge leaked from the predetermined photoelectric conversion unit due to saturation of the predetermined photoelectric conversion unit constituting the unit pixel at the time of imaging is specified, and the amount of leaked electric charge An image processing apparatus comprising: correction means for correcting a signal received by the predetermined photoelectric conversion unit and a signal received by another photoelectric conversion unit constituting the unit pixel based on
複数の光電変換部で構成する単位画素を2次元状に配列した撮像手段であって、前記画像信号を生成して出力する撮像手段と、
請求項1から10のいずれか1項に記載の画像処理装置と、を有し、
前記単位画素を構成する複数の光電変換部は、所定の光電変換部で予め定めた光量を超える光束が受光された場合に、当該光束に基づいて出力される電荷の一部が当該単位画素の他の光電変換部に流れ込むように構成される、
ことを特徴とする撮像装置。
An imaging unit in which unit pixels configured by a plurality of photoelectric conversion units are two-dimensionally arranged, and the imaging unit generates and outputs the image signal;
An image processing device according to any one of claims 1 to 10,
The plurality of photoelectric conversion units constituting the unit pixel are configured such that, when a light beam exceeding a predetermined amount of light is received by a predetermined photoelectric conversion unit, a part of charges output based on the light beam is included in the unit pixel. Configured to flow into other photoelectric conversion units,
An imaging apparatus characterized by that.
入力手段が、撮像光学系の異なる瞳領域を通過する光束を、単位画素を構成する複数の光電変換部のそれぞれで受光して生成された画像信号であって、撮像面に入射した光束の角度と強度の情報を含む画像信号を入力する入力工程と、
決定手段が、前記単位画素を構成する複数の光電変換部で受光した信号の組み合わせを、前記入射した光束の角度と強度の情報を用いて組み替えることにより、特定の被写体に合焦させる場合に、前記信号の組み合わせを決定する組み合わせ決定工程と、
補正手段が、前記決定した信号の組み合わせに基づいて、撮像時に前記単位画素を構成する複数の光電変換部のいずれかが飽和したことにより前記複数の光電変換部が受ける飽和の影響を補正する補正工程と、を有する
ことを特徴とする画像処理装置の制御方法。
The input means is an image signal generated by receiving light beams passing through different pupil regions of the imaging optical system by each of a plurality of photoelectric conversion units constituting a unit pixel, and an angle of the light beam incident on the imaging surface And an input process for inputting an image signal including intensity information;
When the determining unit refocuses a combination of signals received by a plurality of photoelectric conversion units constituting the unit pixel using information on the angle and intensity of the incident light beam, and focuses on a specific subject, A combination determining step for determining a combination of the signals;
Correction means for correcting the influence of saturation received by the plurality of photoelectric conversion units due to saturation of any of the plurality of photoelectric conversion units constituting the unit pixel at the time of imaging based on the determined combination of signals And a process for controlling the image processing apparatus.
入力手段が、撮像光学系の異なる瞳領域を通過する光束を、単位画素を構成する複数の光電変換部のそれぞれで受光して生成された画像信号であって、撮像面に入射した光束の角度と強度の情報を含む画像信号を入力する入力工程と、
決定手段が、前記単位画素を構成する複数の光電変換部で受光した信号の組み合わせを、前記入射した光束の角度と強度の情報を用いて組み替えることにより、特定の被写体に合焦させる場合に、前記信号の組み合わせを決定する組み合わせ決定工程と、
補正手段が、前記決定した信号の組み合わせに基づいて、撮像時に前記単位画素を構成する所定の光電変換部が飽和したことによって当該所定の光電変換部から漏れ出した電荷量を特定し、前記漏れ出した電荷量に基づいて当該所定の光電変換部で受光した信号と前記単位画素を構成する他の光電変換部で受光した信号とを補正する補正工程と、を有する
ことを特徴とする画像処理装置の制御方法。
The input means is an image signal generated by receiving light beams passing through different pupil regions of the imaging optical system by each of a plurality of photoelectric conversion units constituting a unit pixel, and an angle of the light beam incident on the imaging surface And an input process for inputting an image signal including intensity information;
When the determining unit refocuses a combination of signals received by a plurality of photoelectric conversion units constituting the unit pixel using information on the angle and intensity of the incident light beam, and focuses on a specific subject, A combination determining step for determining a combination of the signals;
Based on the determined combination of signals, the correction unit specifies the amount of charge leaked from the predetermined photoelectric conversion unit due to saturation of the predetermined photoelectric conversion unit constituting the unit pixel during imaging, and the leakage And a correction step of correcting a signal received by the predetermined photoelectric conversion unit and a signal received by another photoelectric conversion unit constituting the unit pixel based on the amount of the generated charge. Control method of the device.
コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 10.
JP2015138084A 2015-07-09 2015-07-09 Image processing apparatus, control method therefor, program and imaging apparatus Pending JP2017022528A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015138084A JP2017022528A (en) 2015-07-09 2015-07-09 Image processing apparatus, control method therefor, program and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015138084A JP2017022528A (en) 2015-07-09 2015-07-09 Image processing apparatus, control method therefor, program and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2017022528A true JP2017022528A (en) 2017-01-26

Family

ID=57888468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015138084A Pending JP2017022528A (en) 2015-07-09 2015-07-09 Image processing apparatus, control method therefor, program and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2017022528A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4254937A4 (en) * 2020-12-17 2024-04-17 Sony Group Corp Imaging device and signal processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122524A (en) * 2007-11-16 2009-06-04 Nikon Corp Focus detecting device and imaging apparatus
JP2013190471A (en) * 2012-03-12 2013-09-26 Canon Inc Image processing device, focus detector, and image processing program
JP2014138372A (en) * 2013-01-18 2014-07-28 Canon Inc Signal processing apparatus, imaging apparatus, and imaging system
JP2014182360A (en) * 2013-03-21 2014-09-29 Canon Inc Imaging device and method for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122524A (en) * 2007-11-16 2009-06-04 Nikon Corp Focus detecting device and imaging apparatus
JP2013190471A (en) * 2012-03-12 2013-09-26 Canon Inc Image processing device, focus detector, and image processing program
JP2014138372A (en) * 2013-01-18 2014-07-28 Canon Inc Signal processing apparatus, imaging apparatus, and imaging system
JP2014182360A (en) * 2013-03-21 2014-09-29 Canon Inc Imaging device and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4254937A4 (en) * 2020-12-17 2024-04-17 Sony Group Corp Imaging device and signal processing method

Similar Documents

Publication Publication Date Title
US10681286B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium
US9516213B2 (en) Image processing apparatus, image capturing apparatus, and control method thereof
JP5180407B2 (en) Stereo imaging device and parallax image restoration method
RU2707066C1 (en) Image processing device, image creation device, their control methods and program
US9535193B2 (en) Image processing apparatus, image processing method, and storage medium
US9369693B2 (en) Stereoscopic imaging device and shading correction method
JP6003578B2 (en) Image generation method and apparatus
JP2010271670A (en) Imaging apparatus
US20140022359A1 (en) Stereoscopic imaging apparatus and stereoscopic imaging method
JP2018107654A (en) Image processing apparatus, image processing method, program, and storage medium
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
US10097806B2 (en) Image processing apparatus, image pickup apparatus, image processing method, non-transitory computer-readable storage medium for improving quality of image
JP2016001853A (en) Image processing system, imaging device, control method, and program
US10063829B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
JP6168220B2 (en) Image generation apparatus, image processing apparatus, image generation method, and image processing program
US11277569B2 (en) Measurement apparatus, image capturing apparatus, control method, and recording medium
JP2017032646A (en) Image-capturing device and method for controlling the same
JP6330955B2 (en) Imaging apparatus and imaging method
JP2017022528A (en) Image processing apparatus, control method therefor, program and imaging apparatus
US11394899B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium for generating viewpoint movement moving image
JP6569769B2 (en) Arbitrary viewpoint image composition method and image processing apparatus
US20170155882A1 (en) Image processing apparatus, image processing method, imaging apparatus, and recording medium
JP2020085967A (en) Image processor, method for controlling the same, and program
WO2017163588A1 (en) Image processing apparatus, image pickup apparatus, and control methods therefor, and program
JP6652294B2 (en) Image processing device, imaging device, image processing method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200214