JP2017169012A - Image processing device, control method of image processing device, and imaging apparatus - Google Patents

Image processing device, control method of image processing device, and imaging apparatus Download PDF

Info

Publication number
JP2017169012A
JP2017169012A JP2016051867A JP2016051867A JP2017169012A JP 2017169012 A JP2017169012 A JP 2017169012A JP 2016051867 A JP2016051867 A JP 2016051867A JP 2016051867 A JP2016051867 A JP 2016051867A JP 2017169012 A JP2017169012 A JP 2017169012A
Authority
JP
Japan
Prior art keywords
pixel
image
signal
defective pixel
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016051867A
Other languages
Japanese (ja)
Other versions
JP6765829B2 (en
Inventor
暁彦 上田
Akihiko Ueda
暁彦 上田
福田 浩一
Koichi Fukuda
浩一 福田
勇希 吉村
Yuki Yoshimura
勇希 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016051867A priority Critical patent/JP6765829B2/en
Publication of JP2017169012A publication Critical patent/JP2017169012A/en
Application granted granted Critical
Publication of JP6765829B2 publication Critical patent/JP6765829B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To correct a pixel signal of a defective pixel due to a parallax image.SOLUTION: An imaging apparatus performs an image signal processing of an imaging image acquired by an imaging element 107 and a parallax image. A sensor part of the imaging element 107 comprises a plurality of photoelectric conversion parts, and receives a light beam passed through an eye part having a different imaging optical system. A defective pixel detection part 121a detects a defective pixel of the parallax image. An isolation defective pixel correction part 121b corrects an isolation defective pixel in which the defective pixel is not adjacent to a detected object pixel. The adjacent defective pixel correction part 121c corrects an adjacent defective pixel by using the pixel signal of the imaging image and the parallax image in a case where the defective pixel is adjacent to the detected object signal. In accordance with a detection result of the defective pixel detection part 121a, the isolation defective pixel correction and the adjacent defective pixel correction are executed.SELECTED DRAWING: Figure 1

Description

本発明は、視差を有する画像信号の画像処理技術に関するものである。   The present invention relates to an image processing technique for an image signal having parallax.

撮影レンズの射出瞳を複数の瞳部分領域に瞳分割し、分割された瞳部分領域に応じた複数の視差画像を同時に撮影可能な撮像装置がある。特許文献1では、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成された2次元撮像素子を備える撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して撮影レンズの異なる瞳部分領域を通過する光を受光する。各光電変換部により得られる信号から、各瞳部分領域に応じた複数の視差画像を生成することができる。特許文献2では、分割された光電変換部が受光した信号を、全て加算することにより撮像画像を生成することが開示されている。   There is an imaging apparatus that can divide an exit pupil of a photographing lens into a plurality of pupil partial areas and simultaneously capture a plurality of parallax images corresponding to the divided pupil partial areas. Patent Document 1 discloses an imaging apparatus including a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel. The divided photoelectric conversion units receive light passing through different pupil partial regions of the photographing lens through one microlens. A plurality of parallax images corresponding to each pupil partial region can be generated from the signal obtained by each photoelectric conversion unit. Patent Document 2 discloses that a captured image is generated by adding all the signals received by the divided photoelectric conversion units.

米国特許4410804号明細書US Pat. No. 4,410,804 特開2001−083407号公報JP 2001-083407 A

しかしながら、撮影された視差画像のごく一部に欠陥画素が生じた場合、画質低下が起きる可能性がある。本発明は、視差画像に係る欠陥画素の画素信号を補正することを目的とする。   However, when a defective pixel is generated in a small part of the captured parallax image, there is a possibility that the image quality is deteriorated. An object of the present invention is to correct a pixel signal of a defective pixel related to a parallax image.

本発明の一実施形態に係る画像処理装置は、撮像画像および視差画像の画素信号を取得する取得手段と、前記視差画像の欠陥画素検出を行う検出手段と、前記検出手段により検出された画素の信号を、当該画素に隣接する、欠陥画素でない画素の信号を用いて補正する第1の補正と、前記検出手段により検出された画素の信号を、当該画素に対応する前記撮像画像の画素の信号を用いて補正する第2の補正を行う補正手段を備える。   An image processing apparatus according to an embodiment of the present invention includes an acquisition unit that acquires pixel signals of a captured image and a parallax image, a detection unit that detects a defective pixel of the parallax image, and a pixel detected by the detection unit. A first correction that corrects a signal using a signal of a pixel that is adjacent to the pixel that is not a defective pixel, and a pixel signal detected by the detection unit is a signal of the pixel of the captured image corresponding to the pixel The correction means which performs the 2nd correction | amendment corrected using is provided.

本発明に係る画像処理装置によれば、視差画像に係る欠陥画素の画素信号を補正することができる。   According to the image processing apparatus of the present invention, it is possible to correct the pixel signal of the defective pixel related to the parallax image.

本発明の第1実施形態における撮像装置を示す概略構成図である。1 is a schematic configuration diagram illustrating an imaging apparatus according to a first embodiment of the present invention. 第1実施形態におけるセンサ配列の概略図である。It is the schematic of the sensor arrangement | sequence in 1st Embodiment. 第1実施形態における画素の概略平面図と概略断面図である。It is the schematic plan view and schematic sectional drawing of the pixel in 1st Embodiment. 第1実施形態における画素と瞳分割の概略説明図である。It is a schematic explanatory drawing of the pixel and pupil division in 1st Embodiment. 第1実施形態における瞳分割、デフォーカス量と像ずれ量の概略説明図である。FIG. 6 is a schematic explanatory diagram of pupil division, defocus amount, and image shift amount in the first embodiment. 第1実施形態における検出画素と周辺画素を例示する概略図である。It is the schematic which illustrates the detection pixel and surrounding pixel in 1st Embodiment. 第1実施形態における視差画像配列と撮像画像配列を例示する概略図である。It is the schematic which illustrates the parallax image arrangement | sequence and captured image arrangement | sequence in 1st Embodiment. 第1実施形態における視差画像配列と撮像画像配列の別例を示す概略図である。It is the schematic which shows another example of the parallax image arrangement | sequence in 1st Embodiment, and a captured image arrangement | sequence. 第1実施形態における処理を説明するメインフローチャートである。It is a main flowchart explaining the process in 1st Embodiment. 第1実施形態における欠陥画素補正処理を説明するサブフローチャートである。It is a subflow chart explaining defective pixel correction processing in a 1st embodiment. 本発明の第2実施形態におけるセンサ配列および画素構成の概略図である。It is the schematic of the sensor arrangement | sequence and pixel structure in 2nd Embodiment of this invention.

以下、本発明の例示的な実施形態を、図面に基づいて詳細に説明する。各実施形態では、本発明に係る画像処理装置をデジタルカメラ等の撮像装置に適用した例を説明するが、以下の画像処理を実行する情報処理装置や電子機器等に幅広く適用可能である。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, an example in which the image processing apparatus according to the present invention is applied to an imaging apparatus such as a digital camera will be described. However, the present invention can be widely applied to information processing apparatuses and electronic devices that execute the following image processing.

[第1実施形態]
図1は本発明の第1実施形態に係る撮像素子を有する撮像装置の構成例を示すブロック図である。撮像光学系(結像光学系)の先端に配置された第1レンズ群101は、レンズ鏡筒にて光軸方向に進退可能に保持される。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行う他、静止画撮影時には露光秒時調節用シャッタとしての機能をもつ。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)を有する。第3レンズ群105は、光軸方向の進退により焦点調節を行うフォーカスレンズである。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、例えば2次元CMOS(相補型金属酸化膜半導体)フォトセンサと周辺回路からなり、撮像光学系の結像面に配置される。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration example of an imaging apparatus having an imaging element according to the first embodiment of the present invention. The first lens group 101 disposed at the tip of the imaging optical system (imaging optical system) is held by a lens barrel so as to be able to advance and retract in the optical axis direction. The aperture / shutter 102 adjusts the aperture diameter to adjust the amount of light at the time of shooting, and also has a function as an exposure time adjustment shutter at the time of still image shooting. The second lens group 103 moves forward and backward in the direction of the optical axis integrally with the diaphragm / shutter 102 and has a zooming function in conjunction with the forward / backward movement of the first lens group 101. The third lens group 105 is a focus lens that performs focus adjustment by advancing and retreating in the optical axis direction. The optical low-pass filter 106 is an optical element for reducing false colors and moire in the captured image. The image pickup element 107 includes, for example, a two-dimensional CMOS (complementary metal oxide semiconductor) photosensor and a peripheral circuit, and is arranged on the image forming plane of the image pickup optical system.

ズームアクチュエータ111は、不図示のカム筒を回動することで、第1レンズ群101および第2レンズ群103を光軸方向に移動させて変倍動作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に移動させて焦点調節動作を行う。   The zoom actuator 111 performs a zooming operation by moving the first lens group 101 and the second lens group 103 in the optical axis direction by rotating a cam cylinder (not shown). The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. The focus actuator 114 performs the focus adjustment operation by moving the third lens group 105 in the optical axis direction.

被写体照明用の電子フラッシュ115は撮影時に使用し、キセノン管を用いた閃光照明装置または連続発光するLED(発光ダイオード)を備えた照明装置が用いられる。AF(オートフォーカス)補助光源116は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影する。これにより、低輝度の被写体または低コントラストの被写体に対する焦点検出能力が向上する。   The electronic flash 115 for illuminating the subject is used at the time of photographing, and a flash illumination device using a xenon tube or an illumination device including a continuous light emitting LED (light emitting diode) is used. An AF (autofocus) auxiliary light source 116 projects an image of a mask having a predetermined opening pattern onto a subject field via a light projection lens. This improves the focus detection capability for low-luminance subjects or low-contrast subjects.

カメラ本体部の制御部を構成するCPU(中央演算処理装置)121は、種々の制御を司る制御中枢機能をもつ。CPU121は、演算部、ROM(リード・オンリ・メモリ)、RAM(ランダム・アクセス・メモリ)、A(アナログ)/D(デジタル)コンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。CPU121はROMに記憶された所定のプログラムに従って、カメラ内の各種回路を駆動し、AF制御、撮像処理、画像処理、記録処理等の一連の動作を実行する。   A CPU (Central Processing Unit) 121 that constitutes a control unit of the camera body has a control center function that controls various controls. The CPU 121 includes a calculation unit, ROM (read only memory), RAM (random access memory), A (analog) / D (digital) converter, D / A converter, communication interface circuit, and the like. The CPU 121 drives various circuits in the camera according to a predetermined program stored in the ROM, and executes a series of operations such as AF control, imaging processing, image processing, and recording processing.

欠陥画素検出部121aは、撮影画像において欠陥画素があるかどうかを検出する。孤立欠陥画素補正部121bは、隣接してない孤立欠陥画素の補正を行う。隣接欠陥画素補正部121cは、隣接した欠陥画素の補正を行う。欠陥画素の検出および補正処理の詳細については後述する。欠陥画素検出部121a、孤立欠陥画素補正部121b、隣接欠陥画素補正部121cは、CPU121の処理によって実現される機能ブロックとして示す。なお、本実施形態ではCPU121の処理が撮像装置の一部として行われる場合を説明する。これに限らず、CPU121の機能のうち、画像処理や欠陥画素検出部121a、孤立欠陥画素補正部121b、隣接欠陥画素補正部121cを、撮像装置とは別の画像処理装置に設ける実施形態でもよい。   The defective pixel detection unit 121a detects whether there is a defective pixel in the captured image. The isolated defective pixel correction unit 121b corrects isolated defective pixels that are not adjacent to each other. The adjacent defective pixel correction unit 121c corrects adjacent defective pixels. Details of the defective pixel detection and correction process will be described later. The defective pixel detection unit 121a, the isolated defective pixel correction unit 121b, and the adjacent defective pixel correction unit 121c are illustrated as functional blocks realized by the processing of the CPU 121. In the present embodiment, a case will be described in which the processing of the CPU 121 is performed as a part of the imaging apparatus. However, the present invention is not limited to this, and the image processing and defective pixel detection unit 121a, the isolated defective pixel correction unit 121b, and the adjacent defective pixel correction unit 121c may be provided in an image processing device different from the imaging device, among the functions of the CPU 121. .

電子フラッシュ制御回路122はCPU121の制御指令に従い、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光源駆動回路123はCPU121の制御指令に従い、焦点検出動作に同期してAF補助光源116を点灯制御する。撮像素子駆動回路124は撮像素子107の撮像動作を制御するとともに、取得した撮像信号をA/D変換してCPU121に送信する。画像処理回路125はCPU121の制御指令に従い、撮像素子107により取得した画像のガンマ変換、カラー補間、JPEG(Joint Photographic Experts Group)圧縮等の処理を行う。   The electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation in accordance with a control command from the CPU 121. The auxiliary light source driving circuit 123 controls the lighting of the AF auxiliary light source 116 in synchronization with the focus detection operation according to the control command of the CPU 121. The image sensor driving circuit 124 controls the image capturing operation of the image sensor 107, A / D converts the acquired image signal, and transmits it to the CPU 121. The image processing circuit 125 performs processing such as gamma conversion, color interpolation, JPEG (Joint Photographic Experts Group) compression of an image acquired by the image sensor 107 in accordance with a control command of the CPU 121.

フォーカス駆動回路126はCPU121の制御指令に従い、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動し、第3レンズ群105を光軸方向に移動させて焦点調節を行う。絞りシャッタ駆動回路128はCPU121の制御指令に従い、絞りシャッタアクチュエータ112を駆動し、絞り兼用シャッタ102の開口径を制御する。ズーム駆動回路129はCPU121の制御指令に従い、撮影者のズーム操作指示に応じてズームアクチュエータ111を駆動する。   The focus drive circuit 126 drives the focus actuator 114 based on the focus detection result in accordance with the control command of the CPU 121, and moves the third lens group 105 in the optical axis direction to perform focus adjustment. The aperture shutter drive circuit 128 drives the aperture shutter actuator 112 in accordance with a control command from the CPU 121 to control the aperture diameter of the aperture / shutter 102. The zoom drive circuit 129 drives the zoom actuator 111 according to the zoom operation instruction of the photographer according to the control command of the CPU 121.

表示部131はLCD(液晶表示装置)等の表示デバイスを有し、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。操作部132は操作スイッチとして、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を備え、操作指示信号をCPU121に出力する。フラッシュメモリ133はカメラ本体部に着脱可能な記録媒体であり、撮影済み画像データ等を記録する。   The display unit 131 has a display device such as an LCD (Liquid Crystal Display), and displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a focus state display image at the time of focus detection, and the like. To do. The operation unit 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like as operation switches, and outputs an operation instruction signal to the CPU 121. The flash memory 133 is a recording medium that can be attached to and detached from the camera body, and records captured image data and the like.

次に図2を参照して本実施形態における撮像素子のセンサ部(光電変換部)の配列を説明する。図2は、本実施形態における撮像素子のセンサ部の配列を示す概略図である。図2の左右方向をx軸方向とし、上下方向をy軸方向とし、x軸方向およびy軸方向に直交する方向(紙面に垂直な方向)をz軸方向と定義する。2次元CMOSセンサ(撮像素子)の撮像センサ配列を4列×4行の範囲で例示し、焦点検出センサ配列を8列×4行の範囲で例示する。撮像信号を出力する撮像センサ部は、複数に分割された光電変換部から構成される。本実施形態では、所定方向に2分割された光電変換部を例示する。   Next, the arrangement of the sensor units (photoelectric conversion units) of the image sensor according to the present embodiment will be described with reference to FIG. FIG. 2 is a schematic diagram illustrating the arrangement of the sensor units of the image sensor according to the present embodiment. The left-right direction in FIG. 2 is defined as the x-axis direction, the up-down direction is defined as the y-axis direction, and the direction perpendicular to the x-axis direction and the y-axis direction (the direction perpendicular to the paper surface) is defined as the z-axis direction. An imaging sensor array of a two-dimensional CMOS sensor (imaging device) is illustrated in a range of 4 columns × 4 rows, and a focus detection sensor array is illustrated in a range of 8 columns × 4 rows. An image sensor unit that outputs an image signal is composed of a plurality of photoelectric conversion units. In the present embodiment, a photoelectric conversion unit divided into two in a predetermined direction is illustrated.

2列×2行のセンサ群200は、1組のセンサ部200R,200G,200Bを備える。センサ部200R(左上の位置参照)はR(赤)色の分光感度を有し、センサ部200G(右上と左下の位置参照)はG(緑)色の分光感度を有する。センサ部200B(右下の位置参照)はB(青)色の分光感度を有する。さらに、各センサ部は2列×1行に配列された第1光電変換部201と第2光電変換部202により構成されている。光電変換部はそれぞれ、焦点検出信号を出力する焦点検出センサとしての機能を有する。図2に示す例では、4列×4行のセンサ部(8列×4行の光電変換部)を平面上に多数配置することで、撮像画像信号および焦点検出信号が取得可能である。撮像素子にて、センサ部の周期Pを4μm(マイクロメートル)とし、画素数Nを横5575列×縦3725行(約2075万画素)とする。また、分割された光電変換部の配列方向周期PSUBを2μmとし、対応する画素数Nを横11150列×縦3725行(約4150万画素)とする。 The sensor group 200 of 2 columns × 2 rows includes a pair of sensor units 200R, 200G, and 200B. The sensor unit 200R (see the upper left position) has an R (red) spectral sensitivity, and the sensor unit 200G (upper right and lower left positions) has a G (green) spectral sensitivity. The sensor unit 200B (see the lower right position) has a spectral sensitivity of B (blue). Further, each sensor unit includes a first photoelectric conversion unit 201 and a second photoelectric conversion unit 202 arranged in 2 columns × 1 row. Each of the photoelectric conversion units has a function as a focus detection sensor that outputs a focus detection signal. In the example illustrated in FIG. 2, a large number of sensor units of 4 columns × 4 rows (8 columns × 4 rows of photoelectric conversion units) are arranged on a plane, so that captured image signals and focus detection signals can be acquired. In the imaging device, the period P of the sensor unit is 4 μm (micrometers), and the number of pixels N is 5575 columns × 3725 rows (approximately 20.75 million pixels). Further, the divided arrangement direction period P SUB of the photoelectric conversion unit and 2 [mu] m, the corresponding number of pixels N S horizontal 11150 rows × vertical 3725 lines (about 41.5 million pixels).

図2に示す撮像素子における1つのセンサ部200Gを、撮像素子の受光面側(+z側)から見た場合の平面図を図3(A)に示す。図3(A)の紙面に垂直な方向にz軸を設定し、手前側をz軸の正方向と定義する。また、z軸に直交する上下方向にy軸を設定して上方をy軸の正方向とし、z軸およびy軸に直交する左右方向にx軸を設定して右方をx軸の正方向と定義する。図3(A)にてa−a切断線に沿って、−y側から見た場合の断面図を図3(B)に示す。センサ部200Gは、各画素の受光面側(+z方向)にて入射光を集光するためのマイクロレンズ305が形成され、分割された複数の光電変換部を備える。例えば、x方向における分割数をNとし、y方向における分割数をNとする。図3には、瞳領域を水平方向にて2分割した例、すなわち、N=2,N=1の場合を例示し、光電変換部301と光電変換部302が形成されている。光電変換部301は第1の焦点検出センサに対応し、光電変換部302は第2の焦点検出センサに対応する。 FIG. 3A shows a plan view when one sensor unit 200G in the image sensor shown in FIG. 2 is viewed from the light receiving surface side (+ z side) of the image sensor. The z axis is set in a direction perpendicular to the paper surface of FIG. 3A, and the near side is defined as the positive direction of the z axis. Also, the y-axis is set in the vertical direction perpendicular to the z-axis, the upper direction is the positive direction of the y-axis, the x-axis is set in the horizontal direction perpendicular to the z-axis and the y-axis, and the right direction is the positive direction of the x-axis It is defined as FIG. 3B shows a cross-sectional view when viewed from the −y side along the line aa in FIG. The sensor unit 200G has a microlens 305 for condensing incident light on the light receiving surface side (+ z direction) of each pixel, and includes a plurality of divided photoelectric conversion units. For example, the number of division in the x direction and N H, the division number in y-direction and N V. FIG. 3 illustrates an example in which the pupil region is divided into two in the horizontal direction, that is, a case where N H = 2 and N V = 1, and a photoelectric conversion unit 301 and a photoelectric conversion unit 302 are formed. The photoelectric conversion unit 301 corresponds to the first focus detection sensor, and the photoelectric conversion unit 302 corresponds to the second focus detection sensor.

光電変換部301と光電変換部302は、例えばp型層300とn型層との間にイントリンシック層を挟んだpin構造フォトダイオードとして形成される。または必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとして形成してもよい。各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルタ306が形成される。必要に応じて、光電変換部ごとにカラーフィルタ306の分光透過率を変えてもよいし、カラーフィルタを省略しても構わない。   The photoelectric conversion unit 301 and the photoelectric conversion unit 302 are formed as, for example, a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer 300 and an n-type layer. Alternatively, if necessary, the intrinsic layer may be omitted and formed as a pn junction photodiode. In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion unit 301 and the photoelectric conversion unit 302. If necessary, the spectral transmittance of the color filter 306 may be changed for each photoelectric conversion unit, or the color filter may be omitted.

センサ部200Gに入射した光はマイクロレンズ305が集光し、さらにカラーフィルタ306で分光された後に、光電変換部301と光電変換部302がそれぞれ受光する。光電変換部301と光電変換部302では、受光量に応じて電子とホール(正孔)が対生成され、空乏層で分離された後、負電荷をもつ電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子の外部へ排出される。光電変換部301と光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送されて電圧信号に変換される。   The light incident on the sensor unit 200G is collected by the microlens 305 and further dispersed by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302, respectively. In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, a pair of electrons and holes (holes) are generated according to the amount of received light, separated by a depletion layer, and then electrons having a negative charge are transferred to an n-type layer (not shown). Accumulated. On the other hand, the holes are discharged to the outside of the image sensor through a p-type layer connected to a constant voltage source (not shown). Electrons accumulated in the n-type layer (not shown) of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are transferred to the capacitance unit (FD) via the transfer gate and converted into a voltage signal.

図4は、画素構造と瞳分割との対応関係を示す概略的な説明図である。図4には、図3(A)に示した画素構造のa−a線での切断面を、+y方向から見た場合の断面図と、結像光学系の射出瞳面(射出瞳400参照)を、−z方向から見た図を示す。図4では、射出瞳面の座標軸と対応を取るために、断面図にてx軸とy軸を図3に示す状態とは反転させて示している。   FIG. 4 is a schematic explanatory diagram showing the correspondence between the pixel structure and pupil division. 4A and 4B are a cross-sectional view of the cross section taken along the line aa of the pixel structure shown in FIG. 3A when viewed from the + y direction, and an exit pupil plane of the imaging optical system (see the exit pupil 400). ) Is viewed from the −z direction. In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x axis and the y axis in the cross-sectional view are shown reversed from the state shown in FIG. 3.

第1瞳部分領域501は、−x方向に重心が偏倚している光電変換部301の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。つまり、第1瞳部分領域501は第1光電変換部301で受光可能な瞳領域を表し、瞳面上で+X方向に重心が偏倚している。また、第2瞳部分領域502は、重心が+x方向に偏倚している光電変換部302の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。第2瞳部分領域502は第2光電変換部302で受光可能な瞳領域を表し、瞳面上で−X方向に重心が偏倚している。また、図4に示す瞳領域500は、光電変換部301と光電変換部302を全て併せた場合の、センサ部200G全体で受光可能な瞳領域である。   The first pupil partial region 501 is substantially conjugated by the microlens 305 with respect to the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is deviated in the −x direction. That is, the first pupil partial region 501 represents a pupil region that can be received by the first photoelectric conversion unit 301, and the center of gravity is biased in the + X direction on the pupil plane. In addition, the second pupil partial region 502 is substantially conjugated by the microlens 305 with respect to the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is deviated in the + x direction. The second pupil partial region 502 represents a pupil region that can be received by the second photoelectric conversion unit 302, and the center of gravity is biased in the −X direction on the pupil plane. A pupil region 500 illustrated in FIG. 4 is a pupil region that can be received by the entire sensor unit 200G when the photoelectric conversion unit 301 and the photoelectric conversion unit 302 are all combined.

入射光は、マイクロレンズにより、焦点位置に集光される。しかし、光の波動性による回折の影響のため、集光スポットの直径は回折限界Δより小さくすることはできず、有限の大きさとなる。光電変換部の受光面サイズは約1〜2μm程度であり、これに対してマイクロレンズの集光スポットが約1μm程度である。そのため、光電変換部の受光面とマイクロレンズを介して共役の関係にある、図4の第1瞳部分領域501と第2瞳部分領域502は、回折暈けのため、明瞭に瞳分割されず、受光率分布(瞳強度分布)となる。   Incident light is condensed at the focal position by the microlens. However, due to the influence of diffraction due to the wave nature of light, the diameter of the focused spot cannot be made smaller than the diffraction limit Δ, and has a finite size. The size of the light receiving surface of the photoelectric conversion unit is about 1 to 2 μm, whereas the condensing spot of the microlens is about 1 μm. Therefore, the first pupil partial region 501 and the second pupil partial region 502 in FIG. 4 that are in a conjugate relationship with the light receiving surface of the photoelectric conversion unit via the microlens are not clearly divided into pupils due to diffraction loss. , The light reception rate distribution (pupil intensity distribution).

撮像素子と瞳分割との対応関係を図5(A)の概略図に示す。第1瞳部分領域501と第2瞳部分領域502という、異なる瞳部分領域をそれぞれ通過した光束は、撮像素子の各画素に異なる角度で入射する。入射光は、N(=2)×N(=1)に分割された光電変換部301と光電変換部302がそれぞれ受光して光電変換する。本実施形態では、瞳領域が水平方向に2分割されている例を示すが、必要に応じて、垂直方向に瞳分割を行ってもよい。 The correspondence between the image sensor and pupil division is shown in the schematic diagram of FIG. The light fluxes that have passed through different pupil partial areas, ie, the first pupil partial area 501 and the second pupil partial area 502, enter each pixel of the image sensor at different angles. Incident light is received and photoelectrically converted by the photoelectric conversion unit 301 and the photoelectric conversion unit 302 that are divided into N H (= 2) × N V (= 1). In this embodiment, an example in which the pupil region is divided into two in the horizontal direction is shown, but pupil division may be performed in the vertical direction as necessary.

以上のように本実施形態の撮像素子は、結像光学系の異なる瞳部分領域を通過する光束をそれぞれ受光する複数の光電変換部が設けられたセンサ部を、複数配列させた構造を有する。例えば、撮像素子の画素ごとに、複数の光電変換部の信号を加算して読み出すことで、有効画素数の解像度の撮像画像が生成される。この場合、撮像画像は、画素ごとに複数の光電変換部の受光信号を合成することで生成される。また、別の方法では、撮像素子の光電変換部201の受光信号を集めて第1の視差画像が生成される。撮像画像から第1の視差画像を減算して第2の視差画像が生成される。必要に応じて、撮像素子の光電変換部201の受光信号を集めて第1の視差画像を生成し、光電変換部202の受光信号を集めて第2の視差画像を生成してもよい。異なる瞳部分領域ごとに、光電変換部の受光信号から、1つ以上の視差画像を生成することができる。   As described above, the imaging device of the present embodiment has a structure in which a plurality of sensor units each provided with a plurality of photoelectric conversion units that respectively receive light beams passing through different pupil partial regions of the imaging optical system are arranged. For example, by adding and reading out signals from a plurality of photoelectric conversion units for each pixel of the image sensor, a captured image having a resolution of the effective number of pixels is generated. In this case, the captured image is generated by combining light reception signals of a plurality of photoelectric conversion units for each pixel. In another method, the first parallax image is generated by collecting the light reception signals of the photoelectric conversion unit 201 of the image sensor. A second parallax image is generated by subtracting the first parallax image from the captured image. If necessary, the light reception signals of the photoelectric conversion unit 201 of the image sensor may be collected to generate a first parallax image, and the light reception signals of the photoelectric conversion unit 202 may be collected to generate a second parallax image. For each different pupil partial region, one or more parallax images can be generated from the light reception signal of the photoelectric conversion unit.

本実施形態では、撮像画像、第1の視差画像、第2の視差画像はそれぞれ、ベイヤー配列の画像となる。必要に応じて、ベイヤー配列の撮像画像、第1の視差画像、第2の視差画像にデモザイキング処理を行ってもよい。   In the present embodiment, each of the captured image, the first parallax image, and the second parallax image is a Bayer array image. If necessary, the demosaicing process may be performed on the captured image of the Bayer array, the first parallax image, and the second parallax image.

次に、撮像素子により取得される第1の視差画像と第2の視差画像のデフォーカス量と、像ずれ量との関係について説明する。
図5(B)は、第1の視差画像と第2の視差画像のデフォーカス量と、第1の視差画像と第2の視差画像との間の像ずれ量について概略的に示す関係図である。撮像面800には撮像素子(不図示)が配置され、図4、図5(A)の場合と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割される。
Next, the relationship between the defocus amounts of the first parallax image and the second parallax image acquired by the image sensor and the image shift amount will be described.
FIG. 5B is a relationship diagram schematically illustrating the defocus amounts of the first parallax image and the second parallax image, and the image shift amount between the first parallax image and the second parallax image. is there. An imaging element (not shown) is arranged on the imaging surface 800, and the exit pupil of the imaging optical system is divided into the first pupil partial region 501 and the second pupil partial region as in the case of FIGS. 4 and 5A. Divided into 502.

デフォーカス量dは、その大きさ|d|が被写体像の結像位置から撮像面800までの距離を表す。被写体像の結像位置が撮像面800よりも被写体側にある前ピン状態では、負符号(d<0)とし、これとは反対の後ピン状態では正符号(d>0)として向きを定義する。被写体像の結像位置が撮像面(合焦位置)にある合焦状態では、d=0である。図5(B)に示す被写体801の位置は、合焦状態(d=0)に対応する位置を示しており、被写体802の位置は前ピン状態(d<0)に対応する位置を例示する。以下では、前ピン状態(d<0)と後ピン状態(d>0)とを併せて、デフォーカス状態(|d|>0)という。   The size | d | of the defocus amount d represents the distance from the imaging position of the subject image to the imaging surface 800. The orientation is defined as a negative sign (d <0) in the front pin state where the imaging position of the subject image is closer to the subject side than the imaging surface 800, and a positive sign (d> 0) in the rear pin state opposite to this. To do. In an in-focus state where the image formation position of the subject image is on the imaging surface (in-focus position), d = 0. The position of the subject 801 shown in FIG. 5B indicates a position corresponding to the in-focus state (d = 0), and the position of the subject 802 exemplifies a position corresponding to the front pin state (d <0). . Hereinafter, the front pin state (d <0) and the rear pin state (d> 0) are collectively referred to as a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(または第2瞳部分領域502)を通過した光束は、いったん集光した後、光束の重心位置G1(またはG2)を中心として幅Γ1(またはΓ2)に広がる。この場合、撮像面800上で暈けた像となる。暈け像は、撮像素子に配列された第1光電変換部301(または第2光電変換部302)により受光され、第1の視差画像信号(または第2の視差画像信号)が生成される。よって、第1の視差画像(または第2の視差画像)は、撮像面800上の重心位置G1(またはG2)にて、幅Γ1(またはΓ2)をもった被写体像(暈け像)の画像データとしてメモリに記憶される。被写体像の幅Γ1(またはΓ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1の視差画像と第2の視差画像との間の被写体像の像ずれ量を「p」と記すと、その大きさ|p|はデフォーカス量dの大きさ|d|の増加に伴って増加する。例えば、像ずれ量pは光束の重心位置の差「G1−G2」として定義され、その大きさ|p|は、|d|が増加するのに伴い、概ね比例して増加する。なお、後ピン状態(d>0)では、第1の視差画像と第2の視差画像との間の被写体像の像ずれ方向が前ピン状態とは反対となるが、同様の傾向がある。   In the front pin state (d <0), the luminous flux that has passed through the first pupil partial area 501 (or the second pupil partial area 502) out of the luminous flux from the subject 802 is once condensed and then the gravity center position G1 of the luminous flux. (Or G2) is spread around the width Γ1 (or Γ2). In this case, the image is blurred on the imaging surface 800. The blurred image is received by the first photoelectric conversion unit 301 (or the second photoelectric conversion unit 302) arranged in the imaging device, and a first parallax image signal (or a second parallax image signal) is generated. Therefore, the first parallax image (or the second parallax image) is an image of a subject image (blurred image) having a width Γ1 (or Γ2) at the center of gravity G1 (or G2) on the imaging surface 800. Stored in memory as data. The width Γ1 (or Γ2) of the subject image increases approximately proportionally as the magnitude | d | of the defocus amount d increases. Similarly, when the image shift amount of the subject image between the first parallax image and the second parallax image is denoted by “p”, the magnitude | p | is the magnitude of the defocus amount d | d | It increases with the increase. For example, the image shift amount p is defined as a difference “G1−G2” in the center of gravity position of the light beam, and its magnitude | p | increases approximately proportionally as | d | increases. In the rear pin state (d> 0), the image shift direction of the subject image between the first parallax image and the second parallax image is opposite to that in the front pin state, but there is a similar tendency.

したがって、本実施形態の場合には、第1の視差画像と第2の視差画像、または、第1の視差画像と第2の視差画像を加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1の視差画像と第2の視差画像との間の像ずれ量の大きさが増加する。   Therefore, in the case of this embodiment, the magnitude of the defocus amount of the imaging signal obtained by adding the first parallax image and the second parallax image or the first parallax image and the second parallax image increases. As a result, the magnitude of the image shift amount between the first parallax image and the second parallax image increases.

以下、本実施形態における視差画像の補正処理について説明する。
撮像素子107の各画素部、つまり結像光学系の異なる瞳部分領域をそれぞれ通過する光束を受光する複数の光電変換部からは、撮像画像と、1つ以上の視差画像(例えば、第1の視差画像)とが取得される。取得された撮像画像と第1の視差画像は画像処理回路125に入力され、撮像画像に基づいて補正処理が行われる。必要に応じて、取得された撮像画像と視差画像を記録装置の記録媒体に保存してもよい。この場合、保存された撮像画像と視差画像の各データが記録媒体から読み出されて画像処理回路125に入力される。
Hereinafter, the parallax image correction processing according to the present embodiment will be described.
From each of the pixel units of the image sensor 107, that is, a plurality of photoelectric conversion units that receive light beams that pass through different pupil partial regions of the imaging optical system, a captured image and one or more parallax images (for example, a first parallax image) Parallax image) is acquired. The acquired captured image and the first parallax image are input to the image processing circuit 125, and correction processing is performed based on the captured image. If necessary, the acquired captured image and parallax image may be stored in a recording medium of the recording apparatus. In this case, the stored captured image data and parallax image data are read from the recording medium and input to the image processing circuit 125.

撮像素子の回路構成や駆動方式により、転送ゲートの短絡などで、撮像画像は正常であるが、例えば第1の視差画像にキズ信号が生じ、点キズや線キズとなる可能性がある。その対策として、量産工程等で検査された点キズ情報や線キズ情報は、画像処理回路125等に事前に記録される。記録された点キズ情報や線キズ情報を用いて視差画像の補正処理が行われる。また、必要に応じて、視差画像をリアルタイムに検査して点キズ判定や線キズ判定を行ってもよい。   Depending on the circuit configuration and driving method of the image sensor, the captured image is normal due to a short circuit of the transfer gate, but a scratch signal may be generated in the first parallax image, for example, which may be a point scratch or a line scratch. As a countermeasure, point scratch information and line scratch information inspected in a mass production process or the like are recorded in advance in the image processing circuit 125 or the like. A parallax image correction process is performed using the recorded point flaw information and line flaw information. Further, if necessary, the point defect determination or the line scratch determination may be performed by inspecting the parallax image in real time.

図6を参照して、欠陥画素検出について説明する。図6は、欠陥画素検出を行う際、検出画素の出力値(第1出力値)と、検出画素に近接した周辺の画素の出力値(第2出力値)との差分値を算出して評価する方法の説明図である。図6(A)は近接する5×5画素の領域を用いて欠陥画素検出を行う場合を例示する。図6(B)は近接する±3行の領域(7×7画素の領域)を用いて欠陥画素検出を行う場合を例示する。整数の変数iとjを用いて、各画素の位置を表現している。図6では縦方向の画素位置を変数iで表し、横方向の画素位置を変数jで表している。   The defective pixel detection will be described with reference to FIG. FIG. 6 illustrates evaluation by calculating a difference value between an output value (first output value) of a detected pixel and an output value (second output value) of a neighboring pixel close to the detected pixel when performing defective pixel detection. It is explanatory drawing of the method to do. FIG. 6A illustrates a case where defective pixel detection is performed using an adjacent 5 × 5 pixel region. FIG. 6B illustrates an example in which defective pixel detection is performed using adjacent ± 3 row regions (regions of 7 × 7 pixels). The position of each pixel is expressed using integer variables i and j. In FIG. 6, the vertical pixel position is represented by a variable i, and the horizontal pixel position is represented by a variable j.

欠陥画素検出の一般的な方法の1つとして、検出対象の画素に近接した周辺画素を選定した代表値、または、近接した周辺画素を用いて算出した代表値と、欠陥検出画素との差分値を用いる方法がある。この方法は、検出対象の画素と当該画素に近接する周辺画素の出力値を、代表値で正規化してその乖離度を評価する方法である。正規化された値が所定閾値(Eerrorと記す)を超えた場合、検出対象の画素が欠陥画素として検出される。図6(A)に(i,j)で示す個所が、欠陥画素検出を行う対象画素を示している。その出力値をS(i,j)と表記する。図6(A)で示された領域での代表値、つまり5×5画素の出力値のメディアン値を代表値とする場合、これをStyp(i,j)と表記する。メディアン値に代えて、平均値等を用いてもよく、代表値の設定方法については任意である。一般的な欠陥画素検出の評価値(第1の評価値)をEと表記し、所定閾値Errorを用いて、下記条件式(1)が使用される。

Figure 2017169012
As one of the general methods for detecting defective pixels, a representative value obtained by selecting a neighboring pixel close to the pixel to be detected, or a difference value between a representative value calculated using the neighboring peripheral pixel and the defective detected pixel There is a method of using. This method is a method for evaluating the degree of divergence by normalizing the output values of a pixel to be detected and peripheral pixels adjacent to the pixel with a representative value. When the normalized value exceeds a predetermined threshold (denoted as Error), the detection target pixel is detected as a defective pixel. A portion indicated by (i, j) in FIG. 6A indicates a target pixel on which defective pixel detection is performed. The output value is expressed as S (i, j). Representative value in the region shown by FIG. 6 (A), the words 5 × 5 If the representative value a median value of the output values of the pixels, denoted this S typ (i, j) and. Instead of the median value, an average value or the like may be used, and the representative value setting method is arbitrary. A general evaluation value (first evaluation value) for defective pixel detection is expressed as E, and the following conditional expression (1) is used by using a predetermined threshold Error.
Figure 2017169012

式(1)の左辺では輝度で正規化をしているため、輝度の変化が数%の範囲内であれば精度良く欠陥画素検出を行うことができる。しかしながら、R,G,Bといったカラーフィルタの透過率の違いや、シェーディングの違いは数%のオーダーでは収まらない。このため、カラーフィルタに加え、シェーディングの影響がある状態で式(1)を用いて検出精度を保証することは難しい。通常、式(1)を用いて欠陥画素検出を行う場合、カラーフィルタの透過率ごとに評価閾値を設定し、光学系を工夫してシェーディングを極力低減し、受光量違いによるノイズを低減することが行われ、キズ検出精度の向上を図っている。   Since the left side of Equation (1) is normalized by the luminance, defective pixels can be detected with high accuracy if the change in luminance is within a range of several percent. However, the difference in transmittance of color filters such as R, G, and B and the difference in shading do not fall within the order of several percent. For this reason, it is difficult to guarantee the detection accuracy using Equation (1) in the state where there is an influence of shading in addition to the color filter. Normally, when performing defective pixel detection using Equation (1), set an evaluation threshold for each transmittance of the color filter, devise an optical system to reduce shading as much as possible, and reduce noise due to differences in the amount of received light To improve the flaw detection accuracy.

ところで、レンズ交換式カメラ等での様々な射出瞳距離で撮影を行う場合、シェーディングが発生した状態の画像の欠陥画素検出をリアルタイムで行わなければならない。この場合、画像領域ごとに受光量が異なる状態で検査を行わなければならず、画像領域ごとに検出精度が異なってしまう。これを解決する有効な方法として、検出画素の出力値の変化によるノイズ変化量を加味して、式(1)の評価値を更に正規化する方法がある。   By the way, when photographing at various exit pupil distances with an interchangeable lens camera or the like, defective pixel detection of an image in a state where shading has occurred must be performed in real time. In this case, the inspection must be performed in a state where the amount of received light is different for each image region, and the detection accuracy is different for each image region. As an effective method for solving this, there is a method of further normalizing the evaluation value of Expression (1) in consideration of the amount of noise change due to the change in the output value of the detection pixel.

画素のノイズには固定ノイズとランダムノイズがあり、ランダムノイズは出力値に対して、その平方根で変化することが知られている。欠陥画素検出にて、基準出力値をSstdと表記し、評価値全体(第2の評価値)をEtotalと表記する。評価値Etotalのうち、出力値に応じて変化するランダム成分をErandomと表記し、出力値に応じて変化しない固定成分をEfixedと表記する。出力値の変化を加味して欠陥画素検出を行う場合、所定閾値Eerrorを用いて、下記条件式(2)が使用される。

Figure 2017169012
It is known that pixel noise includes fixed noise and random noise, and the random noise changes with the square root of the output value. In the defective pixel detection, the reference output value is expressed as S std, and the entire evaluation value (second evaluation value) is expressed as E total . Of the evaluation value E total , a random component that changes according to the output value is expressed as E random, and a fixed component that does not change according to the output value is expressed as E fixed . When detecting a defective pixel in consideration of a change in output value, the following conditional expression (2) is used using a predetermined threshold value Error.
Figure 2017169012

式(2)にて、基準出力値Sstdと代表値Stypを用いて正規化されていることが分かる。そのため、代表値Stypが変化しても常に一定の規格にて検査が可能となり、領域ごとに光量が変化しても同程度の欠陥画素検出精度が得られる。式(1)で算出した評価値Eは、ランダム成分Erandomと固定成分Efixedから構成されるため、

Figure 2017169012
となる。式(3)を、Erandom=E−Efixedとして式(2)に代入し、更に式を整理すると、下記(4)式となる。
Figure 2017169012
By a formula (2), it can be seen that has been normalized with the reference output value S std representative value S typ. Therefore, even if the representative value S typ changes always can be inspected at a constant standard, even the light amount is changed for each area comparable defective pixel detection accuracy can be obtained. Since the evaluation value E calculated by the equation (1) is composed of a random component E random and a fixed component E fixed ,
Figure 2017169012
It becomes. Substituting equation (3) into equation (2) as E random = EE fixed and further organizing the equation, the following equation (4) is obtained.
Figure 2017169012

式(4)にて、第2の評価値Etotalは第1項と第2項との和から構成される。第1項は、第1の評価値Eを、代表値Stypが小さくなるにつれて大きな値で除算する項である。第2項は、代表値Stypが小さくなるにつれて値が大きくなる項である。Efixedについては欠陥画素検出の所定閾値Eerrorを設定する際に、許容できる値を設定すればよい。また、求められる欠陥画素の検出精度と演算規模のバランスを鑑みて、式(4)の評価値Eとして、出力値の変化率で正規化した項のみを用いてもよいし、全ての項を用いてもよい。 In Expression (4), the second evaluation value E total is composed of the sum of the first term and the second term. The first term, the first evaluation value E, which is a term for dividing the larger value as the representative value S typ decreases. The second term is a term whose value increases as the representative value S typ decreases. For E fixed , an allowable value may be set when setting the predetermined threshold value Error for defective pixel detection. Further, in view of the balance between the required detection accuracy of defective pixels and the calculation scale, only the terms normalized by the rate of change of the output value may be used as the evaluation value E of Equation (4), or all terms may be used. It may be used.

これまでは1画素に着目した欠陥画素検出を説明したが、図6(B)で示した線状の欠陥画素検出の場合においても同様の考え方で適用可能であり、適用範囲は図6で示した限りではない。また、第1の評価値Eを算出する時に用いる代表値Stypは、正規化の精度および欠陥画素検出精度を向上させるために、欠陥検出画素と処理条件に応じて設定される。処理条件とは、例えば画素上に配置されているカラーフィルタ、画素の受光する光束が通過する瞳部分領域、画素加算等である。 Up to now, the defective pixel detection focused on one pixel has been described, but the present invention can also be applied in the case of the linear defective pixel detection shown in FIG. 6B, and the applicable range is shown in FIG. Not sure. The representative value S typ used when calculating a first evaluation value E, in order to improve the accuracy and defective pixel detection accuracy of the normalization, it is set according to the processing conditions as defect detection pixels. The processing conditions include, for example, a color filter disposed on the pixel, a pupil partial region through which a light beam received by the pixel passes, pixel addition, and the like.

孤立欠陥画素補正部121bは、欠陥画素検出にて検出された画素が隣接していない場合の欠陥画素補正を行う。孤立点での欠陥画素補正は、欠陥画素に隣接した画素情報を用いてバイリニア法やバイキュービック法等で行う欠陥画素補正である。孤立欠陥画素信号の補正により、高画質な画像を生成することができる。   The isolated defective pixel correction unit 121b performs defective pixel correction when the pixels detected by the defective pixel detection are not adjacent to each other. The defective pixel correction at the isolated point is a defective pixel correction performed by a bilinear method or a bicubic method using pixel information adjacent to the defective pixel. By correcting the isolated defective pixel signal, a high-quality image can be generated.

孤立点での欠陥画素補正は欠陥画素に隣接した画素が欠陥画素でない場合に有効である。しかし、欠陥画素が隣接している場合には隣接欠陥画素補正部121cが欠陥画素補正を行う。図7を参照して具体例について説明する。図7中の行を整数の変数jで表し、列を整数の変数iで表す。第j行、第i列の位置を(j,i)と表記し、当該位置の第1の視差画像をA(j,i)と表記し、撮像画像をI(j,i)と表記する。図7(A)はベイヤー配列の第1の視差画像配列をj−1からj+1およびi−1からi+1の範囲で示す概略図である。図7(B)はベイヤー配列の撮像画像配列をj−1からj+1およびi−1からi+1の範囲で示す概要図である。   The defective pixel correction at the isolated point is effective when the pixel adjacent to the defective pixel is not a defective pixel. However, when defective pixels are adjacent, the adjacent defective pixel correction unit 121c performs defective pixel correction. A specific example will be described with reference to FIG. The row in FIG. 7 is represented by an integer variable j, and the column is represented by an integer variable i. The position of the j-th row and the i-th column is expressed as (j, i), the first parallax image at the position is expressed as A (j, i), and the captured image is expressed as I (j, i). . FIG. 7A is a schematic diagram showing the first parallax image array of the Bayer array in the range of j−1 to j + 1 and i−1 to i + 1. FIG. 7B is a schematic diagram showing the captured image array of the Bayer array in the range of j−1 to j + 1 and i−1 to i + 1.

第1の視差画像の第j行の画像がすべて欠陥画素であり、撮像画像については正常である場合を想定する。この場合、補正位置(j,i)における第1の視差画像A(j,i)の信号を算出する補正処理が行われる。下記式(5)は、第1の視差画像A(j,i)の信号がG(緑)の分光感度を有する画素の画素信号である場合の補正式である。

Figure 2017169012
Assume that all the images in the j-th row of the first parallax image are defective pixels, and the captured image is normal. In this case, a correction process for calculating a signal of the first parallax image A (j, i) at the correction position (j, i) is performed. The following equation (5) is a correction equation when the signal of the first parallax image A (j, i) is a pixel signal of a pixel having a spectral sensitivity of G (green).
Figure 2017169012

次に第1の視差画像A(j,i)の信号がR(赤)またはB(青)の分光感度を有する画素の画素信号である場合の補正式を下記式(6)に示す。

Figure 2017169012
Next, a correction formula when the signal of the first parallax image A (j, i) is a pixel signal of a pixel having a spectral sensitivity of R (red) or B (blue) is shown in the following formula (6).
Figure 2017169012

図8は、第1の視差画像A(j,i)の信号がB(青)の分光感度を有する画素の画素信号である場合を例示する。変数jとiの定義は図7の場合と同じである。図8(A)はベイヤー配列の第1の視差画像配列をj−2からj+2およびi−2からi+2の範囲で示している。図8(B)はベイヤー配列の撮像画像配列をj−2からj+2およびi−2からi+2の範囲で示している。必要に応じて、第2の視差画像の画素信号についても同様に補正処理が行われる。   FIG. 8 illustrates a case where the signal of the first parallax image A (j, i) is a pixel signal of a pixel having a spectral sensitivity of B (blue). The definitions of variables j and i are the same as in FIG. FIG. 8A shows the first parallax image array of the Bayer array in the range of j−2 to j + 2 and i−2 to i + 2. FIG. 8B shows the captured image array of the Bayer array in the range of j−2 to j + 2 and i−2 to i + 2. If necessary, correction processing is similarly performed on the pixel signal of the second parallax image.

このように欠陥画素が隣接している場合、第1の視差画像と撮像画像の画素信号を用いて上式により欠陥画素補正を行うことができる。ただし、欠陥画素が隣接していない場合には演算負荷の低減や補正精度の観点から、1つの画像を用いてバイリニア法やバイキュービック法等により欠陥画素補正が行われる。欠陥画素補正は撮像光学系の情報を用いずに、所定の演算方法で行うことが可能である。本実施形態では画像処理装置内でハードウェア処理を行った。これは、外部機器(PC等)でソフトウェア処理を行うよりも高速に欠陥画素補正を行えるためである。欠陥画素の抽出後、撮像装置内で欠陥画素補正処理が実行される。しかし、本発明はこれに限らず、欠陥画素の抽出処理、欠陥画素の補正処理の少なくとも一部をソフトウェア処理で実現してもよい。   When defective pixels are adjacent to each other as described above, defective pixel correction can be performed using the above equation using the pixel signals of the first parallax image and the captured image. However, when the defective pixels are not adjacent, defective pixel correction is performed by using a single image by a bilinear method, a bicubic method, or the like from the viewpoint of reduction of calculation load and correction accuracy. The defective pixel correction can be performed by a predetermined calculation method without using information of the imaging optical system. In this embodiment, hardware processing is performed in the image processing apparatus. This is because defective pixel correction can be performed at a higher speed than when software processing is performed by an external device (such as a PC). After extraction of defective pixels, defective pixel correction processing is executed in the imaging apparatus. However, the present invention is not limited to this, and at least a part of the defective pixel extraction processing and defective pixel correction processing may be realized by software processing.

次に図9のフローチャートを参照して、本実施形態における視差画像の欠陥画素補正について説明する。S100で処理を開始し、S101で撮像素子107による撮像処理が行われる。次のS102でCPU121は、撮像画像と視差画像の画像データを取得する制御を行ってから、S103へ進む。S103で欠陥画素検出部121aは各画像の欠陥画素検出を行い、S104へ進む。S104では欠陥画素補正処理が実行される。欠陥画素補正処理については図10を用いて後述する。S104の次にS105へ進み、CPU121はS104で補正された画像データの記録処理を実行する。そしてS106へ進み、一連の処理を終了する。   Next, the defect pixel correction of the parallax image in the present embodiment will be described with reference to the flowchart of FIG. Processing is started in S100, and imaging processing by the image sensor 107 is performed in S101. In the next step S102, the CPU 121 performs control to acquire image data of a captured image and a parallax image, and then proceeds to step S103. In S103, the defective pixel detection unit 121a detects defective pixels in each image, and the process proceeds to S104. In S104, defective pixel correction processing is executed. The defective pixel correction process will be described later with reference to FIG. After step S104, the process advances to step S105, and the CPU 121 executes a recording process for the image data corrected in step S104. Then, the process proceeds to S106, and a series of processing ends.

次に図10のサブフローチャートを参照して、欠陥画素補正(図9:S104)について説明する。
S200で欠陥画素補正処理を開始し、S201へ進む。S201でCPU121は画像データの取り込みを制御し、S202へ進む。S202では、S201で取得された画像データの各画素の参照を開始する。次のS203で欠陥画素検出部121aは、欠陥画素検出を行う。欠陥画素検出の結果、欠陥画素が隣接しているかどうかについて判定処理が行われる。S203で、欠陥画素が隣接していないと判定された場合、S204へ進み、欠陥画素が隣接していると判定された場合にはS205へ移行する。
Next, defective pixel correction (FIG. 9: S104) will be described with reference to the sub-flowchart of FIG.
In S200, defective pixel correction processing is started, and the process proceeds to S201. In step S201, the CPU 121 controls the capture of image data, and the process advances to step S202. In S202, the reference of each pixel of the image data acquired in S201 is started. In the next S203, the defective pixel detection unit 121a performs defective pixel detection. As a result of the defective pixel detection, a determination process is performed as to whether or not the defective pixel is adjacent. If it is determined in S203 that the defective pixel is not adjacent, the process proceeds to S204, and if it is determined that the defective pixel is adjacent, the process proceeds to S205.

S204で孤立欠陥画素補正部121bは孤立欠陥画素補正処理を実行し、S205へ進む。S205でCPU121は、画像データの画素の参照がすべて終了しているかどうかを判定する。画素の参照がすべて終了していると判定された場合にはS206へ進む。また画素の参照がすべて終了していないと判定された場合にはS202へ戻る。次の画素参照が行われ、S203からS205の処理が繰り返される。   In S204, the isolated defective pixel correction unit 121b executes an isolated defective pixel correction process, and proceeds to S205. In step S <b> 205, the CPU 121 determines whether or not all the pixel references in the image data have been completed. If it is determined that all pixel references have been completed, the process proceeds to S206. If it is determined that all pixel references have not been completed, the process returns to S202. The next pixel reference is performed, and the processing from S203 to S205 is repeated.

S206でCPU121は、撮像画像、視差画像ともに孤立欠陥画素補正が完了しているかどうかを判定する。撮像画像、視差画像ともに孤立欠陥画素補正が完了していると判定された場合、S207へ進む。撮像画像または視差画像の孤立欠陥画素補正が完了していない場合にはS201へ戻って処理を続行する。   In step S <b> 206, the CPU 121 determines whether isolated defect pixel correction has been completed for both the captured image and the parallax image. When it is determined that the isolated defect pixel correction is completed for both the captured image and the parallax image, the process proceeds to S207. If the isolated defective pixel correction of the captured image or the parallax image has not been completed, the process returns to S201 and continues.

S207でCPU121は、撮像画像と視差画像を取り込む制御を行い、次のS208で視差画像の画素の参照を開始し、S209へ進む。S209では隣接欠陥画素補正部121cは隣接欠陥画素補正処理を実行し、S210へ進む。S210でCPU121は画像データの画素の参照がすべて終了しているかどうかを判定する。画像データの画素の参照がすべて終了している場合にはS211のリターン処理へ進み、欠陥画素補正処理を完了し、メインフローチャートに戻る。またS210で画像データの画素の参照がすべて終了していない場合にはS208へ戻る。次の画素参照が行われ、S209およびS210の処理が繰り返される。
本実施形態によれば、撮影された視差画像の一部に欠陥画素が生じた場合に視差画像の欠陥画素信号を補正することができる。
In step S207, the CPU 121 performs control for capturing a captured image and a parallax image. In step S208, the CPU 121 starts referencing pixels of the parallax image, and proceeds to step S209. In S209, the adjacent defective pixel correction unit 121c executes an adjacent defective pixel correction process, and the process proceeds to S210. In S210, the CPU 121 determines whether or not all the pixel references of the image data have been completed. If all the reference of the pixels of the image data has been completed, the process proceeds to the return process of S211 to complete the defective pixel correction process and return to the main flowchart. If all the pixel references in the image data are not completed in S210, the process returns to S208. The next pixel reference is performed, and the processes of S209 and S210 are repeated.
According to the present embodiment, it is possible to correct a defective pixel signal of a parallax image when a defective pixel occurs in a part of the captured parallax image.

[第2実施形態]
図11の概略図を参照して、本発明の第2実施形態における撮像素子の撮像センサ部と焦点検出センサ部の配列を説明する。なお、第1実施形態の場合と同様の構成要素については既に使用した符号を用いることで、それらの詳細な説明を省略し、相違点を中心に説明する。
[Second Embodiment]
With reference to the schematic diagram of FIG. 11, an arrangement of the image sensor unit and the focus detection sensor unit of the image sensor according to the second embodiment of the present invention will be described. In addition, about the component similar to the case of 1st Embodiment, the code | symbol already used is used, those detailed description is abbreviate | omitted, and it demonstrates centering around difference.

図11(A)は2次元CMOSセンサ(撮像素子)の撮像センサ配列を4列×4行の範囲にて示し、4分割された光電変換部の配列を8列×8行の範囲で示した概略図である。
2列×2行のセンサ群200において、左上の位置にはR(赤)の分光感度を有するセンサ部200Rが配置されている。右上と左下には、G(緑)の分光感度を有するセンサ部200Gが配置され、右下にはB(青)の分光感度を有するセンサ部200Bが配置されている。さらに、各センサ部は2列×2行に配列された第1光電変換部201、第2光電変換部202、第3光電変換部203、第4光電変換部204により構成されている。
FIG. 11A shows an imaging sensor array of a two-dimensional CMOS sensor (imaging device) in a range of 4 columns × 4 rows, and shows an array of photoelectric conversion units divided into 4 in a range of 8 columns × 8 rows. FIG.
In the sensor group 200 of 2 columns × 2 rows, a sensor unit 200R having a spectral sensitivity of R (red) is arranged at the upper left position. A sensor unit 200G having a spectral sensitivity of G (green) is arranged in the upper right and lower left, and a sensor unit 200B having a spectral sensitivity of B (blue) is arranged in the lower right. Further, each sensor unit includes a first photoelectric conversion unit 201, a second photoelectric conversion unit 202, a third photoelectric conversion unit 203, and a fourth photoelectric conversion unit 204 arranged in 2 columns × 2 rows.

図11(A)に示した4列×4行の撮像センサ部(8列×8行の焦点検出センサ部)を平面上でアレイ状に多数配置することで、撮像画像信号(複数の光電変換部の加算信号)が取得可能である。本実施形態で説明する撮像素子は、画素周期Pが4μmであり、画素数Nが横5575列×縦3725行(約2075万画素)である。分割された光電変換部の周期PSUBは2μmであり、対応する画素数NSUBが横11150列×縦7450行(約8300万画素)である。 By arranging a large number of 4 × 4 imaging sensor units (8 × 8 focus detection sensor units) shown in FIG. 11A in an array on a plane, a captured image signal (a plurality of photoelectric conversions) is arranged. Part addition signal) can be acquired. In the imaging device described in the present embodiment, the pixel period P is 4 μm, and the number N of pixels is 5575 columns × 3725 rows (approximately 20.75 million pixels). The period P SUB of the divided photoelectric conversion units is 2 μm, and the corresponding number of pixels N SUB is 11150 columns wide × 7450 rows long (about 83 million pixels).

図11(B)は、撮像素子における1つのセンサ部200Gを、撮像素子の受光面側(+z側)から見た場合の平面図である。x方向に2分割され、y方向に2分割された、第1光電変換部301から第4光電変換部304が形成されている。図11(B)のa−a断面については、図3(B)にて、光電変換部301を第3光電変換部303に置き換え、光電変換部302を第4光電変換部304に置き換えた図と同じであるため、図示を省略する。   FIG. 11B is a plan view when one sensor unit 200G in the image sensor is viewed from the light receiving surface side (+ z side) of the image sensor. A first photoelectric conversion unit 301 to a fourth photoelectric conversion unit 304 that are divided into two in the x direction and two in the y direction are formed. 11B, the photoelectric conversion unit 301 is replaced with the third photoelectric conversion unit 303 and the photoelectric conversion unit 302 is replaced with the fourth photoelectric conversion unit 304 in FIG. 3B. Since it is the same as FIG.

本実施形態では、撮像素子のセンサ部ごとに、光電変換部201から204の信号を加算して読み出すことで、有効画素数Nの解像度の撮像画像が生成される。撮像素子の第1から第3光電変換部201、202、203の受光信号をそれぞれ個別に集めて第1、第2、第3視差画像が生成される。あるいは撮像画像信号から、第1の視差画像および第2の視差画像および第3の視差画像の画像信号を減算することにより、第4視差画像が生成される。必要に応じて、撮像素子のセンサ部の第4光電変換部204の受光信号を集めて第4視差画像を生成してもよい。異なる瞳部分領域ごとに、対応する光電変換部の受光信号から1つ以上の視差画像を生成することができる。   In the present embodiment, for each sensor unit of the image sensor, the signals of the photoelectric conversion units 201 to 204 are added and read out to generate a captured image having a resolution of N effective pixels. The first, second, and third parallax images are generated by individually collecting the received light signals of the first to third photoelectric conversion units 201, 202, and 203 of the image sensor. Alternatively, the fourth parallax image is generated by subtracting the image signals of the first parallax image, the second parallax image, and the third parallax image from the captured image signal. If necessary, the received light signals of the fourth photoelectric conversion unit 204 of the sensor unit of the image sensor may be collected to generate a fourth parallax image. For each different pupil partial region, one or more parallax images can be generated from the light reception signal of the corresponding photoelectric conversion unit.

また本実施形態では、撮像画像、第1の視差画像、第2の視差画像、第3の視差画像はそれぞれ、ベイヤー配列の画像となる。必要に応じて、ベイヤー配列の撮像画像、第1の視差画像、第2の視差画像、第3の視差画像にデモザイキング処理を行ってもよい。
本実施形態によれば、複数の視差画像に係る欠陥画素信号を補正することができる。
In the present embodiment, each of the captured image, the first parallax image, the second parallax image, and the third parallax image is a Bayer array image. If necessary, the demosaicing process may be performed on the captured image of the Bayer array, the first parallax image, the second parallax image, and the third parallax image.
According to this embodiment, it is possible to correct defective pixel signals related to a plurality of parallax images.

[第3実施形態]
次に、本発明の第3実施形態を説明する。
本実施形態では、撮像画像および視差画像の画素信号を取得し、2種類の欠陥画素情報を用いて第1および第2の欠陥画素補正が行われる。欠陥画素情報は、製品出荷時や所定のタイミングで検出されてメモリに記憶され、撮像画像とは別に、視差画像に対応する欠陥画素情報として使用される。例えば、複数の視差画像の1つをA像とすると、メモリには、A像用の点の欠陥画素情報と、線の欠陥画素情報が保持される。以下、A像に関する欠陥画素補正を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
In the present embodiment, pixel signals of a captured image and a parallax image are acquired, and first and second defective pixel corrections are performed using two types of defective pixel information. The defective pixel information is detected at the time of product shipment or at a predetermined timing and stored in a memory, and is used as defective pixel information corresponding to a parallax image separately from the captured image. For example, when one of a plurality of parallax images is an A image, the memory holds defective pixel information of a point for the A image and defective pixel information of a line. Hereinafter, the defective pixel correction related to the A image will be described.

CPU121は、例えば第1の欠陥画素補正として、線の欠陥画素情報を参照し、線状領域に対するライン欠陥画素補正を行う。この補正では各ラインに対して、欠陥でない直前ラインを用いた前置補間が行われる。次にCPU121は点(各画素)の欠陥画素検出をリアルタイムで行い、メモリに記憶された点の欠陥画素情報を参照して、撮像画像を用いて第2の欠陥画素補正を行う。なお、ライン欠陥画素補正や点の欠陥画素補正は例示であって、必要に応じて所定形状の領域に対する欠陥画素補正を行うことができる。
撮像画像の信号(例えばA像とB像を加算したA+B像の信号)から、欠陥画素補正が行われたA像の信号を減算することにより、他の視差画像(B像)の信号を生成することができる。
For example, as the first defective pixel correction, the CPU 121 refers to the defective pixel information of the line and performs line defective pixel correction on the linear region. In this correction, pre-interpolation using the immediately preceding line that is not defective is performed on each line. Next, the CPU 121 detects a defective pixel at each point (each pixel) in real time, and performs second defective pixel correction using the captured image with reference to the defective pixel information stored at the memory. Note that line defect pixel correction and point defect pixel correction are examples, and defective pixel correction can be performed on a region having a predetermined shape as necessary.
A signal of another parallax image (B image) is generated by subtracting the signal of the A image subjected to the defective pixel correction from the signal of the captured image (for example, the signal of the A + B image obtained by adding the A image and the B image) can do.

本実施形態では、第1の欠陥画素情報を取得して、欠陥画素でない画素の信号を用いて欠陥画素の信号を補正する第1の補正と、第2の欠陥画素情報を取得して、撮像画像の画素信号を用いて欠陥画素の信号を補正する第2の補正が行われる。   In the present embodiment, the first defective pixel information is acquired, the first correction that corrects the signal of the defective pixel using the signal of the pixel that is not the defective pixel, and the second defective pixel information is acquired and the imaging is performed. A second correction is performed to correct the defective pixel signal using the pixel signal of the image.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

107 撮像素子
121 CPU
121a 欠陥画素検出部
121b 孤立欠陥画素補正部
121c 隣接欠陥画素補正部

107 Image sensor 121 CPU
121a defective pixel detection unit 121b isolated defective pixel correction unit 121c adjacent defective pixel correction unit

Claims (9)

撮像画像および視差画像の画素信号を取得する取得手段と、
前記視差画像の欠陥画素検出を行う検出手段と、
前記検出手段により検出された画素の信号を、当該画素に隣接する、欠陥画素でない画素の信号を用いて補正する第1の補正と、前記検出手段により検出された画素の信号を、当該画素に対応する前記撮像画像の画素の信号を用いて補正する第2の補正を行う補正手段を備えることを特徴とする画像処理装置。
Acquisition means for acquiring pixel signals of a captured image and a parallax image;
Detecting means for detecting a defective pixel in the parallax image;
A first correction that corrects a pixel signal detected by the detection means using a signal of a pixel that is adjacent to the pixel and is not a defective pixel, and a pixel signal detected by the detection means is applied to the pixel. An image processing apparatus comprising: a correction unit that performs a second correction using a pixel signal of the corresponding captured image.
前記補正手段は、前記検出手段により検出された画素に欠陥画素が隣接していない場合に前記第1の補正を行い、前記検出手段により検出された画素に欠陥画素が隣接している場合に前記第2の補正を行うことを特徴とする請求項1に記載の画像処理装置。   The correction unit performs the first correction when a defective pixel is not adjacent to the pixel detected by the detection unit, and the correction unit performs the first correction when the defective pixel is adjacent to the pixel detected by the detection unit. The image processing apparatus according to claim 1, wherein the second correction is performed. 前記取得手段は、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を有する撮像素子により、第1の光電変換部から第1の視差画像の画素信号を取得し、第2の光電変換部から第2の視差画像の画素信号を取得し、
前記補正手段は、前記第1または第2の視差画像の画素信号と、前記第1の視差画像の画素信号および前記第2の視差画像の画素信号を加算した前記撮像画像の画素信号を用いて前記第2の補正を行うことを特徴とする請求項1または2に記載の画像処理装置。
The acquisition means acquires a pixel signal of the first parallax image from the first photoelectric conversion unit by using an imaging device having a plurality of microlenses and a plurality of photoelectric conversion units corresponding to each microlens, Obtain a pixel signal of the second parallax image from the photoelectric conversion unit,
The correction unit uses the pixel signal of the captured image obtained by adding the pixel signal of the first or second parallax image, the pixel signal of the first parallax image, and the pixel signal of the second parallax image. The image processing apparatus according to claim 1, wherein the second correction is performed.
前記取得手段は、複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を有する撮像素子により、第1の光電変換部または第2の光電変換部から前記視差画像の画素信号を取得し、前記第1の光電変換部および第2の光電変換部から前記撮像画像の画素信号を取得し、
前記補正手段は、前記視差画像および撮像画像の画素信号を用いて前記第2の補正を行うことを特徴とする請求項1または2に記載の画像処理装置。
The acquisition unit acquires the pixel signal of the parallax image from the first photoelectric conversion unit or the second photoelectric conversion unit by using an imaging device having a plurality of microlenses and a plurality of photoelectric conversion units corresponding to each microlens. And obtaining a pixel signal of the captured image from the first photoelectric conversion unit and the second photoelectric conversion unit,
The image processing apparatus according to claim 1, wherein the correction unit performs the second correction using a pixel signal of the parallax image and the captured image.
前記補正手段は、前記第1の補正を行ってから前記第2の補正を行うことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction unit performs the second correction after performing the first correction. 撮像画像および視差画像の画素信号を取得する取得手段と、
前記視差画像に係る第1および第2の欠陥画素情報を記憶する記憶手段と、
前記記憶手段から前記第1の欠陥画素情報を取得して、欠陥画素の信号を、当該画素に隣接する、欠陥画素でない画素の信号を用いて補正する第1の補正と、前記記憶手段から前記第2の欠陥画素情報を取得して、欠陥画素の信号を、当該画素に対応する前記撮像画像の画素の信号を用いて補正する第2の補正を行う補正手段を備えることを特徴とする画像処理装置。
Acquisition means for acquiring pixel signals of a captured image and a parallax image;
Storage means for storing first and second defective pixel information relating to the parallax image;
Acquiring the first defective pixel information from the storage means, and correcting a signal of the defective pixel using a signal of a pixel adjacent to the pixel that is not a defective pixel; An image characterized by comprising second correcting means for acquiring second defective pixel information and performing second correction for correcting a signal of the defective pixel using a signal of the pixel of the captured image corresponding to the pixel. Processing equipment.
請求項1から6のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。   An imaging apparatus comprising the image processing apparatus according to claim 1. 撮像画像および視差画像を処理する画像処理装置にて実行される制御方法であって、
前記撮像画像および視差画像の画素信号を取得する取得工程と、
前記視差画像の欠陥画素検出を行う検出工程と、
前記検出工程で検出された画素の信号を、当該画素に隣接する欠陥画素でない画素の信号を用いて補正する第1の補正工程と、
前記検出工程で検出された画素の信号を、当該画素に対応する前記撮像画像の画素の信号を用いて補正する第2の補正工程を有することを特徴とする画像処理装置の制御方法。
A control method executed by an image processing apparatus that processes a captured image and a parallax image,
An acquisition step of acquiring pixel signals of the captured image and the parallax image;
A detection step of detecting defective pixels in the parallax image;
A first correction step of correcting a signal of a pixel detected in the detection step using a signal of a pixel that is not a defective pixel adjacent to the pixel;
A control method for an image processing apparatus, comprising: a second correction step of correcting a pixel signal detected in the detection step using a pixel signal of the captured image corresponding to the pixel.
撮像画像および視差画像を処理する画像処理装置にて実行される制御方法であって、
前記撮像画像および視差画像の画素信号を取得する取得工程と、
記憶手段から前記視差画像に係る第1の欠陥画素情報を取得して、欠陥画素の信号を、当該画素に隣接する、欠陥画素でない画素の信号を用いて補正する第1の補正工程と、
前記記憶手段から前記視差画像に係る第2の欠陥画素情報を取得して、欠陥画素の信号を、当該画素に対応する前記撮像画像の画素の信号を用いて補正する第2の補正工程を有することを特徴とする画像処理装置の制御方法。
A control method executed by an image processing apparatus that processes a captured image and a parallax image,
An acquisition step of acquiring pixel signals of the captured image and the parallax image;
A first correction step of acquiring first defective pixel information related to the parallax image from a storage unit, and correcting a signal of the defective pixel using a signal of a pixel adjacent to the pixel and not a defective pixel;
A second correction step of acquiring second defective pixel information related to the parallax image from the storage unit and correcting a signal of the defective pixel using a pixel signal of the captured image corresponding to the pixel; And a control method for the image processing apparatus.
JP2016051867A 2016-03-16 2016-03-16 Image processing device, control method of image processing device, imaging device Active JP6765829B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016051867A JP6765829B2 (en) 2016-03-16 2016-03-16 Image processing device, control method of image processing device, imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016051867A JP6765829B2 (en) 2016-03-16 2016-03-16 Image processing device, control method of image processing device, imaging device

Publications (2)

Publication Number Publication Date
JP2017169012A true JP2017169012A (en) 2017-09-21
JP6765829B2 JP6765829B2 (en) 2020-10-07

Family

ID=59910293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016051867A Active JP6765829B2 (en) 2016-03-16 2016-03-16 Image processing device, control method of image processing device, imaging device

Country Status (1)

Country Link
JP (1) JP6765829B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011155297A1 (en) * 2010-06-09 2011-12-15 富士フイルム株式会社 Imaging device and image processing method
JP2012213137A (en) * 2011-03-24 2012-11-01 Canon Inc Imaging apparatus and defective pixel detecting method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011155297A1 (en) * 2010-06-09 2011-12-15 富士フイルム株式会社 Imaging device and image processing method
JP2012213137A (en) * 2011-03-24 2012-11-01 Canon Inc Imaging apparatus and defective pixel detecting method

Also Published As

Publication number Publication date
JP6765829B2 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
JP5552214B2 (en) Focus detection device
JP6239857B2 (en) Imaging apparatus and control method thereof
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP6239855B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP2012141585A (en) Imaging apparatus
JP6381266B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6746359B2 (en) Image processing device, imaging device, image processing method, program, and storage medium
JP2012147045A (en) Imaging apparatus
JP7100735B2 (en) Image sensor and image sensor
JP6486149B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
US20170257583A1 (en) Image processing device and control method thereof
WO2018150925A1 (en) Focus detection device, focus detection method, and focus detection program
JP6700986B2 (en) Image processing device, imaging device, image processing method, and program
JP6254843B2 (en) Image processing apparatus and control method thereof
JP2012220790A (en) Imaging apparatus
JP2015210285A (en) Imaging device, manufacturing method of the same, program thereof and recording medium
JP6285683B2 (en) Imaging apparatus and control method thereof
JP2015145970A (en) Imaging device, control method of the same, program abd recording medium
JP2017032978A (en) Control device, imaging device, control method, program, and storage medium
JP2020171050A (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
CN113596431B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6789810B2 (en) Image processing method, image processing device, and imaging device
JP6765829B2 (en) Image processing device, control method of image processing device, imaging device
JP2015225310A (en) Image capturing device, control method therefor, program, and storage medium
JP2015215395A (en) Imaging device, control device, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200916

R151 Written notification of patent or utility model registration

Ref document number: 6765829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151