JP2015002400A - Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium - Google Patents

Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium Download PDF

Info

Publication number
JP2015002400A
JP2015002400A JP2013125309A JP2013125309A JP2015002400A JP 2015002400 A JP2015002400 A JP 2015002400A JP 2013125309 A JP2013125309 A JP 2013125309A JP 2013125309 A JP2013125309 A JP 2013125309A JP 2015002400 A JP2015002400 A JP 2015002400A
Authority
JP
Japan
Prior art keywords
correction
output signal
correction value
shading correction
shading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013125309A
Other languages
Japanese (ja)
Inventor
敏治 上田
Toshiharu Ueda
敏治 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013125309A priority Critical patent/JP2015002400A/en
Publication of JP2015002400A publication Critical patent/JP2015002400A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform appropriate shading correction while suppressing a correction data amount to hold, when performing shading correction on an output signal from an imaging sensor comprising plural photoelectric converters in each pixel.SOLUTION: The shading correction apparatus comprises: input means 800 which receives a first output signal and a second output signal obtained by independently reading signals of the plural photoelectric converters and a third output signal obtained by adding and reading the signals of the plural photoelectric converters; storage means 106 which stores two of a first correction value, a second correction value, and a third correction value for respective shading correction of the first to third output signals; operation means 805 which operates a remaining correction value other than the two correction values among the first to third correction values; and correction means 806 which performs the shading correction on the basis of the first correction value, the second correction value, and the third correction value.

Description

本発明は、シェーディング補正装置に関する。   The present invention relates to a shading correction apparatus.

特許文献1には、各画素(の1つのマイクロレンズ下)に第1のフォトダイオードおよび第2のフォトダイオードを設けた撮像素子が開示されている。そして、特許文献1には、第1のフォトダイオードと第2のフォトダイオードからの信号をそれぞれ独立に出力することで、撮像素子による位相差検出方式の焦点検出を行う第1のモードを備えたことが開示されている。また、第1のフォトダイオードと第2のフォトダイオードからの信号を加算して出力することで、撮影画像を生成する第2のモードを備えたことが開示されている。   Patent Document 1 discloses an imaging device in which a first photodiode and a second photodiode are provided in each pixel (under one microlens). Patent Document 1 includes a first mode in which signals from the first photodiode and the second photodiode are independently output to perform focus detection by a phase difference detection method using an image sensor. It is disclosed. Further, it is disclosed that a second mode for generating a captured image by adding and outputting signals from the first photodiode and the second photodiode is disclosed.

特許文献2には、撮像画素と、該撮像画素とは別に設けられた焦点検出画素とを備えた撮像素子であって、撮像画素および焦点検出画素それぞれからの信号に対しシェーディング補正を行うことが開示されている。特許文献2では、撮像画素からの出力信号に対し、記憶手段に格納された撮像画素用のシェーディング補正データを用いてシェーディング補正を行うことが開示されている。また、焦点検出画素からの出力信号に対しては、記憶手段に格納されたA画素用のシェーディング補正データおよびB画素用のシェーディング補正データを用いてシェーディング補正を行うことが開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 is an image pickup device including an image pickup pixel and a focus detection pixel provided separately from the image pickup pixel, and performing shading correction on signals from the image pickup pixel and the focus detection pixel. It is disclosed. Patent Document 2 discloses that shading correction is performed on an output signal from an imaging pixel using shading correction data for the imaging pixel stored in a storage unit. Further, it is disclosed that shading correction is performed on the output signal from the focus detection pixel using the shading correction data for A pixel and the shading correction data for B pixel stored in the storage means.

特開2001−083407号公報JP 2001-083407 A 特開2009−244858号公報JP 2009-244858 A

シェーディング補正を正確に行うためには、焦点検出用補正値(A像用、B像用)と撮像用補正値の合計3つのパターンの補正データを備える必要がある。   In order to accurately perform the shading correction, it is necessary to provide correction data of a total of three patterns including a focus detection correction value (for A image and B image) and an imaging correction value.

特許文献2では、撮像素子に、撮像画素と焦点検出画素を共用しない、いわゆる、各々の用途に特化した専用画素を備えている。その為、各々の画素が独立した特性を有し、撮像用と焦点検出用(A像用・B像用)の各々の補正データを個別に備える必要がある。その為、特許文献2では、補正データを保持するためのメモリ容量が増大するという問題があった。   In Patent Document 2, the image sensor is provided with a so-called dedicated pixel that does not share an imaging pixel and a focus detection pixel, that is, specialized for each application. Therefore, each pixel has independent characteristics, and it is necessary to individually provide correction data for imaging and focus detection (for A image and B image). Therefore, Patent Document 2 has a problem that the memory capacity for holding correction data increases.

本発明は、各画素に複数の光電変換部を有する撮像素子からの出力信号に対しシェーディング補正を行う際に、保持する補正データ量を抑制しつつも、適正なシェーディング補正を行うことが可能なシェーディング補正装置を提供することを例示的目的とする。   The present invention can perform appropriate shading correction while suppressing the amount of correction data to be held when performing shading correction on an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel. It is an exemplary object to provide a shading correction apparatus.

本発明の一側面としてのシェーディング補正装置は、各画素に複数の光電変換部を有する撮像素子からの出力信号をシェーディング補正するシェーディング補正装置であって、前記複数の光電変換部の信号を独立に読み出した第1の出力信号および第2の出力信号と、前記複数の光電変換部の信号を加算して読み出した第3の出力信号と、のうち少なくとも2つの出力信号が入力される入力手段と、前記第1の出力信号をシェーディング補正するための第1の補正値、前記第2の出力信号をシェーディング補正するための第2の補正値、および前記第3の出力信号をシェーディング補正するための第3の補正値、のうち2つの補正値を記憶する記憶手段と、前記第1の補正値、前記第2の補正値、および前記第3の補正値のうち、前記2つの補正値以外の残りの補正値を演算する演算手段と、前記第1の補正値、前記第2の補正値、および前記第3の補正値を基にシェーディング補正を行う補正手段と、を備えたことを特徴とする。   A shading correction apparatus according to one aspect of the present invention is a shading correction apparatus that performs shading correction on an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel, and independently outputs signals from the plurality of photoelectric conversion units. Input means for inputting at least two output signals among the read first output signal and second output signal, and the third output signal read by adding the signals of the plurality of photoelectric conversion units. A first correction value for correcting shading of the first output signal, a second correction value for correcting shading of the second output signal, and a shading correction of the third output signal. Storage means for storing two of the third correction values, and the two of the first correction value, the second correction value, and the third correction value. Computation means for computing a remaining correction value other than a positive value, and correction means for performing shading correction based on the first correction value, the second correction value, and the third correction value It is characterized by that.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明によれば、各画素に複数の光電変換部を有する撮像素子からの出力信号に対しシェーディング補正を行う際に、保持する補正データ量を抑制しつつも、適正なシェーディング補正を行うことができる。   According to the present invention, when shading correction is performed on an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel, appropriate shading correction can be performed while suppressing the amount of correction data to be held. it can.

本発明の実施例における撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 本発明の実施例における撮像素子の概略ブロック図である。It is a schematic block diagram of the image sensor in the Example of this invention. 本発明の実施例における撮像素子の画素アレイの構成図である。It is a block diagram of the pixel array of the image pick-up element in the Example of this invention. 本発明の実施例における撮像素子における画面中心領域での受光状態説明図である。It is a light-receiving state explanatory drawing in the screen center area | region in the image pick-up element in the Example of this invention. 本発明の実施例における撮像素子における画面端領域での受光状態説明図である。It is light reception state explanatory drawing in the screen edge area | region in the image pick-up element in the Example of this invention. 本発明の実施例における均一光を撮影した画像の一例である。It is an example of the image which image | photographed the uniform light in the Example of this invention. 本発明の実施例におけるシェーディングデータの一例である。It is an example of the shading data in the Example of this invention. 本発明の第1の実施例におけるシェーディング補正装置の概略ブロック図である。1 is a schematic block diagram of a shading correction apparatus according to a first embodiment of the present invention. 本発明の第1の実施例における補正データの概要および補正データ生成の一例である。It is an example of the outline | summary of correction | amendment data and correction | amendment data generation in 1st Example of this invention. 本発明の第2の実施例におけるシェーディング補正装置の概略ブロック図である。It is a schematic block diagram of the shading correction apparatus in the 2nd Example of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明における撮像装置の構成例を示すブロック図である。100は撮像装置(本体)を指す。101はCMOSセンサ等の撮像素子である。102は撮像素子101から与えられる信号をアナログ−デジタル変換するA/D変換器である。   FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the present invention. Reference numeral 100 denotes an imaging apparatus (main body). Reference numeral 101 denotes an image sensor such as a CMOS sensor. Reference numeral 102 denotes an A / D converter that performs analog-digital conversion on a signal supplied from the image sensor 101.

103はDSP(Digital Signal Processor)であり、A/D変換器102から与えられるデータに対して各種補正処理及び現像処理を行う。またDSP103は、ROM106、RAM107等の各種メモリの制御や、記録媒体108への画像データの書き込み処理を行う。   Reference numeral 103 denotes a DSP (Digital Signal Processor) that performs various correction processes and development processes on the data supplied from the A / D converter 102. The DSP 103 also controls various memories such as the ROM 106 and the RAM 107 and writes image data to the recording medium 108.

104は、撮像素子101、A/D変換器102、DSP103に制御信号を供給するタイミング発生回路であり、CPU105により制御される。   A timing generation circuit 104 supplies control signals to the image sensor 101, A / D converter 102, and DSP 103, and is controlled by the CPU 105.

105は撮像装置100全体を制御する制御手段としてのCPUである。CPU105は、DSP103、タイミング発生回路104の制御、及び不図示の各部を使ったカメラ機能の制御を行い、また、各スイッチ109〜111、モードダイアル112等が接続され、それぞれの状態に応じた処理を実行する。また、CPU105は、DSP103からの出力に基づいて、一対の像信号の位相差を、相関演算を用いて求める位相差検出方式の焦点検出手段としての機能も有する。このように、CPU105は、不図示の撮影レンズ(撮影光学系)の焦点検出を行う焦点検出装置の一部として機能する。   Reference numeral 105 denotes a CPU as control means for controlling the entire imaging apparatus 100. The CPU 105 controls the DSP 103, the timing generation circuit 104, and the camera function using each unit (not shown). The switches 109 to 111, the mode dial 112, etc. are connected, and processing corresponding to each state is performed. Execute. Further, the CPU 105 also has a function as a focus detection unit of a phase difference detection method for obtaining a phase difference between a pair of image signals based on an output from the DSP 103 using a correlation calculation. As described above, the CPU 105 functions as a part of a focus detection device that performs focus detection of a shooting lens (shooting optical system) (not shown).

106は撮像装置の制御プログラムや各種補正データを記憶する記憶手段としてのROMであり、107はDSP103で処理される画像データや補正データを一時的に記憶するRAMである。   Reference numeral 106 denotes a ROM as a storage unit that stores a control program of the imaging apparatus and various correction data. Reference numeral 107 denotes a RAM that temporarily stores image data and correction data processed by the DSP 103.

各工程で取得される各種補正データ(例えば、シェーディング補正データ)はROM106に記憶されており、撮影時にRAM107に展開されて補正に使用されることになる。   Various correction data (for example, shading correction data) acquired in each step is stored in the ROM 106, and is developed in the RAM 107 at the time of shooting and used for correction.

108は撮影された画像を保存する記録媒体であり、不図示のコネクタを介して撮像装置100と接続される。109は撮像装置100を起動させるための電源スイッチ(電源SW)である。110は、AF(オートフォーカス)処理、AE(自動露出)処理、フラッシュ調光処理等の撮像準備動作などの開始を指示する第1のシャッタースイッチ(SW1)である。   Reference numeral 108 denotes a recording medium that stores a photographed image, and is connected to the imaging apparatus 100 via a connector (not shown). Reference numeral 109 denotes a power switch (power SW) for activating the imaging apparatus 100. Reference numeral 110 denotes a first shutter switch (SW1) for instructing start of imaging preparation operations such as AF (autofocus) processing, AE (automatic exposure) processing, flash light control processing, and the like.

111は撮像素子101から読み出した信号をA/D変換器102、DSP103を介して記録媒体108に書き込むまでの一連の動作(撮像動作)の開始を指示する第2のシャッタースイッチ(SW2)である。112は撮像装置100の動作モードを選択するためのモードダイアルである。   Reference numeral 111 denotes a second shutter switch (SW2) that instructs the start of a series of operations (imaging operations) until a signal read from the image sensor 101 is written to the recording medium 108 via the A / D converter 102 and the DSP 103. . Reference numeral 112 denotes a mode dial for selecting an operation mode of the imaging apparatus 100.

また、本発明の撮像装置100は、不図示の撮影レンズが接続されており、該撮影レンズとの通信のやり取りを行うことで、焦点検出動作等を行うことが可能である。なお、本実施例では、図1において、(不図示の交換レンズを有する)レンズ交換型の撮像装置(撮像システム、カメラシステム)について説明したが、本発明は、レンズ一体型の撮像装置にも適用することが可能である。   The imaging apparatus 100 of the present invention is connected to a photographing lens (not shown), and can perform a focus detection operation and the like by exchanging communication with the photographing lens. In the present embodiment, the lens interchangeable imaging device (imaging system, camera system) (having an unillustrated interchangeable lens) has been described with reference to FIG. 1, but the present invention is also applicable to a lens integrated imaging device. It is possible to apply.

図2は本発明の撮像素子101の概略を示す図である。図2において撮像素子101は、画素アレイ(画素部)1001と、画素アレイ1001における行を選択する垂直選択回路1002、画素アレイ1001における列を選択する水平選択回路1004を有する。また、画素アレイ1001中の画素のうち垂直選択回路1002によって選択される画素の信号を読み出す読み出し回路1003、各回路の動作モードなどを外部から決定するためのシリアルインターフェイス(SI)1005を有する。読み出し回路1003は、信号を蓄積するメモリ、ゲインアンプなどを列毎に有する。なお、撮像素子101は、図示された構成要素以外にも、例えば、垂直選択回路1002、水平選択回路1004、読み出し回路1003等の制御回路等を備える。

典型的には、垂直選択回路1002は、画素アレイ1001の複数の行を順に選択し読み出し回路1003に読み出す。水平選択回路1004は、読み出し回路1003に読みだされた複数の画素信号を列毎に順に選択する。 図3は本発明の撮像素子101の画素アレイ1001を表す図である。画素アレイ1001は、2次元の画像を提供するために、複数2次元アレイ状に配列して構成される。301、302、303、304は単位画素である。各単位画素は、ひとつのマイクロレンズを有する。また、該単位画素はひとつのマイクロレンズ下に301L、302L、303L、304Lといった左用の(第1の)フォトダイオードと、301R、302R、303R、304Rといった右用の(第2の)フォトダイオードを備えている。換言すれば、本発明の撮像素子101は、各画素に複数のフォトダイオード(光電変換部)を有している。
FIG. 2 is a diagram showing an outline of the image sensor 101 of the present invention. In FIG. 2, the image sensor 101 includes a pixel array (pixel unit) 1001, a vertical selection circuit 1002 that selects a row in the pixel array 1001, and a horizontal selection circuit 1004 that selects a column in the pixel array 1001. In addition, the pixel array 1001 includes a read circuit 1003 that reads a signal of a pixel selected by the vertical selection circuit 1002 and a serial interface (SI) 1005 for determining an operation mode of each circuit from the outside. The reading circuit 1003 includes a memory for storing signals, a gain amplifier, and the like for each column. The image sensor 101 includes, for example, control circuits such as a vertical selection circuit 1002, a horizontal selection circuit 1004, and a readout circuit 1003 in addition to the illustrated components.

Typically, the vertical selection circuit 1002 sequentially selects a plurality of rows of the pixel array 1001 and reads them out to the reading circuit 1003. The horizontal selection circuit 1004 sequentially selects a plurality of pixel signals read by the reading circuit 1003 for each column. FIG. 3 is a diagram showing a pixel array 1001 of the image sensor 101 of the present invention. The pixel array 1001 is configured by arranging a plurality of two-dimensional arrays in order to provide a two-dimensional image. Reference numerals 301, 302, 303, and 304 denote unit pixels. Each unit pixel has one microlens. The unit pixel has a left (first) photodiode such as 301L, 302L, 303L, and 304L and a right (second) photodiode such as 301R, 302R, 303R, and 304R under one microlens. I have. In other words, the image sensor 101 of the present invention has a plurality of photodiodes (photoelectric conversion units) in each pixel.

図3においては、左側のフォトダイオード301L、302L、303L、304L・・・、右側のフォトダイオード301R、302R、303R、304R・・・など、一つの画素に2つのフォトダイオードを有する構成について示した。しかし、本発明はこれに限定されない。例えば、一つの画素に含まれるフォトダイオード(PD)の数は2以上であればいくつでもよく、例えば、4つのPD、9つのPDなどでもよい。   FIG. 3 shows a structure in which two photodiodes are provided in one pixel, such as the left photodiodes 301L, 302L, 303L, 304L..., The right photodiodes 301R, 302R, 303R, 304R. . However, the present invention is not limited to this. For example, the number of photodiodes (PD) included in one pixel may be any number as long as it is two or more, for example, four PDs, nine PDs, and the like.

図4は図3に示した画素構成を有する撮像素子101における受光の様子を示した図である。   FIG. 4 is a diagram showing a state of light reception in the image sensor 101 having the pixel configuration shown in FIG.

図4は撮影レンズの射出瞳から出た光束が撮像素子101に入射する概念図である。   FIG. 4 is a conceptual diagram in which the light beam emitted from the exit pupil of the photographing lens enters the image sensor 101.

401は画素アレイの断面を示す。402はマイクロレンズ(ML)であり、403はカラーフィルター(CF)である。ここで、本実施例の撮像素子101は、原色ベイヤー配列と呼ばれる画素構成を採用している。具体的には、R(Red),G(Green),B(Blue)の原色カラーフィルターがベイヤー配列された2次元単板CMOSカラーイメージセンサが用いられている。404および405は、一のマイクロレンズ402に対応して配置された一対のフォトダイオードである。一対のフォトダイオード404および405は、例えば、図3における301L、301Rに対応しているものである。406は撮影レンズの射出瞳を示している。   Reference numeral 401 denotes a cross section of the pixel array. Reference numeral 402 denotes a microlens (ML), and reference numeral 403 denotes a color filter (CF). Here, the image sensor 101 of this embodiment employs a pixel configuration called a primary color Bayer array. Specifically, a two-dimensional single-plate CMOS color image sensor in which primary color filters of R (Red), G (Green), and B (Blue) are arranged in a Bayer array is used. Reference numerals 404 and 405 denote a pair of photodiodes arranged corresponding to one microlens 402. The pair of photodiodes 404 and 405 corresponds to, for example, 301L and 301R in FIG. Reference numeral 406 denotes an exit pupil of the photographing lens.

ここでは、マイクロレンズ402を有する画素(すなわち、一対のフォトダイオード404および405を含む画素)に対して、射出瞳から出た光束の中心を光軸409とする。射出瞳から出た光は、光軸409を中心として撮像素子101に入射される。407、408は撮影レンズの射出瞳の一部領域を表す。射出瞳の一部領域407と射出瞳の一部領域408は、互いに異なる領域である。図4には、射出瞳の一部領域407を通過する光の最外周の光線を410、411で示し、射出瞳の一部領域408を通過する光の最外周の光線を412、413で示している。この図からわかるように、射出瞳から出る光束のうち、光軸409を境にして、上側の光束はフォトダイオード405に入射され、下側の光束はフォトダイオード404に入射される。つまり、フォトダイオード404とフォトダイオード405は各々、撮影レンズの射出瞳の別の領域(異なる領域)の光を受光している。   Here, for the pixel having the microlens 402 (that is, the pixel including the pair of photodiodes 404 and 405), the center of the light beam emitted from the exit pupil is defined as the optical axis 409. Light emitted from the exit pupil enters the image sensor 101 with the optical axis 409 as the center. Reference numerals 407 and 408 denote partial areas of the exit pupil of the photographing lens. The exit pupil partial area 407 and the exit pupil partial area 408 are different from each other. In FIG. 4, the outermost rays of light passing through the partial area 407 of the exit pupil are indicated by 410 and 411, and the outermost rays of light passing through the partial area 408 of the exit pupil are indicated by 412 and 413. ing. As can be seen from this figure, among the light beams emitted from the exit pupil, the upper light beam is incident on the photodiode 405 and the lower light beam is incident on the photodiode 404 with the optical axis 409 as a boundary. That is, each of the photodiode 404 and the photodiode 405 receives light from another region (different region) of the exit pupil of the photographing lens.

この特性を生かして、位相差の検出を行う。位相差検出方法は既知であるが、以下で簡単に説明する。画素内の領域において、複数の左側のフォトダイオードから得られるデータを第1ラインとし、複数の右側のフォトダイオードから得られるデータを第2ラインとして、ライン間の相関データを求めれば、位相を検出できる。具体的に、例えば、図3で示す画素アレイにおいて、フォトダイオード301L、302L、303L、304Lなどの行305の左側に位置するフォトダイオードの出力を第1ラインとする。また、例えば、図3で示す画素アレイにおいて、フォトダイオード301R、302R、303R、304Rなどの行305の右側に位置するフォトダイオードの出力を第2ラインとする。また他にも、行305と行306または行307など、行方向に加算したデータを第1ライン、第2ラインとしてもよい。   Taking advantage of this characteristic, the phase difference is detected. The phase difference detection method is known, but will be briefly described below. In the area within the pixel, the phase is detected if the data obtained from the multiple left photodiodes is used as the first line and the data obtained from the multiple right photodiodes is used as the second line to obtain correlation data between the lines. it can. Specifically, for example, in the pixel array shown in FIG. 3, the output of the photodiode located on the left side of the row 305 such as the photodiodes 301L, 302L, 303L, and 304L is defined as the first line. Further, for example, in the pixel array shown in FIG. 3, the output of the photodiode located on the right side of the row 305 such as the photodiodes 301R, 302R, 303R, 304R is the second line. In addition, data added in the row direction such as row 305 and row 306 or row 307 may be used as the first line and the second line.

なお、該第1ラインを集めた画像を第1の出力信号(A像)、該第2ラインを集めた画像を第2の出力信号(B像)と称する。   An image obtained by collecting the first lines is referred to as a first output signal (A image), and an image obtained by collecting the second lines is referred to as a second output signal (B image).

図5も図4と同様の撮影レンズの射出瞳から出た光束が撮像素子101に入射する概念図であるが、着目している画素が、図4では図3の画面中心領域であるのに対して、図5では画面端領域の画素に対する説明となる。各部の番号は図4と共通である。   FIG. 5 is also a conceptual diagram in which the light beam emitted from the exit pupil of the photographing lens similar to that in FIG. 4 enters the image sensor 101, but the pixel of interest is the screen center region of FIG. 3 in FIG. On the other hand, FIG. 5 illustrates the pixels in the screen edge region. The number of each part is the same as in FIG.

ここでは、マイクロレンズ502を有する画素(すなわち、一対のフォトダイオード504および505を含む画素)に対して、射出瞳から出た光束の中心を光軸509とする。射出瞳から出た光は、光軸509を中心として撮像素子101に入射される。507、508は撮影レンズの射出瞳の一部領域を表す。射出瞳の一部領域507と射出瞳の一部領域508は、互いに異なる領域である。図5には、射出瞳の一部領域507を通過する光の最外周の光線を510、511で示し、射出瞳の一部領域508を通過する光の最外周の光線を512、513で示している。この際に、一対のフォトダイオード504および505のうち、フォトダイオード504から得られる光量は、図4の画面中心領域でのフォトダイオード404から得られる光量より少なくなっている。また、フォトダイオード505が得られる光量は、図4の画面中心領域でのフォトダイオード405から得られる光量よりも多くなっている。   Here, for the pixel having the microlens 502 (that is, the pixel including the pair of photodiodes 504 and 505), the center of the light beam emitted from the exit pupil is defined as the optical axis 509. The light emitted from the exit pupil enters the image sensor 101 with the optical axis 509 as the center. Reference numerals 507 and 508 denote partial areas of the exit pupil of the photographing lens. The exit pupil partial region 507 and the exit pupil partial region 508 are different from each other. In FIG. 5, the outermost rays of light passing through the partial area 507 of the exit pupil are indicated by 510 and 511, and the outermost rays of light passing through the partial area 508 of the exit pupil are indicated by 512 and 513. ing. At this time, the light quantity obtained from the photodiode 504 out of the pair of photodiodes 504 and 505 is smaller than the light quantity obtained from the photodiode 404 in the center area of the screen in FIG. Further, the amount of light obtained from the photodiode 505 is larger than the amount of light obtained from the photodiode 405 in the center area of the screen in FIG.

これは光線角によるものであり、図5に示す画面端とは逆側の画面端では、フォトダイオード504が得られる光量は、図4での画面中心領域でのフォトダイオード404で得られる光量より多くなる。また、フォトダイオード505が得られる光量は、図4での画面中心領域でのフォトダイオード405で得られる光量よりも少なくなる。   This is due to the ray angle. At the screen end opposite to the screen end shown in FIG. 5, the amount of light obtained by the photodiode 504 is greater than the amount of light obtained by the photodiode 404 in the screen center region in FIG. Become more. Further, the amount of light obtained by the photodiode 505 is smaller than the amount of light obtained by the photodiode 405 in the screen center region in FIG.

なお、例えば画面左右端に位置する2組の(光軸509を中心に対称位置に配置された)フォトダイオード504、505の出力は光線角の影響で差が発生するものの、フォトダイオード504および505を合成した場合の出力としては、ほぼ同等となる。   For example, although the outputs of the two sets of photodiodes 504 and 505 located at the left and right ends of the screen (arranged symmetrically with respect to the optical axis 509) are different due to the influence of the ray angle, the photodiodes 504 and 505 are different. As a result, the output is almost the same.

図4乃至図5で説明したフォトダイオード404の出力(A像=第1の出力信号)およびフォトダイオード405の出力(B像=第2の出力信号)例を図6乃至図7に示す。なお、本発明において、第1の出力信号および第2の出力信号は、複数の光電変換部(例えば、一対のフォトダイオード404および405)の信号を独立に読み出したものである。また、フォトダイオード404とフォトダイオード405を合成した、いわゆる、第1および第2の出力信号とは異なるフォトダイオード構成での出力(A+B像=第3の出力信号)例を図6乃至図7に示す。なお、本発明において、第3の出力信号は、複数の光電変換部(例えば、一対のフォトダイオード404および405)の信号を加算して読み出したものである。   Examples of the output of the photodiode 404 (A image = first output signal) and the output of the photodiode 405 (B image = second output signal) described in FIGS. 4 to 5 are shown in FIGS. In the present invention, the first output signal and the second output signal are obtained by independently reading signals from a plurality of photoelectric conversion units (for example, a pair of photodiodes 404 and 405). Further, examples of outputs (A + B image = third output signal) in which the photodiode 404 and the photodiode 405 are combined, which are different from the first and second output signals, are shown in FIGS. Show. Note that in the present invention, the third output signal is obtained by adding signals from a plurality of photoelectric conversion units (for example, a pair of photodiodes 404 and 405) and reading them out.

なお、本発明の撮像素子101は、複数の光電変換部を独立または加算して読み出すことにより、同一画素を焦点検出用および撮像用として共用することができる。すなわち、第1の出力信号および第2の出力信号を焦点検出に使用することができ、第3の出力信号を画像出力として使用することができる。   Note that the imaging device 101 of the present invention can share the same pixel for focus detection and imaging by reading out a plurality of photoelectric conversion units independently or by adding them. That is, the first output signal and the second output signal can be used for focus detection, and the third output signal can be used as an image output.

図6は、本発明における均一光を撮影した画像であり、図7は該図6の画像のうち、特定色(例えば、緑色のカラーフィルターを有する画素)の出力を垂直方向に平均化したシェーディングデータとして示している。   FIG. 6 is an image obtained by photographing uniform light according to the present invention, and FIG. 7 is a shading obtained by averaging the output of a specific color (for example, a pixel having a green color filter) in the vertical direction. Shown as data.

一般的な撮影光学系を使用する場合、A像は図6(a)のように 画面左>画面中央>画面右 のような変化(シェーディング)となり、B像は図6(b)のように 画面左<画面中央<画面右 という変化(シェーディング)となる。また、当然、画像出力であるA+B像では、図6(c)のように画面中央に出力ピークがきており、周辺に行くにしたがって出力が下がる、いわゆる、周辺光量落ちのようなシェーディングとなる。   When using a general photographic optical system, the A image changes (shading) as shown in Fig. 6 (a): screen left> screen center> screen right, and B image as shown in Fig. 6 (b). Change (shading) of screen left <screen center <screen right. Naturally, in the A + B image that is the image output, an output peak appears in the center of the screen as shown in FIG. 6C, and the output decreases as it goes to the periphery, so that the shading is a so-called peripheral light amount drop.

図6乃至図7のようなシェーディングがあることで、A像とB像の出力差が生じる為、測距性能が低下するほか、画像としても、シェーディングによる周辺画質の劣化がある為、位置に応じたシェーディング補正を正確に行う必要がある。   The shading as shown in FIG. 6 to FIG. 7 causes the output difference between the A image and the B image, so that the distance measurement performance is deteriorated. It is necessary to accurately perform the corresponding shading correction.

このシェーディング補正について図8乃至図9を用いて詳細に説明する。   This shading correction will be described in detail with reference to FIGS.

図8はシェーディング補正を行う構成(シェーディング補正装置)として、主に図1にて説明したDSP103の一部詳細を示した図であり、図9は補正データの生成を示したイメージ図である。   FIG. 8 is a diagram mainly showing a part of the DSP 103 described in FIG. 1 as a configuration (shading correction device) for performing shading correction, and FIG. 9 is an image diagram showing generation of correction data.

図8において、DSP103には、撮像素子101からの出力信号(画像出力)をA/D変換器102を介して受け取る入力手段(入力部)800が配設されている。また、該入力手段から入力された信号を一時保存する為のメモリ領域801が配設されている。該メモリ領域801は、複数の画像出力を保存する領域802、803、804に分かれている。802は撮像素子101のA像(左側のフォトダイオードのみで得られた画像出力)のみの出力を保存する第1の領域である。803はB像(右側のフォトダイオードのみで得られた画像出力)のみの出力を保存する第2の領域である。804はA像とB像を加算したA+B像(左右のフォトダイオード出力を合成した画像出力)の出力を保存する第3の領域である。   In FIG. 8, the DSP 103 is provided with an input unit (input unit) 800 that receives an output signal (image output) from the image sensor 101 via the A / D converter 102. A memory area 801 is provided for temporarily storing a signal input from the input means. The memory area 801 is divided into areas 802, 803, and 804 for storing a plurality of image outputs. Reference numeral 802 denotes a first area in which the output of only the A image of the image sensor 101 (image output obtained only from the left photodiode) is stored. Reference numeral 803 denotes a second area for storing the output of only the B image (image output obtained only by the right photodiode). Reference numeral 804 denotes a third area for storing an output of an A + B image (an image output obtained by combining left and right photodiode outputs) obtained by adding the A image and the B image.

805は後述するRAM107から送られてくる第1の補正データ(第1の補正値)および第3の補正データ(第3の補正値)を基に、第2の補正データ(第2の補正値)を生成する為の演算手段である。なお、ここで、第1の補正値は、第1の出力信号をシェーディング補正するための補正値であり、第2の補正値は、第2の出力信号をシェーディング補正するための補正値であり、第3の補正値は、第3の出力信号をシェーディング補正するための補正値である。806はA像、B像、A+B像を、各々、第1乃至第3の補正データによりシェーディング補正を行う補正手段である。   Reference numeral 805 denotes second correction data (second correction value) based on first correction data (first correction value) and third correction data (third correction value) sent from the RAM 107 described later. ). Here, the first correction value is a correction value for correcting the shading of the first output signal, and the second correction value is a correction value for correcting the shading of the second output signal. The third correction value is a correction value for correcting the shading of the third output signal. Reference numeral 806 denotes a correction unit that performs shading correction on the A image, the B image, and the A + B image using the first to third correction data, respectively.

また、シェーディング補正用のデータを取り扱う領域として、ROM106およびRAM107には各々2つの補正データ領域が設けられている。例えば、ROM106の第1の補正データ領域1061にはA像用の補正データ(第1の補正値)が格納され、ROM106の第2の補正データ領域1062にはA+B像用の補正データ(第3の補正値)が格納されている。これらA像用の補正データおよびA+B像用の補正データは撮像装置100が起動された段階でRAM107の第3の補正データ領域1071、第4の補正データ領域1072へそれぞれデータ転送され補正時に使用される。ここでは、図8に記されているとおり、ROM106の第1の補正データ領域1061に格納されているA像用の補正データがRAM107の第3の補正データ領域1071へデータ転送される。また、ROM106の第2の補正データ領域1062に格納されているA+B像用の補正データがRAM107の第4の補正データ領域1072へデータ転送される。   In addition, the ROM 106 and the RAM 107 are each provided with two correction data areas as areas for handling shading correction data. For example, A-image correction data (first correction value) is stored in the first correction data area 1061 of the ROM 106, and A + B image correction data (third) is stored in the second correction data area 1062 of the ROM 106. Correction value) is stored. The correction data for the A image and the correction data for the A + B image are transferred to the third correction data area 1071 and the fourth correction data area 1072 of the RAM 107 when the imaging apparatus 100 is activated, and are used for correction. The Here, as shown in FIG. 8, the correction data for the A image stored in the first correction data area 1061 of the ROM 106 is transferred to the third correction data area 1071 of the RAM 107. Further, the correction data for A + B image stored in the second correction data area 1062 of the ROM 106 is transferred to the fourth correction data area 1072 of the RAM 107.

また、ROM106およびRAM107には、後述する、各々の画像の規格化ポイントの出力値(中央位置の出力値(第4の補正値)など)を保持する領域1063および該領域1063に対応して設けられた領域1073も備えられている。このデータについても、同様に、撮像装置100が起動された段階でROM106の領域1063からRAM107の領域1073へデータ転送され補正時に使用される。   The ROM 106 and the RAM 107 are provided corresponding to an area 1063 for holding an output value of a standardization point of each image (an output value at the center position (fourth correction value) and the like), which will be described later, and the area 1063. A region 1073 is also provided. Similarly, this data is transferred from the area 1063 of the ROM 106 to the area 1073 of the RAM 107 when the image pickup apparatus 100 is activated, and is used for correction.

補正手段806によるシェーディング補正を行った後、一時保存する為のメモリ領域807にある領域808乃至810に、補正後の画像(A像、B像、A+B像)を一時保存する。ここでは、領域808に補正後のA像の出力を一時保存し、領域809に補正後のB像の出力を一時保存し、領域810に補正後のA+B像の出力を一時保存する。その後は、他の補正段での補正を行うブロックへ出力を移行させる。なお、以後の補正に関しては、詳細説明は割愛する。   After the shading correction by the correction means 806, the corrected images (A image, B image, A + B image) are temporarily stored in the areas 808 to 810 in the memory area 807 for temporary storage. Here, the output of the corrected A image is temporarily stored in the area 808, the output of the corrected B image is temporarily stored in the area 809, and the output of the corrected A + B image is temporarily stored in the area 810. Thereafter, the output is shifted to a block that performs correction at another correction stage. Detailed description of the subsequent correction is omitted.

なお、本実施例では、メモリ領域801および807は説明の便宜上、個別に記載しているが、実際には、時系列に使用することにより、共用することも可能である。   In the present embodiment, the memory areas 801 and 807 are individually described for convenience of explanation, but actually, they can be shared by using them in time series.

次に、図9を用いて、補正データの概要および補正データ生成の一例を説明する。   Next, an example of correction data and an example of correction data generation will be described with reference to FIG.

図9(a)乃至図9(c)は補正前の各画像出力(すなわち、A像、B像、A+B像の出力)の水平シェーディングを示した図である。   FIGS. 9A to 9C are diagrams illustrating horizontal shading of each image output before correction (that is, output of A image, B image, and A + B image).

また、図9(d)乃至図9(f)は各画像(すなわち、A像、B像、A+B像のそれぞれ)に対する補正データ(列毎の補正係数をプロットしたもの)である。   FIGS. 9D to 9F show correction data (plotting correction coefficients for each column) for each image (that is, each of A image, B image, and A + B image).

また、図9(g)乃至図9(i)は補正後の各画像出力(すなわち、補正後のA像、補正後のB像、補正後のA+B像の出力)の水平シェーディングを示した図である。   FIGS. 9 (g) to 9 (i) are diagrams showing horizontal shading of each image output after correction (that is, output of corrected A image, corrected B image, corrected A + B image). It is.

図9(a)乃至図9(c)に記載されているA像、A+B像、B像の各々の中央位置出力Lca、Lcab、Lcbは、演算用のデータ(規格化ポイント)としてROM106の領域1063に保存されている。このデータは、撮像装置100が起動された段階で該領域1063からRAM107の領域1073にデータ転送され使用される。   The center position outputs Lca, Lcab, and Lcb of each of the A, A + B, and B images shown in FIGS. 9A to 9C are areas of the ROM 106 as calculation data (standardization points). 1063. This data is transferred from the area 1063 to the area 1073 of the RAM 107 and used when the imaging apparatus 100 is activated.

また、図9(d)乃至図9(e)に記載されているA像およびA+B像の水平シェーディングの画面中央レベルになるよう、乗算する係数Ka、Kab(各列分)は、予め求められてROM106の領域1061乃至1062に保存されている。このデータは、撮像装置100が起動された段階で該領域1061乃至1062からRAM107の領域1071乃至1072にデータ転送され使用される。   Also, the coefficients Ka and Kab (for each column) to be multiplied are obtained in advance so as to be the screen center level of the horizontal shading of the A image and the A + B image described in FIGS. 9D to 9E. Are stored in areas 1061 to 1062 of the ROM 106. This data is transferred from the areas 1061 to 1062 to the areas 1071 to 1072 of the RAM 107 and used when the imaging apparatus 100 is activated.

図9(f)に記載されているB像の水平シェーディングの画面中央レベルになるよう、乗算する係数Kb(各列分)(第2の補正データ)は、本実施例ではROM106に格納されていない。もっと言えば、本発明の撮像装置100は、第2の補正データ(B像用の補正データ)を有しない。したがって、本実施例では、図9(f)に示す第2の補正データ(B像用の補正データ)Kbは第1の補正データ:Ka、第3の補正データ:Kab、および、中央位置出力Lca、Lcab、Lcbから、演算手段805によって生成する。換言すれば、本実施例では、第1の補正値、第2の補正値、および第3の補正値のうち、ROM106に記憶されている2つの補正値以外の残りの補正値を演算手段805によって生成する。   In the present embodiment, the coefficient Kb (for each column) (second correction data) to be multiplied is stored in the ROM 106 so as to be at the screen center level of the horizontal shading of the B image shown in FIG. Absent. More specifically, the imaging apparatus 100 of the present invention does not have the second correction data (B image correction data). Therefore, in this embodiment, the second correction data (B image correction data) Kb shown in FIG. 9F is the first correction data: Ka, the third correction data: Kab, and the center position output. It is generated from the Lca, Lcab, and Lcb by the calculation means 805. In other words, in this embodiment, the remaining correction values other than the two correction values stored in the ROM 106 among the first correction value, the second correction value, and the third correction value are calculated. Generate by.

具体的には、第2の補正用データ:Kbは、各列のデータを上記各データより以下のように算出する。   Specifically, the second correction data: Kb is calculated as follows for each column of data from the above data.

Kb(n)=(Kab(n)−Lca)/{(Lcab/Kab(n))−(Lca/Ka(n))}
Kb(n):B像の所定列の補正係数
Ka(n):A像の所定列の補正係数
Kab(n):A+B像の所定列の補正係数
Lca:A像の中央位置出力(規格化ポイント)
Lcab:A+B像の中央位置出力(規格化ポイント)
なお、ここで記載しているA像、A+B像、B像の補正データ、出力は撮像素子として色分離されている種類毎(例えば、緑色フィルタ、赤色フィルタ、青色フィルタのベイヤー分離毎)にデータ保持することで精度の高い補正をすることが可能である。
Kb (n) = (Kab (n) −Lca) / {(Lcab / Kab (n)) − (Lca / Ka (n))}
Kb (n): Correction coefficient for a predetermined row of the B image
Ka (n): Correction coefficient for a predetermined row of the A image
Kab (n): Correction coefficient for a predetermined row of A + B image
Lca: Center position output of A image (normalization point)
Lcab: A + B center position output (standardized point)
The correction data for the A image, A + B image, and B image described here, and the output are data for each type of color separation as an image sensor (eg, for each Bayer separation of a green filter, a red filter, and a blue filter). By holding it, it is possible to perform highly accurate correction.

もちろん、すべての色に共通の輝度補正として実施してもかまわない。その場合は、各色のデータを基に、輝度値:Yを求める所定の演算を行ったうえで、演算を行う。   Of course, it may be implemented as a luminance correction common to all colors. In that case, the calculation is performed after performing a predetermined calculation for obtaining the luminance value Y based on the data of each color.

図9(g)乃至図9(i)は図9(a)乃至図9(c)の画像出力に対し、図9(d)乃至図9(f)の補正データによる補正を行った結果の画像出力のシェーディングである。図9(g)乃至図9(i)は図9(a)乃至図9(c)の規格化ポイント(中央出力値)に規格化された出力に補正できていることを示している。   9 (g) to 9 (i) show the results of correcting the image output of FIGS. 9 (a) to 9 (c) with the correction data of FIGS. 9 (d) to 9 (f). Image output shading. FIGS. 9 (g) to 9 (i) show that the output is normalized to the normalized point (center output value) in FIGS. 9 (a) to 9 (c).

以上、説明したように、本発明の第1の実施例では、A像、B像、A+B像の3種類の画像に対して、2種類の補正データ(本実施例ではA像およびA+B像)を備え、3種類目の補正データを演算により求めている。そうすることで、必要なメモリの増大を抑制しつつも、適正なシェーディング補正を行うことでシェーディングによる測距性能低下や周辺画質の劣化を防ぎ、所望の性能を得ることが可能となる。   As described above, in the first embodiment of the present invention, two types of correction data (A image and A + B image in this embodiment) are used for three types of images, A image, B image, and A + B image. The third type of correction data is obtained by calculation. By doing so, it is possible to obtain a desired performance by preventing an increase in distance measurement performance and deterioration of peripheral image quality due to shading by performing appropriate shading correction while suppressing an increase in necessary memory.

なお、本実施例ではROM106、RAM107の双方で容量を抑制する例をあげているが、例えば、初期データとしてROM106に保持するデータを2種類とし、RAM107には3種類用のデータ領域を備えるようにしてもよい。その場合は、撮像装置100の起動時などに上記演算を行ったうえで、RAM107へ各補正データの保存をしておく構成となる。このように構成されるシェーディング補正装置も、本発明の目的であるメモリ容量低減(ROM106の容量低減)に即したものである。   In this embodiment, the capacity is controlled by both the ROM 106 and the RAM 107. For example, two types of data are stored in the ROM 106 as initial data, and the RAM 107 has three types of data areas. It may be. In that case, the correction data is stored in the RAM 107 after the above calculation is performed when the imaging apparatus 100 is activated. The shading correction apparatus configured as described above is also in accordance with the memory capacity reduction (reduction in the capacity of the ROM 106), which is an object of the present invention.

また、本実施例では、撮像素子101は、A像、B像、A+B像の出力を生成してDSP103に入力・保存されるように記載しているが、本発明はその動作に限定されるものではない。該構成の撮像素子の出力はA像+B像≒(A+B像)となるものであるため、A像、B像、A+B像のうち所望の2出力から第3の出力を演算で求めることも可能である。   In this embodiment, it is described that the image sensor 101 generates an output of an A image, a B image, and an A + B image and inputs and stores the output in the DSP 103. However, the present invention is limited to the operation. It is not a thing. Since the output of the image sensor with this configuration is A image + B image≈ (A + B image), it is also possible to obtain the third output from the desired two outputs among the A image, B image, and A + B image by calculation. It is.

具体的には、A像とB像の出力を得て、A像とB像の加算演算を行ってA+B像を得たり、A像(もしくはB像)とA+B像を得て、A+B像からA像(もしくはB像)を差分演算してB像(もしくはA像)の出力を得る方法を使っても、何ら問題はない。   Specifically, the output of the A image and the B image is obtained, the addition operation of the A image and the B image is performed to obtain an A + B image, or the A image (or B image) and the A + B image are obtained, and the A + B image is obtained. There is no problem even if a method of obtaining the output of the B image (or A image) by calculating the difference between the A image (or B image) is obtained.

本発明の第2の実施例は、演算処理の順序を変更することによって2種類の補正データにより、補正された3種類の画像を得るものである。   In the second embodiment of the present invention, three types of corrected images are obtained by using two types of correction data by changing the order of arithmetic processing.

図10は、シェーディング補正を行う構成(シェーディング補正装置)として、本発明の第2の実施例におけるDSP103の一部詳細を示した図であり、概要は図8で説明したものと同様であるため、ここでは異なる部分の説明のみを記載する。   FIG. 10 is a diagram showing a part of the details of the DSP 103 in the second embodiment of the present invention as a configuration for performing shading correction (shading correction apparatus), and the outline is the same as that described in FIG. Here, only the description of the different parts will be described.

図10では、一時保存する為のメモリ領域801に配設されているのは第1の領域802および第3の領域804のみとなっており、第2の領域803は配設されていない。すなわち、本実施例では、A像出力とA+B像出力のみが保存され、B像の出力は保存されない。もう少し言うと、本実施例において、正確には、撮像動作としてB像を取得していない。   In FIG. 10, only the first area 802 and the third area 804 are provided in the memory area 801 for temporary storage, and the second area 803 is not provided. That is, in this embodiment, only the A image output and the A + B image output are stored, and the B image output is not stored. More specifically, in this embodiment, the B image is not accurately acquired as the imaging operation.

補正手段806では、RAM107の領域1071乃至1072に格納された第1および第3の補正データによりA像およびA+B像の補正を行う。その後、補正後のA像出力およびA+B像出力は、メモリ領域807にある領域808および810に転送されるとともに演算手段1000に送られる。   The correction unit 806 corrects the A image and the A + B image using the first and third correction data stored in the areas 1071 to 1072 of the RAM 107. Thereafter, the corrected A image output and A + B image output are transferred to the areas 808 and 810 in the memory area 807 and sent to the computing means 1000.

演算手段1000では、補正後のA+B像出力と補正後のA像出力の差分処理を行うことで、補正後のB像出力と等価の出力を得る。該演算手段による結果をB像補正出力としてメモリ領域807にある領域809(補正後のB像用保存領域)に転送する。以後の補正に関しては、第1実施例と同様に詳細説明は割愛する。   The arithmetic unit 1000 obtains an output equivalent to the corrected B image output by performing a difference process between the corrected A + B image output and the corrected A image output. The result of the calculation means is transferred as a B image correction output to the area 809 (corrected B image storage area) in the memory area 807. As for the subsequent correction, the detailed description is omitted as in the first embodiment.

なお、メモリ領域801および807は説明の便宜上、個別に記載しているが、実際には、時系列に使用することにより、共用することも可能である。   Note that the memory areas 801 and 807 are individually shown for convenience of explanation, but actually, they can be shared by using them in time series.

なお、本実施例では、撮像素子101は、A像とA+B像の出力をシェーディング補正したうえで演算を行い、シェーディング補正後のB像を生成しているが、本発明はその動作に限定されるものではない。該構成の撮像素子の出力はA像+B像≒(A+B像)となるものであるため、所望の2出力から第3の出力を演算で求めることも可能である。   In this embodiment, the image sensor 101 performs an operation after correcting the output of the A image and the A + B image to generate a B image after the shading correction. However, the present invention is limited to the operation. It is not something. Since the output of the image sensor with this configuration is A image + B image≈ (A + B image), it is also possible to obtain the third output from the desired two outputs by calculation.

具体的には、A像とB像の出力を、シェーディング補正後に加算してシェーディング補正後相当のA+B像を得る方法を使っても何ら問題はない。他にも、B像とA+B像の出力を、シェーディング補正後にA+B像からB像を減算してシェーディング補正後相当のA像出力を得るような方法を使っても、何ら問題はない。   Specifically, there is no problem even if a method of adding the outputs of the A image and the B image after shading correction to obtain a corresponding A + B image after the shading correction is used. In addition, there is no problem even if a method of subtracting the B image from the A + B image after shading correction to obtain the corresponding A image output after the shading correction is used for the output of the B image and the A + B image.

以上のように、第1と第2の画像を補正したのちに減算または加算して第3の画像出力を得ることにより、補正されたものと等価の第3の画像を得ることが可能となるため、メモリ領域を増大させることなく、適正な画像を得ることができる。   As described above, by correcting the first and second images and then subtracting or adding them to obtain the third image output, it is possible to obtain a third image equivalent to the corrected one. Therefore, an appropriate image can be obtained without increasing the memory area.

また、本発明の第1の実施例および第2の実施例においては、1つのマイクロレンズの下に2つのフォトダイオード(光電変換素子)が配置された例のみを説明したが、本発明はそれに限定されない。例えば、本発明は1つのマイクロレンズ下に4つのフォトダイオードを備えている場合においても適用可能である。この場合は、4つのフォトダイオードのそれぞれの出力を使用したり、4つのフォトダイオードを例えば左右2個ずつに分けて2分割し、該2個ずつを加算して使用したりするなどしてもよい。そのような構成を採用した場合においても、使用するフォトダイオードに適した分割でシェーディング補正データを備え、保持していないシェーディング補正データを演算により求めることで、メモリ領域が増大してしまうのを防止することができる。また、第2の実施例のように、必要な画像の全てを取得せず、一部は、補正後画像の演算を行うことで、対応するようにしてもよい。   In the first embodiment and the second embodiment of the present invention, only the example in which two photodiodes (photoelectric conversion elements) are arranged under one microlens has been described. It is not limited. For example, the present invention can be applied to the case where four photodiodes are provided under one microlens. In this case, the output of each of the four photodiodes may be used, or the four photodiodes may be divided into two parts, for example, left and right parts, and the two parts may be added and used. Good. Even when such a configuration is adopted, shading correction data is provided in a division suitable for the photodiode to be used, and by calculating shading correction data that is not held by calculation, it is possible to prevent the memory area from increasing. can do. Further, as in the second embodiment, not all of the necessary images may be acquired, and a part of the images may be handled by calculating the corrected image.

また、本発明の第1の実施例および第2の実施例においては、画像に使用する信号は全てのフォトダイオードの信号を使用する例を挙げているが、本発明はこれに限定されない。例えば、本発明は1画素中に5つのフォトダイオードを配設している場合などで、画像用としては4つのフォトダイオードしか使用しない場合でも適用可能である。この場合、画像用として情報収集用(焦点検出用)のデータとは異なる構成(加算状態が違うものも含み)でのフォトダイオードを使用するとして、異なる補正データを使用することで、適正な補正をすることが出来る。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、装置(例えば、撮像装置)に供給する。そしてその装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
In the first embodiment and the second embodiment of the present invention, an example in which signals of all photodiodes are used as signals used in an image is described, but the present invention is not limited to this. For example, the present invention can be applied to a case where five photodiodes are disposed in one pixel and only four photodiodes are used for an image. In this case, it is assumed that a photodiode with a different configuration (including those with different addition states) from the data for information collection (for focus detection) is used for images, and appropriate correction is made by using different correction data. You can
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software describing a procedure for realizing the functions of the above-described embodiments is recorded is supplied to an apparatus (for example, an imaging apparatus). The computer (or CPU, MPU, etc.) of the device reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Moreover, the function of the above-described embodiment is realized by making the program code read by the computer executable. Further, based on the instruction of the program code, an OS (operating system) or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments may be realized by the processing. included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

本発明は、コンパクトデジタルカメラ、一眼レフカメラ、ビデオカメラなどのカメラシステムに好適に利用できる。   The present invention can be suitably used for camera systems such as compact digital cameras, single-lens reflex cameras, and video cameras.

301L、301R、404、405、504、505:フォトダイオード
103:DSP
106:ROM
107:RAM
1061、1071:第1の補正データ
1062、1072:第3の補正データ
805、1000:演算手段
806:補正手段


301L, 301R, 404, 405, 504, 505: Photodiode 103: DSP
106: ROM
107: RAM
1061, 1071: First correction data 1062, 1072: Third correction data 805, 1000: Calculation means 806: Correction means


Claims (15)

各画素に複数の光電変換部を有する撮像素子からの出力信号をシェーディング補正するシェーディング補正装置であって、
前記複数の光電変換部の信号を独立に読み出した第1の出力信号および第2の出力信号と、前記複数の光電変換部の信号を加算して読み出した第3の出力信号と、のうち少なくとも2つの出力信号が入力される入力手段と、
前記第1の出力信号をシェーディング補正するための第1の補正値、前記第2の出力信号をシェーディング補正するための第2の補正値、および前記第3の出力信号をシェーディング補正するための第3の補正値、のうち2つの補正値を記憶する記憶手段と、
前記第1の補正値、前記第2の補正値、および前記第3の補正値のうち、前記2つの補正値以外の残りの補正値を演算する演算手段と、
前記第1の補正値、前記第2の補正値、および前記第3の補正値を基にシェーディング補正を行う補正手段と、
を備えたことを特徴とするシェーディング補正装置。
A shading correction device that performs shading correction on an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel,
At least one of a first output signal and a second output signal obtained by independently reading the signals of the plurality of photoelectric conversion units, and a third output signal read by adding the signals of the plurality of photoelectric conversion units. Input means for receiving two output signals;
A first correction value for shading correction of the first output signal, a second correction value for shading correction of the second output signal, and a first correction value for shading correction of the third output signal. Storage means for storing two of the three correction values,
An arithmetic means for calculating a remaining correction value other than the two correction values among the first correction value, the second correction value, and the third correction value;
Correction means for performing shading correction based on the first correction value, the second correction value, and the third correction value;
A shading correction apparatus comprising:
前記記憶手段には、前記第1の出力信号、前記第2の出力信号、および前記第3の出力信号それぞれの中央位置の出力値を規格化する第4の補正値が記憶されていることを特徴とする請求項1に記載のシェーディング補正装置。   The storage means stores a fourth correction value that normalizes the output value at the center position of each of the first output signal, the second output signal, and the third output signal. The shading correction apparatus according to claim 1, wherein 前記演算手段は、前記残りの補正値を、前記2つの補正値および前記第4の補正値を用いて演算することを特徴とする請求項2に記載のシェーディング補正装置。   The shading correction apparatus according to claim 2, wherein the calculation unit calculates the remaining correction value using the two correction values and the fourth correction value. 前記2つの補正値は、前記第1の補正値と前記第3の補正値であり、
前記演算手段は、前記残りの補正値である前記第2の補正値を以下のように算出することを特徴とする請求項3に記載のシェーディング補正装置。
Kb(n)=(Kab(n)−Lca)/{(Lcab/Kab(n))−(Lca/Ka(n))}
ここで、Kb(n)は前記第2の補正値の所定列の補正係数、Ka(n)は前記第1の補正値の所定列の補正係数、Kab(n)は前記第3の補正値の所定列の補正係数、Lcaは前記第1の補正値の中央位置の出力値、Lcabは前記第3の補正値の中央位置の出力値である。
The two correction values are the first correction value and the third correction value,
The shading correction apparatus according to claim 3, wherein the calculation unit calculates the second correction value which is the remaining correction value as follows.
Kb (n) = (Kab (n) −Lca) / {(Lcab / Kab (n)) − (Lca / Ka (n))}
Here, Kb (n) is the correction coefficient of the predetermined column of the second correction value, Ka (n) is the correction coefficient of the predetermined column of the first correction value, and Kab (n) is the third correction value. , Lca is an output value at the center position of the first correction value, and Lcab is an output value at the center position of the third correction value.
各画素に複数の光電変換部を有する撮像素子からの出力信号をシェーディング補正するシェーディング補正装置であって、
前記複数の光電変換部の信号を独立に読み出した第1の出力信号および第2の出力信号と、前記複数の光電変換部の信号を加算して読み出した第3の出力信号と、のうち少なくとも2つの出力信号が入力される入力手段と、
前記第1の出力信号をシェーディング補正するための第1の補正値、前記第2の出力信号をシェーディング補正するための第2の補正値、および前記第3の出力信号をシェーディング補正するための第3の補正値、のうち2つの補正値を記憶する記憶手段と、
前記2つの補正値を基に、前記第1の出力信号、前記第2の出力信号、および前記第3の出力信号、のうち2つの出力信号のシェーディング補正を行う補正手段と、
前記補正手段により補正された2つの出力信号を基に、補正された残りの出力信号を演算する演算手段と、
を備えたことを特徴とするシェーディング補正装置。
A shading correction device that performs shading correction on an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel,
At least one of a first output signal and a second output signal obtained by independently reading the signals of the plurality of photoelectric conversion units, and a third output signal read by adding the signals of the plurality of photoelectric conversion units. Input means for receiving two output signals;
A first correction value for shading correction of the first output signal, a second correction value for shading correction of the second output signal, and a first correction value for shading correction of the third output signal. Storage means for storing two of the three correction values,
Correction means for performing shading correction of two output signals among the first output signal, the second output signal, and the third output signal based on the two correction values;
Based on the two output signals corrected by the correction means, calculation means for calculating the corrected remaining output signal;
A shading correction apparatus comprising:
前記演算手段は、前記補正された2つの出力信号を加算または減算することにより、前記補正された残りの出力信号を演算することを特徴とする請求項5に記載のシェーディング補正装置。   6. The shading correction apparatus according to claim 5, wherein the calculation means calculates the corrected remaining output signal by adding or subtracting the two corrected output signals. 前記記憶手段に記憶された前記2つの補正値は、前記撮像素子に設けられたカラーフィルターの種類毎に補正値を保持していることを特徴とする請求項1〜6のいずれか1項に記載のシェーディング補正装置。   7. The correction value stored in the storage unit holds a correction value for each type of color filter provided in the image sensor. The shading correction apparatus as described. 前記撮像素子は、各画素に、1つのマイクロレンズと、前記複数の光電変換部と、を有することを特徴とする請求項1〜7のいずれか1項に記載のシェーディング補正装置。   The shading correction apparatus according to claim 1, wherein the imaging element includes one microlens and the plurality of photoelectric conversion units in each pixel. 前記第1の出力信号および前記第2の出力信号は焦点検出に使用され、前記第3の出力信号は画像出力として使用されることを特徴とする請求項1〜8のいずれか1項に記載のシェーディング補正装置。   The said 1st output signal and said 2nd output signal are used for focus detection, and said 3rd output signal is used as an image output, The any one of Claims 1-8 characterized by the above-mentioned. Shading correction device. 請求項1〜9のいずれか1項に記載のシェーディング補正装置と、
前記シェーディング補正装置により補正された前記第1の出力信号および前記第2の出力信号を基に焦点検出を行う焦点検出手段と、
を備えたことを特徴とする焦点検出装置。
A shading correction apparatus according to any one of claims 1 to 9,
Focus detection means for performing focus detection based on the first output signal and the second output signal corrected by the shading correction device;
A focus detection apparatus comprising:
各画素に複数の光電変換部を有する撮像素子と、
請求項1〜9のいずれか1項に記載のシェーディング補正装置と、
を備えたことを特徴とする撮像装置。
An image sensor having a plurality of photoelectric conversion units in each pixel;
A shading correction apparatus according to any one of claims 1 to 9,
An imaging apparatus comprising:
各画素に複数の光電変換部を有する撮像素子からの出力信号をシェーディング補正するシェーディング補正方法であって、
前記複数の光電変換部の信号を独立に読み出した第1の出力信号および第2の出力信号と、前記複数の光電変換部の信号を加算して読み出した第3の出力信号と、のうち少なくとも2つの出力信号が入力される入力ステップと、
前記第1の出力信号をシェーディング補正するための第1の補正値、前記第2の出力信号をシェーディング補正するための第2の補正値、および前記第3の出力信号をシェーディング補正するための第3の補正値、のうち2つの補正値を記憶する記憶ステップと、
前記第1の補正値、前記第2の補正値、および前記第3の補正値のうち、前記2つの補正値以外の残りの補正値を演算する演算ステップと、
前記第1の補正値、前記第2の補正値、および前記第3の補正値を基にシェーディング補正を行う補正ステップと、
を備えたことを特徴とするシェーディング補正方法。
A shading correction method for shading correction of an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel,
At least one of a first output signal and a second output signal obtained by independently reading the signals of the plurality of photoelectric conversion units, and a third output signal read by adding the signals of the plurality of photoelectric conversion units. An input step in which two output signals are input;
A first correction value for shading correction of the first output signal, a second correction value for shading correction of the second output signal, and a first correction value for shading correction of the third output signal. A storage step of storing two of the three correction values,
A calculation step of calculating a remaining correction value other than the two correction values among the first correction value, the second correction value, and the third correction value;
A correction step of performing shading correction based on the first correction value, the second correction value, and the third correction value;
A shading correction method comprising:
各画素に複数の光電変換部を有する撮像素子からの出力信号をシェーディング補正するシェーディング補正方法であって、
前記複数の光電変換部の信号を独立に読み出した第1の出力信号および第2の出力信号と、前記複数の光電変換部の信号を加算して読み出した第3の出力信号と、のうち少なくとも2つの出力信号が入力される入力ステップと、
前記第1の出力信号をシェーディング補正するための第1の補正値、前記第2の出力信号をシェーディング補正するための第2の補正値、および前記第3の出力信号をシェーディング補正するための第3の補正値、のうち2つの補正値を記憶する記憶ステップと、
前記2つの補正値を基に、前記第1の出力信号、前記第2の出力信号、および前記第3の出力信号、のうち2つの出力信号のシェーディング補正を行う補正ステップと、
前記補正ステップにより補正された2つの出力信号を基に、補正された残りの出力信号を演算する演算ステップと、
を備えたことを特徴とするシェーディング補正方法。
A shading correction method for shading correction of an output signal from an image sensor having a plurality of photoelectric conversion units in each pixel,
At least one of a first output signal and a second output signal obtained by independently reading the signals of the plurality of photoelectric conversion units, and a third output signal read by adding the signals of the plurality of photoelectric conversion units. An input step in which two output signals are input;
A first correction value for shading correction of the first output signal, a second correction value for shading correction of the second output signal, and a first correction value for shading correction of the third output signal. A storage step of storing two of the three correction values,
A correction step for performing shading correction of two output signals of the first output signal, the second output signal, and the third output signal based on the two correction values;
A calculation step of calculating the corrected output signal based on the two output signals corrected by the correction step;
A shading correction method comprising:
請求項12または13に記載のシェーディング補正方法の手順が記述された、コンピュータで実行可能なプログラム。   A computer-executable program in which a procedure of the shading correction method according to claim 12 is described. コンピュータに、請求項12または13に記載のシェーディング補正方法のステップを実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。
A computer-readable storage medium storing a program for causing a computer to execute the steps of the shading correction method according to claim 12 or 13.
JP2013125309A 2013-06-14 2013-06-14 Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium Pending JP2015002400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013125309A JP2015002400A (en) 2013-06-14 2013-06-14 Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013125309A JP2015002400A (en) 2013-06-14 2013-06-14 Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2015002400A true JP2015002400A (en) 2015-01-05

Family

ID=52296693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013125309A Pending JP2015002400A (en) 2013-06-14 2013-06-14 Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2015002400A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016181620A1 (en) * 2015-05-08 2016-11-17 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium
JP2016213819A (en) * 2015-05-08 2016-12-15 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium
GB2548460A (en) * 2016-01-19 2017-09-20 Canon Kk Imaging apparatus and control method thereof
JP2017195541A (en) * 2016-04-21 2017-10-26 キヤノン株式会社 Imaging apparatus and control method thereof, and image processing apparatus and image processing method
JP2023000287A (en) * 2021-06-17 2023-01-04 キヤノン株式会社 Photoelectric conversion device, photoelectric conversion system, transport apparatus, and signal processing device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10771762B2 (en) 2015-05-08 2020-09-08 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium that correct a parallax image based on a correction value calculated using a captured image
CN113596431A (en) * 2015-05-08 2021-11-02 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN113596431B (en) * 2015-05-08 2023-11-17 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US11388383B2 (en) 2015-05-08 2022-07-12 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
WO2016181620A1 (en) * 2015-05-08 2016-11-17 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium
CN107960120A (en) * 2015-05-08 2018-04-24 佳能株式会社 Image processing equipment, picture pick-up device, image processing method, program and storage medium
JP2016213819A (en) * 2015-05-08 2016-12-15 キヤノン株式会社 Image processing device, imaging device, image processing method, program, and storage medium
CN107960120B (en) * 2015-05-08 2021-07-16 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US20180041744A1 (en) * 2015-05-08 2018-02-08 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
US10250827B2 (en) 2016-01-19 2019-04-02 Canon Kabushiki Kaisha Imaging apparatus and control method thereof
GB2548460B (en) * 2016-01-19 2019-12-11 Canon Kk Imaging apparatus and control method thereof
GB2548460A (en) * 2016-01-19 2017-09-20 Canon Kk Imaging apparatus and control method thereof
JP2017195541A (en) * 2016-04-21 2017-10-26 キヤノン株式会社 Imaging apparatus and control method thereof, and image processing apparatus and image processing method
JP2023000287A (en) * 2021-06-17 2023-01-04 キヤノン株式会社 Photoelectric conversion device, photoelectric conversion system, transport apparatus, and signal processing device
JP7417560B2 (en) 2021-06-17 2024-01-18 キヤノン株式会社 Photoelectric conversion devices, photoelectric conversion systems, transportation equipment, and signal processing equipment
US12075171B2 (en) 2021-06-17 2024-08-27 Canon Kabushiki Kaisha Photoelectric conversion apparatus, photoelectric conversion system, transport apparatus, and signal processing apparatus

Similar Documents

Publication Publication Date Title
JP5979849B2 (en) Imaging device and imaging apparatus
JP4574022B2 (en) Imaging apparatus and shading correction method
JP6765860B2 (en) Image sensor, image sensor, and image signal processing method
JP5000413B2 (en) Imaging system and image signal processing program
JP2004191629A (en) Focus detector
JP6021465B2 (en) Image processing apparatus and image processing apparatus control method
JP2012105023A (en) Image processing apparatus, image pickup device, and image processing method
JP2015002400A (en) Shading correction apparatus, focus detection apparatus, imaging apparatus, shading correction method, program, and storage medium
JP2015056710A (en) Imaging apparatus and control method thereof, program, and storage medium of the same
JP6762710B2 (en) Imaging device and its control method
JP6334847B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD AND PROGRAM, AND IMAGING DEVICE
JP6559021B2 (en) Imaging apparatus and control program therefor
JP2017216649A (en) Imaging device, imaging apparatus and imaging signal processing method
JP6444254B2 (en) FOCUS DETECTION DEVICE, IMAGING DEVICE, FOCUS DETECTION METHOD, PROGRAM, AND STORAGE MEDIUM
JP2016031446A (en) Imaging device and method of controlling the same
JP6609910B2 (en) Imaging device
JP7236282B2 (en) Image processing device and method, and imaging device
JP2006322970A (en) Focus detector
US10341556B2 (en) Image capturing apparatus and control method therefor
US20170155882A1 (en) Image processing apparatus, image processing method, imaging apparatus, and recording medium
JP2009053540A (en) Imaging device
JP2015154153A (en) Camera with imaging apparatus
JP6157291B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING SYSTEM, PROGRAM, AND STORAGE MEDIUM
JP7329136B2 (en) Imaging device
JP4533440B2 (en) Imaging device