JP2023027618A - Imaging device and electronic apparatus - Google Patents

Imaging device and electronic apparatus Download PDF

Info

Publication number
JP2023027618A
JP2023027618A JP2021132844A JP2021132844A JP2023027618A JP 2023027618 A JP2023027618 A JP 2023027618A JP 2021132844 A JP2021132844 A JP 2021132844A JP 2021132844 A JP2021132844 A JP 2021132844A JP 2023027618 A JP2023027618 A JP 2023027618A
Authority
JP
Japan
Prior art keywords
pixel
light
pixels
light receiving
receiving pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021132844A
Other languages
Japanese (ja)
Inventor
拓磨 永田
Takuma Nagata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2021132844A priority Critical patent/JP2023027618A/en
Priority to PCT/JP2022/013825 priority patent/WO2023021774A1/en
Publication of JP2023027618A publication Critical patent/JP2023027618A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

To suppress increase in a device size.SOLUTION: An imaging device according to one embodiment includes: a pixel array equipped with a plurality of light-receiving pixels; a readout unit for generating an image signal comprising pixel values read out respectively from the light-receiving pixels; and a signal processor for processing the image signal output from the readout unit. The pixel array includes a plurality of pixel pairs comprising at least two light-receiving pixels that share one on-chip lens. The signal processor includes: an adder that executes first addition processing to add pixel values read out from a first light-receiving pixel in each of at least two pixel pairs among the plurality of pixel pairs, and to add pixel values read out from a second light-receiving pixel different from the first light-receiving pixel, in each of the pixel pairs; and a generator that generates information regarding an image-surface phase difference between the first and second light-receiving pixels on the basis of, a plurality of pixel values included in the image signal after the first addition processing.SELECTED DRAWING: Figure 11

Description

本開示は、撮像装置及び電子機器に関する。 The present disclosure relates to imaging devices and electronic devices.

例えば、像面位相差に基づいてオートフォーカスを実行する撮像装置が存在する。従来、像面位相差情報を生成する際には、入力画像の感度差補正を行ってから画素加算を行い、その後、加算後の画素値を用いることで、像面位相差情報が生成されていた。 For example, there are imaging devices that perform autofocus based on the image plane phase difference. Conventionally, when generating the image plane phase difference information, the sensitivity difference correction of the input image is performed, then pixel addition is performed, and then the pixel values after the addition are used to generate the image plane phase difference information. rice field.

特開2016-52051号公報JP 2016-52051 A

しかしながら、近年では、画素微細化に伴う画素配列パターンの複雑化により、感度差補正処理も複雑化し、その結果、感度差補正に必要となる回路規模やメモリ容量が増大してデバイスサイズが大型化してしまうという課題が存在する。 However, in recent years, pixel array patterns have become more complex as pixels have become finer, and sensitivity difference correction processing has also become more complicated. There is a problem that

そこで本開示では、デバイスサイズの大型化を抑制することが可能な撮像装置及び電子機器を提案する。 Therefore, the present disclosure proposes an imaging device and an electronic device capable of suppressing an increase in device size.

本開示の一実施の形態における撮像装置は、複数の受光画素を備える画素アレイと、前記受光画素それぞれから読み出された画素値よりなる画像信号を生成する読出部と、前記読出部から出力された前記画像信号を処理する信号処理部と、を備え、前記画素アレイは、1つのオンチップレンズを共有する少なくとも2つの受光画素よりなる複数の画素ペアを含み、前記信号処理部は、前記複数の画素ペアのうちの少なくとも2つの画素ペアそれぞれにおける第1受光画素から読み出された画素値を加算するとともに、前記画素ペアそれぞれにおける前記第1受光画素とは異なる第2受光画素から読み出された画素値を加算する第1加算処理を実行する加算部と、前記第1加算処理後の前記画像信号に含まれる複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の像面位相差に関する情報を生成する生成部と、を備える。 An imaging device according to an embodiment of the present disclosure includes a pixel array including a plurality of light-receiving pixels, a reading unit that generates an image signal composed of pixel values read from each of the light-receiving pixels, and an image signal output from the readout unit. a signal processing unit that processes the image signal, the pixel array includes a plurality of pixel pairs each composed of at least two light-receiving pixels that share one on-chip lens, and the signal processing unit includes the plurality of adding the pixel values read from the first light-receiving pixels in each of at least two pixel pairs out of the pixel pairs, and reading from a second light-receiving pixel different from the first light-receiving pixel in each of the pixel pairs an addition unit that performs a first addition process for adding the pixel values obtained by adding the pixel values obtained from the first addition process; and a generator that generates information about the image plane phase difference.

第1の実施形態に係る撮像装置の一構成例を表すブロック図である。1 is a block diagram showing a configuration example of an imaging device according to a first embodiment; FIG. 図1に示した画素アレイの一構成例を表す説明図である。2 is an explanatory diagram showing one configuration example of a pixel array shown in FIG. 1; FIG. 図2に示した受光画素の一構成例を表す説明図である。3 is an explanatory diagram showing a configuration example of a light receiving pixel shown in FIG. 2; FIG. 図2に示した画素ブロックの一構成例を表す回路図である。3 is a circuit diagram showing a configuration example of a pixel block shown in FIG. 2; FIG. 図2に示した他の画素ブロックの一構成例を表す回路図である。3 is a circuit diagram showing a configuration example of another pixel block shown in FIG. 2; FIG. 図2に示した複数の画素ブロックの接続例を表す説明図である。FIG. 3 is an explanatory diagram showing a connection example of a plurality of pixel blocks shown in FIG. 2; 図1に示した読出部の一構成例を表すブロック図である。2 is a block diagram showing a configuration example of a reading unit shown in FIG. 1; FIG. 図1に示した画像信号の一構成例を表す説明図である。FIG. 2 is an explanatory diagram showing a configuration example of an image signal shown in FIG. 1; 図1に示した撮像装置における有効画素数の一例を表す説明図である。2 is an explanatory diagram showing an example of the number of effective pixels in the imaging device shown in FIG. 1; FIG. 図1に示した撮像装置における複数の撮像モードの一動作例を表す説明図である。2 is an explanatory diagram showing one operation example of a plurality of imaging modes in the imaging device shown in FIG. 1; FIG. 第1の実施形態に係る位相差データ生成部のより詳細な構成例を示すブロック図である。4 is a block diagram showing a more detailed configuration example of a phase difference data generator according to the first embodiment; FIG. 図2に示す画素アレイにおける受光素子の配置例から1つの単位ユニットを抜粋した図である。FIG. 3 is a diagram of one unit extracted from an arrangement example of light receiving elements in the pixel array shown in FIG. 2; 第1の実施形態に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その1)。FIG. 4 is a diagram for explaining same-color pixel addition processing that is performed on pixel values read from pixel blocks according to the first embodiment (No. 1); 第1の実施形態に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その2)。FIG. 8 is a diagram for explaining same-color pixel addition processing that is performed on pixel values read from each pixel block according to the first embodiment (part 2); 第1の実施形態に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その3)。FIG. 9 is a diagram for explaining same-color pixel addition processing that is performed on pixel values read from each pixel block according to the first embodiment (No. 3); 第1の実施形態に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その4)。FIG. 12 is a diagram for explaining same-color pixel addition processing that is performed on pixel values read from each pixel block according to the first embodiment (No. 4); 第1の実施形態に係る単位ユニットから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。FIG. 4 is a diagram showing left pixel total values and right pixel total values finally obtained based on pixel values read from unitary units according to the first embodiment; 図2に示す画素アレイにおける受光素子の配置例から1つの単位ユニットを抜粋した図である。FIG. 3 is a diagram of one unit extracted from an arrangement example of light receiving elements in the pixel array shown in FIG. 2; 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その1)。FIG. 4 is a diagram for explaining same-color pixel addition processing executed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 1); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その2)。FIG. 10 is a diagram for explaining same-color pixel addition processing executed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 2); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その3)。FIG. 11 is a diagram for explaining same-color pixel addition processing executed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 3); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その4)。FIG. 10 is a diagram for explaining same-color pixel addition processing performed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 4); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その5)。FIG. 10 is a diagram for explaining same-color pixel addition processing performed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 5); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その6)。FIG. 16 is a diagram for explaining same-color pixel addition processing executed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 6); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その7)。FIG. 10 is a diagram for explaining same-color pixel addition processing performed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 7); 第1の実施形態に係る各画素ブロックから読み出された画素値に対してHDRモードで実行される同色画素加算処理を説明するための図である(その8)。FIG. 11 is a diagram for explaining same-color pixel addition processing executed in HDR mode on pixel values read from each pixel block according to the first embodiment (No. 8); 第1の実施形態に係る単位ユニットから読み出された画素値に基づいて最終的に得られる低輝度画素及び高輝度画素それぞれの左画素合計値及び右画素合計値を示す図である。FIG. 4 is a diagram showing left pixel total values and right pixel total values of low-luminance pixels and high-luminance pixels, respectively, finally obtained based on pixel values read out from unitary units according to the first embodiment; 第1の実施形態の第1の変形例に係る画素アレイにおける受光素子の配置例から1つの単位ユニットを抜粋した図である。FIG. 10 is a diagram of one unit extracted from an arrangement example of light-receiving elements in a pixel array according to a first modification of the first embodiment; 第1の実施形態の第1の変形例に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その1)。FIG. 10 is a diagram for explaining same-color pixel addition processing performed on pixel values read from each pixel block according to the first modification of the first embodiment (No. 1); 第1の実施形態の第1の変形例に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その2)。FIG. 12 is a diagram for explaining same-color pixel addition processing executed on pixel values read from each pixel block according to the first modification of the first embodiment (No. 2); 第1の実施形態の第1の変形例に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その3)。FIG. 12 is a diagram for explaining same-color pixel addition processing performed on pixel values read from each pixel block according to the first modification of the first embodiment (No. 3); 第1の実施形態の第1の変形例に係る各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である(その4)。FIG. 12 is a diagram for explaining same-color pixel addition processing executed on pixel values read from each pixel block according to the first modification of the first embodiment (No. 4); 第1の実施形態の第1の変形例に係る単位ユニットから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。FIG. 10 is a diagram showing left pixel total values and right pixel total values finally obtained based on pixel values read from unit units according to the first modification of the first embodiment; 第1の実施形態の第2の変形例に係る画素アレイにおける受光素子の配置例から1つの単位ユニットを抜粋した図である。It is the figure which extracted one unit from the example of arrangement|positioning of the light receiving element in the pixel array based on the 2nd modification of 1st Embodiment. 第1の実施形態の第2の変形例に係る単位ユニットから像面位相差検出用に読み出された画素値に対して実行される同色画素加算処理を説明するための図である。FIG. 10 is a diagram for explaining same-color pixel addition processing executed on pixel values read out for image plane phase difference detection from the unit according to the second modification of the first embodiment; 第1の実施形態の第2の変形例に係る単位ユニットから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。FIG. 10 is a diagram showing left pixel total values and right pixel total values finally obtained based on pixel values read from unit units according to the second modification of the first embodiment; 第1の実施形態の第3の変形例に係る単位ユニットから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。FIG. 11 is a diagram showing left pixel total values and right pixel total values finally obtained based on pixel values read from unit units according to the third modification of the first embodiment; 第1の実施形態の第4の変形例に係る単位ユニットから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。FIG. 14 is a diagram showing left pixel total values and right pixel total values finally obtained based on pixel values read from unit units according to the fourth modification of the first embodiment; 第1の実施形態の第5の変形例に係る単位ユニットから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。FIG. 14 is a diagram showing left pixel total values and right pixel total values finally obtained based on pixel values read from unit units according to the fifth modification of the first embodiment; 第2の実施形態に係る撮像装置の一構成例を表すブロック図である。It is a block diagram showing one structural example of the imaging device which concerns on 2nd Embodiment. 図40に示した画素アレイの一構成例を表す説明図である。41 is an explanatory diagram showing one configuration example of the pixel array shown in FIG. 40; FIG. 図41に示した複数の画素ブロックの接続例を表す説明図である。FIG. 42 is an explanatory diagram showing a connection example of a plurality of pixel blocks shown in FIG. 41; 図41に示した画素アレイの一動作例を表す説明図である。FIG. 42 is an explanatory diagram showing an operation example of the pixel array shown in FIG. 41; 第2の実施形態の変形例に係る画素アレイの一構成例を表す説明図である。FIG. 11 is an explanatory diagram showing one configuration example of a pixel array according to a modification of the second embodiment; 図34に示した複数の画素ブロックの接続例を表す説明図である。35 is an explanatory diagram showing a connection example of a plurality of pixel blocks shown in FIG. 34; FIG. 撮像装置の使用例を表す説明図である。It is explanatory drawing showing the usage example of an imaging device. 車両制御システムの概略的な構成の一例を示すブロック図である。1 is a block diagram showing an example of a schematic configuration of a vehicle control system; FIG. 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit;

以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Embodiments of the present disclosure will be described in detail below with reference to the drawings. In addition, in the following embodiment, the overlapping description is abbreviate|omitted by attaching|subjecting the same code|symbol to the same site|part.

また、以下に示す項目順序に従って本開示を説明する。
1.第1の実施形態
1.1 構成例
1.2 概略動作例
1.3 像面位相差情報(位相差データDF)生成について
1.3.1 位相差データ生成部のより詳細な構成例
1.3.2 撮像モードMCでの同色画素加算処理の具体例
1.3.3 HDRモードでの同色画素加算処理の具体例
1.4 作用・効果
1.5 変形例
1.5.1 第1の変形例
1.5.2 第2の変形例
1.5.3 第3の変形例
1.5.4 第4の変形例
1.5.5 第5の変形例
2.第2の実施形態
2.1 構成例
2.2 作用・効果
2.3 変形例
3.撮像装置の使用例
4.移動体への応用例
Also, the present disclosure will be described according to the order of items shown below.
1. First Embodiment 1.1 Configuration Example 1.2 General Operation Example 1.3 Generation of Image Plane Phase Difference Information (Phase Difference Data DF) 1.3.1 More Detailed Configuration Example of Phase Difference Data Generation Unit 1.1. 3.2 Concrete example of same-color pixel addition processing in imaging mode MC 1.3.3 Concrete example of same-color pixel addition processing in HDR mode 1.4 Actions and effects 1.5 Modifications 1.5.1 First Modified example 1.5.2 Second modified example 1.5.3 Third modified example 1.5.4 Fourth modified example 1.5.5 Fifth modified example 2. Second Embodiment 2.1 Configuration Example 2.2 Action and Effect 2.3 Modification 3. Usage example of imaging device 4 . Example of application to mobile objects

1.第1の実施形態 1. 1st embodiment

まず、本開示の第1の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。 First, a solid-state imaging device and an electronic device according to the first embodiment of the present disclosure will be described in detail with reference to the drawings.

1.1 構成例
図1は、本実施形態に係る撮像装置の一構成例を示すブロック図である。撮像装置1は、画素アレイ11と、駆動部12と、参照信号生成部13と、読出部20と、信号処理部15と、撮像制御部18とを備えている。なお、信号処理部15は、画素アレイ11が設けられたチップと同一のチップ(積層されたチップを含む)に配置されてもよいし、異なるチップに配置されてもよい。
1.1 Configuration Example FIG. 1 is a block diagram showing a configuration example of an imaging apparatus according to this embodiment. The imaging device 1 includes a pixel array 11 , a driving section 12 , a reference signal generating section 13 , a reading section 20 , a signal processing section 15 and an imaging control section 18 . The signal processing unit 15 may be arranged on the same chip (including stacked chips) as the chip on which the pixel array 11 is provided, or may be arranged on a different chip.

画素アレイ11は、マトリックス状に配置された複数の受光画素Pを有している。受光画素Pは、受光量に応じた画素電圧Vpixを含む信号SIGを生成するように構成される。 The pixel array 11 has a plurality of light receiving pixels P arranged in a matrix. The light receiving pixel P is configured to generate a signal SIG including a pixel voltage Vpix according to the amount of light received.

図2は、画素アレイ11における受光画素Pの配置の一例を表すものである。図3は、画素アレイ11の概略断面構造の一例を表すものである。画素アレイ11は、複数の画素ブロック100と、複数のレンズ101とを有している。 FIG. 2 shows an example of the arrangement of the light receiving pixels P in the pixel array 11. As shown in FIG. FIG. 3 shows an example of a schematic cross-sectional structure of the pixel array 11. As shown in FIG. The pixel array 11 has multiple pixel blocks 100 and multiple lenses 101 .

複数の画素ブロック100は、画素ブロック100R,100Gr,100Gb,100Bを含んでいる。画素アレイ11では、複数の受光画素Pは、4つの画素ブロック100(画素ブロック100R,100Gr,100Gb,100B)を単位(ユニットU)として配置される。 The plurality of pixel blocks 100 includes pixel blocks 100R, 100Gr, 100Gb and 100B. In the pixel array 11, a plurality of light-receiving pixels P are arranged in units (units U) of four pixel blocks 100 (pixel blocks 100R, 100Gr, 100Gb, and 100B).

画素ブロック100Rは、赤色(R)のカラーフィルタ55を含む8個の受光画素P(受光画素PR)を有し、画素ブロック100Grは、緑色(G)のカラーフィルタ55を含む10個の受光画素P(受光画素PGr)を有し、画素ブロック100Gbは、緑色(G)のカラーフィルタ55を含む10個の受光画素P(受光画素PGb)を有し、画素ブロック100Bは、青色(B)のカラーフィルタ55を含む8個の受光画素P(受光画素PB)を有する。図2では、カラーフィルタの色の違いを、網掛けを用いて表現している。画素ブロック100Rにおける受光画素PRの配置パターン、および画素ブロック100Bにおける受光画素PBの配置パターンは、互いに同じであり、画素ブロック100Grにおける受光画素PGrの配置パターン、および画素ブロック100Gbにおける受光画素PGbの配置パターンは、互いに同じである。ユニットUにおいて、画素ブロック100Grは左上に配置され、画素ブロック100Rは右上に配置され、画素ブロック100Bは左下に配置され、画素ブロック100Gbは右下に配置される。このように、画素ブロック100R,100Gr,100Gb,100Bは、画素ブロック100を単位として、いわゆるベイヤー配列により配列される。 The pixel block 100R has eight light-receiving pixels P (light-receiving pixels PR) including red (R) color filters 55, and the pixel block 100Gr has ten light-receiving pixels including green (G) color filters 55. The pixel block 100Gb has 10 light-receiving pixels P (light-receiving pixels PGb) including green (G) color filters 55, and the pixel block 100B has blue (B) color filters. It has eight light-receiving pixels P (light-receiving pixels PB) including color filters 55 . In FIG. 2, the difference in color of the color filters is expressed using hatching. The arrangement pattern of the light-receiving pixels PR in the pixel block 100R and the arrangement pattern of the light-receiving pixels PB in the pixel block 100B are the same. The patterns are identical to each other. In the unit U, the pixel block 100Gr is located at the upper left, the pixel block 100R is located at the upper right, the pixel block 100B is located at the lower left, and the pixel block 100Gb is located at the lower right. In this manner, the pixel blocks 100R, 100Gr, 100Gb, and 100B are arranged in a so-called Bayer arrangement with the pixel block 100 as a unit.

図3に示したように、画素アレイ11は、半導体基板51と、半導体領域52と、絶縁層53と、多層配線層54と、カラーフィルタ55と、遮光膜116とを備えている。半導体基板51は、撮像装置1が形成される支持基板であり、P型の半導体基板である。半導体領域52は、半導体基板51の基板内における、複数の受光画素Pのそれぞれに対応する位置に設けられた半導体領域であり、N型の不純物がドーピングされることによりフォトダイオードPDが形成される。絶縁層53は、半導体基板51の基板内における、XY平面において並設された複数の受光画素Pの境界に設けられ、この例では、酸化膜などを用いて構成されるDTI(Deep Trench Isolation)である。多層配線層54は、画素アレイ11の光入射面Sとは反対の面における半導体基板51の上に設けられ、複数の配線層、および層間絶縁膜を含む。多層配線層54における配線は、例えば、半導体基板51の表面に設けられた図示しないトランジスタと、駆動部12および読出部20とを接続するように構成される。カラーフィルタ55は、画素アレイ11の光入射面Sにおける半導体基板51の上に設けられる。遮光膜116は、画素アレイ11における光入射面Sにおいて、X方向に並設された2つの受光画素P(以下、画素ペア90とも呼ぶ)を囲むように設けられる。 As shown in FIG. 3, the pixel array 11 includes a semiconductor substrate 51, a semiconductor region 52, an insulating layer 53, a multilayer wiring layer 54, a color filter 55, and a light shielding film . The semiconductor substrate 51 is a support substrate on which the imaging device 1 is formed, and is a P-type semiconductor substrate. The semiconductor region 52 is a semiconductor region provided at a position corresponding to each of the plurality of light receiving pixels P in the substrate of the semiconductor substrate 51, and is doped with an N-type impurity to form the photodiode PD. . The insulating layer 53 is provided on the boundary of a plurality of light receiving pixels P arranged side by side on the XY plane in the substrate of the semiconductor substrate 51, and in this example, is a DTI (Deep Trench Isolation) layer formed using an oxide film or the like. is. The multilayer wiring layer 54 is provided on the semiconductor substrate 51 on the surface opposite to the light incident surface S of the pixel array 11, and includes a plurality of wiring layers and an interlayer insulating film. The wiring in the multilayer wiring layer 54 is configured to connect, for example, a transistor (not shown) provided on the surface of the semiconductor substrate 51 with the driving section 12 and the reading section 20 . The color filter 55 is provided on the semiconductor substrate 51 on the light incident surface S of the pixel array 11 . The light shielding film 116 is provided on the light incident surface S of the pixel array 11 so as to surround two light receiving pixels P (hereinafter also referred to as pixel pairs 90) arranged side by side in the X direction.

複数のレンズ101は、いわゆるオンチップレンズであり、画素アレイ11の光入射面Sにおけるカラーフィルタ55の上に設けられる。また、光入射面Sには、隣接画素間を光学的に分離するための遮光膜56が配置されてもよい。レンズ101は、X方向に並設された2つの受光画素P(画素ペア90)の上部に設けられる。画素ブロック100Rの8個の受光画素Pの上部には4つのレンズ101が設けられ、画素ブロック100Grの10個の受光画素Pの上部には5つのレンズ101が設けられ、画素ブロック100Gbの10個の受光画素Pの上部には5つのレンズ101が設けられ、画素ブロック100Bの8個の受光画素Pの上部には4つのレンズ101が設けられる。レンズ101は、X方向およびY方向において並設される。Y方向に並ぶレンズ101は、X方向において、1つの受光画素Pの分だけずれて配置される。言い換えれば、Y方向に並ぶ画素ペア90は、X方向において、1つの受光画素Pの分だけずれて配置される。 The multiple lenses 101 are so-called on-chip lenses, and are provided on the color filter 55 on the light incident surface S of the pixel array 11 . A light shielding film 56 may be arranged on the light incident surface S for optically separating adjacent pixels. The lens 101 is provided above two light receiving pixels P (pixel pairs 90) arranged side by side in the X direction. Four lenses 101 are provided above the eight light-receiving pixels P in the pixel block 100R, five lenses 101 are provided above the ten light-receiving pixels P in the pixel block 100Gr, and ten lenses 101 are provided in the pixel block 100Gb. Five lenses 101 are provided above the light receiving pixels P of the pixel block 100B, and four lenses 101 are provided above the eight light receiving pixels P of the pixel block 100B. The lenses 101 are arranged side by side in the X and Y directions. The lenses 101 arranged in the Y direction are arranged with a shift of one light receiving pixel P in the X direction. In other words, the pixel pairs 90 aligned in the Y direction are arranged with a shift of one light receiving pixel P in the X direction.

この構成により、1つのレンズ101に対応する画素ペア90における2つの受光画素Pでは、像が互いにずれる。撮像装置1は、複数の画素ペア90により検出されたいわゆる像面位相差に基づいて位相差データDFを生成する。例えば、撮像装置1を搭載したカメラでは、この位相差データDFに基づいてデフォーカス量を決定し、前記デフォーカス量に基づいて、撮影レンズの位置を移動させる。このようにして、カメラでは、オートフォーカスを実現することができるようになっている。 With this configuration, the images of the two light receiving pixels P in the pixel pair 90 corresponding to one lens 101 are shifted from each other. The imaging device 1 generates phase difference data DF based on so-called image plane phase differences detected by the plurality of pixel pairs 90 . For example, in a camera equipped with the imaging device 1, the defocus amount is determined based on this phase difference data DF, and the position of the photographing lens is moved based on the defocus amount. In this way, the camera can realize autofocus.

図4は、画素ブロック100Grの一構成例を表すものである。図5は、画素ブロック100Rの一構成例を表すものである。図6は、画素ブロック100R,100Gr,100Gb,100Bの配線例を表すものである。なお、図6では、説明の便宜上、複数の画素ブロック100を互いに離して描いている。 FIG. 4 shows a configuration example of the pixel block 100Gr. FIG. 5 shows a configuration example of the pixel block 100R. FIG. 6 shows a wiring example of the pixel blocks 100R, 100Gr, 100Gb and 100B. In addition, in FIG. 6, for convenience of explanation, the plurality of pixel blocks 100 are drawn apart from each other.

画素アレイ11は、複数の制御線TRGLと、複数の制御線RSTLと、複数の制御線SELLと、複数の信号線VSLとを有している。制御線TRGLは、X方向(図4~図6における横方向)に延伸し、一端が駆動部12に接続される。この制御線TRGLには、駆動部12により制御信号STRGが供給される。制御線RSTLは、X方向に延伸し、一端が駆動部12に接続される。この制御線RSTLには、駆動部12により制御信号SRSTが供給される。制御線SELLは、X方向に延伸し、一端が駆動部12に接続される。この制御線SELLには、駆動部12により制御信号SSELが供給される。信号線VSLは、Y方向(図4~図6における縦方向)に延伸し、一端が読出部20に接続される。この信号線VSLは、受光画素Pが生成した信号SIGを読出部20に伝える。 The pixel array 11 has multiple control lines TRGL, multiple control lines RSTL, multiple control lines SELL, and multiple signal lines VSL. The control line TRGL extends in the X direction (horizontal direction in FIGS. 4 to 6) and has one end connected to the driving section 12 . A control signal STRG is supplied from the driving section 12 to the control line TRGL. The control line RSTL extends in the X direction and has one end connected to the driving section 12 . A control signal SRST is supplied from the driving section 12 to the control line RSTL. The control line SELL extends in the X direction and has one end connected to the drive unit 12 . A control signal SSEL is supplied from the drive unit 12 to the control line SELL. The signal line VSL extends in the Y direction (vertical direction in FIGS. 4 to 6) and has one end connected to the reading section 20 . The signal line VSL transmits the signal SIG generated by the light receiving pixel P to the reading unit 20 .

画素ブロック100Gr(図4)は、10個のフォトダイオードPDと、10個のトランジスタTRGと、フローティングディフュージョンFDと、トランジスタRST,AMP,SELとを有している。10個のフォトダイオードPDおよび10個のトランジスタTRGは、画素ブロック100Grに含まれる10個の受光画素PGrにそれぞれ対応している。トランジスタTRG,RST,AMP,SELは、この例ではN型のMOS(Metal Oxide Semiconductor)トランジスタである。 The pixel block 100Gr (FIG. 4) has ten photodiodes PD, ten transistors TRG, a floating diffusion FD, and transistors RST, AMP, and SEL. Ten photodiodes PD and ten transistors TRG respectively correspond to ten light-receiving pixels PGr included in the pixel block 100Gr. The transistors TRG, RST, AMP, and SEL are N-type MOS (Metal Oxide Semiconductor) transistors in this example.

フォトダイオードPDは、受光量に応じた量の電荷を生成し、生成した電荷を内部に蓄積する光電変換素子である。フォトダイオードPDのアノードは接地され、カソードはトランジスタTRGのソースに接続される。 The photodiode PD is a photoelectric conversion element that generates an amount of charge corresponding to the amount of light received and accumulates the generated charge inside. The photodiode PD has an anode grounded and a cathode connected to the source of the transistor TRG.

トランジスタTRGのゲートは制御線TRGLに接続され、ソースはフォトダイオードPDのカソードに接続され、ドレインはフローティングディフュージョンFDに接続される。10個のトランジスタTRGのゲートは、10本の制御線TRGL(この例では、制御線TRGL1~TRGL6,TRGL9~TRGL12)のうちの互いに異なる制御線TRGLに接続される。 The transistor TRG has a gate connected to the control line TRGL, a source connected to the cathode of the photodiode PD, and a drain connected to the floating diffusion FD. Gates of ten transistors TRG are connected to different control lines TRGL among ten control lines TRGL (control lines TRGL1 to TRGL6 and TRGL9 to TRGL12 in this example).

フローティングディフュージョンFDは、フォトダイオードPDからトランジスタTRGを介して転送された電荷を蓄積するように構成される。フローティングディフュージョンFDは、例えば、半導体基板の表面に形成された拡散層を用いて構成される。図4では、フローティングディフュージョンFDを、容量素子のシンボルを用いて示している。 Floating diffusion FD is configured to accumulate charges transferred from photodiode PD via transistor TRG. The floating diffusion FD is configured using, for example, a diffusion layer formed on the surface of the semiconductor substrate. In FIG. 4, the floating diffusion FD is shown using a capacitive element symbol.

トランジスタRSTのゲートは制御線RSTLに接続され、ドレインには電源電圧VDDが供給され、ソースはフローティングディフュージョンFDに接続される。 The transistor RST has a gate connected to the control line RSTL, a drain supplied with the power supply voltage VDD, and a source connected to the floating diffusion FD.

トランジスタAMPのゲートはフローティングディフュージョンFDに接続され、ドレインには電源電圧VDDHが供給され、ソースはトランジスタSELのドレインに接続される。 The transistor AMP has a gate connected to the floating diffusion FD, a drain supplied with the power supply voltage VDDH, and a source connected to the drain of the transistor SEL.

トランジスタSELのゲートは制御線SELLに接続され、ドレインはトランジスタAMPのソースに接続され、ソースは信号線VSLに接続される。 The transistor SEL has a gate connected to the control line SELL, a drain connected to the source of the transistor AMP, and a source connected to the signal line VSL.

この構成により、受光画素Pでは、例えば制御信号STRG,SRSTに基づいてトランジスタTRG,RSTがオン状態になることにより、フォトダイオードPDに蓄積された電荷が排出される。そして、これらのトランジスタTRG,RSTがオフ状態になることにより、露光期間Tが開始され、フォトダイオードPDに、受光量に応じた量の電荷が蓄積される。そして、露光期間Tが終了した後に、受光画素Pは、リセット電圧Vresetおよび画素電圧Vpixを含む信号SIGを、信号線VSLに出力する。具体的には、まず、制御信号SSELに基づいてトランジスタSELがオン状態になることにより、受光画素Pが信号線VSLと電気的に接続される。これにより、トランジスタAMPは、読出部20の定電流源21(後述)に接続され、いわゆるソースフォロワとして動作する。そして、受光画素Pは、後述するように、トランジスタRSTがオン状態になることによりフローティングディフュージョンFDの電圧がリセットされた後のP相(Pre-charge相)期間TPにおいて、その時のフローティングディフュージョンFDの電圧に応じた電圧をリセット電圧Vresetとして出力する。また、受光画素Pは、トランジスタTRGがオン状態になることによりフォトダイオードPDからフローティングディフュージョンFDへ電荷が転送された後のD相(Data相)期間TDにおいて、その時のフローティングディフュージョンFDの電圧に応じた電圧を画素電圧Vpixとして出力する。画素電圧Vpixとリセット電圧Vresetとの差電圧は、露光期間Tにおける受光画素Pの受光量に対応する。このようにして、受光画素Pは、これらのリセット電圧Vresetおよび画素電圧Vpixを含む信号SIGを、信号線VSLに出力するようになっている。 With this configuration, in the light-receiving pixel P, the charges accumulated in the photodiode PD are discharged by turning on the transistors TRG and RST based on the control signals STRG and SRST, for example. When these transistors TRG and RST are turned off, the exposure period T is started, and an amount of charge corresponding to the amount of light received is accumulated in the photodiode PD. After the exposure period T ends, the light receiving pixel P outputs the signal SIG including the reset voltage Vreset and the pixel voltage Vpix to the signal line VSL. Specifically, first, the light-receiving pixel P is electrically connected to the signal line VSL by turning on the transistor SEL based on the control signal SSEL. Thereby, the transistor AMP is connected to a constant current source 21 (described later) of the reading section 20 and operates as a so-called source follower. As will be described later, the light-receiving pixel P has a voltage of the floating diffusion FD during a P-phase (pre-charge phase) period TP after the voltage of the floating diffusion FD is reset by turning on the transistor RST. A voltage corresponding to the voltage is output as a reset voltage Vreset. In addition, in the light receiving pixel P, during the D-phase (data phase) period TD after the charge is transferred from the photodiode PD to the floating diffusion FD by turning on the transistor TRG, The resulting voltage is output as the pixel voltage Vpix. A difference voltage between the pixel voltage Vpix and the reset voltage Vreset corresponds to the amount of light received by the light receiving pixel P during the exposure period T. FIG. In this manner, the light-receiving pixel P outputs the signal SIG including the reset voltage Vreset and the pixel voltage Vpix to the signal line VSL.

画素ブロック100R(図5)は、8個のフォトダイオードPDと、8個のトランジスタTRGと、フローティングディフュージョンFDと、トランジスタRST,AMP,SELとを有している。8個のフォトダイオードPDおよび8個のトランジスタTRGは、画素ブロック100Rに含まれる8個の受光画素PRにそれぞれ対応している。8個のトランジスタTRGのゲートは、8本の制御線TRGL(この例では、制御線TRGL1,TRGL2,TRGL5~TRGL10)のうちの互いに異なる制御線TRGLに接続される。 The pixel block 100R (FIG. 5) has eight photodiodes PD, eight transistors TRG, a floating diffusion FD, and transistors RST, AMP, and SEL. The eight photodiodes PD and the eight transistors TRG respectively correspond to the eight light receiving pixels PR included in the pixel block 100R. The gates of the eight transistors TRG are connected to different control lines TRGL among the eight control lines TRGL (control lines TRGL1, TRGL2, TRGL5 to TRGL10 in this example).

図6に示したように、X方向に並ぶ、同じ行に属する画素ブロック100Gr,100Rは、同じ12本の制御線TRGL(制御線TRGL1~TRGL12)のうちの複数の制御線TRGLに接続される。この例では、図6における下から上に向かって、制御線TRGL1~TRGL12はこの順で並んでいる。画素ブロック100Grは、12本の制御線TRGL(制御線TRGL1~TRGL12)のうちの、10本の制御線TRGL(制御線TRGL1~TRGL6,TRGL9~TRGL12)に接続され、画素ブロック100Rは、この12本の制御線TRGL(制御線TRGL1~TRGL12)のうちの、8本の制御線TRGL(制御線TRGL1,TRGL2,TRGL5~TRGL10)に接続される。 As shown in FIG. 6, the pixel blocks 100Gr and 100R belonging to the same row arranged in the X direction are connected to a plurality of control lines TRGL among the same 12 control lines TRGL (control lines TRGL1 to TRGL12). . In this example, the control lines TRGL1 to TRGL12 are arranged in this order from bottom to top in FIG. The pixel block 100Gr is connected to 10 control lines TRGL (control lines TRGL1 to TRGL6, TRGL9 to TRGL12) out of 12 control lines TRGL (control lines TRGL1 to TRGL12), and the pixel block 100R is connected to the 12 control lines TRGL (control lines TRGL1 to TRGL6, TRGL9 to TRGL12). It is connected to eight control lines TRGL (control lines TRGL1, TRGL2, TRGL5 to TRGL10) out of the control lines TRGL (control lines TRGL1 to TRGL12).

また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック100Gr,100Rは、1つの制御線RSTL、および1つの制御線SELLに接続される。 Although not shown, the pixel blocks 100Gr and 100R belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL.

また、図6に示したように、Y方向に並ぶ、同じ列に属する画素ブロック100Grは、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック100Rは、1つの信号線VSLに接続される。 Further, as shown in FIG. 6, the pixel blocks 100Gr belonging to the same column arranged in the Y direction are connected to one signal line VSL. Similarly, pixel blocks 100R belonging to the same column arranged in the Y direction are connected to one signal line VSL.

画素ブロック100Bは、画素ブロック100R(図5)と同様に、8個のフォトダイオードPDと、8個のトランジスタTRGと、フローティングディフュージョンFDと、トランジスタRST,AMP,SELとを有している。8個のフォトダイオードPDおよび8個のトランジスタTRGは、画素ブロック100Bに含まれる8個の受光画素PBにそれぞれ対応している。8個のトランジスタTRGのゲートは、8本の制御線TRGLのうちの互いに異なる制御線TRGLに接続される。 The pixel block 100B, like the pixel block 100R (FIG. 5), has eight photodiodes PD, eight transistors TRG, a floating diffusion FD, and transistors RST, AMP, and SEL. Eight photodiodes PD and eight transistors TRG respectively correspond to eight light receiving pixels PB included in the pixel block 100B. Gates of the eight transistors TRG are connected to different control lines TRGL among the eight control lines TRGL.

画素ブロック100Gbは、画素ブロック100Gr(図4)と同様に、10個のフォトダイオードPDと、10個のトランジスタTRGと、フローティングディフュージョンFDと、トランジスタRST,AMP,SELとを有している。10個のフォトダイオードPDおよび10個のトランジスタTRGは、画素ブロック100Gbに含まれる10個の受光画素PGbにそれぞれ対応している。10個のトランジスタTRGのゲートは、10本の制御線TRGLのうちの互いに異なる制御線TRGLに接続される。 The pixel block 100Gb, like the pixel block 100Gr (FIG. 4), has ten photodiodes PD, ten transistors TRG, a floating diffusion FD, and transistors RST, AMP, and SEL. Ten photodiodes PD and ten transistors TRG respectively correspond to ten light-receiving pixels PGb included in the pixel block 100Gb. Gates of the ten transistors TRG are connected to different control lines TRGL among the ten control lines TRGL.

図6に示したように、X方向に並ぶ、同じ行に属する画素ブロック100B,100Gbは、同じ12本の制御線TRGLのうちの複数の制御線TRGLに接続される。また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック100B,100Gbは、1つの制御線RSTL、および1つの制御線SELLに接続される。また、図6に示したように、Y方向に並ぶ、同じ列に属する画素ブロック100Bは、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック100Gbは、1つの信号線VSLに接続される。 As shown in FIG. 6, the pixel blocks 100B and 100Gb belonging to the same row arranged in the X direction are connected to a plurality of control lines TRGL out of the same 12 control lines TRGL. Although not shown, the pixel blocks 100B and 100Gb belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL. Further, as shown in FIG. 6, the pixel blocks 100B belonging to the same column arranged in the Y direction are connected to one signal line VSL. Similarly, the pixel blocks 100Gb belonging to the same column arranged in the Y direction are connected to one signal line VSL.

駆動部12(図1)は、撮像制御部18からの指示に基づいて、画素アレイ11における複数の受光画素Pを駆動するように構成される。具体的には、駆動部12は、画素アレイ11における複数の制御線TRGLに複数の制御信号STRGをそれぞれ供給し、複数の制御線RSTLに複数の制御信号SRSTをそれぞれ供給し、複数の制御線SELLに複数の制御信号SSELをそれぞれ供給することにより、画素アレイ11における複数の受光画素Pを駆動するようになっている。 The drive unit 12 ( FIG. 1 ) is configured to drive the plurality of light receiving pixels P in the pixel array 11 based on instructions from the imaging control unit 18 . Specifically, the driving unit 12 supplies a plurality of control signals STRG to the plurality of control lines TRGL in the pixel array 11, supplies a plurality of control signals SRST to the plurality of control lines RSTL, and supplies a plurality of control signals SRST to the plurality of control lines. A plurality of light-receiving pixels P in the pixel array 11 are driven by supplying a plurality of control signals SSEL to the SELL.

参照信号生成部13は、撮像制御部18からの指示に基づいて、参照信号RAMPを生成するように構成される。参照信号RAMPは、読出部20がAD変換を行う期間(P相期間TPおよびD相期間TD)において、時間の経過に応じて電圧レベルが徐々に変化する、いわゆるランプ波形を有する。参照信号生成部13は、このような参照信号RAMPを読出部20に供給するようになっている。 The reference signal generator 13 is configured to generate the reference signal RAMP based on the instruction from the imaging controller 18 . The reference signal RAMP has a so-called ramp waveform in which the voltage level gradually changes over time during the period (the P-phase period TP and the D-phase period TD) in which the reading unit 20 performs AD conversion. The reference signal generation unit 13 supplies such a reference signal RAMP to the reading unit 20 .

読出部20は、撮像制御部18からの指示に基づいて、画素アレイ11から信号線VSLを介して供給された信号SIGに基づいてAD変換を行うことにより、画像信号Spic0を生成するように構成される。 The reading unit 20 is configured to generate the image signal Spic0 by performing AD conversion based on the signal SIG supplied from the pixel array 11 via the signal line VSL based on the instruction from the imaging control unit 18. be done.

図7は、読出部20の一構成例を表すものである。なお、図6には、読出部20に加え、参照信号生成部13、信号処理部15、および撮像制御部18をも描いている。読出部20は、複数の定電流源21と、複数のAD(Analog to Digital)変換部ADCと、転送制御部27とを有している。複数の定電流源21および複数のAD変換部ADCは、複数の信号線VSLに対応してそれぞれ設けられる。以下に、ある1つの信号線VSLに対応する定電流源21およびAD変換部ADCについて説明する。 FIG. 7 shows a configuration example of the reading unit 20. As shown in FIG. In addition to the reading unit 20, FIG. 6 also shows the reference signal generating unit 13, the signal processing unit 15, and the imaging control unit 18. As shown in FIG. The reading unit 20 has a plurality of constant current sources 21 , a plurality of AD (Analog to Digital) conversion units ADC, and a transfer control unit 27 . The plurality of constant current sources 21 and the plurality of AD converters ADC are provided corresponding to the plurality of signal lines VSL, respectively. The constant current source 21 and AD converter ADC corresponding to one signal line VSL will be described below.

定電流源21は、対応する信号線VSLに所定の電流を流すように構成される。定電流源21の一端は、対応する信号線VSLに接続され、他端は接地される。 The constant current source 21 is configured to apply a predetermined current to the corresponding signal line VSL. One end of the constant current source 21 is connected to the corresponding signal line VSL, and the other end is grounded.

AD変換部ADCは、対応する信号線VSLにおける信号SIGに基づいてAD変換を行うように構成される。AD変換部ADCは、容量素子22,23と、比較回路24と、カウンタ25と、ラッチ26とを有している。 The AD conversion unit ADC is configured to perform AD conversion based on the signal SIG on the corresponding signal line VSL. The AD converter ADC has capacitive elements 22 and 23 , a comparator circuit 24 , a counter 25 and a latch 26 .

容量素子22の一端は信号線VSLに接続されるとともに信号SIGが供給され、他端は比較回路24に接続される。容量素子23の一端には参照信号生成部13から供給された参照信号RAMPが供給され、他端は比較回路24に接続される。 One end of the capacitive element 22 is connected to the signal line VSL and supplied with the signal SIG, and the other end is connected to the comparison circuit 24 . A reference signal RAMP supplied from the reference signal generation unit 13 is supplied to one end of the capacitive element 23 , and the other end is connected to the comparison circuit 24 .

比較回路24は、受光画素Pから信号線VSLおよび容量素子22を介して供給された信号SIG、および参照信号生成部13から容量素子23を介して供給された参照信号RAMPに基づいて、比較動作を行うことにより信号CPを生成するように構成される。比較回路24は、撮像制御部18から供給された制御信号AZに基づいて、容量素子22,23の電圧を設定することにより動作点を設定する。そしてその後に、比較回路24は、P相期間TPにおいて、信号SIGに含まれるリセット電圧Vresetと、参照信号RAMPの電圧とを比較する比較動作を行い、D相期間TDにおいて、信号SIGに含まれる画素電圧Vpixと、参照信号RAMPの電圧とを比較する比較動作を行うようになっている。 The comparison circuit 24 performs a comparison operation based on the signal SIG supplied from the light receiving pixel P via the signal line VSL and the capacitive element 22 and the reference signal RAMP supplied from the reference signal generation section 13 via the capacitive element 23. is configured to generate the signal CP by performing The comparison circuit 24 sets the operating point by setting the voltages of the capacitive elements 22 and 23 based on the control signal AZ supplied from the imaging control section 18 . After that, the comparison circuit 24 performs a comparison operation to compare the reset voltage Vreset included in the signal SIG with the voltage of the reference signal RAMP in the P-phase period TP, and performs a comparison operation of A comparison operation is performed to compare the pixel voltage Vpix and the voltage of the reference signal RAMP.

カウンタ25は、比較回路24から供給された信号CPに基づいて、撮像制御部18から供給されたクロック信号CLKのパルスをカウントするカウント動作を行うように構成される。具体的には、カウンタ25は、P相期間TPにおいて、信号CPが遷移するまでクロック信号CLKのパルスをカウントすることによりカウント値CNTPを生成し、このカウント値CNTPを、複数のビットを有するデジタルコードとして出力する。また、カウンタ25は、D相期間TDにおいて、信号CPが遷移するまでクロック信号CLKのパルスをカウントすることによりカウント値CNTDを生成し、このカウント値CNTDを、複数のビットを有するデジタルコードとして出力するようになっている。 The counter 25 is configured to perform a counting operation of counting the pulses of the clock signal CLK supplied from the imaging control section 18 based on the signal CP supplied from the comparison circuit 24 . Specifically, the counter 25 generates the count value CNTP by counting the pulses of the clock signal CLK until the signal CP transitions in the P-phase period TP, and converts the count value CNTP into a digital signal having a plurality of bits. Output as code. Further, the counter 25 generates a count value CNTD by counting the pulses of the clock signal CLK until the signal CP transitions in the D-phase period TD, and outputs the count value CNTD as a digital code having a plurality of bits. It is designed to

ラッチ26は、カウンタ25から供給されたデジタルコードを一時的に保持するとともに、転送制御部27からの指示に基づいて、そのデジタルコードをバス配線BUSに出力するように構成される。 The latch 26 is configured to temporarily hold the digital code supplied from the counter 25 and to output the digital code to the bus wiring BUS based on the instruction from the transfer control section 27 .

転送制御部27は、撮像制御部18から供給された制御信号CTLに基づいて、複数のAD変換部ADCのラッチ26が、デジタルコードをバス配線BUSに順次出力させるように制御するように構成される。読出部20は、このバス配線BUSを用いて、複数のAD変換部ADCから供給された複数のデジタルコードを、画像信号Spic0として、信号処理部15に順次転送するようになっている。 The transfer control unit 27 is configured to control the latches 26 of the plurality of AD conversion units ADC to sequentially output the digital code to the bus wiring BUS based on the control signal CTL supplied from the imaging control unit 18. be. The reading unit 20 uses the bus wiring BUS to sequentially transfer the plurality of digital codes supplied from the plurality of AD conversion units ADC to the signal processing unit 15 as the image signal Spic0.

信号処理部15(図1)は、画像信号Spic0および撮像制御部18からの指示に基づいて、所定の信号処理を行うことにより画像信号Spicを生成するように構成される。信号処理部15は、画像データ生成部16と、位相差データ生成部17とを有している。画像データ生成部16は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDPを生成するように構成される。位相差データ生成部17は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成するように構成される。信号処理部15は、画像データ生成部16により生成された画像データDP、および位相差データ生成部17により生成された位相差データDFを含む画像信号Spicを生成する。 The signal processing unit 15 (FIG. 1) is configured to perform predetermined signal processing based on the image signal Spic0 and an instruction from the imaging control unit 18 to generate the image signal Spic. The signal processor 15 has an image data generator 16 and a phase difference data generator 17 . The image data generator 16 is configured to generate image data DP representing a captured image by performing predetermined image processing based on the image signal Spic0. The phase difference data generation unit 17 is configured to generate phase difference data DF indicating an image plane phase difference by performing predetermined image processing based on the image signal Spic0. The signal processing unit 15 generates an image signal Spic including the image data DP generated by the image data generation unit 16 and the phase difference data DF generated by the phase difference data generation unit 17 .

図8は、画像信号Spicの一例を表すものである。信号処理部15は、例えば、複数行分の受光画素Pに係る画像データDPと、複数行分の受光画素Pに係る位相差データDFを交互に配置することにより、画像信号Spicを生成する。そして、信号処理部15は、このような画像信号Spicを出力するようになっている。 FIG. 8 shows an example of the image signal Spic. The signal processing unit 15 generates the image signal Spic by, for example, alternately arranging the image data DP related to the light-receiving pixels P in multiple rows and the phase difference data DF related to the light-receiving pixels P in multiple rows. Then, the signal processing section 15 outputs such an image signal Spic.

撮像制御部18は、駆動部12、参照信号生成部13、読出部20、および信号処理部15に制御信号を供給し、これらの回路の動作を制御することにより、撮像装置1の動作を制御するように構成される。撮像制御部18には、外部から制御信号Sctlが供給される。この制御信号Sctlは、例えば、いわゆる電子ズームのズーム倍率についての情報を含む。撮像制御部18は、制御信号Sctlに基づいて、撮像装置1の動作を制御するようになっている。 The imaging control unit 18 supplies control signals to the driving unit 12, the reference signal generating unit 13, the reading unit 20, and the signal processing unit 15, and controls the operation of these circuits, thereby controlling the operation of the imaging device 1. configured to A control signal Sctl is supplied to the imaging control unit 18 from the outside. This control signal Sctl includes, for example, information about the zoom magnification of so-called electronic zoom. The imaging control unit 18 controls the operation of the imaging device 1 based on the control signal Sctl.

ここで、受光画素Pは、本開示における「受光画素」の一具体例に対応する。画素ペア90は、本開示における「画素ペア」の一具体例に対応する。画素ブロック100は、本開示における「画素ブロック」の一具体例に対応する。例えば、画素ブロック100Grは、本開示における「第1の画素ブロック」の一具体例に対応する。例えば、画素ブロック100Rは、本開示における「第2の画素ブロック」の一具体例に対応する。レンズ101は、本開示における「レンズ」の一具体例に対応する。制御線TRGLは、本開示における「制御線」の一具体例に対応する。絶縁層53は、本開示における「絶縁層」の一具体例に対応する。 Here, the light-receiving pixel P corresponds to a specific example of the "light-receiving pixel" in the present disclosure. Pixel pair 90 corresponds to a specific example of "pixel pair" in the present disclosure. Pixel block 100 corresponds to a specific example of "pixel block" in the present disclosure. For example, the pixel block 100Gr corresponds to a specific example of "first pixel block" in the present disclosure. For example, the pixel block 100R corresponds to a specific example of "second pixel block" in the present disclosure. The lens 101 corresponds to a specific example of "lens" in the present disclosure. The control line TRGL corresponds to a specific example of "control line" in the present disclosure. The insulating layer 53 corresponds to a specific example of "insulating layer" in the present disclosure.

1.2 概略動作例
次に、本実施形態に係る撮像装置1の概略動作例を、図1及び図7を参照して説明する。駆動部12は、撮像制御部18からの指示に基づいて、画素アレイ11における複数の受光画素Pを順次駆動する。参照信号生成部13は、撮像制御部18からの指示に基づいて、参照信号RAMPを生成する。受光画素Pは、P相期間TPにおいて、リセット電圧Vresetを信号SIGとして出力し、D相期間TDにおいて、受光量に応じた画素電圧Vpixを信号SIGとして出力する。読出部20は、画素アレイ11から信号線VSLを介して供給された信号SIG、および撮像制御部18からの指示に基づいて、画像信号Spic0を生成する。信号処理部15において、画像データ生成部16は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDPを生成し、位相差データ生成部17は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成する。そして、信号処理部15は、画像データDPおよび位相差データDFを含む画像信号Spicを生成する。撮像制御部18は、駆動部12、参照信号生成部13、読出部20、および信号処理部15に制御信号を供給し、これらの回路の動作を制御することにより、撮像装置1の動作を制御する。
1.2 Schematic Operation Example Next, a schematic operation example of the imaging apparatus 1 according to the present embodiment will be described with reference to FIGS. 1 and 7. FIG. The drive unit 12 sequentially drives the plurality of light receiving pixels P in the pixel array 11 based on instructions from the imaging control unit 18 . The reference signal generator 13 generates the reference signal RAMP based on the instruction from the imaging controller 18 . The light-receiving pixel P outputs the reset voltage Vreset as the signal SIG during the P-phase period TP, and outputs the pixel voltage Vpix corresponding to the amount of received light as the signal SIG during the D-phase period TD. The reading unit 20 generates the image signal Spic0 based on the signal SIG supplied from the pixel array 11 via the signal line VSL and the instruction from the imaging control unit 18 . In the signal processing unit 15, the image data generation unit 16 performs predetermined image processing based on the image signal Spic0 to generate image data DP representing the captured image, and the phase difference data generation unit 17 generates the image signal Predetermined image processing is performed based on Spic0 to generate phase difference data DF representing the image plane phase difference. Then, the signal processing unit 15 generates an image signal Spic including the image data DP and the phase difference data DF. The imaging control unit 18 supplies control signals to the driving unit 12, the reference signal generating unit 13, the reading unit 20, and the signal processing unit 15, and controls the operation of these circuits, thereby controlling the operation of the imaging device 1. do.

ここで、撮像制御部18は、電子ズームのズーム倍率についての情報を含む制御信号Sctlに基づいて、撮像装置1の動作を制御する。以下に、撮像装置1におけるズーム動作について説明する。 Here, the imaging control unit 18 controls the operation of the imaging device 1 based on the control signal Sctl including information about the zoom magnification of the electronic zoom. A zoom operation in the imaging device 1 will be described below.

図9は、ズーム倍率を1倍から10倍まで変化させた場合における、撮像画像に係る受光画素Pの数(有効画素数)の一例を表すものである。図9において、実線は、撮像装置1の有効画素数を示している。図10は、撮像装置1におけるズーム動作の一例を表すものであり、(A)はズーム倍率が1倍である場合における動作を示し、(B)はズーム倍率が2倍である場合における動作を示し、(C)はズーム倍率が3倍である場合における動作を示す。 FIG. 9 shows an example of the number of light-receiving pixels P (the number of effective pixels) of a captured image when the zoom magnification is changed from 1× to 10×. In FIG. 9, the solid line indicates the number of effective pixels of the imaging device 1. In FIG. 10A and 10B show an example of the zoom operation in the imaging apparatus 1, where (A) shows the operation when the zoom magnification is 1×, and (B) shows the operation when the zoom magnification is 2×. and (C) shows the operation when the zoom magnification is 3 times.

撮像装置1は、3つの撮像モードM(撮像モードMA,MB,MC)を有している。撮像制御部18は、制御信号Sctlに含まれるズーム倍率についての情報に基づいて、3つの撮像モードMA~MCのうちの1つを選択する。具体的には、撮像制御部18は、図9において示したように、ズーム倍率が2未満である場合には撮像モードMAを選択し、ズーム倍率が2以上3未満である場合には撮像モードMBを選択し、ズーム倍率が3以上である場合には撮像モードMCを選択する。 The imaging device 1 has three imaging modes M (imaging modes MA, MB, MC). The imaging control unit 18 selects one of the three imaging modes MA to MC based on the information about the zoom magnification included in the control signal Sctl. Specifically, as shown in FIG. 9, the imaging control unit 18 selects the imaging mode MA when the zoom magnification is less than 2, and selects the imaging mode MA when the zoom magnification is 2 or more and less than 3. MB is selected, and when the zoom magnification is 3 or more, imaging mode MC is selected.

撮像モードMAでは、図10(A)に示したように、撮像装置1は、複数の単位ユニットUのそれぞれにおいて、4つの画素値V(画素値VR,VGr,VGb,VB)を得る。このように、撮像装置1は、36個の受光画素Pに対して4個の割合で、画素値Vを生成することにより、画像データDPを生成する。画素アレイ11における受光画素Pの数が108[Mpix]である場合には、12[Mpix]分の画素値Vが算出される。これにより、図9に示したように、有効画素数は、12[Mpix]となる。 In the imaging mode MA, as shown in FIG. 10A, the imaging device 1 obtains four pixel values V (pixel values VR, VGr, VGb, VB) in each of the plurality of unit units U. In this way, the imaging device 1 generates the image data DP by generating the pixel values V at a ratio of 4 pixels to 36 pixels P. FIG. When the number of light receiving pixels P in the pixel array 11 is 108 [Mpix], pixel values V for 12 [Mpix] are calculated. As a result, the number of effective pixels is 12 [Mpix], as shown in FIG.

図9に示したように、この撮像モードMAにおいて、ズーム倍率を1から増やすと、倍率に応じて、有効画素数が低下していく。そして、ズーム倍率が2になると、撮像モードMは撮像モードMBになる。 As shown in FIG. 9, when the zoom magnification is increased from 1 in this imaging mode MA, the number of effective pixels decreases according to the magnification. Then, when the zoom magnification becomes 2, the imaging mode M becomes the imaging mode MB.

撮像モードMBでは、図10(B)に示したように、撮像装置1は、複数の単位ユニットUのそれぞれにおいて、16個の画素値Vを得る。このように、撮像装置1は、36個の受光画素Pに対して16個の割合で、画素値Vを生成することにより、画像データDPを生成する。画素アレイ11における受光画素Pの数が108[Mpix]である場合には、48[Mpix]分の画素値Vが算出される。実際には、ズーム倍率が2倍であるので、図10(B)に示したように撮像範囲が1/4に狭くなるため、有効画素数は12[Mpix](=48[Mpix]/4)となる。 In the imaging mode MB, the imaging device 1 obtains 16 pixel values V in each of the plurality of unit units U, as shown in FIG. 10B. In this manner, the imaging device 1 generates the image data DP by generating the pixel values V at a ratio of 16 pixels to 36 light receiving pixels P. FIG. When the number of light receiving pixels P in the pixel array 11 is 108 [Mpix], pixel values V for 48 [Mpix] are calculated. Actually, since the zoom magnification is 2 times, the imaging range is narrowed to 1/4 as shown in FIG. ).

図9に示したように、この撮像モードMBにおいて、ズーム倍率を2から増やすと、倍率に応じて、有効画素数が低下していく。そして、ズーム倍率が3になると、撮像モードMは撮像モードMCになる。 As shown in FIG. 9, when the zoom magnification is increased from 2 in this imaging mode MB, the number of effective pixels decreases according to the magnification. Then, when the zoom magnification becomes 3, the imaging mode M becomes the imaging mode MC.

撮像モードMCでは、図10(C)に示したように、撮像装置1は、複数の単位ユニットUのそれぞれにおいて、36個の画素値Vを得る。このように、撮像装置1は、36個の受光画素Pに対して36個の割合で、画素値Vを生成することにより、画像データDPを生成する。画素アレイ11における受光画素Pの数が108[Mpix]である場合には、108[Mpix]の撮像画像を得ることができる。実際には、ズーム倍率が3倍であるので、図10(C)に示したように撮像範囲が1/9に狭くなるため、有効画素数は12[Mpix](=108[Mpix]/9)となる。 In the imaging mode MC, the imaging device 1 obtains 36 pixel values V in each of the plurality of unit units U, as shown in FIG. 10(C). In this manner, the imaging device 1 generates the image data DP by generating the pixel values V at a ratio of 36 pixels to the 36 light receiving pixels P. FIG. When the number of light receiving pixels P in the pixel array 11 is 108 [Mpix], a captured image of 108 [Mpix] can be obtained. Actually, since the zoom magnification is 3 times, the imaging range is narrowed to 1/9 as shown in FIG. ).

このように、撮像装置1では、3つの撮像モードMを設けるようにしたので、ズーム倍率を変更した場合における、撮像画像の画質の変化を低減することができる。すなわち、例えば、撮像モードMBを省いて2つの撮像モードMA,MCを設け、ズーム倍率が2倍未満である場合に撮像モードMAを選択するとともに、ズーム倍率が2倍以上である場合に撮像モードMCを選択した場合には、図9において破線で示したように、有効画素数が大きく変化する。すなわち、この例では、ズーム倍率が2倍である場合には、撮像モードMCが選択され、有効画素数は27[Mpix](=108[Mpix]/4)である。よって、ズーム倍率が例えば1.9倍である場合における有効画素数と、ズーム倍率が2倍である場合における有効画素数に大きな差が生じるので、ズーム倍率が2倍前後において、撮像画像の画質が大きく変化する可能性がある。一方、撮像装置1では、3つの撮像モードMを設けるようにしたので、ズーム倍率を変更した場合における、有効画素数の変化を低減することができるので、撮像画像の画質の変化を抑えることができる。 As described above, since the imaging apparatus 1 is provided with three imaging modes M, it is possible to reduce the change in image quality of the captured image when the zoom magnification is changed. That is, for example, two imaging modes MA and MC are provided by omitting the imaging mode MB, and the imaging mode MA is selected when the zoom magnification is less than 2. When MC is selected, the number of effective pixels greatly changes as indicated by the dashed line in FIG. That is, in this example, when the zoom magnification is 2×, the imaging mode MC is selected and the number of effective pixels is 27 [Mpix] (=108 [Mpix]/4). Therefore, there is a large difference between the number of effective pixels when the zoom magnification is, for example, 1.9 times and the number of effective pixels when the zoom magnification is 2 times. can change significantly. On the other hand, since the image pickup apparatus 1 is provided with three image pickup modes M, it is possible to reduce the change in the number of effective pixels when the zoom magnification is changed. can.

1.3 像面位相差情報(位相差データDF)生成について
以上のような構成及び動作を備える撮像装置1において、上述したように、オートフォーカスを実現するための像面位相差を示す位相差データFDは、信号処理部15内の位相差データ生成部17において生成される。
1.3 Generation of Image Plane Phase Difference Information (Phase Difference Data DF) In the imaging apparatus 1 having the configuration and operation described above, as described above, the phase difference information indicating the image plane phase difference for realizing autofocus is generated. The data FD is generated by the phase difference data generator 17 within the signal processor 15 .

ここで、上述にもあるように、従来、像面位相差に基づいてオートフォーカスを実行する撮像装置における像面位相差情報の生成には、感度差補正を行った後の画素値が用いられていた。しかしながら、近年、画素微細化に伴う画素配列パターンの複雑化により、感度差補正処理も複雑化し、その結果、感度差補正に必要となる回路規模やメモリ容量が増大してデバイスサイズが大型化してしまうという課題が発生していた。 Here, as described above, pixel values after performing sensitivity difference correction are conventionally used to generate image plane phase difference information in an imaging apparatus that performs autofocus based on the image plane phase difference. was In recent years, however, pixel array patterns have become more complicated as pixels have become finer, and sensitivity difference correction processing has also become more complicated. There was a problem of getting stuck.

また、図2に例示したような、繰返しの最小単位であるユニットUを構成する画素ブロック100R,100Gr,100Gb,100Bが8つ又は10つの受光画素Pからそれぞれ構成される、いわゆるDecaOcta配列の撮像装置1は、上述したように、例えば、各画素ブロック100R,100Gr,100Gb,100Bを1つの画素として読み出す撮像モードMA(図10(A)参照)と、全ての有効画素Pを個別に読み出す撮像モードMC(図10(C)参照)と、撮像モードMAと撮像モードMCとの中間の解像度で読み出す撮像モードMB(図10(B)参照)との3段階のビンニングモードを切り替えて動作することが可能であるが、このような複数段階のビンニングモードを備える撮像装置1では、従来の像面位相差を用いたオートフォーカス技術をそのまま適用することは困難であった。 In addition, as illustrated in FIG. 2, the pixel blocks 100R, 100Gr, 100Gb, and 100B that constitute the unit U, which is the minimum unit of repetition, are respectively composed of eight or ten light-receiving pixels P, so-called DecaOcta array imaging. As described above, the apparatus 1 has, for example, an imaging mode MA (see FIG. 10A) in which each pixel block 100R, 100Gr, 100Gb, and 100B is read out as one pixel, and an imaging mode in which all effective pixels P are individually read out. It operates by switching between three stages of binning modes, mode MC (see FIG. 10C) and imaging mode MB (see FIG. 10B), which reads at an intermediate resolution between imaging mode MA and imaging mode MC. However, it is difficult to apply the conventional autofocus technique using the image plane phase difference as it is to the image pickup apparatus 1 having such a plurality of stages of binning modes.

さらに、DecaOcta配列の撮像装置1は、一部又は全部の受光画素Pの輝度に対するダイナミックレンジが通常の動作モード(後述するSDRモード)時よりも広いHDR(High Dynamic Range)モードにも対応することが可能であるが、その場合でも従来の像面位相差を用いたオートフォーカス技術をそのまま適用することは困難であった。 Furthermore, the imaging device 1 with the DecaOcta arrangement also supports an HDR (High Dynamic Range) mode, in which the dynamic range for luminance of some or all of the light receiving pixels P is wider than in a normal operation mode (SDR mode described later). However, even in that case, it was difficult to apply the conventional autofocus technique using the image plane phase difference as it is.

そこで、本実施形態では、位相差データ生成部17における感度差補正処理に入力する画像信号Spic0の画素配列パターンを簡素化する。それにより、位相差データ生成部17における感度差補正処理の複雑化を抑制することが可能となる。より具体的には、画像信号Spic0の画素配列パターンを簡素化することで、位相差検出用の感度差補正処理の並列チャネル数を削減することが可能となるため、回路規模の削減と、感度差補正係数用のメモリ容量の削減とを実現することが可能となる。その結果、画素配列パターンを複雑化したとしても、回路規模やメモリ容量の増大化を抑制することが可能となるため、デバイスサイズの大型化を抑制することが可能となる。 Therefore, in the present embodiment, the pixel array pattern of the image signal Spic0 input to the sensitivity difference correction process in the phase difference data generation unit 17 is simplified. Thereby, it is possible to suppress complication of sensitivity difference correction processing in the phase difference data generation unit 17 . More specifically, by simplifying the pixel array pattern of the image signal Spic0, it is possible to reduce the number of parallel channels for the sensitivity difference correction processing for phase difference detection. It is possible to reduce the memory capacity for the difference correction coefficients. As a result, even if the pixel array pattern is complicated, it is possible to suppress an increase in circuit scale and memory capacity, thereby suppressing an increase in device size.

また、本実施形態では、複数段階のビンニングモードを備える場合や、通常のダイナミックレンジを使用するSDR(Standard Dynamic Range)モードとHDRモードとを切替え可能な場合でも、言い換えれば、通常のダイナミックレンジの感度で動作する受光画素Pと、通常のダイナミックレンジよりも広いダイナミックレンジの感度で動作する受光画素Pとが混在するような場合でも、感度差補正処理に入力する画像信号Spic0の画素配列パターンを簡素な配列パターンに統一的に変換することが可能であるため、略全てのモードに対して本実施形態に係る軽量化された感度差補正処理を適用することが可能になるというメリットも得られる。 Further, in the present embodiment, even if a multi-step binning mode is provided, or if it is possible to switch between an SDR (Standard Dynamic Range) mode using a normal dynamic range and an HDR mode, in other words, the normal dynamic range Even when there are light-receiving pixels P operating with a sensitivity of 0 and light-receiving pixels P operating with a sensitivity of a dynamic range wider than the normal dynamic range, the pixel arrangement pattern of the image signal Spic0 input to the sensitivity difference correction process is can be uniformly converted into a simple array pattern, so there is also the advantage of being able to apply the lightened sensitivity difference correction processing according to the present embodiment to almost all modes. be done.

1.3.1 位相差データ生成部のより詳細な構成例
図11は、本実施形態に係る位相差データ生成部のより詳細な構成例を示すブロック図である。図11に示すように、位相差データ生成部17は、同色画素加算部171と、感度差補正部172と、位相差情報生成部173と、位相差検出部174と、メモリ175とを備える。これらのうち、感度差補正部172及び位相差情報生成部173は、後述するように、同色画素加算部171による同色画素加算処理後の画像信号Spic1に含まれる複数の画素値に基づいて左右及び/又は上下の受光画素間の像面位相差に関する情報(例えば、後述する位相差情報又は位相差データDF)を生成する生成部として機能する。この生成部には、位相差検出部174が含まれてもよい。
1.3.1 More Detailed Configuration Example of Phase Difference Data Generation Unit FIG. 11 is a block diagram showing a more detailed configuration example of the phase difference data generation unit according to this embodiment. As shown in FIG. 11 , the phase difference data generator 17 includes a same color pixel adder 171 , a sensitivity difference corrector 172 , a phase difference information generator 173 , a phase difference detector 174 and a memory 175 . Of these, the sensitivity difference correction unit 172 and the phase difference information generation unit 173, as will be described later, perform the left and right and the right and left based on a plurality of pixel values included in the image signal Spic1 after the same color pixel addition processing by the same color pixel addition unit 171. / Or it functions as a generation unit that generates information (for example, phase difference information or phase difference data DF to be described later) regarding the image plane phase difference between the upper and lower light receiving pixels. This generator may include the phase difference detector 174 .

(同色画素加算部171)
同色画素加算部171は、画像アレイ11から読み出されて位相差データ生成部17に入力されたデジタルの画像信号Spic0に対し、画素ブロック100R,100Gr,100Gb,100Bごとに、画素ペア90の左側に位置する受光画素P(以下、左画素ともいう)の画素値を合計する画素加算処理と、右側に位置する受光画素P(以下、右画素ともいう)の画素値を合計する画素加算処理とを実行する。その結果、同色画素加算部171からは、各画素ブロック100R,100Gr,100Gb,100Bが左側の合計画素値(以下、左画素合計値ともいう)と右側の合計画素値(以下、右画素合計値ともいう)との合計画素値ペアで構成された画像信号Spic1が出力される。
(Same color pixel adder 171)
The same-color pixel adder 171 applies the digital image signal Spic0 read from the image array 11 and input to the phase difference data generator 17 to the left side of the pixel pair 90 for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B. pixel addition processing for summing the pixel values of the light receiving pixels P (hereinafter also referred to as left pixels) located in the pixel addition processing for summing the pixel values of the light receiving pixels P located on the right side (hereinafter also referred to as right pixels). to run. As a result, the pixel blocks 100R, 100Gr, 100Gb, and 100B are output from the same-color pixel addition unit 171 as the left total pixel value (hereinafter also referred to as the left pixel total value) and the right total pixel value (hereinafter also referred to as the right pixel total value). ) is output as an image signal Spic1 composed of a total pixel value pair.

このように、入力された画像信号Spic0を画素ブロック100R,100Gr,100Gb,100Bごとに左右一画素ずつの画像信号Spic1に変換することで、画像信号Spic0の解像度(ビンニングの有無)に関係なく、言い換えれば、撮像装置1が実行中のモードに依存することなく、感度差補正部172に入力する画像信号Spic1の解像度を統一することが可能となるため、略全てのモードに対して本実施形態に係る感度差補正処理を適用することが可能になる。 In this way, by converting the input image signal Spic0 into the image signal Spic1 for each of the left and right pixels for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B, regardless of the resolution of the image signal Spic0 (with or without binning), In other words, it is possible to unify the resolution of the image signal Spic1 input to the sensitivity difference correction unit 172 without depending on the mode being executed by the imaging device 1. It becomes possible to apply the sensitivity difference correction processing related to

加えて、画像信号Spic0における各画素ブロック100R,100Gr,100Gb,100Bの画素数に依存することなく、感度差補正部172に入力する画像信号Spic1の解像度を画素ブロック100R,100Gr,100Gb,100Bを最小単位とする解像度まで低減することが可能となるため、感度差補正処理の並列チャネル数の削減による回路規模の削減と、感度差補正係数テーブルを記憶するメモリ175の容量削減とを実現することが可能となり、その結果、デバイスサイズの大型化を抑制することが可能となる。 In addition, the pixel blocks 100R, 100Gr, 100Gb, and 100B have the resolution of the image signal Spic1 input to the sensitivity difference corrector 172 independently of the number of pixels of the pixel blocks 100R, 100Gr, 100Gb, and 100B in the image signal Spic0. Since it is possible to reduce the resolution to the minimum unit, it is possible to reduce the circuit scale by reducing the number of parallel channels for the sensitivity difference correction processing, and to reduce the capacity of the memory 175 that stores the sensitivity difference correction coefficient table. is possible, and as a result, it is possible to suppress an increase in device size.

さらに、入力される画像信号Spic0の画素配列に依存することなく、統一された解像度の画像信号Spic1を出力することが可能であるため、DecaOcta配列のように、各画素ブロック100R,100Gr,100Gb,100Bが正方形や長方形などの矩形でない画素配列パターンや、各画素ブロック100R,100Gr,100Gb,100Bを構成する画素数が統一されていない画素配列パターンなど、あらゆる画素配列パターンの撮像装置に対しても本実施形態を適用することが可能である。 Furthermore, since it is possible to output the image signal Spic1 with a uniform resolution without depending on the pixel arrangement of the input image signal Spic0, each pixel block 100R, 100Gr, 100Gb, Imaging devices with any pixel array pattern, such as non-rectangular pixel array patterns such as squares and rectangles for 100B, and pixel array patterns in which the number of pixels constituting each pixel block 100R, 100Gr, 100Gb, and 100B are not uniform. It is possible to apply this embodiment.

なお、撮像モードMAでは、画素ブロック100R,100Gr,100Gb,100Bごとに一組の左画素合計値と右画素合計値とが読み出されるため、言い換えれば、画素アレイ11から読み出されて信号処理部15に入力される画像信号Spic0が画素ブロック100R,100Gr,100Gb,100Bごとの右画素Pの合計画素値と左画素Pの合計画素値とで構成されている。そのため、撮像モードMAの場合では、同色画素加算部171がバイパスされて、画像信号Spic0が直接感度差補正部172に入力されてよい。 In imaging mode MA, a set of left pixel total value and right pixel total value is read out for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B. The image signal Spic0 input to 15 is composed of the total pixel value of the right pixels P and the total pixel value of the left pixels P for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B. Therefore, in the case of the imaging mode MA, the same color pixel adder 171 may be bypassed and the image signal Spic0 may be directly input to the sensitivity difference corrector 172 .

また、HDRモードで動作する場合、低ダイナミックレンジで動作する受光画素P(以下、これを低輝度画素ともいう)と、高ダイナミックレンジ又は低ダイナミックレンジで動作する受光画素P(以下、これを高輝度画素ともいう)が存在するが、その場合には、画素ブロック100R,100Gr,100Gb,100Bごとに、低輝度画素Pの左画素合計値及び右画素合計値と、高輝度画素Pの左画素合計値及び右画素合計値とが求められてよい。 Further, when operating in the HDR mode, light-receiving pixels P operating in a low dynamic range (hereinafter also referred to as low-brightness pixels) and light-receiving pixels P operating in a high dynamic range or low dynamic range (hereinafter referred to as high In that case, the left pixel total value and right pixel total value of the low luminance pixels P and the left pixel A sum value and a right pixel sum value may be determined.

(感度差補正部172)
感度差補正部172は、メモリ175から感度差補正係数テーブルを取得し、このテーブルで管理されている係数を、画像信号Spic1における各画素ブロック100R,100Gr,100Gb,100Bの左画素合計値と右画素合計値とにそれぞれ乗算することで、左画素と右画素との感度差に起因する左画素合計値と右画素合計値との輝度値(画素値)の差を補正する。
(Sensitivity difference correction unit 172)
The sensitivity difference correction unit 172 acquires a sensitivity difference correction coefficient table from the memory 175, and converts the coefficients managed by this table into the left pixel total value and the right By multiplying the pixel total value by the pixel total value, the difference in luminance value (pixel value) between the left pixel total value and the right pixel total value due to the sensitivity difference between the left pixel and the right pixel is corrected.

なお、感度差補正係数テーブルは、例えば、画素アレイ11を構成する画素ブロック100R,100Gr,100Gb,100Bそれぞれと一対一で対応する感度差補正係数のペアが、画素アレイ11上の画素ブロック100R,100Gr,100Gb,100Bの配列に従ってマトリクス状に配列するテーブル構造を有してよい。また、左画素合計値を補正するための感度差補正係数(以下、左感度差補正係数ともいう)と、右画素合計値を補正するための感度差補正係数(以下、右感度差補正係数ともいう)とには、予め経験やシミュレーションや実験等で求められた値が用いられてもよい。 In the sensitivity difference correction coefficient table, for example, pairs of sensitivity difference correction coefficients corresponding to pixel blocks 100R, 100Gr, 100Gb, and 100B constituting the pixel array 11 one-to-one correspond to the pixel blocks 100R, 100R, and 100B on the pixel array 11, respectively. It may have a table structure arranged in a matrix according to the arrangement of 100Gr, 100Gb, and 100B. In addition, the sensitivity difference correction coefficient for correcting the left pixel total value (hereinafter also referred to as the left sensitivity difference correction coefficient) and the sensitivity difference correction coefficient for correcting the right pixel total value (hereinafter also referred to as the right sensitivity difference correction coefficient) A value obtained in advance by experience, simulation, experiment, or the like may be used as the value.

さらに、本実施形態では、感度差補正処理の前に同色画素加算処理が実行されるため、撮像モードMA、MB及びMCの全ての撮像モード、言い換えれば、複数段階のビンニングモードの全てで、同じ感度差補正係数テーブルを使用することが可能である。 Furthermore, in the present embodiment, since same-color pixel addition processing is performed before sensitivity difference correction processing, in all imaging modes MA, MB, and MC, in other words, in all multi-step binning modes, It is possible to use the same sensitivity difference correction coefficient table.

さらにまた、SDRモードとHDRモードとを切替え可能な場合でも、感度差補正処理の前に同色画素加算処理を実行することで、高輝度画素Pの左画素合計値及び右画素合計値に対して低輝度画素P用の感度差補正係数テーブルと同じ感度差補正係数テーブルを使用した場合の残留感度差を低減することが可能となる。これは、SDRモードとHDRモードとで同じ感度差補正係数テーブルを使用したとしても問題なく動作し得ることを示唆している。 Furthermore, even when it is possible to switch between the SDR mode and the HDR mode, by executing the same-color pixel addition process before the sensitivity difference correction process, the left pixel total value and the right pixel total value of the high-luminance pixels P It is possible to reduce the residual sensitivity difference when using the same sensitivity difference correction coefficient table as the sensitivity difference correction coefficient table for the low-luminance pixel P. This suggests that even if the same sensitivity difference correction coefficient table is used in SDR mode and HDR mode, operation can be performed without problems.

(位相差情報生成部173)
位相差情報生成部173は、感度差補正後の画像信号Spic1に対し、単位ユニットUごとに左画素合計値と右画素合計値とのそれぞれの合計値又は平均値を算出することで、単位ユニットUごとの左画素Pの輝度情報(以下、左輝度情報ともいう)と右画素Pの輝度情報(以下、右輝度情報ともいう)とのペア(以下、輝度ペアともいう)を生成する。そして、位相差情報生成部173は、生成された左輝度情報と右輝度情報との比や差分等を求めることで、位相差情報を生成する。
(Phase difference information generator 173)
The phase difference information generation unit 173 calculates the total value or average value of the left pixel total value and the right pixel total value for each unit unit U with respect to the image signal Spic1 after the sensitivity difference correction. A pair (hereinafter also referred to as a luminance pair) of luminance information of the left pixel P (hereinafter also referred to as left luminance information) and luminance information of the right pixel P (hereinafter also referred to as right luminance information) for each U is generated. Then, the phase difference information generation unit 173 generates phase difference information by obtaining a ratio, a difference, or the like between the generated left luminance information and right luminance information.

HDRモードで動作している場合には、位相差情報生成部173は、単位ユニットUごとに、左画素で且つ低輝度画素である受光画素Pの左輝度情報(左低輝度情報ともいう)と、右画素で且つ低輝度画素である受光画素Pの右輝度情報(右低輝度情報ともいう)と、左画素で且つ高輝度画素である受光画素Pの左輝度情報(左高輝度情報ともいう)と、右画素で且つ高輝度画素である受光画素Pの右輝度情報(右高輝度情報ともいう)とを生成する。つづいて、位相差情報生成部173は、左低輝度情報に所定の係数を乗算して得られた値を左高輝度情報に加算することで、左輝度情報を生成する。同様に、位相差情報生成部173は、右低輝度情報に所定の係数を乗算して得られた値を右高輝度情報に加算することで、右輝度情報を生成する。そして、位相差情報生成部173は、生成された左輝度情報と右輝度情報との比や差分等を求めることで、位相差情報を生成する。 When operating in the HDR mode, the phase difference information generation unit 173 generates left luminance information (also referred to as left low luminance information) of the light receiving pixel P, which is a left pixel and is a low luminance pixel, for each unit unit U. , right luminance information (also referred to as right low luminance information) of the light receiving pixel P that is a right pixel and a low luminance pixel, and left luminance information (also referred to as left high luminance information) of the light receiving pixel P that is a left pixel and a high luminance pixel. ) and right luminance information (also referred to as right high luminance information) of the light-receiving pixel P, which is a right pixel and a high luminance pixel. Subsequently, the phase difference information generation unit 173 generates left luminance information by adding a value obtained by multiplying the left low luminance information by a predetermined coefficient to the left high luminance information. Similarly, the phase difference information generation unit 173 generates right luminance information by adding a value obtained by multiplying the right low luminance information by a predetermined coefficient to the right high luminance information. Then, the phase difference information generation unit 173 generates phase difference information by obtaining a ratio, a difference, or the like between the generated left luminance information and right luminance information.

なお、画像信号に対してホワイトバランス調整を行う場合、このホワイトバランス調整処理は、位相差情報生成部173内で実行されてもよいし、位相差情報生成部173より前の処理段階で実行されてもよい。例えば、感度差補正部172の出力段にホワイトバランス調整用の処理部が追加されてもよい。若しくは、位相差情報生成部173が位相差情報を求める前にホワイトバランス調整を実行してもよい。また、位相差情報生成部173は、ホワイトバランス調整目的に限定されず、種々の調整目的で、画素ブロック100R,100Gr,100Gb,100Bごとの左画素合計値及び右画素合計値に所定の係数を乗算してからこれらを合算することで、左輝度情報と右輝度情報とを生成してもよい。 Note that when white balance adjustment is performed on the image signal, this white balance adjustment processing may be performed within the phase difference information generation unit 173, or may be performed at a processing stage prior to the phase difference information generation unit 173. may For example, a processing unit for white balance adjustment may be added to the output stage of the sensitivity difference correction unit 172 . Alternatively, the white balance adjustment may be performed before the phase difference information generator 173 obtains the phase difference information. In addition, the phase difference information generation unit 173 is not limited to the white balance adjustment purpose, and for various adjustment purposes, the left pixel total value and the right pixel total value for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B are given predetermined coefficients. The left luminance information and the right luminance information may be generated by multiplying and summing them.

(位相差検出部174)
位相差検出部174は、位相差情報生成部173から出力された位相差情報に基づいて位相差データDFを生成して出力する。なお、位相差情報をそのまま位相差データDFとして使用する場合には、位相差検出部174は省略されてもよい。
(Phase difference detector 174)
The phase difference detector 174 generates and outputs phase difference data DF based on the phase difference information output from the phase difference information generator 173 . Note that the phase difference detector 174 may be omitted when the phase difference information is used as the phase difference data DF as it is.

(メモリ175)
メモリ175は、上述したように、感度差補正係数テーブルを記憶する。このメモリ175は、位相差データ生成部17の専用メモリとして設けられてもよいし、画像データ生成部16との共用メモリとして設けられてもよい。
(Memory 175)
The memory 175 stores the sensitivity difference correction coefficient table as described above. The memory 175 may be provided as a dedicated memory for the phase difference data generator 17 or may be provided as a shared memory with the image data generator 16 .

1.3.2 撮像モードMCでの同色画素加算処理の具体例
次に、本実施形態に係る同色画素加算部171の各撮像モードでの動作について、具体例を挙げて説明する。図12は、図2に示す画素アレイ11における受光素子Pの配置例から1つの単位ユニットUを抜粋した図である。図13~図16は、各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である。図17は、単位ユニットUから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。なお、以下では、撮像モードが撮像モードMCである場合を例に挙げて説明する。また、本具体例では、受光画素Pの配列パターンがDecaOcta配列である場合を例示する。
1.3.2 Concrete Example of Same-Color Pixel Addition Processing in Imaging Mode MC Next, the operation of the same-color pixel addition section 171 according to the present embodiment in each imaging mode will be described with specific examples. FIG. 12 is a diagram of one unit U extracted from the arrangement example of the light receiving elements P in the pixel array 11 shown in FIG. 13 to 16 are diagrams for explaining the same-color pixel addition process performed on pixel values read out from each pixel block. FIG. 17 is a diagram showing the left pixel total value and the right pixel total value finally obtained based on the pixel values read out from the unit U. In FIG. In addition, below, the case where the imaging mode is the imaging mode MC will be described as an example. Further, in this specific example, the case where the arrangement pattern of the light receiving pixels P is the DecaOcta arrangement is illustrated.

図12に示すように、1つの単位ユニットUは、10つの受光素子Pよりなる画素ブロック100Grと、8つの受光素子Pよりなる画素ブロック100Rと、8つの受光素子Pよりなる画素ブロック100Bと、10つの受光素子Pよりなる画素ブロック100Gbとから構成される。 As shown in FIG. 12, one unit unit U includes a pixel block 100Gr made up of ten light receiving elements P, a pixel block 100R made up of eight light receiving elements P, a pixel block 100B made up of eight light receiving elements P, It is composed of a pixel block 100Gb consisting of ten light receiving elements P. As shown in FIG.

ここで、画素ブロック100Grにおいて、GrL1~GrL5は画素ペア90における左画素及び各左画素から読み出された画素値VGrを示し、GrR1~GrR5は右画素及び各右画素から読み出された画素値VGrを示すものとする。同様に、画素ブロック100Rにおいて、RL1~RL4は左画素及び各左画素から読み出された画素値VRを示し、RR1~RR4は右画素及び各右画素から読み出された画素値VRを示すものとし、画素ブロック100Bにおいて、BL1~BL4は左画素及び各左画素から読み出された画素値VBを示し、BR1~BR4は右画素及び各右画素から読み出された画素値VBを示すものとし、画素ブロック100Gbにおいて、GbL1~GbL5は左画素及び各左画素から読み出された画素値VGbを示し、GbR1~GbR5は右画素及び各右画素から読み出された画素値VGbを示すものとする。 Here, in the pixel block 100Gr, GrL1 to GrL5 indicate the pixel values VGr read from the left pixel and each left pixel in the pixel pair 90, and GrR1 to GrR5 indicate the pixel values read from the right pixel and each right pixel. Let VGr denote VGr. Similarly, in the pixel block 100R, RL1 to RL4 indicate the left pixel and the pixel value VR read from each left pixel, and RR1 to RR4 indicate the right pixel and the pixel value VR read from each right pixel. In the pixel block 100B, BL1 to BL4 indicate the left pixel and the pixel value VB read from each left pixel, and BR1 to BR4 indicate the right pixel and the pixel value VB read from each right pixel. , in the pixel block 100Gb, GbL1 to GbL5 indicate the left pixel and the pixel value VGb read from each left pixel, and GbR1 to GbR5 indicate the right pixel and the pixel value VGb read from each right pixel. .

図13に示すように、同色画素加算部171は、画素ブロック100Grから読み出された画素値VGrのうち、左画素Pから読み出された画素値GrL1、GrL2、GrL3、GrL4及びGrL5を加算することで、画素ブロック100Grの左画素合計値GrLを算出する。同様に、同色画素加算部171は、画素ブロック100Grから読み出された画素値VGrのうち、右画素Pから読み出された画素値GrR1、GrR2、GrR3、GrR4及びGrR5を加算することで、画素ブロック100Grの右画素合計値GrRを算出する。 As shown in FIG. 13, the same-color pixel addition unit 171 adds pixel values GrL1, GrL2, GrL3, GrL4, and GrL5 read from the left pixel P among the pixel values VGr read from the pixel block 100Gr. Thus, the left pixel total value GrL of the pixel block 100Gr is calculated. Similarly, the same-color pixel addition unit 171 adds the pixel values GrR1, GrR2, GrR3, GrR4, and GrR5 read from the right pixel P among the pixel values VGr read from the pixel block 100Gr to obtain pixel A right pixel total value GrR of the block 100Gr is calculated.

図14~図16に示すように、他の画素ブロック100R、100B、100Gbに対しても同様に、左画素Pから読み出された画素値RL1~RL4、BL1~BL4、又は、GbL1~GbL5を加算することで、画素ブロック100R、100B、100Gbの左画素合計値RL、BL、GbLを算出し、右画素Pから読み出された画素値RR1~RR4、BR1~BR4、又は、GbR1~GbR5を加算することで、画素ブロック100R、100B、100Gbの右画素合計値RR、BR、GbRを算出する。 As shown in FIGS. 14 to 16, pixel values RL1 to RL4, BL1 to BL4, or GbL1 to GbL5 read from left pixels P are similarly applied to other pixel blocks 100R, 100B, and 100Gb. By adding, the left pixel total values RL, BL, and GbL of the pixel blocks 100R, 100B, and 100Gb are calculated, and the pixel values RR1 to RR4, BR1 to BR4, or GbR1 to GbR5 read from the right pixels P are calculated. By adding, the right pixel total values RR, BR, and GbR of the pixel blocks 100R, 100B, and 100Gb are calculated.

その結果、図17に示すように、同色画素加算部171からは、単位ユニットUから読み出された画素値VGr、VR、VB、VGbに基づき、画素ブロック100Grに左画素合計値GrLと右画素合計値GrRとの合計画素値ペア111Grが配置され、画素ブロック100Rに左画素合計値RLと右画素合計値RRとの合計画素値ペア111Rが配置され、画素ブロック100Bに左画素合計値BLと右画素合計値BRとの合計画素値ペア111Bが配置され、画素ブロック100Gbに左画素合計値GbLと右画素合計値GbRとの合計画素値ペア111Gbが配置された画像信号Spic1が出力される。 As a result, as shown in FIG. 17, based on the pixel values VGr, VR, VB, and VGb read out from the unit unit U, the same-color pixel addition unit 171 outputs the left pixel total value GrL and the right pixel value GrL to the pixel block 100Gr. The total pixel value pair 111Gr with the total value GrR is arranged, the total pixel value pair 111R with the left pixel total value RL and the right pixel total value RR is arranged in the pixel block 100R, and the left pixel total value BL and the total pixel value RR are arranged in the pixel block 100B. An image signal Spic1 in which the total pixel value pair 111B with the right pixel total value BR is arranged and the total pixel value pair 111Gb with the left pixel total value GbL and the right pixel total value GbR is arranged in the pixel block 100Gb is output.

なお、撮像モードMBでの同色画素加算処理は、撮像モードMCの場合に1つの単位ユニットUから読み出される36個の画素値Vを、16個の画素値に置き換えることで、上記説明から容易に想到することが可能であるため、ここでは詳細な説明を省略する。また、撮像モードMAでは、1つの単位ユニットUから読み出される画素値Vの数が4つである、すなわち、同色画素加算処理を実行することで得られる画像信号Spic1と同等の画像信号Spic0が画素アレイ部11から直接読み出されるため、同色画素加算処理はバイパスされてよい。 Note that the same-color pixel addition processing in the imaging mode MB can be easily performed from the above description by replacing the 36 pixel values V read from one unit unit U in the imaging mode MC with 16 pixel values. detailed description is omitted here. In imaging mode MA, the number of pixel values V read out from one unit unit U is four. Since the data is read out directly from the array unit 11, the same-color pixel addition processing may be bypassed.

1.3.3 HDRモードでの同色画素加算処理の具体例
次に、本実施形態に係る同色画素加算部171のHDRモードでの動作について、具体例を挙げて説明する。図18は、図2に示す画素アレイ11における受光素子Pの配置例から1つの単位ユニットUを抜粋した図である。図19~図26は、各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である。図27は、単位ユニットUから読み出された画素値に基づいて最終的に得られる低輝度画素及び高輝度画素それぞれの左画素合計値及び右画素合計値を示す図である。なお、本具体例では、受光画素Pの配列パターンがDecaOcta配列である場合を例示する。
1.3.3 Specific Example of Same-Color Pixel Addition Processing in HDR Mode Next, the operation in HDR mode of the same-color pixel adder 171 according to this embodiment will be described with a specific example. FIG. 18 is a diagram of one unit U extracted from the arrangement example of the light receiving elements P in the pixel array 11 shown in FIG. 19 to 26 are diagrams for explaining the same-color pixel addition process performed on the pixel values read out from each pixel block. FIG. 27 is a diagram showing left pixel total values and right pixel total values of low-luminance pixels and high-luminance pixels, respectively, which are finally obtained based on the pixel values read out from the unit U. FIG. In this specific example, the arrangement pattern of the light-receiving pixels P is the DecaOcta arrangement.

図18に示す例では、画素ブロック100Grにおいて、GrL1L~GrL3Lは低輝度画素PLの画素ペア90における左画素及び各左画素から読み出された画素値VGrを示し、GrR1L~GrR3Lは低輝度画素PLの画素ペア90における右画素及び各右画素から読み出された画素値VGrを示し、GrL1H~GrL2Hは高輝度画素PHの画素ペア90における左画素及び各左画素から読み出された画素値VGrを示し、GrR1H~GrR2Hは高輝度画素PHの画素ペア90における右画素及び各右画素から読み出された画素値VGrを示すものとする。 In the example shown in FIG. 18, in the pixel block 100Gr, GrL1L to GrL3L indicate the left pixel and the pixel value VGr read from each left pixel in the pixel pair 90 of the low-luminance pixel PL, and GrR1L to GrR3L indicate the low-luminance pixel PL. and GrL1H to GrL2H represent the pixel values VGr read from the left pixel and each left pixel in the pixel pair 90 of the high luminance pixel PH. and GrR1H to GrR2H denote the right pixel and the pixel value VGr read from each right pixel in the pixel pair 90 of the high luminance pixel PH.

同様に、画素ブロック100Rにおいて、RL1L~RL2Lは低輝度画素PLの画素ペア90における左画素及び各左画素から読み出された画素値VRを示し、RR1L~RR2Lは低輝度画素PLの画素ペア90における右画素及び各右画素から読み出された画素値VRを示し、RL1H~RL2Hは高輝度画素PHの画素ペア90における左画素及び各左画素から読み出された画素値VRを示すものとし、RR1H~RR2Hは高輝度画素PHの画素ペア90における右画素及び各右画素から読み出された画素値VRを示すものとする。 Similarly, in the pixel block 100R, RL1L to RL2L indicate the left pixel in the pixel pair 90 of the low-luminance pixel PL and the pixel value VR read from each left pixel, and RR1L to RR2L indicate the pixel pair 90 of the low-luminance pixel PL. , and RL1H to RL2H indicate the pixel values VR read from the left pixel and each left pixel in the pixel pair 90 of the high-brightness pixel PH, RR1H to RR2H denote the right pixel in the pixel pair 90 of the high luminance pixel PH and the pixel value VR read from each right pixel.

同様に、画素ブロック100Bにおいて、BL1L~BL2Lは低輝度画素PLの画素ペア90における左画素及び各左画素から読み出された画素値VBを示し、BR1L~BR2Lは低輝度画素PLの画素ペア90における右画素及び各右画素から読み出された画素値VBを示し、BL1H~BL2Hは高輝度画素PHの画素ペア90における左画素及び各左画素から読み出された画素値VBを示すものとし、BR1H~BR2Hは高輝度画素PHの画素ペア90における右画素及び各右画素から読み出された画素値VBを示すものとする。 Similarly, in the pixel block 100B, BL1L to BL2L indicate the left pixel in the pixel pair 90 of the low-luminance pixel PL and the pixel value VB read from each left pixel, and BR1L to BR2L indicate the pixel pair 90 of the low-luminance pixel PL. shows the pixel value VB read from the right pixel and each right pixel in , and BL1H to BL2H show the pixel value VB read from the left pixel and each left pixel in the pixel pair 90 of the high luminance pixel PH, BR1H to BR2H denote the right pixel in the pixel pair 90 of the high luminance pixel PH and the pixel value VB read from each right pixel.

同様に、画素ブロック100Gbにおいて、GbL1L~GbL3Lは低輝度画素PLの画素ペア90における左画素及び各左画素から読み出された画素値VGbを示し、GbR1L~GbR3Lは低輝度画素PLの画素ペア90における右画素及び各右画素から読み出された画素値VGbを示し、GbL1H~GbL2Hは高輝度画素PHの画素ペア90における左画素及び各左画素から読み出された画素値VGbを示し、GbR1H~GbR2Hは高輝度画素PHの画素ペア90における右画素及び各右画素から読み出された画素値VGbを示すものとする。 Similarly, in the pixel block 100Gb, GbL1L to GbL3L indicate the left pixel in the pixel pair 90 of the low-luminance pixel PL and the pixel value VGb read from each left pixel, and GbR1L to GbR3L indicate the pixel pair 90 of the low-luminance pixel PL. GbL1H to GbL2H indicate the pixel values VGb read from the right pixel and each right pixel in the pixel pair 90 of the high luminance pixel PH, and GbR1H to GbR2H indicates the pixel value VGb read from the right pixel and each right pixel in the pixel pair 90 of the high luminance pixel PH.

図19に示すように、同色画素加算部171は、画素ブロック100Grにおける高輝度画素PHから読み出された画素値VGrのうち、左画素Pから読み出された画素値GrL1H及びGrL2Hを加算することで、画素ブロック100Grにおける高輝度画素PHの左画素合計値GrLHを算出する。同様に、同色画素加算部171は、画素ブロック100Grにおける高輝度画素PHから読み出された画素値VGrのうち、右画素Pから読み出された画素値GrR1H及びGrR2Hを加算することで、画素ブロック100Grにおける高輝度画素PHの右画素合計値GrRHを算出する。 As shown in FIG. 19, the same-color pixel addition unit 171 adds the pixel values GrL1H and GrL2H read from the left pixel P among the pixel values VGr read from the high-brightness pixels PH in the pixel block 100Gr. , the left pixel total value GrLH of the high luminance pixels PH in the pixel block 100Gr is calculated. Similarly, the same-color pixel addition unit 171 adds the pixel values GrR1H and GrR2H read from the right pixel P, among the pixel values VGr read from the high-brightness pixels PH in the pixel block 100Gr, to obtain the pixel block 100Gr. The right pixel total value GrRH of the high luminance pixels PH in 100Gr is calculated.

また、図20に示すように、同色画素加算部171は、画素ブロック100Grにおける低輝度画素PLから読み出された画素値VGrのうち、左画素Pから読み出された画素値GrL1L、GrL2L及びGrL3Lを加算することで、画素ブロック100Grにおける低輝度画素PLの左画素合計値GrLLを算出する。同様に、同色画素加算部171は、画素ブロック100Grにおける低輝度画素PLから読み出された画素値VGrのうち、右画素Pから読み出された画素値GrR1L、GrR2L及びGrR3Lを加算することで、画素ブロック100Grにおける低輝度画素PLの右画素合計値GrRLを算出する。 Further, as shown in FIG. 20, the same-color pixel addition unit 171 adds the pixel values GrL1L, GrL2L, and GrL3L read from the left pixel P out of the pixel values VGr read from the low-luminance pixels PL in the pixel block 100Gr. is added to calculate the left pixel total value GrLL of the low luminance pixels PL in the pixel block 100Gr. Similarly, the same-color pixel addition unit 171 adds the pixel values GrR1L, GrR2L, and GrR3L read from the right pixel P among the pixel values VGr read from the low-luminance pixels PL in the pixel block 100Gr. A right pixel total value GrRL of the low luminance pixels PL in the pixel block 100Gr is calculated.

図21~図26に示すように、他の画素ブロック100R、100B、100Gbに対しても同様に、左画素Pのうちの高輝度画素PHから読み出された画素値RL1H~RL2H、BL1H~BL2H、又は、GbL1H~GbL2Hを加算することで、画素ブロック100R、100B、100Gbにおける高輝度画素PHの左画素合計値RLH、BLH、GbLHを算出し、右画素Pのうちの高輝度画素PHから読み出された画素値RR1H~RR2H、BR1H~BR2H、又は、GbR1H~GbR3Hを加算することで、画素ブロック100R、100B、100Gbにおける低輝度画素PLの右画素合計値RRH、BRH、GbRHを算出する(図21、図23、図25参照)。同様に、左画素Pのうちの低輝度画素PLから読み出された画素値RL1L~RL2L、BL1L~BL2L、又は、GbL1L~GbR3Lを加算することで、画素ブロック100R、100B、100Gbにおける低輝度画素PLの左画素合計値RLH、BLH、GbLHを算出し、右画素Pのうちの低輝度画素PLから読み出された画素値RR1L~RR2L、BR1L~BR2L、又は、GbR1L~GbR3Lを加算することで、画素ブロック100R、100B、100Gbにおける低輝度画素PLの右画素合計値RRL、BRL、GbRLを算出する(図22、図24、図26参照)。 As shown in FIGS. 21 to 26, pixel values RL1H to RL2H and BL1H to BL2H read from the high luminance pixels PH of the left pixels P are similarly applied to the other pixel blocks 100R, 100B, and 100Gb. Alternatively, by adding GbL1H to GbL2H, the left pixel total values RLH, BLH, and GbLH of the high-luminance pixels PH in the pixel blocks 100R, 100B, and 100Gb are calculated, and read from the high-luminance pixel PH of the right pixels P. By adding the output pixel values RR1H to RR2H, BR1H to BR2H, or GbR1H to GbR3H, the right pixel total values RRH, BRH, and GbRH of the low-luminance pixels PL in the pixel blocks 100R, 100B, and 100Gb are calculated ( 21, 23 and 25). Similarly, by adding the pixel values RL1L to RL2L, BL1L to BL2L, or GbL1L to GbR3L read from the low-luminance pixels PL of the left pixels P, the low-luminance pixels in the pixel blocks 100R, 100B, and 100Gb By calculating the left pixel total values RLH, BLH, and GbLH of PL and adding the pixel values RR1L to RR2L, BR1L to BR2L, or GbR1L to GbR3L read from the low-luminance pixels PL of the right pixels P , right pixel total values RRL, BRL, and GbRL of low-luminance pixels PL in pixel blocks 100R, 100B, and 100Gb (see FIGS. 22, 24, and 26).

その結果、図27に示すように、同色画素加算部171からは、単位ユニットUから読み出された画素値VGr、VR、VB、VGbに基づき、画素ブロック100Grに高輝度画素PHの左画素合計値GrLH及び右画素合計値GrRHの合計画素値ペア111GrHと、低輝度画素PLの左画素合計値GrLL及び右画素合計値GrRLの合計画素値ペア111GrLとが配置され、画素ブロック100Rに高輝度画素PHの左画素合計値RLH及び右画素合計値RRHの合計画素値ペア111RHと、低輝度画素PLの左画素合計値RLL及び右画素合計値RRLの合計画素値ペア111RLが配置され、画素ブロック100Bに高輝度画素PHの左画素合計値BLH及び右画素合計値BRHの合計画素値ペア111BHと、低輝度画素PLの左画素合計値BLL及び右画素合計値BRLとが配置され、画素ブロック100Gbに高輝度画素PHの左画素合計値GbLH及び右画素合計値GbRHとの合計画素値ペア111GbHと、低輝度画素PLの左画素合計値GbLL及び右画素合計値GbRLとの合計画素値ペア111GbLとが配置された画像信号Spic1が出力される。 As a result, as shown in FIG. 27, based on the pixel values VGr, VR, VB, and VGb read out from the unit unit U, the pixel block 100Gr from the same-color pixel adder 171 outputs the left pixel total of the high-brightness pixel PH. A total pixel value pair 111GrH of the value GrLH and the right pixel total value GrRH, and a total pixel value pair 111GrL of the left pixel total value GrLL and the right pixel total value GrRL of the low-luminance pixel PL are arranged, and the high-luminance pixels are arranged in the pixel block 100R. A total pixel value pair 111RH of left pixel total value RLH and right pixel total value RRH of PH and a total pixel value pair 111RL of left pixel total value RLL and right pixel total value RRL of low luminance pixel PL are arranged in the pixel block 100B. A total pixel value pair 111BH of left pixel total value BLH and right pixel total value BRH of high luminance pixel PH and left pixel total value BLL and right pixel total value BRL of low luminance pixel PL are arranged in pixel block 100Gb. A total pixel value pair 111GbH of the left pixel total value GbLH and the right pixel total value GbRH of the high-luminance pixel PH and a total pixel value pair 111GbL of the left pixel total value GbLL and the right pixel total value GbRL of the low-luminance pixel PL are Arranged image signal Spic1 is output.

なお、HDRモードでは、上述において説明したように、位相差情報生成部173は、単位ユニットUごとに、左画素のうちの低輝度画素PLの左低輝度情報を左画素合計値GrLL、RLL、BLL及びGbLLから算出し、右画素のうちの低輝度画素PLの右低輝度情報を右画素合計値GrRL、RRL、BRLおよびGbRLから算出し、左画素のうちの高輝度画素PHの左高輝度情報を左画素合計値GrLH、RLH、BLH及びGbLHから算出し、右画素のうちの高輝度画素PHの右高輝度情報を右画素合計値GrRH、RRH、BRH及びGbRHから算出する。そして、位相差情報生成部173は、算出された輝度情報に必要に応じて係数を乗算した値を加算することで、左輝度情報及び右輝度情報を生成し、生成された左輝度情報と右輝度情報との比や差分等を求めることで、位相差情報を生成する。 In the HDR mode, as described above, the phase difference information generating section 173 converts the left low-luminance information of the low-luminance pixel PL among the left pixels into the left pixel total values GrLL, RLL, The right low-luminance information of the low-luminance pixel PL of the right pixels is calculated from the right pixel total values GrRL, RRL, BRL and GbRL, and the left high-luminance information of the high-luminance pixel PH of the left pixels is calculated from BLL and GbLL. Information is calculated from the left pixel total values GrLH, RLH, BLH and GbLH, and the right high luminance information of the high luminance pixel PH among the right pixels is calculated from the right pixel total values GrRH, RRH, BRH and GbRH. Then, the phase difference information generation unit 173 generates left luminance information and right luminance information by adding a value obtained by multiplying the calculated luminance information by a coefficient as necessary, and generates left luminance information and right luminance information. Phase difference information is generated by obtaining a ratio, a difference, or the like with luminance information.

1.4 作用・効果
以上のように、本実施形態では、位相差データ生成部17に入力された画像信号Spic0が画素ブロック100R,100Gr,100Gb,100Bごとに左右一画素ずつ(左画素合計値及び右画素合計値に相当)の画像信号Spic1に変換される。それにより、画像信号Spic0の解像度(ビンニングの有無)に関係なく、言い換えれば、撮像装置1が実行中のモードに依存することなく、感度差補正部172に入力する画像信号Spic1の解像度を統一することが可能となるため、略全てのモードに対して本実施形態に係る感度差補正処理を適用することが可能になる。
1.4 Actions and Effects As described above, in the present embodiment, the image signal Spic0 input to the phase difference data generation unit 17 is generated by one pixel on the left and right (total value of left pixels) for each of the pixel blocks 100R, 100Gr, 100Gb, and 100B and right pixel total value) is converted into an image signal Spic1. Thereby, the resolution of the image signal Spic1 input to the sensitivity difference correction unit 172 is unified regardless of the resolution of the image signal Spic0 (with or without binning), in other words, regardless of the mode in which the imaging apparatus 1 is executing. Therefore, the sensitivity difference correction processing according to this embodiment can be applied to substantially all modes.

また、画像信号Spic0における各画素ブロック100R,100Gr,100Gb,100Bの画素数に依存することなく、感度差補正部172に入力する画像信号Spic1の解像度を画素ブロック100R,100Gr,100Gb,100Bを最小単位とする解像度まで低減することが可能となるため、感度差補正処理の並列チャネル数の削減による回路規模の削減と、感度差補正係数テーブルを記憶するメモリ175の容量削減とを実現することが可能となり、その結果、デバイスサイズの大型化を抑制することが可能となる。 In addition, the resolution of the image signal Spic1 input to the sensitivity difference correction unit 172 is set to the minimum pixel blocks 100R, 100Gr, 100Gb, and 100B, regardless of the number of pixels in each of the pixel blocks 100R, 100Gr, 100Gb, and 100B in the image signal Spic0. Since it is possible to reduce the resolution to a unit, it is possible to reduce the circuit scale by reducing the number of parallel channels for sensitivity difference correction processing and reduce the capacity of the memory 175 for storing the sensitivity difference correction coefficient table. As a result, it becomes possible to suppress an increase in device size.

さらに、入力される画像信号Spic0の画素配列に依存することなく、統一された解像度の画像信号Spic1を出力することが可能であるため、DecaOcta配列のように、各画素ブロック100R,100Gr,100Gb,100Bが正方形や長方形などの矩形でない画素配列パターンや、各画素ブロック100R,100Gr,100Gb,100Bを構成する画素数が統一されていない画素配列パターンなど、あらゆる画素配列パターンの撮像装置に対しても本実施形態を適用することが可能である。 Furthermore, since it is possible to output the image signal Spic1 with a uniform resolution without depending on the pixel arrangement of the input image signal Spic0, each pixel block 100R, 100Gr, 100Gb, Imaging devices with any pixel array pattern, such as non-rectangular pixel array patterns such as squares and rectangles for 100B, and pixel array patterns in which the number of pixels constituting each pixel block 100R, 100Gr, 100Gb, and 100B are not uniform. It is possible to apply this embodiment.

さらにまた、本実施形態では、複数段階のビンニングモードを備える場合だけでなく、通常のダイナミックレンジを使用するSDR(Standard Dynamic Range)モードとHDRモードとを切替え可能な場合でも、感度差補正処理に入力する画像信号Spic0の画素配列パターンを簡素な配列パターンに統一的に変換することが可能であるため、略全てのモードに対して本実施形態に係る軽量化された感度差補正処理を適用することが可能になるというメリットも得られる。 Furthermore, in this embodiment, not only when the binning mode is provided in a plurality of stages, but also when it is possible to switch between an SDR (Standard Dynamic Range) mode using a normal dynamic range and an HDR mode, sensitivity difference correction processing Since it is possible to uniformly convert the pixel arrangement pattern of the image signal Spic0 to be input to the Spic0 into a simple arrangement pattern, the lightened sensitivity difference correction processing according to this embodiment is applied to almost all modes. There is also the advantage of being able to

なお、本実施形態では、画素アレイ11における画素ペア90の全てがX方向に隣接する2つの受光画素Pで構成されている場合を例示したが、これに限定されず、画素アレイ11における画素ペア90の一部又は全てがY方向に隣接する2つの受光素子Pで構成されていてもよい。画素ペア90の全てをX方向に隣接する受光画素Pで構成した場合、水平方向の像面位相差に基づいたオートフォーカスが可能となり、画素ペア90の全てをY方向に隣接する受光画素Pで構成した場合、垂直方向の像面位相差に基づいたオートフォーカスが可能となり、画素ペア90の一部をX方向に隣接する受光画素Pで構成し、残りをY方向に隣接する受光画素Pで構成した場合、水平方向及び垂直方向の像面位相差に基づいたオートフォーカスが可能となる。 In this embodiment, the pixel pairs 90 in the pixel array 11 are all composed of two light-receiving pixels P adjacent to each other in the X direction. Part or all of 90 may be composed of two light receiving elements P adjacent to each other in the Y direction. When all the pixel pairs 90 are composed of the light receiving pixels P adjacent in the X direction, autofocusing based on the image plane phase difference in the horizontal direction becomes possible, and all the pixel pairs 90 are composed of the light receiving pixels P adjacent in the Y direction. When configured, autofocusing based on the vertical image plane phase difference is possible, and a part of the pixel pair 90 is composed of the light receiving pixels P adjacent in the X direction, and the rest is composed of the light receiving pixels P adjacent in the Y direction. When configured, autofocus based on horizontal and vertical image plane phase differences is possible.

1.5 変形例
上述した実施形態では、受光画素Pの配列パターンがDecaOcta配列である場合での同色画素加算処理の具体例を説明したが、上述にもあるように、受光画素Pの配列パターンはこれに限定されるものではない。そこで以下では、DecaOcta配列以外の配列パターンでの同色画素加算処理について、いくつか例を挙げて説明する。
1.5 Modifications In the above-described embodiment, a specific example of same-color pixel addition processing when the array pattern of the light-receiving pixels P is the DecaOcta array has been described. is not limited to this. In the following, therefore, several examples of same-color pixel addition processing in array patterns other than the DecaOcta array will be described.

1.5.1 第1の変形例
第1の変形例では、ユニットUを構成する画素ブロック100R,100Gr,100Gb,100Bそれぞれが4×4画素の計16つの受光画素Pから構成される、いわゆるQQBC配列である場合を例示する。
1.5.1 First Modification In the first modification, each of the pixel blocks 100R, 100Gr, 100Gb, and 100B constituting the unit U is composed of a total of 16 light-receiving pixels P of 4×4 pixels. A case of the QQBC arrangement is illustrated.

図28は、図2に示す画素アレイ11における受光素子Pの配置例から1つの単位ユニットUを抜粋した図である。図29~図32は、各画素ブロックから読み出された画素値に対して実行される同色画素加算処理を説明するための図である。図33は、単位ユニットUから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。なお、以下では、撮像モードが撮像モードMCである場合を例に挙げるが、撮像モードMBである場合も同様に適用可能である。 FIG. 28 is a diagram of one unit U extracted from the arrangement example of the light receiving elements P in the pixel array 11 shown in FIG. 29 to 32 are diagrams for explaining the same-color pixel addition process performed on the pixel values read out from each pixel block. FIG. 33 is a diagram showing the left pixel total value and the right pixel total value finally obtained based on the pixel values read out from the unit U. In FIG. In addition, although the case where the image pickup mode is the image pickup mode MC will be exemplified below, the case where the image pickup mode is the image pickup mode MB is similarly applicable.

図28に示すように、本変形例に係る単位ユニットUでは、画素ブロック100R,100Gr,100Gb,100Bそれぞれが、4×4画素で配列する計16つの受光画素Pを備える。このような配列パターンにおいて、1つのオンチップレンズ101は、2×2の行列状に配列する計4つの受光画素Pに跨って配置される。したがって、画素ブロック100R,100Gr,100Gb,100Bそれぞれには、2×2の行列状に配列する計4つのオンチップレンズ101が設けられる。 As shown in FIG. 28, in the unit unit U according to this modified example, each of the pixel blocks 100R, 100Gr, 100Gb, and 100B has a total of 16 light receiving pixels P arranged in 4×4 pixels. In such an array pattern, one on-chip lens 101 is arranged across a total of four light receiving pixels P arranged in a 2×2 matrix. Accordingly, each of the pixel blocks 100R, 100Gr, 100Gb, and 100B is provided with a total of four on-chip lenses 101 arranged in a 2×2 matrix.

このように、1つのオンチップレンズ101を共有する4つの受光画素Pのうち、行方向(X方向)に隣接する2つの受光画素Pは、水平方向の像面位相差の取得に使用可能な画素ペア90Xを構成する。一方、行方向(Y方向)に隣接する2つの受光画素Pは、垂直方向の像面位相差の取得に使用可能な画素ペア90Yを構成する。 In this way, of the four light receiving pixels P that share one on-chip lens 101, two light receiving pixels P that are adjacent in the row direction (X direction) can be used to acquire the image plane phase difference in the horizontal direction. Form a pixel pair 90X. On the other hand, two light-receiving pixels P that are adjacent in the row direction (Y direction) form a pixel pair 90Y that can be used to acquire the image plane phase difference in the vertical direction.

ここで、図29~図32に示すように、画素ブロック100Grにおいて、GrL1u、GrL1d、GrL2u、GrL2d、GrL3u、GrL3d、GrL4u及びGrL4dは画素ペア90Xにおける左画素及び各左画素から読み出された画素値VGrを示し、GrR1u、GrR1d、GrR2u、GrR2d、GrR3u、GrR3d、GrR4u及びGrR4dは画素ペア90Xにおける右画素及び各右画素から読み出された画素値VGrを示すものとする。また、これらのうち、GrL1u、GrR1u、GrL2u、GrR2u、GrL3u、GrR3u、GrL4u及びGrR4uは画素ペア90Yにおける上側の受光画素P(以下、上画素ともいう)及び各上画素から読み出された画素値VGrを示し、GrL1d、GrR1d、GrL2d、GrR2d、GrL3d、GrR3d、GrL4d及びGrR4dは画素ペア90Yにおける下側の受光画素P(以下、下画素ともいう)及び各下画素から読み出された画素値VGrを示すものとする。 Here, as shown in FIGS. 29 to 32, in the pixel block 100Gr, GrL1u, GrL1d, GrL2u, GrL2d, GrL3u, GrL3d, GrL4u and GrL4d are the left pixels in the pixel pair 90X and the pixels read from the respective left pixels. Let GrR1u, GrR1d, GrR2u, GrR2d, GrR3u, GrR3d, GrR4u and GrR4d denote the right pixel in pixel pair 90X and the pixel value VGr read from each right pixel. Among them, GrL1u, GrR1u, GrL2u, GrR2u, GrL3u, GrR3u, GrL4u, and GrR4u are the pixel values read from the upper light-receiving pixel P (hereinafter also referred to as the upper pixel) and each upper pixel in the pixel pair 90Y. GrL1d, GrR1d, GrL2d, GrR2d, GrR2d, GrL3d, GrR3d, GrL4d, and GrR4d are the pixel values VGr read from the lower light-receiving pixel P (hereinafter also referred to as the lower pixel) and each lower pixel in the pixel pair 90Y. shall indicate

同様に、画素ブロック100Rにおいて、RL1u、RL1d、RL2u、RL2d、RL3u、RL3d、RL4u及びRL4dは左画素及び各左画素から読み出された画素値VGrを示し、RR1u、RR1d、RR2u、RR2d、RR3u、RR3d、RR4u及びRR4dは右画素及び各右画素から読み出された画素値VGrを示し、RL1u、RR1u、RL2u、RR2u、RL3u、RR3u、RL4u及びRR4uは上画素及び各上画素から読み出された画素値VGrを示し、RL1d、RR1d、RL2d、RR2d、RL3d、RR3d、RL4d及びRR4dは下画素及び各下画素から読み出された画素値VGrを示すものとし、画素ブロック100Bにおいて、BL1u、BL1d、BL2u、BL2d、BL3u、BL3d、BL4u及びBL4dは左画素及び各左画素から読み出された画素値VGrを示し、BR1u、BR1d、BR2u、BR2d、BR3u、BR3d、BR4u及びBR4dは右画素及び各右画素から読み出された画素値VGrを示し、BL1u、BR1u、BL2u、BR2u、BL3u、BR3u、BL4u及びBR4uは上画素及び各上画素から読み出された画素値VGrを示し、BL1d、BR1d、BL2d、BR2d、BL3d、BR3d、BL4d及びBR4dは下画素及び各下画素から読み出された画素値VGrを示すものとし、画素ブロック100Gbにおいて、GbL1u、GbL1d、GbL2u、GbL2d、GbL3u、GbL3d、GbL4u及びGbL4dは左画素及び各左画素から読み出された画素値VGrを示し、GbR1u、GbR1d、GbR2u、GbR2d、GbR3u、GbR3d、GbR4u及びGbR4dは右画素及び各右画素から読み出された画素値VGrを示し、GbL1u、GbR1u、GbL2u、GbR2u、GbL3u、GbR3u、Gb及びGbR4uは上画素及び各上画素から読み出された画素値VGrを示し、GbL1d、GbR1d、GbL2d、GbR2d、GbL3d、GbR3d、GbL4d及びGbR4dは下画素及び各下画素から読み出された画素値VGrを示すものとする。 Similarly, in pixel block 100R, RL1u, RL1d, RL2u, RL2d, RL3u, RL3d, RL4u and RL4d denote left pixels and pixel values VGr read from each left pixel, and RR1u, RR1d, RR2u, RR2d, RR3u. , RR3d, RR4u and RR4d indicate pixel values VGr read from the right pixel and each right pixel, and RL1u, RR1u, RL2u, RR2u, RL3u, RR3u, RL4u and RR4u are read from the upper pixel and each upper pixel. RL1d, RR1d, RL2d, RR2d, RL3d, RR3d, RL4d, and RR4d denote the lower pixel and the pixel value VGr read from each lower pixel, and in the pixel block 100B, BL1u, BL1d , BL2u, BL2d, BL3u, BL3d, BL4u and BL4d indicate pixel values VGr read from the left pixel and each left pixel, and BR1u, BR1d, BR2u, BR2d, BR3u, BR3d, BR4u and BR4d indicate right pixel and each pixel value VGr. BL1u, BR1u, BL2u, BR2u, BL3u, BR3u, BL4u and BR4u indicate the pixel values VGr read from the upper pixels and the respective upper pixels, BL1d, BR1d, BL2d, BR2d, BL3d, BR3d, BL4d, and BR4d indicate the lower pixel and the pixel value VGr read from each lower pixel. GbL4d indicates the left pixel and the pixel value VGr read from each left pixel, and GbR1u, GbR1d, GbR2u, GbR2d, GbR3u, GbR3d, GbR4u and GbR4d indicate the right pixel and the pixel value VGr read from each right pixel. GbL1u, GbR1u, GbL2u, GbR2u, GbL3u, GbR3u, Gb and GbR4u indicate the pixel value VGr read from the upper pixel and each upper pixel, and GbL1d, GbR1d, GbL2d, GbR2d, GbL3d, GbR3d, GbL4d and GbR4d indicates the lower pixel and the pixel value VGr read from each lower pixel.

図29に示すように、同色画素加算部171は、画素ブロック100Grから読み出された画素値VGrのうち、左画素Pから読み出された画素値GrL1u、GrL1d、GrL2u、GrL2d、GrL3u、GrL3d、GrL4u及びGrL4dを加算することで、画素ブロック100Grの左画素合計値GrLを算出する。同様に、同色画素加算部171は、画素ブロック100Grから読み出された画素値VGrのうち、右画素Pから読み出された画素値GrR1u、GrR1d、GrR2u、GrR2d、GrR3u、GrR3d、GrR4u及びGrR4dを加算することで、画素ブロック100Grの右画素合計値GrRを算出する。 As shown in FIG. 29, the same-color pixel adding unit 171 adds the pixel values GrL1u, GrL1d, GrL2u, GrL2d, GrL3u, GrL3d, By adding GrL4u and GrL4d, the left pixel total value GrL of the pixel block 100Gr is calculated. Similarly, the same color pixel addition unit 171 adds the pixel values GrR1u, GrR1d, GrR2u, GrR2d, GrR3u, GrR3d, GrR4u and GrR4d read from the right pixel P among the pixel values VGr read from the pixel block 100Gr. By adding, the right pixel total value GrR of the pixel block 100Gr is calculated.

また、同色画素加算部171は、画素ブロック100Grから読み出された画素値VGrのうち、上画素Pから読み出された画素値GrL1u、GrR1u、GrL2u、GrR2u、GrL3u、GrR3u、GrL4u及びGrR4uを加算することで、画素ブロック100Grの上画素合計値Gruを算出する。同様に、同色画素加算部171は、画素ブロック100Grから読み出された画素値VGrのうち、下画素Pから読み出された画素値GrL1d、GrR1d、GrL2d、GrR2d、GrL3d、GrR3d、GrL4d及びGrR4dを加算することで、画素ブロック100Grの右画素合計値GrRを算出する。 Further, the same-color pixel addition unit 171 adds the pixel values GrL1u, GrR1u, GrL2u, GrR2u, GrL3u, GrR3u, GrL4u, and GrR4u read from the upper pixel P among the pixel values VGr read from the pixel block 100Gr. By doing so, the upper pixel total value Gru of the pixel block 100Gr is calculated. Similarly, the same-color pixel addition unit 171 adds the pixel values GrL1d, GrR1d, GrL2d, GrR2d, GrL3d, GrR3d, GrL4d, and GrR4d read from the lower pixel P among the pixel values VGr read from the pixel block 100Gr. By adding, the right pixel total value GrR of the pixel block 100Gr is calculated.

図30~図32に示すように、他の画素ブロック100R、100B、100Gbに対しても同様に、左画素Pから読み出された画素値RL1u~RL4u及びRL1d~RL4d、BL1u~BL4u及びBL1d~BL4d、又は、GbL1u~GbL4u及びGbL1d~GbL4dを加算することで、画素ブロック100R、100B、100Gbの左画素合計値RL、BL、GbLを算出し、右画素Pから読み出された画素値RR1u~RR4u及びRR1d~RR4d、BR1u~BR4u及びBR1d~BR4d、又は、GbR1u~GbR4u及びGbR1d~GbR4dを加算することで、画素ブロック100R、100B、100Gbの右画素合計値RR、BR、GbRを算出する。また、上画素Pから読み出された画素値RL1u~RL4u及びRR1u~RR4u、BL1u~BL4u及びBR1u~BR4u、又は、GbL1u~GbL4u及びGbR1u~GbR4uを加算することで、画素ブロック100R、100B、100Gbの上画素合計値Ru、Bu、Gbuを算出し、下画素Pから読み出された画素値RL1d~RL4d及びRR1d~RR4d、BL1d~BL4d及びBR1d~BR4d、又は、GbL1d~GbL4d及びGbR1d~GbR4dを加算することで、画素ブロック100R、100B、100Gbの下画素合計値Rd、Bd、Gbdを算出する。 As shown in FIGS. 30 to 32, pixel values RL1u to RL4u and RL1d to RL4d, BL1u to BL4u and BL1d to RL1u to RL4u and RL1d to RL4d read from the left pixel P are similarly applied to the other pixel blocks 100R, 100B, and 100Gb. By adding BL4d or GbL1u to GbL4u and GbL1d to GbL4d, the left pixel total values RL, BL, and GbL of the pixel blocks 100R, 100B, and 100Gb are calculated, and the pixel values RR1u to By adding RR4u and RR1d to RR4d, BR1u to BR4u and BR1d to BR4d, or GbR1u to GbR4u and GbR1d to GbR4d, right pixel total values RR, BR and GbR of pixel blocks 100R, 100B and 100Gb are calculated. By adding the pixel values RL1u to RL4u and RR1u to RR4u, BL1u to BL4u and BR1u to BR4u read from the upper pixels P, or GbL1u to GbL4u and GbR1u to GbR4u, the pixel blocks 100R, 100B and 100Gb are obtained. Calculate the upper pixel total values Ru, Bu, Gbu, and the pixel values RL1d to RL4d and RR1d to RR4d, BL1d to BL4d and BR1d to BR4d read from the lower pixels P, or GbL1d to GbL4d and GbR1d to GbR4d By adding, the lower pixel total values Rd, Bd, and Gbd of the pixel blocks 100R, 100B, and 100Gb are calculated.

その結果、図33に示すように、同色画素加算部171からは、単位ユニットUから読み出された画素値VGr、VR、VB、VGbに基づき、画素ブロック100Grに左画素合計値GrLと右画素合計値GrRとの合計画素値ペア111Grhが配置され、画素ブロック100Rに左画素合計値RLと右画素合計値RRとの合計画素値ペア111Rhが配置され、画素ブロック100Bに左画素合計値BLと右画素合計値BRとの合計画素値ペア111Bhが配置され、画素ブロック100Gbに左画素合計値GbLと右画素合計値GbRとの合計画素値ペア111Gbhが配置された画像信号Spic1hが出力されるとともに、画素ブロック100Grに上画素合計値Gruと下画素合計値Grdとの合計画素値ペア111Grvが配置され、画素ブロック100Rに上画素合計値Ruと下画素合計値Rdとの合計画素値ペア111Rvが配置され、画素ブロック100Bに上画素合計値Buと下画素合計値Bdとの合計画素値ペア111Bvが配置され、画素ブロック100Gbに上画素合計値Gbuと下画素合計値Gbdとの合計画素値ペア111Gbvが配置された画像信号Spic1vが出力される。 As a result, as shown in FIG. 33, based on the pixel values VGr, VR, VB, and VGb read out from the unit unit U, the same-color pixel adder 171 outputs the left pixel total value GrL and the right pixel total value GrL to the pixel block 100Gr. The total pixel value pair 111Grh with the total value GrR is arranged, the total pixel value pair 111Rh with the left pixel total value RL and the right pixel total value RR is arranged in the pixel block 100R, and the left pixel total value BL and the total pixel value RR are arranged in the pixel block 100B. An image signal Spic1h in which a total pixel value pair 111Bh of the right pixel total value BR is arranged and a total pixel value pair 111Gbh of the left pixel total value GbL and the right pixel total value GbR is arranged in the pixel block 100Gb is output. A total pixel value pair 111Grv of the upper pixel total value Gru and the lower pixel total value Grd is arranged in the pixel block 100Gr, and a total pixel value pair 111Rv of the upper pixel total value Ru and the lower pixel total value Rd is arranged in the pixel block 100R. A total pixel value pair 111Bv of the upper pixel total value Bu and the lower pixel total value Bd is arranged in the pixel block 100B, and a total pixel value pair 111Bv of the upper pixel total value Gbu and the lower pixel total value Gbd is arranged in the pixel block 100Gb. An image signal Spic1v in which 111Gbv is arranged is output.

1.5.2 第2の変形例
第2の変形例では、ユニットUを構成する画素ブロック100R,100Gr,100Gb,100Bそれぞれが3×3画素の計9つの受光画素Pから構成される画素配列である場合を例示する。なお、本変形例では、像面位相差検出用に加算される画素値が同色の受光画素Pから読み出された画素値ではないため、以下の説明では、「同色画素加算」を単に「画素加算」と読み替えるものとする。
1.5.2 Second Modification In the second modification, each of the pixel blocks 100R, 100Gr, 100Gb, and 100B that make up the unit U is a pixel array composed of a total of nine light-receiving pixels P of 3×3 pixels. A case is exemplified. In this modified example, the pixel values added for detecting the image plane phase difference are not the pixel values read from the light receiving pixels P of the same color. shall be read as "addition".

図34は、図2に示す画素アレイ11における受光素子Pの配置例から1つの単位ユニットUを抜粋した図である。図35は、単位ユニットUから像面位相差検出用に読み出された画素値に対して実行される同色画素加算処理を説明するための図である。図36は、単位ユニットUから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。 FIG. 34 is a diagram of one unit U extracted from the arrangement example of the light receiving elements P in the pixel array 11 shown in FIG. 35A and 35B are diagrams for explaining the same-color pixel addition process performed on the pixel values read from the unit U for image plane phase difference detection. FIG. 36 is a diagram showing the left pixel total value and the right pixel total value finally obtained based on the pixel values read out from the unit U. In FIG.

図34に示すように、本変形例に係る単位ユニットUでは、画素ブロック100R,100Gr,100Gb,100Bそれぞれが、3×3画素で配列する計9つの受光画素Pを備える。また、本変形例では、このような配列パターンにおいて、単位ユニットUにおける中央下側に位置する2×2画素の計4つの受光画素Pが、像面位相差検出用の受光画素(以下、像面検出画素ともいう)として用いられる。具体的には、画素ブロック100Bの右下に位置する2つの受光画素PB1及びPB2と、画素ブロック100Gbの左下に位置し、受光画素PB1及びPB2それぞれに隣接する2つの受光画素PGb1及びPGb2とが、像面検出画素として使用される。したがって、本変形例では、受光画素PB1及びPGb1が1つのオンチップレンズ101を共有する画素ペア90-1を構成し、受光画素PB2及びPGb2が1つのオンチップレンズ101を共有する画素ペア90-2を構成する。 As shown in FIG. 34, in the unit unit U according to this modified example, each of the pixel blocks 100R, 100Gr, 100Gb, and 100B has a total of nine light-receiving pixels P arranged in 3×3 pixels. Further, in this modification, in such an arrangement pattern, a total of four light-receiving pixels P of 2×2 pixels located at the center lower side of the unit unit U are light-receiving pixels for image plane phase difference detection (hereinafter referred to as image plane phase difference detection pixels). (also called surface detection pixels). Specifically, two light-receiving pixels PB1 and PB2 positioned at the lower right of the pixel block 100B and two light-receiving pixels PGb1 and PGb2 positioned at the lower left of the pixel block 100Gb and adjacent to the light-receiving pixels PB1 and PB2, respectively. , are used as image plane detection pixels. Therefore, in this modification, the light-receiving pixels PB1 and PGb1 form a pixel pair 90-1 sharing one on-chip lens 101, and the light-receiving pixels PB2 and PGb2 form a pixel pair 90-1 sharing one on-chip lens 101. 2.

図35に示すように、同色画素加算部171は、左画素である受光画素PB1及びPB2から読み出された画素値BL1及びBL2を加算することで左画素合計値BLを算出し、右画素である受光画素PGb1及びPGb2から読み出された画素値GbR1及びGbR2を加算することで右画素合計値GrRを算出する。 As shown in FIG. 35, the same-color pixel addition unit 171 calculates the left pixel total value BL by adding the pixel values BL1 and BL2 read from the light-receiving pixels PB1 and PB2 that are the left pixels. The right pixel total value GrR is calculated by adding the pixel values GbR1 and GbR2 read from certain light receiving pixels PGb1 and PGb2.

その結果、図36に示すように、同色画素加算部171からは、各単位ユニットUが左画素合計値GrLと右画素合計値GrRとの合計画素値ペア310で構成された画像信号Spic1が出力される。 As a result, as shown in FIG. 36, the same color pixel adder 171 outputs an image signal Spic1 in which each unit U is composed of a total pixel value pair 310 of the left pixel total value GrL and the right pixel total value GrR. be done.

なお、本変形例では、メモリ175に、受光画素PB1及びPB2と受光画素Gb1及びGb2との受光感度の差を考慮した感度差補正係数テーブルが記憶されてよい。それにより、受光画素PB1及びPB2と受光画素Gb1及びGb2とで受光感度に差がある場合でも、これらから読み出された画素値に基づいて位相差情報を生成することが可能となる。 In this modification, the memory 175 may store a sensitivity difference correction coefficient table that considers the difference in light sensitivity between the light-receiving pixels PB1 and PB2 and the light-receiving pixels Gb1 and Gb2. As a result, even if there is a difference in light sensitivity between the light receiving pixels PB1 and PB2 and the light receiving pixels Gb1 and Gb2, phase difference information can be generated based on the pixel values read out from these pixels.

1.5.3 第3の変形例
第3の変形例では、画素アレイ11の画素配列パターンが第1の実施形態で例示したDecaOcta配列である場合であって、単位ユニットUから読み出された画素値の一部を用いて像面位相差を検出する場合を例示する。
1.5.3 Third Modification In the third modification, the pixel arrangement pattern of the pixel array 11 is the DecaOcta arrangement exemplified in the first embodiment, and the A case of detecting an image plane phase difference using a part of pixel values will be exemplified.

図37は、単位ユニットUから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。 FIG. 37 is a diagram showing the left pixel total value and right pixel total value finally obtained based on the pixel values read out from the unit U. In FIG.

図37に示すように、本変形例では、同色画素加算部171は、単位ユニットUに含まれる画素ブロック100R,100Gr,100Gb,100Bのうちの1つ(本例では、画素ブロック100Gb)から読み出された画素値(本例では、画素値GbL1~GbL5及びGbR1~GbR5)を用いて左画素合計値GbL及び右画素合計値GbRを算出し、これらによる合計画素値ペア410を単位ユニットUごとの合計画素値ペアとする画像信号Spic1を出力する。 As shown in FIG. 37, in this modification, the same-color pixel adder 171 reads from one of the pixel blocks 100R, 100Gr, 100Gb, and 100B included in the unit unit U (the pixel block 100Gb in this example). Using the output pixel values (pixel values GbL1 to GbL5 and GbR1 to GbR5 in this example), a left pixel total value GbL and a right pixel total value GbR are calculated, and a total pixel value pair 410 based on these is calculated for each unit unit U. , and outputs an image signal Spic1 having a total pixel value pair of .

なお、本変形例では、像面位相差の検出に用いられる画素ブロックを画素ブロック100Gbとした場合を例示したが、これに限定されず、他の画素ブロック100R、100Gr、100Bのいずれであってもよい。また、本変形例では、全ての受光画素Pが隣接画素と画素ペア90を構成する場合を例示したが、これに限定されず、像面位相差の検出に用いられない受光画素Pには、隣接画素に跨らない個別のオンチップレンズ101が設けられてもよい。 In this modified example, the pixel block 100Gb is used as the pixel block used for detecting the image plane phase difference. good too. Further, in this modification, the case where all the light-receiving pixels P constitute the pixel pair 90 with the adjacent pixels is illustrated, but the present invention is not limited to this, and the light-receiving pixels P not used for detecting the image plane phase difference are A separate on-chip lens 101 that does not span adjacent pixels may be provided.

1.5.4 第4の変形例
第4の変形例では、第3の変形例において更に絞り込まれた画素値を用いて像面位相差を検出する場合を例示する。
1.5.4 Fourth Modification In a fourth modification, a case of detecting an image plane phase difference using pixel values further narrowed down in the third modification will be described.

図38は、単位ユニットUから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。 FIG. 38 is a diagram showing the left pixel total value and the right pixel total value finally obtained based on the pixel values read out from the unit U. In FIG.

図38に示すように、本変形例では、単位ユニットUに含まれる画素ブロック100R,100Gr,100Gb,100Bのうちの1つ(本例では、画素ブロック100Gb)に含まれる1つの画素ペア90から読み出された画素値(本例では、画素値GbL1及びGbR1)が、そのまま左画素合計値GbL1及び右画素合計値GbR1として用いられる。その場合、同色画素加算部171における同色画素加算処理はバイパスされてよい。すなわち、同色画素加算部171は、入力された画像信号Spic0からターゲットとされている画素ペア90の画素値(GbL1及びGbR1)を抽出し、これらによる合計画素値ペア510を単位ユニットUごとの合計画素値ペアとする画像信号Spic1を出力してよい。 As shown in FIG. 38, in this modification, from one pixel pair 90 included in one of pixel blocks 100R, 100Gr, 100Gb, and 100B included in the unit unit U (pixel block 100Gb in this example), The read pixel values (pixel values GbL1 and GbR1 in this example) are used as they are as the left pixel total value GbL1 and the right pixel total value GbR1. In that case, the same-color pixel addition processing in the same-color pixel addition unit 171 may be bypassed. That is, the same-color pixel adder 171 extracts the pixel values (GbL1 and GbR1) of the target pixel pair 90 from the input image signal Spic0, and sums the total pixel value pair 510 for each unit U. An image signal Spic1 may be output as pixel value pairs.

なお、本変形例では、像面位相差の検出に用いられる画素ペア90を画素ブロック100Gbにおける1つの画素ペア90とした場合を例示したが、これに限定されず、画素ブロック100R,100Gr,100Gb,100Bにおける任意の1以上の画素ペア90が像面位相差の検出に用いられる画素ペア90とされてもよい。また、本変形例では、全ての受光画素Pが隣接画素と画素ペア90を構成する場合を例示したが、これに限定されず、像面位相差の検出に用いられない受光画素Pには、隣接画素に跨らない個別のオンチップレンズ101が設けられてもよい。 In this modified example, the pixel pair 90 used for detecting the image plane phase difference is exemplified as one pixel pair 90 in the pixel block 100Gb. , 100B may be the pixel pairs 90 used for detecting the image plane phase difference. Further, in this modification, the case where all the light-receiving pixels P constitute the pixel pair 90 with the adjacent pixels is illustrated, but the present invention is not limited to this, and the light-receiving pixels P not used for detecting the image plane phase difference are A separate on-chip lens 101 that does not span adjacent pixels may be provided.

1.5.5 第5の変形例
第5の変形例では、第3の変形例と同様に、画素アレイ11の画素配列パターンが第1の実施形態で例示したDecaOcta配列である場合を例示する。ただし、本変形例では、撮像装置1がHDRモードで動作する場合を例示する。
1.5.5 Fifth Modification In the fifth modification, as in the third modification, the pixel arrangement pattern of the pixel array 11 is the DecaOcta arrangement illustrated in the first embodiment. . However, in this modified example, a case where the imaging device 1 operates in the HDR mode is illustrated.

図39は、単位ユニットUから読み出された画素値に基づいて最終的に得られる左画素合計値と右画素合計値とを示す図である。 FIG. 39 is a diagram showing the left pixel total value and the right pixel total value finally obtained based on the pixel values read out from the unit unit U. FIG.

図39に示すように、本変形例では、単位ユニットUに含まれる画素ブロック100R,100Gr,100Gb,100Bのうちの1つ(本例では、画素ブロック100Gb)が像面位相差検出用の画素ブロックとして用いられる。 As shown in FIG. 39, in this modification, one of the pixel blocks 100R, 100Gr, 100Gb, and 100B included in the unit unit U (in this example, the pixel block 100Gb) is a pixel for image plane phase difference detection. Used as a block.

ここで、図39に示す例では、画素ブロック100Gbにおいて、GbL1L~GbL3Lは低輝度画素PLの画素ペア90における左画素及び各左画素から読み出された画素値VGbを示し、GbR1L~GbR3Lは低輝度画素PLの画素ペア90における右画素及び各右画素から読み出された画素値VGbを示し、GbL1H~GbL2Hは高輝度画素PHの画素ペア90における左画素及び各左画素から読み出された画素値VGbを示し、GbR1H~GbR2Hは高輝度画素PHの画素ペア90における右画素及び各右画素から読み出された画素値VGbを示している。 Here, in the example shown in FIG. 39, in the pixel block 100Gb, GbL1L to GbL3L indicate the left pixel and the pixel value VGb read from each left pixel in the pixel pair 90 of the low luminance pixel PL, and GbR1L to GbR3L indicate the low luminance pixel value VGb. The pixel values VGb read from the right pixel and each right pixel in the pixel pair 90 of the luminance pixel PL are shown, and GbL1H to GbL2H are the left pixel and pixels read from each left pixel in the pixel pair 90 of the high luminance pixel PH. GbR1H to GbR2H indicate the right pixel and the pixel value VGb read from each right pixel in the pixel pair 90 of the high luminance pixel PH.

そこで、本変形例では、同色画素加算部171は、画素ブロック100Gbにおける高輝度画素PHから読み出された画素値VGbのうち、左画素Pから読み出された画素値GbL1H及びGrL2Hを加算することで、画素ブロック100Gbにおける高輝度画素PHの左画素合計値GbLHを算出する。同様に、同色画素加算部171は、画素ブロック100Gbにおける高輝度画素PHから読み出された画素値VGbのうち、右画素Pから読み出された画素値GbR1H及びGbR2Hを加算することで、画素ブロック100Gbにおける高輝度画素PHの右画素合計値GbRHを算出する。 Therefore, in this modification, the same-color pixel addition unit 171 adds the pixel values GbL1H and GrL2H read from the left pixel P among the pixel values VGb read from the high-brightness pixels PH in the pixel block 100Gb. , the left pixel total value GbLH of the high luminance pixels PH in the pixel block 100Gb is calculated. Similarly, the same-color pixel addition unit 171 adds the pixel values GbR1H and GbR2H read from the right pixel P among the pixel values VGb read from the high-brightness pixels PH in the pixel block 100Gb, thereby A right pixel total value GbRH of the high luminance pixel PH at 100 Gb is calculated.

また、同色画素加算部171は、画素ブロック100Gbにおける低輝度画素PLから読み出された画素値VGbのうち、左画素Pから読み出された画素値GbL1L、GbL2L及びGbL3Lを加算することで、画素ブロック100Gbにおける低輝度画素PLの左画素合計値GbLLを算出する。同様に、同色画素加算部171は、画素ブロック100Gbにおける低輝度画素PLから読み出された画素値VGbのうち、右画素Pから読み出された画素値GbR1L、GbR2L及びGbR3Lを加算することで、画素ブロック100Gbにおける低輝度画素PLの右画素合計値GbRLを算出する。 Further, the same-color pixel addition unit 171 adds the pixel values GbL1L, GbL2L, and GbL3L read from the left pixel P among the pixel values VGb read from the low-luminance pixels PL in the pixel block 100Gb. A left pixel total value GbLL of the low-luminance pixels PL in the block 100Gb is calculated. Similarly, the same-color pixel addition unit 171 adds the pixel values GbR1L, GbR2L, and GbR3L read from the right pixel P among the pixel values VGb read from the low-luminance pixels PL in the pixel block 100Gb. A right pixel total value GbRL of the low luminance pixels PL in the pixel block 100Gb is calculated.

そして、同色画素加算部171は、高輝度画素PHの左画素合計値GbLH及び右画素合計値GbRHよりなる合計画素値ペア111Hと、低輝度画素PLの左画素合計値GbLL及び右画素合計値GbRLよりなる合計画素値ペア111Lとを単位ユニットUごとの合計画素値ペア610とする画像信号Spic1を出力する。 Then, the same-color pixel addition unit 171 adds a total pixel value pair 111H including the left pixel total value GbLH and the right pixel total value GbRH of the high-luminance pixel PH, and the left pixel total value GbLL and the right pixel total value GbRL of the low-luminance pixel PL. An image signal Spic1 having a total pixel value pair 111L and a total pixel value pair 610 for each unit unit U is output.

なお、本変形例では、像面位相差の検出に用いられる画素ブロックを画素ブロック100Gbとした場合を例示したが、これに限定されず、他の画素ブロック100R、100Gr、100Bのいずれであってもよい。また、本変形例では、全ての受光画素Pが隣接画素と画素ペア90を構成する場合を例示したが、これに限定されず、像面位相差の検出に用いられない受光画素Pには、隣接画素に跨らない個別のオンチップレンズ101が設けられてもよい。 In this modified example, the pixel block 100Gb is used as the pixel block used for detecting the image plane phase difference. good too. Further, in this modification, the case where all the light-receiving pixels P constitute the pixel pair 90 with the adjacent pixels is illustrated, but the present invention is not limited to this, and the light-receiving pixels P not used for detecting the image plane phase difference are A separate on-chip lens 101 that does not span adjacent pixels may be provided.

2.第2の実施形態
次に、本開示の第2の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それらを引用することで、重複する説明を省略する。
2. Second Embodiment Next, a solid-state imaging device and an electronic device according to a second embodiment of the present disclosure will be described in detail with reference to the drawings. Note that, in the following description, the configurations, operations, and effects that are the same as those of the above-described embodiment will be referred to to omit overlapping descriptions.

上述した第1の実施形態では、図2に示したように、1つの単位ユニットUが、10個の受光画素Pを含む画素ブロック100Gr,100Gbと、8個の受光画素Pを含む画素ブロック100R,100Bとから構成される場合を例示したが、これに限定されるものではない。 In the first embodiment described above, as shown in FIG. 2, one unit unit U includes pixel blocks 100Gr and 100Gb each including ten light-receiving pixels P and a pixel block 100R including eight light-receiving pixels P. , 100B, but it is not limited to this.

2.1 構成例
図40は、本実施形態に係る撮像装置2の一構成例を表すものである。撮像装置2は、画素アレイ31と、駆動部32と、信号処理部35とを備えている。
2.1 Configuration Example FIG. 40 shows a configuration example of the imaging device 2 according to this embodiment. The imaging device 2 includes a pixel array 31 , a driving section 32 and a signal processing section 35 .

図41は、画素アレイ31における受光画素Pの配置の一例を表すものである。画素アレイ31は、複数の画素ブロック300と、複数のレンズ101とを有している。 FIG. 41 shows an example of arrangement of the light receiving pixels P in the pixel array 31. As shown in FIG. The pixel array 31 has multiple pixel blocks 300 and multiple lenses 101 .

複数の画素ブロック300は、画素ブロック300R,300Gr,300Gb,300Bを含んでいる。画素アレイ31では、複数の受光画素Pは、4つの画素ブロック300(画素ブロック300R,300Gr,300Gb,300B)を単位(ユニットU)として配置される。 The plurality of pixel blocks 300 includes pixel blocks 300R, 300Gr, 300Gb and 300B. In the pixel array 31, a plurality of light-receiving pixels P are arranged in units (units U) of four pixel blocks 300 (pixel blocks 300R, 300Gr, 300Gb, and 300B).

画素ブロック300Rは、赤色(R)のカラーフィルタ55を含む8個の受光画素P(受光画素PR)を有し、画素ブロック300Grは、緑色(G)のカラーフィルタ55を含む8個の受光画素P(受光画素PGr)を有し、画素ブロック300Gbは、緑色(G)のカラーフィルタ55を含む10個の受光画素P(受光画素PGb)を有し、画素ブロック300Bは、青色(B)のカラーフィルタ55を含む8個の受光画素P(受光画素PB)を有する。画素ブロック300Rにおける受光画素PRの配置パターン、画素ブロック300Grにおける受光画素PGrの配置パターン、画素ブロック300Gbにおける受光画素PGbの配置パターン、および画素ブロック300Bにおける受光画素PBの配置パターンは、互いに同じである。ユニットUにおいて、画素ブロック300Grは左上に配置され、画素ブロック300Rは右上に配置され、画素ブロック300Bは左下に配置され、画素ブロック300Gbは右下に配置される。このように、画素ブロック300R,300Gr,300Gb,300Bは、画素ブロック300を単位として、いわゆるベイヤー配列により配列される。 The pixel block 300R has eight light-receiving pixels P (light-receiving pixels PR) including red (R) color filters 55, and the pixel block 300Gr has eight light-receiving pixels including green (G) color filters 55. The pixel block 300Gb has 10 light-receiving pixels P (light-receiving pixels PGb) including green (G) color filters 55, and the pixel block 300B has blue (B) color filters. It has eight light-receiving pixels P (light-receiving pixels PB) including color filters 55 . The arrangement pattern of the light-receiving pixels PR in the pixel block 300R, the arrangement pattern of the light-receiving pixels PGr in the pixel block 300Gr, the arrangement pattern of the light-receiving pixels PGb in the pixel block 300Gb, and the arrangement pattern of the light-receiving pixels PB in the pixel block 300B are the same. . In the unit U, the pixel block 300Gr is located at the upper left, the pixel block 300R is located at the upper right, the pixel block 300B is located at the lower left, and the pixel block 300Gb is located at the lower right. In this manner, the pixel blocks 300R, 300Gr, 300Gb, and 300B are arranged in a so-called Bayer arrangement with the pixel block 300 as a unit.

画素アレイ31では、複数の受光画素Pは、斜め方向に並設される。すなわち、上述の第1の実施形態に係る画素アレイ11(図2)では、複数の受光画素Pは、X方向およびY方向に並設されるようにしたが、画素アレイ31(図41)では、複数の受光画素Pは、斜め方向に並設される。これにより、画素ペア90における2つの受光画素Pもまた、斜め方向に並設される。レンズ101は、この画素ペア90の上部に設けられる。なお、本説明においては、左上がりの斜め方向を斜め方向と称し、斜め方向とは垂直な方向を逆斜め方向と称する。また、本説明では、左斜め上に位置する受光画素Pを左画素とも称し、右斜め下に位置する受光画素Pを右画素とも称する。 In the pixel array 31, a plurality of light-receiving pixels P are arranged side by side in an oblique direction. That is, in the pixel array 11 (FIG. 2) according to the first embodiment described above, the plurality of light receiving pixels P are arranged side by side in the X direction and the Y direction, but in the pixel array 31 (FIG. 41) , a plurality of light-receiving pixels P are arranged in parallel in an oblique direction. As a result, the two light receiving pixels P in the pixel pair 90 are also arranged side by side in an oblique direction. A lens 101 is provided above the pixel pair 90 . In this description, an oblique direction upward to the left is called an oblique direction, and a direction perpendicular to the oblique direction is called a reverse oblique direction. Further, in this description, the light-receiving pixel P positioned diagonally to the upper left is also referred to as a left pixel, and the light-receiving pixel P positioned diagonally to the right is also referred to as a right pixel.

画素ブロック300(画素ブロック300R,300Gr,300Gb,300B)の構成は、上述の第1の実施形態に係る画素ブロック100R(図5)と同様であり、8個のフォトダイオードPDと、8個のトランジスタTRGと、フローティングディフュージョンFDと、トランジスタRST,AMP,SELとを有している。8個のフォトダイオードPDおよび8個のトランジスタTRGは、その画素ブロック300に含まれる8個の受光画素Pにそれぞれ対応している。 The configuration of the pixel block 300 (pixel blocks 300R, 300Gr, 300Gb, 300B) is the same as the pixel block 100R (FIG. 5) according to the above-described first embodiment, and includes eight photodiodes PD and eight photodiodes PD. It has a transistor TRG, a floating diffusion FD, and transistors RST, AMP, and SEL. Eight photodiodes PD and eight transistors TRG correspond to eight light-receiving pixels P included in the pixel block 300, respectively.

図42は、画素ブロック300R,300Gr,300Gb,300Bの配線例を表すものである。なお、図42では、説明の便宜上、複数の画素ブロック300を互いに離して描いている。 FIG. 42 shows a wiring example of the pixel blocks 300R, 300Gr, 300Gb and 300B. In addition, in FIG. 42, the plurality of pixel blocks 300 are drawn apart from each other for convenience of explanation.

画素アレイ31は、上述の第1の実施形態に係る画素アレイ11と同様に、複数の制御線TRGLと、複数の制御線RSTLと、複数の制御線SELLと、複数の信号線VSLとを有している。制御線TRGLは、X方向に延伸し、一端が駆動部32に接続される。制御線RSTLは、X方向に延伸し、一端が駆動部32に接続される。制御線SELLは、X方向に延伸し、一端が駆動部32に接続される。信号線VSLは、Y方向に延伸し、一端が読出部20に接続される。 The pixel array 31 has a plurality of control lines TRGL, a plurality of control lines RSTL, a plurality of control lines SELL, and a plurality of signal lines VSL, like the pixel array 11 according to the first embodiment described above. are doing. The control line TRGL extends in the X direction and has one end connected to the driving section 32 . The control line RSTL extends in the X direction and has one end connected to the driving section 32 . The control line SELL extends in the X direction and has one end connected to the driving section 32 . The signal line VSL extends in the Y direction and has one end connected to the readout section 20 .

X方向に並ぶ、同じ行に属する画素ブロック300Gr,画素ブロック300Rは、同じ8本の制御線TRGLに接続される。また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック300Gr,300Rは、1つの制御線RSTL、および1つの制御線SELLに接続される。また、Y方向に並ぶ、同じ列に属する画素ブロック300Grは、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック300Rは、1つの信号線VSLに接続される。 The pixel block 300Gr and the pixel block 300R belonging to the same row and arranged in the X direction are connected to the same eight control lines TRGL. Although not shown, the pixel blocks 300Gr and 300R belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL. Pixel blocks 300Gr belonging to the same column and arranged in the Y direction are connected to one signal line VSL. Similarly, pixel blocks 300R belonging to the same column arranged in the Y direction are connected to one signal line VSL.

同様に、X方向に並ぶ、同じ行に属する画素ブロック300B,300Gbは、同じ8本の制御線TRGLに接続される。また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック300B,300Gbは、1つの制御線RSTL、および1つの制御線SELLに接続される。また、Y方向に並ぶ、同じ列に属する画素ブロック300Bは、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック300Gbは、1つの信号線VSLに接続される。 Similarly, the pixel blocks 300B and 300Gb belonging to the same row and arranged in the X direction are connected to the same eight control lines TRGL. Although not shown, the pixel blocks 300B and 300Gb belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL. Pixel blocks 300B belonging to the same column and arranged in the Y direction are connected to one signal line VSL. Similarly, the pixel blocks 300Gb belonging to the same column arranged in the Y direction are connected to one signal line VSL.

これにより、画素アレイ31では、上述の第1の実施形態に係る画素アレイ11よりも、例えば、制御線TRGLの線密度を低減することができる。具体的には、上述の第1の実施形態に係る画素アレイ11(図2,図6)では、制御線TRGLの線密度は、受光画素Pの一辺分の長さあたり4本である。一方、本実施形態に係る画素アレイ31(図41,図42)では、制御線TRGLの線密度は、受光画素Pの一辺分の長さあたり2.83本(=2√2)である。これにより、画素アレイ31では、例えば、制御線TRGLの配線をしやすくすることができ、あるいは、受光画素Pのピッチを小さくすることにより解像度を高めることができる。 Thereby, in the pixel array 31, for example, the line density of the control lines TRGL can be reduced more than the pixel array 11 according to the first embodiment described above. Specifically, in the pixel array 11 (FIGS. 2 and 6) according to the first embodiment described above, the line density of the control lines TRGL is four per side of the light receiving pixel P. As shown in FIG. On the other hand, in the pixel array 31 (FIGS. 41 and 42) according to the present embodiment, the line density of the control lines TRGL is 2.83 per side of the light receiving pixel P (=2√2). As a result, in the pixel array 31, for example, wiring of the control lines TRGL can be facilitated, or resolution can be enhanced by reducing the pitch of the light receiving pixels P. FIG.

駆動部32(図40)は、撮像制御部18からの指示に基づいて、画素アレイ31における複数の受光画素Pを駆動するように構成される。信号処理部35は、画像信号Spic0および撮像制御部18からの指示に基づいて、所定の信号処理を行うことにより画像信号Spicを生成するように構成される。信号処理部35は、画像データ生成部36と、位相差データ生成部37とを有している。位相差データ生成部37は、例えば、第1の実施形態において図11を用いて説明した位相差データ生成部17と同様の構成を備えていてよい。 The drive unit 32 ( FIG. 40 ) is configured to drive the plurality of light receiving pixels P in the pixel array 31 based on instructions from the imaging control unit 18 . The signal processing unit 35 is configured to perform predetermined signal processing based on the image signal Spic0 and an instruction from the imaging control unit 18 to generate the image signal Spic. The signal processor 35 has an image data generator 36 and a phase difference data generator 37 . The phase difference data generation section 37 may have, for example, the same configuration as the phase difference data generation section 17 described with reference to FIG. 11 in the first embodiment.

撮像装置2は、例えば、ズーム倍率が2未満である場合には1つ目の撮像モードMを選択し、ズーム倍率が2以上2√2未満である場合には2つ目の撮像モードMを選択し、ズーム倍率が2√2以上である場合には3つ目の撮像モードMを選択することができる。 For example, the imaging device 2 selects the first imaging mode M when the zoom magnification is less than 2, and selects the second imaging mode M when the zoom magnification is 2 or more and less than 2√2. If the zoom magnification is 2√2 or more, the third imaging mode M can be selected.

このように、撮像装置2において、受光画素Pを図41に示したように配置することにより、絶縁層53において光Lが反射する場合でも、受光画素PGrにおける受光量と、受光画素PGbにおける受光量とに差が生じて可能性を低減することができる。 In this way, by arranging the light receiving pixels P as shown in FIG. It is possible to reduce the possibility that there will be a difference between the amount and the amount.

すなわち、図43に示したように、この場合でも、緑色に係る受光画素PGrが、緑色の光だけでなく赤色の光LRも検出し、緑色に係る受光画素PGbが、緑色の光だけでなく青色の光LBも検出することがあり得る。しかしながら、画素ブロック300Grの配置位置および画素ブロック300Gbの配置位置は、画素ブロック300Rを基準として対称であり、同様に画素ブロック300Bを基準として対称である。よって、例えば、画素ブロック300Rから画素ブロック300Grへ漏れる赤色の光LRの光量は、画素ブロック300Rから画素ブロック300Gbへ漏れる赤色の光LRの光量とほぼ同じである。同様に、例えば、画素ブロック300Bから画素ブロック300Grへ漏れる青色の光LBの光量は、画素ブロック300Bから画素ブロック300Gbへ漏れる青色の光LBの光量とほぼ同じである。よって、例えば、赤色の光LRの光強度および青色の光LBの光強度のバランスに応じて、受光画素PGrにおける受光量と、受光画素PGbにおける受光量に差が生じる可能性を低減することができる。 That is, as shown in FIG. 43, even in this case, the light-receiving pixel PGr associated with green detects not only green light but also red light LR, and the light-receiving pixel PGb associated with green detects not only green light but also red light LR. Blue light LB may also be detected. However, the arrangement position of the pixel block 300Gr and the arrangement position of the pixel block 300Gb are symmetrical with respect to the pixel block 300R and similarly with respect to the pixel block 300B. Therefore, for example, the amount of red light LR leaking from the pixel block 300R to the pixel block 300Gr is substantially the same as the amount of red light LR leaking from the pixel block 300R to the pixel block 300Gb. Similarly, for example, the amount of blue light LB leaking from the pixel block 300B to the pixel block 300Gr is substantially the same as the amount of blue light LB leaking from the pixel block 300B to the pixel block 300Gb. Therefore, for example, depending on the balance between the light intensity of the red light LR and the light intensity of the blue light LB, it is possible to reduce the possibility of a difference occurring between the amount of light received by the light-receiving pixel PGr and the amount of light received by the light-receiving pixel PGb. can.

2.2 作用・効果
以上のような構成の画素アレイ31を備える撮像装置2においても、第1の実施形態と同様に、位相差データ生成部37に入力された画像信号Spic0が画素ブロック300R,300Gr,300Gb,300Bごとに左右一画素ずつ(左画素合計値及び右画素合計値に相当)の画像信号Spic1に変換される。それにより、画像信号Spic0の解像度(ビンニングの有無)に関係なく、言い換えれば、撮像装置2が実行中のモードに依存することなく、感度差補正部172に入力する画像信号Spic1の解像度を統一することが可能となるため、略全てのモードに対して本実施形態に係る感度差補正処理を適用することが可能になる。
2.2 Functions and Effects In the imaging device 2 including the pixel array 31 configured as described above, as in the first embodiment, the image signal Spic0 input to the phase difference data generation unit 37 is generated in the pixel blocks 300R, 300R, and 300R. Each of 300Gr, 300Gb, and 300B is converted into an image signal Spic1 of one left and right pixel (corresponding to the left pixel total value and right pixel total value). As a result, the resolution of the image signal Spic1 input to the sensitivity difference correction unit 172 is unified regardless of the resolution of the image signal Spic0 (whether or not there is binning), in other words, regardless of the mode being executed by the imaging device 2. Therefore, the sensitivity difference correction processing according to this embodiment can be applied to substantially all modes.

また、画像信号Spic0における各画素ブロック300R,300Gr,300Gb,300Bの画素数に依存することなく、感度差補正部172に入力する画像信号Spic1の解像度を画素ブロック300R,300Gr,300Gb,300Bを最小単位とする解像度まで低減することが可能となるため、感度差補正処理の並列チャネル数の削減による回路規模の削減と、感度差補正係数テーブルを記憶するメモリ175の容量削減とを実現することが可能となり、その結果、デバイスサイズの大型化を抑制することが可能となる。 In addition, the resolution of the image signal Spic1 input to the sensitivity difference correction unit 172 is set to the minimum pixel blocks 300R, 300Gr, 300Gb, and 300B, regardless of the number of pixels in each of the pixel blocks 300R, 300Gr, 300Gb, and 300B in the image signal Spic0. Since it is possible to reduce the resolution to a unit, it is possible to reduce the circuit scale by reducing the number of parallel channels for sensitivity difference correction processing and reduce the capacity of the memory 175 for storing the sensitivity difference correction coefficient table. As a result, it becomes possible to suppress an increase in device size.

さらに、入力される画像信号Spic0の画素配列に依存することなく、統一された解像度の画像信号Spic1を出力することが可能であるため、DecaOcta配列のように、各画素ブロック300R,300Gr,300Gb,300Bが正方形や長方形などの矩形でない画素配列パターンや、各画素ブロック300R,300Gr,300Gb,300Bを構成する画素数が統一されていない画素配列パターンなど、あらゆる画素配列パターンの撮像装置に対しても本実施形態を適用することが可能である。 Furthermore, since it is possible to output the image signal Spic1 with a uniform resolution without depending on the pixel arrangement of the input image signal Spic0, each pixel block 300R, 300Gr, 300Gb, It is also applicable to imaging devices with any pixel array pattern, such as a non-rectangular pixel array pattern such as a square or rectangular pixel block 300B, or a pixel array pattern in which the number of pixels constituting each pixel block 300R, 300Gr, 300Gb, and 300B is not uniform. It is possible to apply this embodiment.

さらにまた、本実施形態では、複数段階のビンニングモードを備える場合だけでなく、通常のダイナミックレンジを使用するSDR(Standard Dynamic Range)モードとHDRモードとを切替え可能な場合でも、感度差補正処理に入力する画像信号Spic0の画素配列パターンを簡素な配列パターンに統一的に変換することが可能であるため、略全てのモードに対して本実施形態に係る軽量化された感度差補正処理を適用することが可能になるというメリットも得られる。 Furthermore, in this embodiment, not only when the binning mode is provided in a plurality of stages, but also when it is possible to switch between an SDR (Standard Dynamic Range) mode using a normal dynamic range and an HDR mode, sensitivity difference correction processing Since it is possible to uniformly convert the pixel arrangement pattern of the image signal Spic0 to be input to the Spic0 into a simple arrangement pattern, the lightened sensitivity difference correction processing according to this embodiment is applied to almost all modes. There is also the advantage of being able to

なお、本実施形態では、画素アレイ31における画素ペア90の全てが斜め方向に隣接する2つの受光画素Pで構成されている場合を例示したが、これに限定されず、画素アレイ31における画素ペア90の一部又は全てが逆斜め方向に隣接する2つの受光素子Pで構成されていてもよい。画素ペア90の全てを斜め方向に隣接する受光画素Pで構成した場合、斜め方向の像面位相差に基づいたオートフォーカスが可能となり、画素ペア90の全てを逆斜め方向に隣接する受光画素Pで構成した場合、逆斜め方向の像面位相差に基づいたオートフォーカスが可能となり、画素ペア90の一部を斜め方向に隣接する受光画素Pで構成し、残りを逆斜め方向に隣接する受光画素Pで構成した場合、斜め方向及び逆斜め方向の像面位相差に基づいたオートフォーカスが可能となる。 In the present embodiment, the pixel pairs 90 in the pixel array 31 are all composed of two light-receiving pixels P that are adjacent in the diagonal direction. A part or the whole of 90 may be composed of two light receiving elements P adjacent to each other in the opposite oblique direction. When all the pixel pairs 90 are composed of the light receiving pixels P adjacent in the diagonal direction, autofocus based on the image plane phase difference in the diagonal direction is possible, and all the pixel pairs 90 are composed of the light receiving pixels P adjacent in the opposite diagonal direction. , autofocus based on the image plane phase difference in the opposite oblique direction is possible, and a part of the pixel pair 90 is composed of the light receiving pixels P adjacent in the oblique direction, and the rest is composed of the light receiving pixels P adjacent in the opposite oblique direction. When configured with pixels P, autofocus based on image plane phase differences in oblique and reverse oblique directions is possible.

その他の構成、動作及び効果は、上述した実施形態又はその変形例と同様であってよいため、ここでは詳細な説明を省略する。 Other configurations, operations, and effects may be the same as those of the above-described embodiment or modifications thereof, and detailed descriptions thereof are omitted here.

2.3 変形例
上述した第2の実施形態では、4つの画素ブロック300(画素ブロック300R,300Gr,300Gb,300B)を単位(ユニットU)として配置したが、これに限定されるものではない。以下に、8つの画素ブロックを単位として配置する例を挙げて、詳細に説明する。本実施形態に係る撮像装置2Aは、撮像装置2(図40)と同様に、画素アレイ31Aと、駆動部32Aと、信号処理部35Aとを備えている。
2.3 Modifications In the above-described second embodiment, four pixel blocks 300 (pixel blocks 300R, 300Gr, 300Gb, and 300B) are arranged as a unit (unit U), but the present invention is not limited to this. A detailed description will be given below with an example of arranging eight pixel blocks as a unit. An imaging device 2A according to the present embodiment includes a pixel array 31A, a driving section 32A, and a signal processing section 35A, like the imaging device 2 (FIG. 40).

図44は、画素アレイ31Aにおける受光画素Pの配置の一例を表すものである。画素アレイ31Aは、複数の画素ブロック300と、複数のレンズ101とを有している。 FIG. 44 shows an example of arrangement of the light receiving pixels P in the pixel array 31A. The pixel array 31A has multiple pixel blocks 300 and multiple lenses 101 .

画素アレイ31Aは、画素アレイ31(図41)と同様に、複数の画素ブロック300と、複数のレンズ101とを有している。 The pixel array 31A has a plurality of pixel blocks 300 and a plurality of lenses 101, like the pixel array 31 (FIG. 41).

複数の画素ブロック300は、画素ブロック300R1,300R2,300Gr1,300Gr2,300Gb1,300Gb2,300B1,300B2を含んでいる。画素ブロック300(画素ブロック300R1,300R2,300Gr1,300Gr2,300Gb1,300Gb2,300B1,300B2)は、4つの受光画素Pを有している。具体的には、画素ブロック300R1,300R2のそれぞれは、4つの受光画素PRを有し、画素ブロック300Gr1,300Gr2のそれぞれは、4つの受光画素PGrを有し、画素ブロック300Gb1,300Gb2のそれぞれは、4つの受光画素PGbを有し、画素ブロック300B1,300B2のそれぞれは、4つの受光画素PBを有する。画素ブロック300は、4個のフォトダイオードPDと、4個のトランジスタTRGと、フローティングディフュージョンFDと、トランジスタRST,AMP,SELとを有している。4個のフォトダイオードPDおよび4個のトランジスタTRGは、その画素ブロック300に含まれる4個の受光画素Pにそれぞれ対応している。 The plurality of pixel blocks 300 includes pixel blocks 300R1, 300R2, 300Gr1, 300Gr2, 300Gb1, 300Gb2, 300B1 and 300B2. The pixel block 300 (pixel blocks 300R1, 300R2, 300Gr1, 300Gr2, 300Gb1, 300Gb2, 300B1, 300B2) has four light receiving pixels P. As shown in FIG. Specifically, each of the pixel blocks 300R1 and 300R2 has four light-receiving pixels PR, each of the pixel blocks 300Gr1 and 300Gr2 has four light-receiving pixels PGr, and each of the pixel blocks 300Gb1 and 300Gb2 has: It has four light receiving pixels PGb, and each of the pixel blocks 300B1 and 300B2 has four light receiving pixels PB. The pixel block 300 has four photodiodes PD, four transistors TRG, a floating diffusion FD, and transistors RST, AMP, and SEL. Four photodiodes PD and four transistors TRG correspond to four light receiving pixels P included in the pixel block 300, respectively.

図45は、画素ブロック300R1,300R2,300Gr1,300Gr2,300Gb1,300Gb2,300B1,300B2の配線例を表すものである。なお、図44では、説明の便宜上、複数の画素ブロック300を互いに離して描いている。 FIG. 45 shows a wiring example of the pixel blocks 300R1, 300R2, 300Gr1, 300Gr2, 300Gb1, 300Gb2, 300B1 and 300B2. In addition, in FIG. 44, the plurality of pixel blocks 300 are drawn apart from each other for convenience of explanation.

X方向に並ぶ、同じ行に属する画素ブロック300Gr1,300Gr2,300R1,300R2は、同じ4本の制御線TRGLに接続される。また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック300Gr1,300Gr2,300R1,300R2は、1つの制御線RSTL、および1つの制御線SELLに接続される。また、Y方向に並ぶ、同じ列に属する画素ブロック300Gr1は、1つの信号線VSLに接続され、Y方向に並ぶ、同じ列に属する画素ブロック300Gr2は、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック300R1は、1つの信号線VSLに接続され、Y方向に並ぶ、同じ列に属する画素ブロック300R2は、1つの信号線VSLに接続される。 The pixel blocks 300Gr1, 300Gr2, 300R1, 300R2 belonging to the same row arranged in the X direction are connected to the same four control lines TRGL. Although not shown, the pixel blocks 300Gr1, 300Gr2, 300R1, 300R2 belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL. Pixel blocks 300Gr1 belonging to the same column aligned in the Y direction are connected to one signal line VSL, and pixel blocks 300Gr2 belonging to the same column aligned in the Y direction are connected to one signal line VSL. Similarly, the pixel blocks 300R1 belonging to the same column arranged in the Y direction are connected to one signal line VSL, and the pixel blocks 300R2 belonging to the same column arranged in the Y direction are connected to one signal line VSL.

同様に、X方向に並ぶ、同じ行に属する画素ブロック300B1,300B2,300Gb1,300Gb2は、同じ4本の制御線TRGLに接続される。また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック300B1,300B2,300Gb1,300Gb2は、1つの制御線RSTL、および1つの制御線SELLに接続される。また、Y方向に並ぶ、同じ列に属する画素ブロック300B1は、1つの信号線VSLに接続され、Y方向に並ぶ、同じ列に属する画素ブロック300B2は、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック300Gb1は、1つの信号線VSLに接続され、Y方向に並ぶ、同じ列に属する画素ブロック300Gb2は、1つの信号線VSLに接続される。 Similarly, pixel blocks 300B1, 300B2, 300Gb1, and 300Gb2 belonging to the same row and arranged in the X direction are connected to the same four control lines TRGL. Although not shown, the pixel blocks 300B1, 300B2, 300Gb1 and 300Gb2 belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL. Pixel blocks 300B1 belonging to the same column aligned in the Y direction are connected to one signal line VSL, and pixel blocks 300B2 belonging to the same column aligned in the Y direction are connected to one signal line VSL. Similarly, the pixel blocks 300Gb1 belonging to the same column arranged in the Y direction are connected to one signal line VSL, and the pixel blocks 300Gb2 belonging to the same column arranged in the Y direction are connected to one signal line VSL.

これにより、画素アレイ31Aでは、上記変形例に係る画素アレイ31よりも、例えば、制御線TRGLの線密度を低減することができる。具体的には、この画素アレイ31Aでは、制御線TRGLの線密度は、受光画素Pの一辺分の長さあたり1.41本(=√2)である。これにより、画素アレイ31Aでは、例えば、制御線TRGLの配線をしやすくすることができ、あるいは、受光画素Pのピッチを小さくすることができる。 Thereby, in the pixel array 31A, for example, the line density of the control lines TRGL can be reduced more than in the pixel array 31 according to the modification. Specifically, in the pixel array 31A, the line density of the control lines TRGL is 1.41 per side of the light receiving pixel P (=√2). Accordingly, in the pixel array 31A, for example, wiring of the control lines TRGL can be facilitated, or the pitch of the light receiving pixels P can be reduced.

駆動部32Aは、撮像制御部18からの指示に基づいて、画素アレイ31における複数の受光画素Pを駆動するように構成される。信号処理部35Aは、画像信号Spic0および撮像制御部18からの指示に基づいて、所定の信号処理を行うことにより画像信号Spicを生成するように構成される。信号処理部35Aは、画像データ生成部36Aと、位相差データ生成部37Aとを有している。位相差データ生成部37Aは、例えば、第1の実施形態において図11を用いて説明した位相差データ生成部17と同様の構成を備えていてよい。 The driving section 32A is configured to drive the plurality of light receiving pixels P in the pixel array 31 based on instructions from the imaging control section 18 . The signal processing unit 35A is configured to generate the image signal Spic by performing predetermined signal processing based on the image signal Spic0 and an instruction from the imaging control unit 18 . The signal processor 35A has an image data generator 36A and a phase difference data generator 37A. The phase difference data generator 37A may have, for example, the same configuration as the phase difference data generator 17 described with reference to FIG. 11 in the first embodiment.

以上の例では、画素ペア90における2つの受光画素Pを斜め方向に並設したが、これに限定されるものではなく、これに代えて、例えば、画素ペア90における2つの受光画素PをX方向に並設してもよい。 In the above example, the two light-receiving pixels P in the pixel pair 90 are arranged side by side in an oblique direction, but the present invention is not limited to this. You may arrange side by side in a direction.

3.撮像装置の使用例
図46は、上述の実施形態に係る撮像装置1及び2の使用例(電子機器の例)を表すものである。上述した撮像装置1及び2は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
3. Usage Example of Imaging Apparatus FIG. 46 shows a usage example (an example of an electronic device) of the imaging apparatuses 1 and 2 according to the above-described embodiments. The imaging devices 1 and 2 described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows.

・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビジョンや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
・Devices that capture images for viewing purposes, such as digital cameras and mobile devices with camera functions Devices used for transportation, such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles. Devices used in home appliances such as televisions, refrigerators, air conditioners, etc., endoscopes, and devices that perform angiography by receiving infrared light to capture images and operate devices according to gestures. Devices used for medical and health care, such as equipment used for security purposes such as monitoring cameras for crime prevention and cameras used for personal authentication, skin measuring instruments for photographing the skin, scalp Equipment used for beauty, such as a microscope for photographing Equipment used for sports, such as action cameras and wearable cameras for sports, etc. Cameras for monitoring the condition of fields and crops, etc. of agricultural equipment

4.移動体への応用例
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
4. Application Examples to Mobile Objects The technology according to the present disclosure (this technology) can be applied to various products. For example, the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may

図47は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 FIG. 47 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.

車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図47に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。 Vehicle control system 12000 comprises a plurality of electronic control units connected via communication network 12001 . In the example shown in FIG. 47 , vehicle control system 12000 includes drive system control unit 12010 , body system control unit 12020 , vehicle exterior information detection unit 12030 , vehicle interior information detection unit 12040 , and integrated control unit 12050 . Also, as the functional configuration of the integrated control unit 12050, a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.

駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。 Drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs. For example, the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.

ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。 Body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs. For example, the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps. In this case, the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches. The body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.

車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。 External information detection unit 12030 detects information external to the vehicle in which vehicle control system 12000 is mounted. For example, the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 . The vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image. The vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.

撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。 The imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light. The imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information. Also, the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.

車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。 The vehicle interior information detection unit 12040 detects vehicle interior information. The in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver. The driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.

マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。 The microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit. A control command can be output to 12010 . For example, the microcomputer 12051 realizes functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of

また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 In addition, the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.

また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。 Further, the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle. For example, the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.

音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図47の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。 The audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle. In the example of FIG. 47, an audio speaker 12061, a display unit 12062 and an instrument panel 12063 are illustrated as output devices. The display unit 12062 may include at least one of an on-board display and a head-up display, for example.

図48は、撮像部12031の設置位置の例を示す図である。 FIG. 48 is a diagram showing an example of the installation position of the imaging unit 12031. As shown in FIG.

図48では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。 In FIG. 48 , vehicle 12100 has imaging units 12101 , 12102 , 12103 , 12104 , and 12105 as imaging unit 12031 .

撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。 The imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example. An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 . Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 . An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 . Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.

なお、図48には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。 Note that FIG. 48 shows an example of the imaging range of the imaging units 12101 to 12104 . The imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose, the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively, and the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.

撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。 At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information. For example, at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。 For example, based on the distance information obtained from the imaging units 12101 to 12104, the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.

例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。 For example, based on the distance information obtained from the imaging units 12101 to 12104, the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.

撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。 At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays. For example, the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 . Such recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. This is done by a procedure that determines When the microcomputer 12051 determines that a pedestrian exists in the images captured by the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.

以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。車両に搭載される撮像装置では、撮像画像の画質を高めることができる。その結果、車両制御システム12000では、車両の衝突回避あるいは衝突緩和機能、車間距離に基づく追従走行機能、車速維持走行機能、車両の衝突警告機能、車両のレーン逸脱警告機能等を、高い精度で実現できる。 An example of a vehicle control system to which the technology according to the present disclosure can be applied has been described above. The technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above. An imaging device mounted on a vehicle can improve the image quality of a captured image. As a result, the vehicle control system 12000 realizes a vehicle collision avoidance or collision mitigation function, a follow-up driving function based on the distance between vehicles, a vehicle speed maintenance driving function, a vehicle collision warning function, a vehicle lane deviation warning function, etc. with high accuracy. can.

以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。 Although the embodiments of the present disclosure have been described above, the technical scope of the present disclosure is not limited to the embodiments described above, and various modifications are possible without departing from the gist of the present disclosure. Moreover, you may combine the component over different embodiment and modifications suitably.

また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。 Further, the effects of each embodiment described in this specification are merely examples and are not limited, and other effects may be provided.

なお、本技術は以下のような構成も取ることができる。
(1)
複数の受光画素を備える画素アレイと、
前記受光画素それぞれから読み出された画素値よりなる画像信号を生成する読出部と、
前記読出部から出力された前記画像信号を処理する信号処理部と、
を備え、
前記画素アレイは、1つのオンチップレンズを共有する少なくとも2つの受光画素よりなる複数の画素ペアを含み、
前記信号処理部は、
前記複数の画素ペアのうちの少なくとも2つの画素ペアそれぞれにおける第1受光画素から読み出された画素値を加算するとともに、前記画素ペアそれぞれにおける前記第1受光画素とは異なる第2受光画素から読み出された画素値を加算する第1加算処理を実行する加算部と、
前記第1加算処理後の前記画像信号に含まれる複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の像面位相差に関する情報を生成する生成部と、
を備える撮像装置。
(2)
前記複数の受光画素は、第1の波長成分の光を受光する受光画素と、前記第1の波長成分の光とは異なる第2の波長成分の光を受光する受光画素とを含み、
前記加算部は、同じ波長成分の光を受光する前記受光画素から読み出された前記画素値を加算する
前記(1)に記載の撮像装置。
(3)
前記生成部は、前記第1加算処理後の前記画像信号に含まれる複数の画素値を前記複数の受光画素の感度差に基づいて補正する補正部を含む
前記(1)又は(2)に記載の撮像装置。
(4)
前記複数の受光画素は、行列状に配列し、
前記少なくとも2つの画素ペアのうちの少なくとも1つは、行方向に隣接する前記第1受光画素及び前記第2受光画素よりなる
前記(1)~(3)の何れか1つに記載の撮像装置。
(5)
前記複数の受光画素は、行列状に配列し、
前記少なくとも2つの画素ペアのうちの少なくとも1つは、列方向に隣接する前記第1受光画素及び前記第2受光画素よりなる
前記(1)~(4)の何れか1つに記載の撮像装置。
(6)
前記複数の受光画素は、行列状に配列し、
前記オンチップレンズそれぞれは、2×2に配列する4つの前記受光素子で共有され、
前記少なくとも2つの画素ペアは、前記1つのオンチップレンズを共有する前記4つの受光素子のうち、行方向に隣接する前記第1受光画素及び前記第2受光画素よりなる第1画素ペアと、列方向に隣接する第3受光画素及び第4受光画素よりなる第2画素ペアとを含み、
前記加算部は、前記第1画素ペアそれぞれにおける前記第1受光画素から読み出された前記画素値を加算するとともに、前記第1画素ペアそれぞれにおける前記第2受光画素から読み出された前記画素値を加算する前記第1加算処理に加え、前記第2画素ペアそれぞれにおける前記第3受光画素から読み出された画素値を加算するとともに、前記第2画素ペアそれぞれにおける前記第4受光画素から読み出された画素値を加算する第2加算処理をさらに実行し、
前記生成部は、前記第1加算処理後の前記画像信号に含まれる前記複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の前記像面位相差に関する情報を生成するとともに、前記第2加算処理後の画像信号に含まれる前記複数の画素値に基づいて前記第3受光画素及び前記第4受光画素間の像面位相差に関する情報を生成する
前記(1)~(3)の何れか1つに記載の撮像装置。
(7)
前記複数の受光画素は、第1のダイナミックレンジの感度で動作する受光画素と、前記第1のダイナミックレンジよりも広い第2のダイナミックレンジの感度で動作する受光画素とを含み、
前記少なくとも2つの画素ペアは、前記第1のダイナミックレンジの感度で動作する前記第1受光画素及び前記第2受光画素よりなる第3画素ペアと、前記第2のダイナミックレンジの感度で動作する前記第1受光画素及び前記第2受光画素よりなる第4画素ペアとを含み、
前記第1加算処理は、前記第3画素ペアそれぞれにおける前記第1受光画素から読み出された前記画素値を加算するとともに、前記第3画素ペアそれぞれにおける前記第2受光画素から読み出された前記画素値を加算する第3加算処理と、前記第4画素ペアそれぞれにおける前記第1受光画素から読み出された画素値を加算するとともに、前記第4画素ペアそれぞれにおける前記第2受光画素から読み出された画素値を加算する第4加算処理とを含み、
前記生成部は、前記第3加算処理で算出された第1合計画素値と、前記第4加算処理で算出された第2合計画素値とを合成し、合成後の前記画像信号に含まれる前記複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の前記像面位相差に関する情報を生成する
前記(1)~(6)の何れか1つに記載の撮像装置。
(8)
前記複数の受光画素は、それぞれ2以上の受光画素を含む複数の画素ブロックにグループ化され、
前記加算部は、同一の画素ブロックにおける前記第1受光画素の前記画素値及び前記第2受光画素の前記画素値をそれぞれ加算する
前記(1)~(7)の何れか1つに記載の撮像装置。
(9)
前記複数の画素ブロックのうちの少なくとも1つは、2以上の前記画素ペアを含み、
前記読出部は、前記少なくとも1つの画素ブロックに含まれる前記2以上の画素ペアにおける前記第1受光画素から1又は2以上の画素値を読み出すとともに、当該2以上の画素ペアにおける前記第2受光画素から1又は2以上の画素値を読み出し、
前記加算部は、前記画素ブロックごとに、前記2以上の画素ペアにおける前記第1受光画素から読み出された前記1又は2以上の画素値を加算するとともに、前記2以上の画素ペアにおける前記第2受光画素から読み出された前記1又は2以上の画素値を加算する前記第1加算処理を実行する
前記(8)に記載の撮像装置。
(10)
前記画素アレイは、それぞれ2以上の前記画素ブロックで構成された、繰返しの単位である複数の単位ユニットを備え、
前記画素ブロックそれぞれは、同じ波長帯の光を受光する前記2以上の受光画素で構成され、
前記単位ユニットそれぞれにおける少なくとも2つの画素ブロックは、当該画素ブロック間で異なる波長帯の光を受光する前記2以上の受光画素で構成される
前記(8)又は(9)に記載の撮像装置。
(11)
前記単位ユニットそれぞれは、10つの前記受光画素よりなる2つの前記画素ブロックと、8つの受光画素よりなる2つの前記画素ブロックとから構成される
前記(10)に記載の撮像装置。
(12)
前記単位ユニットそれぞれは、それぞれ4×4に配列する16つの前記受光画素よりなる4つの前記画素ブロックから構成される
前記(10)に記載の撮像装置。
(13)
前記単位ユニットそれぞれは、それぞれ3×3に配列する9つの前記受光画素よりなる4つの前記画素ブロックから構成される
前記(10)に記載の撮像装置。
(14)
前記加算部は、前記複数の画素ブロックのうちの少なくとも1つの画素ブロックにおける前記第1受光画素から読み出された前記画素値を加算するとともに、当該少なくとも1つの画素ブロックにおける前記第2受光画素から読み出された前記画素値を加算する第1加算処理を実行する
前記(8)~(13)の何れか1つに記載の撮像装置。
(15)
前記画素アレイに対して行方向に延在して前記複数の受光画素に接続される複数の制御線をさらに備え、
前記複数の受光画素は、前記制御線それぞれの延在方向に対して傾いた斜め方向に行列状に配列し、
前記画素ペアは、前記斜め方向に隣接する前記少なくとも2つの受光画素よりなる
前記(1)~(14)の何れか1つに記載の撮像装置。
(16)
前記(1)~(15)の何れか1つに記載の撮像装置を備える電子機器。
Note that the present technology can also take the following configuration.
(1)
a pixel array comprising a plurality of light receiving pixels;
a reading unit that generates an image signal composed of pixel values read from each of the light-receiving pixels;
a signal processing unit that processes the image signal output from the reading unit;
with
The pixel array includes a plurality of pixel pairs consisting of at least two light receiving pixels sharing one on-chip lens,
The signal processing unit is
adding pixel values read from first light-receiving pixels in each of at least two pixel pairs among the plurality of pixel pairs, and reading from second light-receiving pixels different from the first light-receiving pixels in each of the pixel pairs; an addition unit that performs a first addition process for adding the output pixel values;
a generation unit that generates information about an image plane phase difference between the first light receiving pixel and the second light receiving pixel based on a plurality of pixel values included in the image signal after the first addition processing;
An imaging device comprising:
(2)
The plurality of light-receiving pixels include light-receiving pixels that receive light of a first wavelength component and light-receiving pixels that receive light of a second wavelength component different from the light of the first wavelength component,
The imaging device according to (1), wherein the adding section adds the pixel values read from the light receiving pixels that receive light of the same wavelength component.
(3)
The generating unit includes a correcting unit that corrects a plurality of pixel values included in the image signal after the first addition processing based on a sensitivity difference between the plurality of light receiving pixels. imaging device.
(4)
The plurality of light receiving pixels are arranged in a matrix,
The imaging device according to any one of (1) to (3), wherein at least one of the at least two pixel pairs includes the first light-receiving pixel and the second light-receiving pixel that are adjacent in the row direction. .
(5)
The plurality of light receiving pixels are arranged in a matrix,
The imaging device according to any one of (1) to (4), wherein at least one of the at least two pixel pairs includes the first light-receiving pixel and the second light-receiving pixel that are adjacent in the column direction. .
(6)
The plurality of light receiving pixels are arranged in a matrix,
Each of the on-chip lenses is shared by the four light receiving elements arranged in 2×2,
The at least two pixel pairs are, of the four light receiving elements sharing the one on-chip lens, a first pixel pair composed of the first light receiving pixel and the second light receiving pixel adjacent in the row direction, and a column a second pixel pair consisting of a third light-receiving pixel and a fourth light-receiving pixel that are adjacent in a direction;
The adder adds the pixel values read from the first light receiving pixels in each of the first pixel pairs, and adds the pixel values read from the second light receiving pixels in each of the first pixel pairs. In addition to the first addition processing of adding the pixel values read from the third light receiving pixels in each of the second pixel pairs, adding the pixel values read from the fourth light receiving pixels in each of the second pixel pairs further executing a second addition process for adding the pixel values obtained,
The generation unit generates information about the image plane phase difference between the first light receiving pixel and the second light receiving pixel based on the plurality of pixel values included in the image signal after the first addition processing. and generating information about an image plane phase difference between the third light receiving pixel and the fourth light receiving pixel based on the plurality of pixel values included in the image signal after the second addition processing. ).
(7)
The plurality of light-receiving pixels include light-receiving pixels operating with a sensitivity of a first dynamic range and light-receiving pixels operating with a sensitivity of a second dynamic range wider than the first dynamic range,
The at least two pixel pairs are a third pixel pair consisting of the first light-receiving pixel and the second light-receiving pixel that operate with the sensitivity of the first dynamic range, and the pixel pair that operates with the sensitivity of the second dynamic range. and a fourth pixel pair consisting of the first light receiving pixel and the second light receiving pixel,
The first addition process adds the pixel values read from the first light receiving pixels in each of the third pixel pairs, and adds the pixel values read from the second light receiving pixels in each of the third pixel pairs. a third addition process for adding pixel values; adding pixel values read from the first light receiving pixels in each of the fourth pixel pairs; and reading from the second light receiving pixels in each of the fourth pixel pairs. A fourth addition process that adds the pixel values obtained,
The generating unit combines the first total pixel value calculated by the third addition process and the second total pixel value calculated by the fourth addition process, and the The imaging device according to any one of (1) to (6), wherein information about the image plane phase difference between the first light receiving pixel and the second light receiving pixel is generated based on a plurality of pixel values.
(8)
the plurality of light-receiving pixels are grouped into a plurality of pixel blocks each including two or more light-receiving pixels;
The imaging according to any one of (1) to (7), wherein the addition unit adds the pixel value of the first light receiving pixel and the pixel value of the second light receiving pixel in the same pixel block. Device.
(9)
at least one of the plurality of pixel blocks includes two or more of the pixel pairs;
The reading unit reads one or more pixel values from the first light receiving pixels in the two or more pixel pairs included in the at least one pixel block, and reads the second light receiving pixels in the two or more pixel pairs. read out one or more pixel values from
The adder adds the one or more pixel values read from the first light-receiving pixels in the two or more pixel pairs for each pixel block, and adds the pixel values in the two or more pixel pairs. The imaging device according to (8), wherein the first addition process is performed to add the one or more pixel values read from two light receiving pixels.
(10)
The pixel array comprises a plurality of unit units, each of which is a repeating unit, each of which is composed of two or more of the pixel blocks;
each of the pixel blocks is composed of the two or more light-receiving pixels that receive light in the same wavelength band;
The imaging device according to (8) or (9), wherein at least two pixel blocks in each of the unit units are composed of the two or more light-receiving pixels that receive light in different wavelength bands between the pixel blocks.
(11)
The imaging device according to (10), wherein each of the unit units is composed of two pixel blocks each composed of ten light-receiving pixels and two pixel blocks each composed of eight light-receiving pixels.
(12)
The imaging device according to (10), wherein each of the unit units is composed of four pixel blocks each composed of 16 light receiving pixels arranged in 4×4.
(13)
The imaging device according to (10), wherein each of the unit units is composed of four pixel blocks each composed of nine light receiving pixels arranged in 3×3.
(14)
The adder adds the pixel values read from the first light-receiving pixels in at least one pixel block among the plurality of pixel blocks, and adds the pixel values read from the second light-receiving pixels in the at least one pixel block. The imaging apparatus according to any one of (8) to (13) above, wherein a first addition process is performed to add the read pixel values.
(15)
further comprising a plurality of control lines extending in a row direction with respect to the pixel array and connected to the plurality of light receiving pixels;
the plurality of light-receiving pixels are arranged in a matrix in an oblique direction with respect to the extending direction of each of the control lines;
The imaging device according to any one of (1) to (14), wherein the pixel pair is composed of the at least two light-receiving pixels adjacent in the oblique direction.
(16)
An electronic device comprising the imaging device according to any one of (1) to (15).

1、2 撮像装置
11、31 画素アレイ
12、32 駆動部
13 参照信号生成部
15、35 信号処理部
16、36 画像データ生成部
17、37 位相差データ生成部
18 撮像制御部
20 読出部
21 定電流源
22、23 容量素子
24 比較回路
25 カウンタ
26 ラッチ
51 半導体基板
52 半導体領域
53 絶縁層
54 多層配線層
55 カラーフィルタ
56 遮光膜
90、90-1、90-2、90X、90Y 画素ペア
100B、100Gb、100Gr、100R、300B、300B1、300B2、300Gb、300Gb1、300Gb2、300Gr、300Gr1、300Gr2、300R、300R1、300R2 画素ブロック
101 オンチップレンズ
111B、111Gb、111Gr、111R、310、410、510、610 合計画素値ペア
171 同色画素加算部
172 感度差補正部
173 位相差情報生成部
174 位相差検出部
175 メモリ
DF 位相差データ
DP 画像データ
FD フローティングディフュージョン
LR、LB 光
P、PB、PB1、PB2、PGb、PGr、PR 受光画素
PD フォトダイオード
S 光入射面
Spic0、Spic1、Spic1h、Spic1v 画像信号
TRG、AMP、RST、SEL トランジスタ
TRGL、RSTL、SELL 制御線
U 単位ユニット
VSL 信号線
Reference Signs List 1, 2 imaging device 11, 31 pixel array 12, 32 driving section 13 reference signal generating section 15, 35 signal processing section 16, 36 image data generating section 17, 37 phase difference data generating section 18 imaging control section 20 reading section 21 constant current source 22, 23 capacitive element 24 comparison circuit 25 counter 26 latch 51 semiconductor substrate 52 semiconductor region 53 insulating layer 54 multilayer wiring layer 55 color filter 56 light shielding film 90, 90-1, 90-2, 90X, 90Y pixel pair 100B, 100Gb, 100Gr, 100R, 300B, 300B1, 300B2, 300Gb, 300Gb1, 300Gb2, 300Gr, 300Gr1, 300Gr2, 300R, 300R1, 300R2 Pixel block 101 On-chip lens 111B, 111Gb, 111Gr, 1111, 511, 0111, 031 Total pixel value pair 171 Same color pixel adder 172 Sensitivity difference corrector 173 Phase difference information generator 174 Phase difference detector 175 Memory DF Phase difference data DP Image data FD Floating diffusion LR, LB Light P, PB, PB1, PB2, PGb , PGr, PR Light-receiving pixel PD Photodiode S Light incident surface Spic0, Spic1, Spic1h, Spic1v Image signal TRG, AMP, RST, SEL Transistor TRGL, RSTL, SELL Control line U Unit unit VSL Signal line

Claims (16)

複数の受光画素を備える画素アレイと、
前記受光画素それぞれから読み出された画素値よりなる画像信号を生成する読出部と、
前記読出部から出力された前記画像信号を処理する信号処理部と、
を備え、
前記画素アレイは、1つのオンチップレンズを共有する少なくとも2つの受光画素よりなる複数の画素ペアを含み、
前記信号処理部は、
前記複数の画素ペアのうちの少なくとも2つの画素ペアそれぞれにおける第1受光画素から読み出された画素値を加算するとともに、前記画素ペアそれぞれにおける前記第1受光画素とは異なる第2受光画素から読み出された画素値を加算する第1加算処理を実行する加算部と、
前記第1加算処理後の前記画像信号に含まれる複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の像面位相差に関する情報を生成する生成部と、
を備える撮像装置。
a pixel array comprising a plurality of light receiving pixels;
a reading unit that generates an image signal composed of pixel values read from each of the light-receiving pixels;
a signal processing unit that processes the image signal output from the reading unit;
with
The pixel array includes a plurality of pixel pairs consisting of at least two light receiving pixels sharing one on-chip lens,
The signal processing unit is
adding pixel values read from first light-receiving pixels in each of at least two pixel pairs among the plurality of pixel pairs, and reading from second light-receiving pixels different from the first light-receiving pixels in each of the pixel pairs; an addition unit that performs a first addition process for adding the output pixel values;
a generation unit that generates information about an image plane phase difference between the first light receiving pixel and the second light receiving pixel based on a plurality of pixel values included in the image signal after the first addition processing;
An imaging device comprising:
前記複数の受光画素は、第1の波長成分の光を受光する受光画素と、前記第1の波長成分の光とは異なる第2の波長成分の光を受光する受光画素とを含み、
前記加算部は、同じ波長成分の光を受光する前記受光画素から読み出された前記画素値を加算する
請求項1に記載の撮像装置。
The plurality of light-receiving pixels include light-receiving pixels that receive light of a first wavelength component and light-receiving pixels that receive light of a second wavelength component different from the light of the first wavelength component,
The imaging device according to claim 1, wherein the adder adds the pixel values read from the light receiving pixels that receive light of the same wavelength component.
前記生成部は、前記第1加算処理後の前記画像信号に含まれる複数の画素値を前記複数の受光画素の感度差に基づいて補正する補正部を含む
請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the generation unit includes a correction unit that corrects the plurality of pixel values included in the image signal after the first addition processing based on the sensitivity difference between the plurality of light receiving pixels.
前記複数の受光画素は、行列状に配列し、
前記少なくとも2つの画素ペアのうちの少なくとも1つは、行方向に隣接する前記第1受光画素及び前記第2受光画素よりなる
請求項1に記載の撮像装置。
The plurality of light receiving pixels are arranged in a matrix,
The imaging device according to claim 1, wherein at least one of the at least two pixel pairs is composed of the first light receiving pixel and the second light receiving pixel that are adjacent in the row direction.
前記複数の受光画素は、行列状に配列し、
前記少なくとも2つの画素ペアのうちの少なくとも1つは、列方向に隣接する前記第1受光画素及び前記第2受光画素よりなる
請求項1に記載の撮像装置。
The plurality of light receiving pixels are arranged in a matrix,
The imaging device according to claim 1, wherein at least one of the at least two pixel pairs is composed of the first light receiving pixel and the second light receiving pixel that are adjacent in the column direction.
前記複数の受光画素は、行列状に配列し、
前記オンチップレンズそれぞれは、2×2に配列する4つの前記受光素子で共有され、
前記少なくとも2つの画素ペアは、前記1つのオンチップレンズを共有する前記4つの受光素子のうち、行方向に隣接する前記第1受光画素及び前記第2受光画素よりなる第1画素ペアと、列方向に隣接する第3受光画素及び第4受光画素よりなる第2画素ペアとを含み、
前記加算部は、前記第1画素ペアそれぞれにおける前記第1受光画素から読み出された前記画素値を加算するとともに、前記第1画素ペアそれぞれにおける前記第2受光画素から読み出された前記画素値を加算する前記第1加算処理に加え、前記第2画素ペアそれぞれにおける前記第3受光画素から読み出された画素値を加算するとともに、前記第2画素ペアそれぞれにおける前記第4受光画素から読み出された画素値を加算する第2加算処理をさらに実行し、
前記生成部は、前記第1加算処理後の前記画像信号に含まれる前記複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の前記像面位相差に関する情報を生成するとともに、前記第2加算処理後の画像信号に含まれる前記複数の画素値に基づいて前記第3受光画素及び前記第4受光画素間の像面位相差に関する情報を生成する
請求項1に記載の撮像装置。
The plurality of light receiving pixels are arranged in a matrix,
Each of the on-chip lenses is shared by the four light receiving elements arranged in 2×2,
The at least two pixel pairs are, of the four light receiving elements sharing the one on-chip lens, a first pixel pair composed of the first light receiving pixel and the second light receiving pixel adjacent in the row direction, and a column a second pixel pair consisting of a third light-receiving pixel and a fourth light-receiving pixel that are adjacent in a direction;
The adder adds the pixel values read from the first light receiving pixels in each of the first pixel pairs, and adds the pixel values read from the second light receiving pixels in each of the first pixel pairs. In addition to the first addition processing of adding the pixel values read from the third light receiving pixels in each of the second pixel pairs, adding the pixel values read from the fourth light receiving pixels in each of the second pixel pairs further executing a second addition process for adding the pixel values obtained,
The generation unit generates information about the image plane phase difference between the first light receiving pixel and the second light receiving pixel based on the plurality of pixel values included in the image signal after the first addition processing. , generating information about an image plane phase difference between the third light-receiving pixel and the fourth light-receiving pixel based on the plurality of pixel values included in the image signal after the second addition processing. Device.
前記複数の受光画素は、第1のダイナミックレンジの感度で動作する受光画素と、前記第1のダイナミックレンジよりも広い第2のダイナミックレンジの感度で動作する受光画素とを含み、
前記少なくとも2つの画素ペアは、前記第1のダイナミックレンジの感度で動作する前記第1受光画素及び前記第2受光画素よりなる第3画素ペアと、前記第2のダイナミックレンジの感度で動作する前記第1受光画素及び前記第2受光画素よりなる第4画素ペアとを含み、
前記第1加算処理は、前記第3画素ペアそれぞれにおける前記第1受光画素から読み出された前記画素値を加算するとともに、前記第3画素ペアそれぞれにおける前記第2受光画素から読み出された前記画素値を加算する第3加算処理と、前記第4画素ペアそれぞれにおける前記第1受光画素から読み出された画素値を加算するとともに、前記第4画素ペアそれぞれにおける前記第2受光画素から読み出された画素値を加算する第4加算処理とを含み、
前記生成部は、前記第3加算処理で算出された第1合計画素値と、前記第4加算処理で算出された第2合計画素値とを合成し、合成後の前記画像信号に含まれる前記複数の画素値に基づいて前記第1受光画素及び前記第2受光画素間の前記像面位相差に関する情報を生成する
請求項1に記載の撮像装置。
The plurality of light-receiving pixels include light-receiving pixels operating with a sensitivity of a first dynamic range and light-receiving pixels operating with a sensitivity of a second dynamic range wider than the first dynamic range,
The at least two pixel pairs are a third pixel pair consisting of the first light-receiving pixel and the second light-receiving pixel that operate with the sensitivity of the first dynamic range, and the pixel pair that operates with the sensitivity of the second dynamic range. and a fourth pixel pair consisting of the first light receiving pixel and the second light receiving pixel,
The first addition process adds the pixel values read from the first light receiving pixels in each of the third pixel pairs, and adds the pixel values read from the second light receiving pixels in each of the third pixel pairs. a third addition process for adding pixel values; adding pixel values read from the first light receiving pixels in each of the fourth pixel pairs; and reading from the second light receiving pixels in each of the fourth pixel pairs. A fourth addition process that adds the pixel values obtained,
The generating unit combines the first total pixel value calculated by the third addition process and the second total pixel value calculated by the fourth addition process, and the The imaging device according to claim 1, wherein the information about the image plane phase difference between the first light receiving pixel and the second light receiving pixel is generated based on a plurality of pixel values.
前記複数の受光画素は、それぞれ2以上の受光画素を含む複数の画素ブロックにグループ化され、
前記加算部は、同一の画素ブロックにおける前記第1受光画素の前記画素値及び前記第2受光画素の前記画素値をそれぞれ加算する
請求項1に記載の撮像装置。
the plurality of light-receiving pixels are grouped into a plurality of pixel blocks each including two or more light-receiving pixels;
The imaging device according to claim 1, wherein the adder adds the pixel value of the first light receiving pixel and the pixel value of the second light receiving pixel in the same pixel block.
前記複数の画素ブロックのうちの少なくとも1つは、2以上の前記画素ペアを含み、
前記読出部は、前記少なくとも1つの画素ブロックに含まれる前記2以上の画素ペアにおける前記第1受光画素から1又は2以上の画素値を読み出すとともに、当該2以上の画素ペアにおける前記第2受光画素から1又は2以上の画素値を読み出し、
前記加算部は、前記画素ブロックごとに、前記2以上の画素ペアにおける前記第1受光画素から読み出された前記1又は2以上の画素値を加算するとともに、前記2以上の画素ペアにおける前記第2受光画素から読み出された前記1又は2以上の画素値を加算する前記第1加算処理を実行する
請求項8に記載の撮像装置。
at least one of the plurality of pixel blocks includes two or more of the pixel pairs;
The reading unit reads one or more pixel values from the first light receiving pixels in the two or more pixel pairs included in the at least one pixel block, and reads the second light receiving pixels in the two or more pixel pairs. read out one or more pixel values from
The adder adds the one or more pixel values read from the first light-receiving pixels in the two or more pixel pairs for each pixel block, and adds the pixel values in the two or more pixel pairs. The imaging device according to Claim 8, wherein the first addition process is performed to add the one or more pixel values read from two light receiving pixels.
前記画素アレイは、それぞれ2以上の前記画素ブロックで構成された、繰返しの単位である複数の単位ユニットを備え、
前記画素ブロックそれぞれは、同じ波長帯の光を受光する前記2以上の受光画素で構成され、
前記単位ユニットそれぞれにおける少なくとも2つの画素ブロックは、当該画素ブロック間で異なる波長帯の光を受光する前記2以上の受光画素で構成される
請求項8に記載の撮像装置。
The pixel array comprises a plurality of unit units, each of which is a repeating unit, each of which is composed of two or more of the pixel blocks;
each of the pixel blocks is composed of the two or more light-receiving pixels that receive light in the same wavelength band;
The imaging device according to claim 8, wherein at least two pixel blocks in each of the unit units are composed of the two or more light-receiving pixels that receive light in different wavelength bands between the pixel blocks.
前記単位ユニットそれぞれは、10つの前記受光画素よりなる2つの前記画素ブロックと、8つの受光画素よりなる2つの前記画素ブロックとから構成される
請求項10に記載の撮像装置。
11. The imaging device according to claim 10, wherein each of said unit units is composed of two said pixel blocks consisting of ten said light receiving pixels and two said pixel blocks consisting of eight said light receiving pixels.
前記単位ユニットそれぞれは、それぞれ4×4に配列する16つの前記受光画素よりなる4つの前記画素ブロックから構成される
請求項10に記載の撮像装置。
11. The imaging device according to claim 10, wherein each of said unit units is composed of said four pixel blocks each made up of said 16 said light receiving pixels arranged in 4x4.
前記単位ユニットそれぞれは、それぞれ3×3に配列する9つの前記受光画素よりなる4つの前記画素ブロックから構成される
請求項10に記載の撮像装置。
11. The imaging device according to claim 10, wherein each of said unit units is composed of said four pixel blocks each made up of said nine said light receiving pixels arranged in 3x3.
前記加算部は、前記複数の画素ブロックのうちの少なくとも1つの画素ブロックにおける前記第1受光画素から読み出された前記画素値を加算するとともに、当該少なくとも1つの画素ブロックにおける前記第2受光画素から読み出された前記画素値を加算する第1加算処理を実行する
請求項8に記載の撮像装置。
The adder adds the pixel values read from the first light-receiving pixels in at least one pixel block among the plurality of pixel blocks, and adds the pixel values read from the second light-receiving pixels in the at least one pixel block. The imaging apparatus according to Claim 8, wherein a first addition process is executed to add the read pixel values.
前記画素アレイに対して行方向に延在して前記複数の受光画素に接続される複数の制御線をさらに備え、
前記複数の受光画素は、前記制御線それぞれの延在方向に対して傾いた斜め方向に行列状に配列し、
前記画素ペアは、前記斜め方向に隣接する前記少なくとも2つの受光画素よりなる
請求項1に記載の撮像装置。
further comprising a plurality of control lines extending in a row direction with respect to the pixel array and connected to the plurality of light receiving pixels;
the plurality of light-receiving pixels are arranged in a matrix in an oblique direction with respect to the extending direction of each of the control lines;
The imaging device according to claim 1, wherein the pixel pair is composed of the at least two light-receiving pixels that are adjacent in the oblique direction.
請求項1に記載の撮像装置を備える電子機器。 An electronic device comprising the imaging device according to claim 1 .
JP2021132844A 2021-08-17 2021-08-17 Imaging device and electronic apparatus Pending JP2023027618A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021132844A JP2023027618A (en) 2021-08-17 2021-08-17 Imaging device and electronic apparatus
PCT/JP2022/013825 WO2023021774A1 (en) 2021-08-17 2022-03-24 Imaging device, and electronic apparatus comprising imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021132844A JP2023027618A (en) 2021-08-17 2021-08-17 Imaging device and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2023027618A true JP2023027618A (en) 2023-03-02

Family

ID=85240316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021132844A Pending JP2023027618A (en) 2021-08-17 2021-08-17 Imaging device and electronic apparatus

Country Status (2)

Country Link
JP (1) JP2023027618A (en)
WO (1) WO2023021774A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2800379A4 (en) * 2011-12-27 2015-12-23 Fujifilm Corp Color imaging element
JP2015115344A (en) * 2013-12-09 2015-06-22 株式会社東芝 Solid-state imaging device
JP6702058B2 (en) * 2016-07-27 2020-05-27 富士通株式会社 Imaging device
JP2020098968A (en) * 2018-12-17 2020-06-25 オリンパス株式会社 Imaging element, imaging apparatus, and imaging method
WO2020170565A1 (en) * 2019-02-19 2020-08-27 ソニーセミコンダクタソリューションズ株式会社 Signal processing method and imaging device

Also Published As

Publication number Publication date
WO2023021774A1 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
JP7171199B2 (en) Solid-state imaging device and electronic equipment
CN110383481B (en) Solid-state imaging device and electronic apparatus
JP7370413B2 (en) Solid-state imaging devices and electronic equipment
US11336860B2 (en) Solid-state image capturing device, method of driving solid-state image capturing device, and electronic apparatus
US20230402475A1 (en) Imaging apparatus and electronic device
US20210385394A1 (en) Solid-state imaging apparatus and electronic
US20230387155A1 (en) Imaging apparatus
WO2019207927A1 (en) Array antenna, solid-state imaging device and electronic apparatus
WO2023021774A1 (en) Imaging device, and electronic apparatus comprising imaging device
WO2023243222A1 (en) Imaging device
WO2023074177A1 (en) Imaging device
WO2023132151A1 (en) Image capturing element and electronic device
WO2023286297A1 (en) Solid-state imaging element, imaging device, and method for controlling solid-state imaging element
WO2023032416A1 (en) Imaging device
WO2023079840A1 (en) Imaging device and electronic apparatus
WO2023021780A1 (en) Imaging device, electronic apparatus, and information processing method
WO2022201898A1 (en) Imaging element, and imaging device
US20220103775A1 (en) Imaging device