WO2023243222A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2023243222A1
WO2023243222A1 PCT/JP2023/015793 JP2023015793W WO2023243222A1 WO 2023243222 A1 WO2023243222 A1 WO 2023243222A1 JP 2023015793 W JP2023015793 W JP 2023015793W WO 2023243222 A1 WO2023243222 A1 WO 2023243222A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
pixel
wiring
capacitance
vehicle
Prior art date
Application number
PCT/JP2023/015793
Other languages
English (en)
French (fr)
Inventor
優太 櫛田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023243222A1 publication Critical patent/WO2023243222A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself

Definitions

  • the present disclosure relates to an imaging device that images a subject.
  • the imaging device is provided with a plurality of light-receiving pixels for generating a captured image.
  • Each light-receiving pixel includes, for example, a plurality of photodiodes that share a floating diffusion, and there are known imaging devices in which the number of photodiodes included in each light-receiving pixel does not match among all the light-receiving pixels (for example, Patent Document (see 1).
  • An imaging device includes a plurality of first light-receiving pixels and a plurality of second light-receiving pixels.
  • Each first light-receiving pixel includes N first photodiodes and a first floating diffusion that accumulates charges transferred from each first photodiode via a first wiring.
  • Ru Each second light-receiving pixel includes M second photodiodes (M ⁇ N) and a second floating diffusion that accumulates charges transferred from each second photodiode via a second wiring. It consists of:
  • Each second light-receiving pixel has a capacitance adjustment section adjusted so that the conversion efficiency of each first light-receiving pixel and the conversion efficiency of each second light-receiving pixel are approximately equal.
  • the capacitance adjusting section is adjusted so that the conversion efficiency of each of the first light receiving pixel and the second light receiving pixel having different numbers of photodiodes is approximately equal to each other.
  • the light-receiving pixel of This suppresses deterioration in image quality due to mismatch in conversion efficiency.
  • FIG. 1 is a diagram illustrating a schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram showing an example of the planar configuration of the pixel array shown in FIG.
  • FIG. 3 is a diagram showing an example of the cross-sectional configuration of the light-receiving pixel shown in FIG.
  • FIG. 4 is a diagram showing an example of the circuit configuration of the pixel block shown in FIG. 2.
  • FIG. 5 is a diagram showing an example of the circuit configuration of the pixel block shown in FIG. 2.
  • FIG. 6 is a diagram showing a connection example of a plurality of pixel blocks shown in FIGS. 4 and 5.
  • FIG. 7 is a block diagram showing a configuration example of the reading section shown in FIG. 1.
  • FIG. 7 is a block diagram showing a configuration example of the reading section shown in FIG. 1.
  • FIG. 1 is a diagram illustrating a schematic configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 2 is a
  • FIG. 8 is a diagram showing an example of the configuration of the image signal shown in FIG. 1.
  • FIG. 9 is a diagram showing an example of the planar configuration of a plurality of pixel blocks shown in FIGS. 4 and 5.
  • FIG. 10 is a diagram showing an example of the configuration of the wiring shown in FIG. 9.
  • FIG. 11 is a diagram illustrating the capacity of a plurality of pixel blocks shown in FIGS. 4 and 5.
  • FIG. 12 is a diagram showing a modified example of the circuit configuration of the pixel block shown in FIG. 4.
  • FIG. 13 is a diagram showing an example of the planar configuration of the pixel array shown in FIGS. 5 and 12.
  • FIG. 14 is a diagram showing an example of the configuration of the wiring shown in FIG. 13.
  • FIG. 13 is a diagram showing an example of the planar configuration of the pixel array shown in FIGS. 5 and 5.
  • FIG. 15 is a diagram illustrating the capacity of a plurality of pixel blocks shown in FIGS. 5 and 12.
  • FIG. 16 is a diagram showing a modified example of the circuit configuration of the pixel block shown in FIG. 12.
  • FIG. 17 is a diagram showing an example of the planar configuration of the pixel array shown in FIGS. 5 and 16.
  • FIG. 18 is a diagram showing a configuration example of the wiring shown in FIG. 15.
  • FIG. 19 is a diagram illustrating the capacity of a plurality of pixel blocks shown in FIGS. 5 and 16.
  • FIG. 20 is a diagram illustrating an example of a wiring configuration in which the wiring shown in FIG. 10 and the wiring shown in FIG. 14 are combined.
  • FIG. 21 is a diagram illustrating the capacity of a plurality of pixel blocks having the configuration shown in FIG.
  • FIG. 22 is a diagram showing an example of the relationship between output level and optical shot noise.
  • FIG. 23 is an explanatory diagram showing an example of how the imaging device is used.
  • FIG. 24 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 25 is an explanatory diagram showing an example of the installation positions of the outside-vehicle information detection section and the imaging section.
  • FIG. 1 shows a schematic configuration example of an imaging device 1 according to an embodiment of the present disclosure.
  • the imaging device 1 includes a pixel array 11 , a driving section 12 , a reference signal generation section 13 , a reading section 20 , a signal processing section 15 , and an imaging control section 18 .
  • the pixel array 11 has a plurality of light receiving pixels P arranged in a matrix.
  • the light receiving pixel P is configured to generate a signal SIG including a pixel voltage Vpix according to the amount of light received.
  • FIG. 2 shows an example of the arrangement of a plurality of light-receiving pixels P in the pixel array 11.
  • FIG. 3 shows an example of a cross-sectional configuration of the pixel array 11.
  • the pixel array 11 includes a plurality of pixel blocks 100 and a plurality of lenses 101.
  • the plurality of pixel blocks 100 include pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the plurality of light-receiving pixels P are arranged in units (units U) of four pixel blocks 100 (pixel blocks 100R, 100Gr, 100Gb, 100B) necessary for color reproduction.
  • the light-receiving pixel P corresponds to a specific example of a "first light-receiving pixel” and a "second light-receiving pixel" in the present disclosure.
  • the pixel blocks 100Gr and 100Gb correspond to a specific example of a "first light-receiving pixel" in the present disclosure.
  • Pixel blocks 100B and 100R correspond to a specific example of a "second light-receiving pixel" in the present disclosure.
  • the pixel block 100R has eight light receiving pixels P (light receiving pixels PR) whose light incident surface is covered with a red (R) color filter 115.
  • the pixel block 100Gr has ten light receiving pixels P (light receiving pixels PGr) whose light incident surfaces are covered with a green (G) color filter 115.
  • the pixel block 100Gb has ten light receiving pixels P (light receiving pixels PGb) whose light incident surfaces are covered with a green (G) color filter 115.
  • the pixel block 100B has eight light-receiving pixels P (light-receiving pixels PB) whose light incident surfaces are covered with a blue (B) color filter 115. In FIG. 2, the difference in color of the color filter is expressed using shading.
  • the arrangement pattern of the light receiving pixels PR in the pixel block 100R and the arrangement pattern of the light receiving pixels PB in the pixel block 100B are the same.
  • the arrangement pattern of the light receiving pixels PGr in the pixel block 100Gr and the arrangement pattern of the light receiving pixels PGb in the pixel block 100Gb are the same.
  • pixel block 100Gr is arranged at the upper right
  • pixel block 100R is arranged at the upper left
  • pixel block 100B is arranged at the lower right
  • pixel block 100Gb is arranged at the lower left.
  • the pixel blocks 100R, 100Gr, 100Gb, and 100B are arranged in a so-called Bayer array, with each pixel block 100 as a unit.
  • the pixel array 11 includes a semiconductor substrate 111, a semiconductor region 112, an insulating layer 113, a multilayer wiring layer 114, a color filter 115, and a light shielding film 116.
  • the semiconductor substrate 111 is a support substrate on which the imaging device 1 is formed, and is a P-type semiconductor substrate (for example, a Si substrate).
  • the semiconductor region 112 is a semiconductor region provided within the semiconductor substrate 111 at a position corresponding to each of the plurality of light receiving pixels P. In the semiconductor region 112, a photodiode PD is formed by doping with an N-type impurity.
  • the insulating layer 113 is provided at the boundary of a plurality of light-receiving pixels P arranged in parallel in the XY plane in the semiconductor substrate 111, and in this example, DTI (Deep Trench Isolation) is formed using an oxide film or the like. It is.
  • the multilayer wiring layer 114 is provided on the semiconductor substrate 111 on the surface opposite to the light incident surface S of the pixel array 11, and includes a plurality of wiring layers and an interlayer insulating film. The wiring in the multilayer wiring layer 114 is configured to connect, for example, a transistor (not shown) provided on the surface of the semiconductor substrate 111 to the driving section 12 and the reading section 20.
  • the color filter 115 is a wavelength selection filter provided on the semiconductor substrate 111 on the light incidence surface S of the pixel array 11.
  • the light shielding film 116 is provided on the light incidence surface S of the pixel array 11 so as to surround two light receiving pixels P (hereinafter also referred to as a pixel pair 90) arranged in parallel in the X direction.
  • the plurality of lenses 101 are so-called on-chip lenses, and are provided on the color filter 115 on the light incidence surface S of the pixel array 11.
  • the lens 101 is provided above two light receiving pixels P (pixel pair 90) arranged in parallel in the X direction.
  • Four lenses 101 are provided above the eight light receiving pixels P of the pixel block 100R.
  • Five lenses 101 are provided above the ten light receiving pixels P of the pixel block 100Gr.
  • Five lenses 101 are provided above the ten light receiving pixels P of the pixel block 100Gb.
  • Four lenses 101 are provided above the eight light receiving pixels P of the pixel block 100B.
  • the lenses 101 are arranged in parallel in the X direction and the Y direction.
  • the lenses 101 arranged in the Y direction are arranged shifted by one light receiving pixel P in the X direction.
  • the pixel pairs 90 arranged in the Y direction are arranged shifted by one light receiving pixel P in the X direction.
  • the imaging device 1 generates phase difference data DF based on so-called image plane phase differences detected by the plurality of pixel pairs 90. For example, in a camera equipped with the imaging device 1, the amount of defocus is determined based on this phase difference data DF, and the position of the photographing lens is moved based on the amount of defocus. In this way, the camera can achieve autofocus.
  • FIG. 4 shows an example of the configuration of the pixel block 100R.
  • FIG. 5 shows a configuration example of the pixel block 100Gr.
  • FIG. 6 shows an example of wiring of pixel blocks 100R, 100Gr, 100Gb, and 100B. Note that, in FIG. 6, for convenience of explanation, the plurality of pixel blocks 100 are drawn separated from each other.
  • the pixel array 11 has multiple control lines TRGL, multiple control lines RSTL, multiple control lines SELL, and multiple signal lines VSL.
  • the control line TRGL extends in the X direction (horizontal direction in FIGS. 4 to 6), and one end is connected to the drive unit 12.
  • a control signal STRG is supplied to the control line TRGL by the drive unit 12.
  • the control line RSTL extends in the X direction, and one end is connected to the drive unit 12.
  • a control signal SRST is supplied to this control line RSTL by the driving section 12.
  • the control line SELL extends in the X direction, and one end is connected to the drive unit 12.
  • a control signal SSEL is supplied to this control line SELL by the drive unit 12.
  • the signal line VSL extends in the Y direction (vertical direction in FIGS. 4 to 6), and one end is connected to the reading section 20. This signal line VSL transmits the signal SIG generated by the light receiving pixel P to the reading unit 20.
  • the pixel block 100B (FIG. 4) has eight photodiodes PD, eight transistors TRG, one floating diffusion FD, and three transistors (transistors RST, AMP, SEL).
  • a set of photodiode PD and transistor TRG corresponds to the light receiving pixel PR.
  • the transistors TRG, RST, AMP, and SEL are N-type MOS (Metal Oxide Semiconductor) transistors in this example.
  • the photodiode PD is a photoelectric conversion element that generates an amount of charge according to the amount of received light and stores the generated charge inside.
  • the anode is grounded and the cathode is connected to the source of the transistor TRG.
  • Photodiode PD of pixel block 100B corresponds to a specific example of a "second photodiode" in the present disclosure.
  • the gate is connected to the control line TRGL, the source is connected to the cathode of the photodiode PD, and the drain is connected to the floating diffusion FD.
  • the gates of the eight transistors TRG are connected to different control lines TRGL among the eight control lines TRGL (in this example, control lines TRGL1, TRGL2, TRGL5 to TRGL10).
  • the floating diffusion FD is configured to accumulate charges transferred from the photodiode PD via the transistor TRG and a wiring L2 to be described later.
  • the floating diffusion FD is configured using, for example, a diffusion layer formed on the surface of the semiconductor substrate 111. In FIG. 4, the floating diffusion FD is shown using a symbol of a capacitive element.
  • the gate is connected to the control line RSTL, the drain is supplied with the power supply voltage VDD, and the source is connected to the floating diffusion FD.
  • the gate is connected to the floating diffusion FD, the drain is supplied with the power supply voltage VDDH, and the source is connected to the drain of the transistor SEL.
  • the gate is connected to the control line SELL, the drain is connected to the source of the transistor AMP, and the source is connected to the signal line VSL.
  • the charge accumulated in the photodiode PD is discharged by turning on the transistors TRG and RST based on the control signals STRG and SRST, for example. Then, by turning off these transistors TRG and RST, an exposure period T is started, and an amount of charge corresponding to the amount of light received is accumulated in the photodiode PD. After the exposure period T ends, the light receiving pixel P outputs a signal SIG including the reset voltage Vreset and the pixel voltage Vpix to the signal line VSL. Specifically, first, the transistor SEL is turned on based on the control signal SSEL, so that the light receiving pixel P is electrically connected to the signal line VSL.
  • the transistor AMP is connected to a constant current source 21 (described later) of the reading section 20, and operates as a so-called source follower.
  • the light-receiving pixel P detects the voltage of the floating diffusion FD at that time during a P-phase (Pre-charge phase) period TP after the voltage of the floating diffusion FD is reset by turning on the transistor RST. A voltage corresponding to the voltage is output as a reset voltage Vreset.
  • the light-receiving pixel P responds to the voltage of the floating diffusion FD at that time during the D phase (Data phase) period TD after the charge is transferred from the photodiode PD to the floating diffusion FD by turning on the transistor TRG.
  • the resulting voltage is output as the pixel voltage Vpix.
  • the voltage difference between the pixel voltage Vpix and the reset voltage Vreset corresponds to the amount of light received by the light receiving pixel P during the exposure period T.
  • the light receiving pixel P outputs the signal SIG including the reset voltage Vreset and the pixel voltage Vpix to the signal line VSL.
  • the pixel block 100Gr (FIG. 5) has ten photodiodes PD, ten transistors TRG, one floating diffusion FD, and three transistors (transistors RST, AMP, SEL).
  • a set of photodiode PD and transistor TRG corresponds to the light receiving pixel PGr.
  • the gates of the ten transistors TRG are connected to mutually different control lines TRGL among the ten control lines TRGL (in this example, control lines TRGL1 to TRGL6, TRGL9 to TRGL12).
  • the photodiode PD of the pixel block 100Gr corresponds to a specific example of a "first photodiode" in the present disclosure.
  • pixel blocks 100Gr and 100R belonging to the same row and arranged in the X direction are connected to a plurality of control lines TRGL out of the same 12 control lines TRGL (control lines TRGL1 to TRGL12). .
  • the control lines TRGL1 to TRGL12 are arranged in this order from the bottom to the top in FIG.
  • the pixel block 100Gr is connected to ten control lines TRGL (control lines TRGL1 to TRGL6, TRGL9 to TRGL12) out of twelve control lines TRGL (control lines TRGL1 to TRGL12).
  • the pixel block 100R is connected to eight control lines TRGL (control lines TRGL1, TRGL2, TRGL5 to TRGL10) among the twelve control lines TRGL (control lines TRGL1 to TRGL12).
  • pixel blocks 100Gr and 100R belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL.
  • pixel blocks 100Gr belonging to the same column that are lined up in the Y direction are connected to one signal line VSL.
  • pixel blocks 100R belonging to the same column that are lined up in the Y direction are connected to one signal line VSL.
  • the pixel block 100B includes eight photodiodes PD, eight transistors TRG, one floating diffusion FD, and three transistors (transistors RST, AMP, SEL). has.
  • a set of photodiode PD and transistor TRG corresponds to the light receiving pixel PB.
  • the gates of the eight transistors TRG are connected to mutually different control lines TRGL among the eight control lines TRGL.
  • Photodiode PD of pixel block 100B corresponds to a specific example of a "second photodiode" in the present disclosure.
  • the pixel block 100Gb includes 10 photodiodes PD, 10 transistors TRG, 1 floating diffusion FD, and 3 transistors (transistors RST, AMP, SEL). has.
  • a set of photodiode PD and transistor TRG corresponds to light receiving pixel PGb.
  • the gates of the ten transistors TRG are connected to mutually different control lines TRGL among the ten control lines TRGL.
  • the photodiode PD of the pixel block 100Gb corresponds to a specific example of a "first photodiode" in the present disclosure.
  • pixel blocks 100B and 100Gb that belong to the same row and line up in the X direction are connected to a plurality of control lines TRGL out of the same 12 control lines TRGL.
  • pixel blocks 100B and 100Gb belonging to the same row and arranged in the X direction are connected to one control line RSTL and one control line SELL.
  • pixel blocks 100B that belong to the same column and line up in the Y direction are connected to one signal line VSL.
  • pixel blocks 100Gb belonging to the same column that are lined up in the Y direction are connected to one signal line VSL.
  • the driving unit 12 (FIG. 1) is configured to drive the plurality of light receiving pixels P in the pixel array 11 based on instructions from the imaging control unit 18. Specifically, the drive unit 12 supplies the plurality of control signals STRG to the plurality of control lines TRGL in the pixel array 11, supplies the plurality of control signals SRST to the plurality of control lines RSTL, and supplies the plurality of control signals STRG to the plurality of control lines RSTL. By supplying a plurality of control signals SSEL to SELL, the plurality of light receiving pixels P in the pixel array 11 are driven.
  • the reference signal generation unit 13 is configured to generate the reference signal RAMP based on instructions from the imaging control unit 18.
  • the reference signal RAMP has a so-called ramp waveform in which the voltage level gradually changes over time during the period in which the reading unit 20 performs AD conversion (P-phase period TP and D-phase period TD).
  • the reference signal generating section 13 is configured to supply such a reference signal RAMP to the reading section 20.
  • the reading unit 20 is configured to generate the image signal Spic0 by performing AD conversion based on the signal SIG supplied from the pixel array 11 via the signal line VSL based on an instruction from the imaging control unit 18. be done.
  • FIG. 7 shows an example of the configuration of the reading section 20. Note that in addition to the readout section 20, FIG. 7 also depicts the reference signal generation section 13, the signal processing section 15, and the imaging control section 18.
  • the reading unit 20 includes a plurality of constant current sources 21, a plurality of AD (Analog to Digital) conversion units ADC, and a transfer control unit 27.
  • One constant current source 21 and one AD converter ADC are connected to one signal line VSL.
  • the constant current source 21 is configured to cause a predetermined current to flow through the corresponding signal line VSL.
  • One end of the constant current source 21 is connected to the corresponding signal line VSL, and the other end is grounded.
  • the AD conversion unit ADC is configured to perform AD conversion based on the signal SIG on the corresponding signal line VSL.
  • the AD conversion unit ADC includes capacitive elements 22 and 23, a comparison circuit 24, a counter 25, and a latch 26.
  • One end of the capacitive element 22 is connected to the signal line VSL, and the other end is connected to the comparison circuit 24.
  • a signal SIG is supplied to the capacitive element 22 via the signal line VSL.
  • the capacitive element 23 one end is connected to the reference signal generation section 13, and the other end is connected to the comparison circuit 24.
  • the reference signal RAMP supplied from the reference signal generation section 13 is supplied to the capacitive element 23 .
  • the comparison circuit 24 performs a comparison operation based on the signal SIG supplied from the light receiving pixel P via the signal line VSL and the capacitive element 22 and the reference signal RAMP supplied from the reference signal generation section 13 via the capacitive element 23. is configured to generate the signal CP by performing the following.
  • the comparison circuit 24 sets the operating point by setting the voltages of the capacitive elements 22 and 23 based on the control signal AZ supplied from the imaging control section 18. After that, the comparison circuit 24 performs a comparison operation to compare the reset voltage Vreset included in the signal SIG with the voltage of the reference signal RAMP in the P-phase period TP, and A comparison operation is performed to compare the pixel voltage Vpix and the voltage of the reference signal RAMP.
  • the counter 25 is configured to perform a counting operation of counting the pulses of the clock signal CLK supplied from the imaging control section 18 based on the signal CP supplied from the comparison circuit 24. Specifically, the counter 25 generates a count value CNTP by counting the pulses of the clock signal CLK during the P-phase period TP until the signal CP transitions, and converts this count value CNTP into a digital signal having a plurality of bits. It is designed to be output as code. Further, the counter 25 generates a count value CNTD by counting the pulses of the clock signal CLK during the D-phase period TD until the signal CP transitions, and outputs the count value CNTD as a digital code having multiple bits. It is supposed to be done.
  • the latch 26 is configured to temporarily hold the digital code supplied from the counter 25 and output the digital code to the bus wiring BUS based on an instruction from the transfer control unit 27.
  • the transfer control unit 27 controls the plurality of AD conversion units ADC so that the latches 26 of the plurality of AD conversion units ADC sequentially output digital codes to the bus wiring BUS based on the control signal CTL supplied from the imaging control unit 18. configured to control.
  • the reading unit 20 uses the bus wiring BUS to sequentially transfer a plurality of digital codes supplied from a plurality of AD conversion units ADC to the signal processing unit 15 as an image signal Spic0.
  • the signal processing unit 15 (FIG. 1) is configured to generate an image signal Spic by performing predetermined signal processing based on the image signal Spic0 and instructions from the imaging control unit 18.
  • the signal processing section 15 includes an image data generation section 16 and a phase difference data generation section 17.
  • the image data generation unit 16 is configured to generate image data DP representing a captured image by performing predetermined image processing based on the image signal Spic0.
  • the phase difference data generation unit 17 is configured to generate phase difference data DF indicating the image plane phase difference by performing predetermined image processing based on the image signal Spic0.
  • the signal processing unit 15 generates an image signal Spic including image data DP and phase difference data DF.
  • FIG. 8 shows an example of the image signal Spic.
  • the signal processing unit 15 generates the image signal Spic, for example, by alternately arranging image data DP related to multiple rows of light-receiving pixels P and phase difference data DF related to multiple rows of light-receiving pixels P.
  • the signal processing unit 15 is configured to output such an image signal Spic.
  • the imaging control unit 18 controls the operation of the imaging device 1 by supplying control signals to the drive unit 12, reference signal generation unit 13, reading unit 20, and signal processing unit 15 and controlling the operations of these circuits. configured to do so.
  • a control signal Sctl is supplied to the imaging control unit 18 from the outside.
  • the imaging control unit 18 is configured to control the operation of the imaging device 1 based on the control signal Sctl.
  • FIG. 9 shows an example of a planar configuration of a plurality of pixel blocks 100.
  • FIG. 10 shows the wiring lines L1 and L2 shown in FIG. 9 extracted.
  • each transistor TRG, AMP, RST, and SEL is formed on a semiconductor substrate 111 (Si substrate).
  • An insulating layer 113 is provided between each transistor TRG and each transistor AMP, RST, and SEL.
  • a wiring L2 is provided to connect the drain of each transistor TRG and the floating diffusion FD.
  • a wiring L1 is provided to connect the drain of each transistor TRG and the floating diffusion FD.
  • Each wiring L1, L2 is electrically connected to the floating diffusion FD via a contact CNT.
  • Each wiring L1, L2 is further electrically connected to the gate of the transistor AMP and the source of the transistor RST via a contact CNT.
  • Each wiring L1 corresponds to a specific example of a "first wiring" in the present disclosure.
  • the floating diffusion FD of the pixel blocks 100Gr and 100Gb corresponds to a specific example of the "first floating diffusion” in the present disclosure.
  • the floating diffusion FD of the pixel blocks 100R and 100B corresponds to a specific example of a "second floating diffusion" in the present disclosure.
  • Each wiring L2 has a main wiring Lm and one or more branch wirings Ls.
  • the main wiring Lm is connected to the drain of the transistor TRG, the floating diffusion FD, the gate of the transistor AMP, and the source of the transistor RST.
  • One end of one or more branch wiring Ls is connected to the main wiring Lm, and the other end is electrically open.
  • FIG. 10 illustrates a case where four branch wiring lines Ls are connected to the main wiring Lm. Note that a branch wiring similar to the branch wiring Ls may be connected to each wiring L1.
  • the main wiring Lm corresponds to a specific example of a "second wiring" in the present disclosure.
  • the branch wiring Ls corresponds to a specific example of "branch wiring" in the present disclosure.
  • FIG. 11 shows an example of the capacity of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the capacitance of each of the pixel blocks 100Gr and 100Gb is the sum of the capacitance of the wiring L1 (wiring capacitance Cb1) and the capacitance of the floating diffusion FD (FD capacitance Cb3).
  • the capacitance of each of the pixel blocks 100R and 100B is determined by the capacitance of the main wire Lm (wire capacitance Ca1), the capacitance of the branch wire Ls (branch wire capacitance Ca2), and the capacitance of the floating diffusion FD (FD capacitance Ca3). This is the combined capacity.
  • the capacity of the branch wiring Ls is adjusted so that the conversion efficiency of each pixel block 100Gr, 100Gb is approximately equal to the conversion efficiency of each pixel block 100R, 100B.
  • the branch wiring Ls corresponds to a specific example of a "capacitance adjustment section" in the present disclosure.
  • the respective capacities of pixel blocks 100R, 100Gr, 100Gb, and 100B are approximately equal.
  • the driving unit 12 sequentially drives the plurality of light receiving pixels P in the pixel array 11 based on instructions from the imaging control unit 18.
  • the reference signal generation unit 13 generates a reference signal RAMP based on instructions from the imaging control unit 18.
  • the light-receiving pixel P outputs the reset voltage Vreset as the signal SIG during the P-phase period TP, and outputs the pixel voltage Vpix according to the amount of received light as the signal SIG during the D-phase period TD.
  • the reading unit 20 generates the image signal Spic0 based on the signal SIG supplied from the pixel array 11 via the signal line VSL and the instruction from the imaging control unit 18.
  • the image data generation section 16 In the signal processing section 15, the image data generation section 16 generates image data DP indicating the captured image by performing predetermined image processing based on the image signal Spic0. Further, the phase difference data generation unit 17 generates phase difference data DF indicating the image plane phase difference by performing predetermined image processing based on the image signal Spic0. Then, the signal processing unit 15 generates an image signal Spic including the image data DP and the phase difference data DF.
  • the imaging control unit 18 controls the operation of the imaging device 1 by supplying control signals to the drive unit 12, reference signal generation unit 13, reading unit 20, and signal processing unit 15 and controlling the operations of these circuits. do.
  • a branch wiring Ls whose capacity is adjusted so that the conversion efficiency of each pixel block 100Gr, 100Gb and the conversion efficiency of each pixel block 100R, 100B are approximately equal is provided. This suppresses deterioration in image quality due to mismatch in conversion efficiency (capacity). As a result, high color reproducibility can be obtained.
  • each pixel block 100R, 100B may have a capacitive element CA instead of the branch wiring Ls, as shown in FIGS. 12, 13, and 14, for example.
  • the capacitive element CA corresponds to a specific example of a "capacitive element" in the present disclosure.
  • Capacitive element CA is configured using, for example, a diffusion layer formed on the surface of semiconductor substrate 111.
  • the capacitive element CA is connected to the main wiring Lm, for example, as shown in FIGS. 12 and 14.
  • the capacitive element CA is arranged around an area ⁇ in which a plurality of photodiodes PD are arranged, for example, as shown in FIGS. 12, 13, and 14.
  • FIG. 15 shows an example of the capacity of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the capacitance of each of the pixel blocks 100Gr and 100Gb is the sum of the capacitance of the wiring L1 (wiring capacitance Cb1) and the capacitance of the floating diffusion FD (FD capacitance Cb3).
  • the capacitance of each of the pixel blocks 100R and 100B is the sum of the capacitance of the wiring L2 (wiring capacitance Ca1), the capacitance of the floating diffusion FD (FD capacitance Ca3), and the capacitance of the capacitive element CA (element capacitance Ca4). capacity.
  • the capacitance of the capacitive element CA is adjusted so that the conversion efficiency of each pixel block 100R, 100B is approximately equal to the conversion efficiency of each pixel block 100Gr, 100Gb.
  • the capacitive element CA corresponds to a specific example of a "capacitance adjustment section" in the present disclosure.
  • the respective capacities of pixel blocks 100Gr and 100Gb are approximately equal to the respective capacities of pixel blocks 100R and 100B.
  • a capacitive element CA whose capacitance is adjusted so that the conversion efficiency of each pixel block 100R, 100B and the conversion efficiency of each pixel block 100Gr, 100Gb are approximately equal is provided. This suppresses deterioration in image quality due to mismatch in conversion efficiency (capacity). As a result, high color reproducibility can be obtained.
  • the capacitances of pixel blocks 100R, 100Gr, 100Gb, and 100B are adjusted by capacitive elements CA.
  • problems such as restrictions on wiring layout due to miniaturization and an increase in the number of wiring layers, which may occur when capacitance is adjusted by wiring capacitance, are less likely to occur.
  • the capacitive element CA is arranged in an area ⁇ where a plurality of photodiodes PD are arranged, for example, as shown in FIGS. 16, 17, and 18. may be done.
  • FIG. 19 shows an example of the capacity of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the capacitance of each of the pixel blocks 100Gr and 100Gb is the sum of the capacitance of the wiring L1 (wiring capacitance Cb1) and the capacitance of the floating diffusion FD (FD capacitance Cb3).
  • the capacitance of each of the pixel blocks 100R and 100B is the sum of the capacitance of the wiring L2 (wiring capacitance Ca1), the capacitance of the floating diffusion FD (FD capacitance Ca3), and the capacitance of the capacitive element CA (element capacitance Ca4). capacity.
  • each pixel block 100R, 100B eight sets of photodiodes PD and transistors TRG are provided in each pixel block 100R, 100B.
  • one set of the eight photodiode PDs and transistors TRG is omitted, and the capacitive element CA is arranged in the resulting area (vacant area). . Therefore, in this modification, it is possible to form the capacitive element CA with a sufficient size. Therefore, by the capacitive element CA, it is easy to adjust the capacitance so that the conversion efficiency of each pixel block 100R, 100B and the conversion efficiency of each pixel block 100Gr, 100Gb are approximately equal.
  • each pixel block 100R, 100B may have one or more branch wiring Ls and a capacitive element CA for capacitance adjustment, for example, as shown in FIG. 20.
  • FIG. 21 shows an example of the capacity of the pixel blocks 100R, 100Gr, 100Gb, and 100B.
  • the capacitance of each of the pixel blocks 100Gr and 100Gb is the sum of the capacitance of the wiring L1 (wiring capacitance Cb1) and the capacitance of the floating diffusion FD (FD capacitance Cb3).
  • the capacitance of each of the pixel blocks 100R and 100B is determined by the capacitance of the main wiring Lm (wiring capacitance Ca1), the capacitance of the branch wiring LS (branch wiring capacitance Ca2), and the capacitance of the floating diffusion FD (FD capacitance Ca3).
  • the capacitance is the sum of the capacitance of the capacitive element CA (element capacitance Ca4).
  • one or more branch wiring Ls and the capacitive element CA are provided for capacitance adjustment.
  • capacitance can be adjusted without causing problems such as restrictions on wiring layout and increase in the number of wiring layers due to miniaturization.
  • the pixel blocks 100R and 100B had eight light-receiving pixels P, and the pixel blocks 100Gr and 100Gb had ten light-receiving pixels P.
  • the number M of light-receiving pixels P included in the pixel blocks 100Gr and 100Gb is smaller than the number N of light-receiving pixels P included in the pixel blocks 100R and 100B.
  • the arrangement of the pixel blocks 100R, 100Gr, 100Gb, and 100B may be different from the Bayer arrangement described above.
  • the conversion efficiency of the light-receiving pixel P is determined by the capacitance of the floating diffusion FD and the gain of the transistor AMP operating as a source follower.
  • the gain of transistor AMP is determined by the gate capacitance of transistor AMP.
  • the conversion efficiency of each light-receiving pixel P is substantially equal to each other, it is possible to see a change in the capacitance of the floating diffusion FD from the movement of the conversion efficiency of the light-receiving pixel P.
  • the dependence of light shot noise (a noise component that depends on the amount of light) is determined according to the output level of the light-receiving pixel P (the level of the signal SIG of the signal line VSL).
  • a is the conversion efficiency of the light receiving pixel P.
  • b is a noise component that is independent of the amount of light.
  • FIG. 23 shows an example of how the imaging device 1 according to the above embodiment and its modification is used.
  • the above-described imaging device 1 can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, as described below.
  • Devices used for transportation such as in-vehicle sensors that take pictures of the rear, surroundings, and interior of the car, surveillance cameras that monitor moving vehicles and roads, and distance sensors that measure the distance between vehicles, etc., and user gestures.
  • Devices used in home appliances such as televisions, refrigerators, and air conditioners to take pictures and operate devices according to the gestures; endoscopes; devices that perform blood vessel imaging by receiving infrared light; Equipment used for medical and healthcare purposes such as security cameras such as surveillance cameras for security purposes and cameras for person recognition purposes Skin measuring instruments that take pictures of the skin and scalp Devices used for beauty purposes, such as microscopes for photography; devices used for sports, such as action cameras and wearable cameras for sports purposes; cameras for monitoring the condition of fields and crops; etc. Equipment used for agricultural purposes
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. It's okay.
  • FIG. 24 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 25 is a diagram showing an example of the installation position of the imaging section 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle 12100.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 25 shows an example of the imaging range of the imaging units 12101 to 12104.
  • An imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • an imaging range 12114 shows the imaging range of the imaging unit 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. In particular, by determining the three-dimensional object that is closest to the vehicle 12100 on its path and that is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as the vehicle 12100, it is possible to extract the three-dimensional object as the preceding vehicle. can.
  • a predetermined speed for example, 0 km/h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance.
  • the microcomputer 12051 detects obstacles around the vehicle 12100. The driver of the vehicle 12100 identifies obstacles that are visible and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the audio image output unit 12052 creates a rectangular outline for emphasis on the recognized pedestrian.
  • the display unit 12062 is controlled to display the .
  • the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the image quality of captured images can be improved.
  • the vehicle control system 12000 realizes a vehicle collision avoidance or collision mitigation function, a follow-up function based on the following distance, a vehicle speed maintenance function, a vehicle collision warning function, a vehicle lane departure warning function, etc. with high accuracy. can.
  • the arrangement of pixel blocks in the pixel array and the arrangement of light-receiving pixels P in the pixel blocks are not limited to the arrangements described in the above embodiments, etc., and various arrangements are possible.
  • the present technology can be configured as follows. According to the present technology having the following configuration, the image quality of a captured image can be improved. (1) comprising a plurality of first light-receiving pixels and a plurality of second light-receiving pixels, Each of the first light-receiving pixels includes N first photodiodes and a first floating diffusion that accumulates charges transferred from each of the first photodiodes via a first wiring. configured, Each of the second light-receiving pixels includes M second photodiodes (M ⁇ N) and a second floating pixel that accumulates charges transferred from each of the second photodiodes via a second wiring.
  • Each of the second light-receiving pixels has a capacitance adjustment section that is adjusted so that the conversion efficiency of each of the first light-receiving pixels and the conversion efficiency of each of the second light-receiving pixels are approximately equal.
  • the capacitance adjustment section has one or more branch wirings, one end of which is connected to the second wiring and the other end of which is electrically open.
  • the capacitance adjustment section includes a capacitor connected to the second wiring.
  • the capacitive element is arranged around a region where the plurality of second photodiodes are arranged.
  • the capacitive element is arranged in a region where the plurality of second photodiodes are arranged.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の一側面に係る撮像装置は、複数の第1の受光画素と、複数の第2の受光画素とを備える。各第1の受光画素は、N個の第1のフォトダイオードと、各第1のフォトダイオードから第1の配線を介して転送された電荷を蓄積する第1のフローティングディフュージョンとを含んで構成される。各第2の受光画素は、M個(M<N)の第2のフォトダイオードと、各第2のフォトダイオードから第2の配線を介して転送された電荷を蓄積する第2のフローティングディフュージョンとを含んで構成される。各第2の受光画素は、各第1の受光画素の変換効率と各第2の受光画素の変換効率とが略等しくなるように調整された容量調整部を有する。

Description

撮像装置
 本開示は、被写体を撮像する撮像装置に関する。
 撮像装置には、例えば、撮像画像を生成するための複数の受光画素が設けられている。各受光画素には、例えば、フローティングディフュージョンを共有する複数のフォトダイオードが含まれ、受光画素に含まれるフォトダイオードの数が全ての受光画素において一致しない撮像装置が知られている(例えば、特許文献1参照)。
特開2015-91025号公報
 ところで、受光画素に含まれるフォトダイオードの数が全ての受光画素において一致しない場合、得られる撮像画像の色再現性が低くなってしまうという問題があった。したがって、高い色再現性が得られる撮像装置を提供することが望ましい。
 本開示の一側面に係る撮像装置は、複数の第1の受光画素と、複数の第2の受光画素とを備える。各第1の受光画素は、N個の第1のフォトダイオードと、各第1のフォトダイオードから第1の配線を介して転送された電荷を蓄積する第1のフローティングディフュージョンとを含んで構成される。各第2の受光画素は、M個(M<N)の第2のフォトダイオードと、各第2のフォトダイオードから第2の配線を介して転送された電荷を蓄積する第2のフローティングディフュージョンとを含んで構成される。各第2の受光画素は、各第1の受光画素の変換効率と各第2の受光画素の変換効率とが略等しくなるように調整された容量調整部を有する。
 本開示の一側面に係る撮像装置では、フォトダイオードの数が互いに異なる第1の受光画素および第2の受光画素のそれぞれの変換効率が略等しくなるように調整された容量調整部が各第2の受光画素に設けられる。これにより、変換効率の不一致に起因する画質の劣化が抑制される。
図1は、本開示の一実施の形態に係る撮像装置の概略構成例を表す図である。 図2は、図1に示した画素アレイの平面構成例を表す図である。 図3は、図2に示した受光画素の断面構成例を表す図である。 図4は、図2に示した画素ブロックの回路構成例を表す図である。 図5は、図2に示した画素ブロックの回路構成例を表す図である。 図6は、図4、図5に示した複数の画素ブロックの接続例を表す図である。 図7は、図1に示した読出部の構成例を表すブロック図である。 図8は、図1に示した画像信号の一構成例を表す図である。 図9は、図4、図5に示した複数の画素ブロックの平面構成例を表す図である。 図10は、図9に示した配線の構成例を表す図である。 図11は、図4、図5に示した複数の画素ブロックの容量について説明する図である。 図12は、図4に示した画素ブロックの回路構成の一変形例を表す図である。 図13は、図5、図12に示した画素アレイの平面構成例を表す図である。 図14は、図13に示した配線の構成例を表す図である。 図15は、図5、図12に示した複数の画素ブロックの容量について説明する図である。 図16は、図12に示した画素ブロックの回路構成の一変形例を表す図である。 図17は、図5、図16に示した画素アレイの平面構成例を表す図である。 図18は、図15に示した配線の構成例を表す図である。 図19は、図5、図16に示した複数の画素ブロックの容量について説明する図である。 図20は、図10に示した配線と図14に示した配線とを組み合わせ配線の構成例を表す図である。 図21は、図20の構成を備えた複数の画素ブロックの容量について説明する図である。 図22は、出力レベルと光ショットノイズとの関係の一例を表す図である。 図23は、撮像装置の使用例を表す説明図である。 図24は、車両制御システムの概略的な構成の一例を示すブロック図である。 図25は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示を実施するための形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。なお、説明は、以下の順序で行う。
1.実施の形態
2.変換効率の測定方法
3.撮像装置の使用例
4.移動体への応用例
<1.実施の形態>
[構成例]
 図1は、本開示の一実施の形態に係る撮像装置1の概略構成例を表すものである。撮像装置1は、画素アレイ11と、駆動部12と、参照信号生成部13と、読出部20と、信号処理部15と、撮像制御部18とを備える。
 画素アレイ11は、マトリックス状に配置された複数の受光画素Pを有する。受光画素Pは、受光量に応じた画素電圧Vpixを含む信号SIGを生成するように構成される。
 図2は、画素アレイ11における複数の受光画素Pの配置の一例を表すものである。図3は、画素アレイ11の断面構成の一例を表すものである。画素アレイ11は、複数の画素ブロック100と、複数のレンズ101とを有する。
 複数の画素ブロック100は、画素ブロック100R,100Gr,100Gb,100Bを含む。画素アレイ11では、複数の受光画素Pは、色再現に必要な4つの画素ブロック100(画素ブロック100R,100Gr,100Gb,100B)を単位(ユニットU)として配置される。ここで、受光画素Pは、本開示における「第1の受光画素」「第2の受光画素」の一具体例に対応する。画素ブロック100Gr,100Gbは、本開示における「第1の受光画素」の一具体例に対応する。画素ブロック100B,100Rは、本開示における「第2の受光画素」の一具体例に対応する。
 画素ブロック100Rは、光入射面が赤色(R)のカラーフィルタ115で覆われた8個の受光画素P(受光画素PR)を有する。画素ブロック100Grは、光入射面が緑色(G)のカラーフィルタ115で覆われた10個の受光画素P(受光画素PGr)を有する。画素ブロック100Gbは、光入射面が緑色(G)のカラーフィルタ115で覆われた10個の受光画素P(受光画素PGb)を有する。画素ブロック100Bは、光入射面が青色(B)のカラーフィルタ115で覆われた8個の受光画素P(受光画素PB)を有する。図2では、カラーフィルタの色の違いを、網掛けを用いて表現している。
 画素ブロック100Rにおける受光画素PRの配置パターン、および画素ブロック100Bにおける受光画素PBの配置パターンは、互いに同じである。画素ブロック100Grにおける受光画素PGrの配置パターン、および画素ブロック100Gbにおける受光画素PGbの配置パターンは、互いに同じである。ユニットUにおいて、例えば、画素ブロック100Grは右上に配置され、画素ブロック100Rは左上に配置され、画素ブロック100Bは右下に配置され、画素ブロック100Gbは左下に配置される。このように、画素ブロック100R,100Gr,100Gb,100Bは、画素ブロック100を単位として、いわゆるベイヤー配列により配列される。
 図3に示したように、画素アレイ11は、半導体基板111と、半導体領域112と、絶縁層113と、多層配線層114と、カラーフィルタ115と、遮光膜116とを有する。半導体基板111は、撮像装置1が形成される支持基板であり、P型の半導体基板(例えばSi基板)である。半導体領域112は、半導体基板111の基板内における、複数の受光画素Pのそれぞれに対応する位置に設けられた半導体領域である。半導体領域112では、N型の不純物がドーピングされることによりフォトダイオードPDが形成される。絶縁層113は、半導体基板111の基板内における、XY平面において並設された複数の受光画素Pの境界に設けられ、この例では、酸化膜などを用いて構成されるDTI(Deep Trench Isolation)である。多層配線層114は、画素アレイ11の光入射面Sとは反対の面における半導体基板111の上に設けられ、複数の配線層、および層間絶縁膜を含む。多層配線層114における配線は、例えば、半導体基板111の表面に設けられた図示しないトランジスタと、駆動部12および読出部20とを接続するように構成される。カラーフィルタ115は、画素アレイ11の光入射面Sにおける半導体基板111の上に設けられた波長選択フィルタである。遮光膜116は、画素アレイ11における光入射面Sにおいて、X方向に並設された2つの受光画素P(以下、画素ペア90とも呼ぶ)を囲むように設けられる。
 複数のレンズ101は、いわゆるオンチップレンズであり、画素アレイ11の光入射面Sにおけるカラーフィルタ115の上に設けられる。レンズ101は、X方向に並設された2つの受光画素P(画素ペア90)の上部に設けられる。画素ブロック100Rの8個の受光画素Pの上部には4つのレンズ101が設けられる。画素ブロック100Grの10個の受光画素Pの上部には5つのレンズ101が設けられる。画素ブロック100Gbの10個の受光画素Pの上部には5つのレンズ101が設けられる。画素ブロック100Bの8個の受光画素Pの上部には4つのレンズ101が設けられる。レンズ101は、X方向およびY方向において並設される。Y方向に並ぶレンズ101は、X方向において、1つの受光画素Pの分だけずれて配置される。言い換えれば、Y方向に並ぶ画素ペア90は、X方向において、1つの受光画素Pの分だけずれて配置される。
 この構成により、1つのレンズ101に対応する画素ペア90における2つの受光画素Pでは、像が互いにずれる。撮像装置1は、複数の画素ペア90により検出されたいわゆる像面位相差に基づいて位相差データDFを生成する。例えば、撮像装置1を搭載したカメラでは、この位相差データDFに基づいてデフォーカス量を決定し、前記デフォーカス量に基づいて、撮影レンズの位置を移動させる。このようにして、カメラでは、オートフォーカスを実現することができるようになっている。
 図4は、画素ブロック100Rの構成例を表すものである。図5は、画素ブロック100Grの構成例を表すものである。図6は、画素ブロック100R,100Gr,100Gb,100Bの配線例を表すものである。なお、図6では、説明の便宜上、複数の画素ブロック100を互いに離して描いている。
 画素アレイ11は、複数の制御線TRGLと、複数の制御線RSTLと、複数の制御線SELLと、複数の信号線VSLとを有する。制御線TRGLは、X方向(図4~6における横方向)に延伸し、一端が駆動部12に接続される。この制御線TRGLには、駆動部12により制御信号STRGが供給される。制御線RSTLは、X方向に延伸し、一端が駆動部12に接続される。この制御線RSTLには、駆動部12により制御信号SRSTが供給される。制御線SELLは、X方向に延伸し、一端が駆動部12に接続される。この制御線SELLには、駆動部12により制御信号SSELが供給される。信号線VSLは、Y方向(図4~6における縦方向)に延伸し、一端が読出部20に接続される。この信号線VSLは、受光画素Pが生成した信号SIGを読出部20に伝える。
 画素ブロック100B(図4)は、8個のフォトダイオードPDと、8個のトランジスタTRGと、1つのフローティングディフュージョンFDと、3つのトランジスタ(トランジスタRST,AMP,SEL)とを有する。一組のフォトダイオードPDおよびトランジスタTRGが、受光画素PRに対応している。トランジスタTRG,RST,AMP,SELは、この例ではN型のMOS(Metal Oxide Semiconductor)トランジスタである。
 フォトダイオードPDは、受光量に応じた量の電荷を生成し、生成した電荷を内部に蓄積する光電変換素子である。フォトダイオードPDにおいて、アノードは接地され、カソードはトランジスタTRGのソースに接続される。画素ブロック100BのフォトダイオードPDは、本開示における「第2のフォトダイオード」の一具体例に対応する。
 トランジスタTRGにおいて、ゲートは制御線TRGLに接続され、ソースはフォトダイオードPDのカソードに接続され、ドレインはフローティングディフュージョンFDに接続される。8個のトランジスタTRGのゲートは、8本の制御線TRGL(この例では、制御線TRGL1,TRGL2,TRGL5~TRGL10)のうちの互いに異なる制御線TRGLに接続される。
 フローティングディフュージョンFDは、フォトダイオードPDからトランジスタTRGおよび後述の配線L2を介して転送された電荷を蓄積するように構成される。フローティングディフュージョンFDは、例えば、半導体基板111の表面に形成された拡散層を用いて構成される。図4では、フローティングディフュージョンFDを、容量素子のシンボルを用いて示している。
 トランジスタRSTにおいて、ゲートは制御線RSTLに接続され、ドレインには電源電圧VDDが供給され、ソースはフローティングディフュージョンFDに接続される。トランジスタAMPにおいて、ゲートはフローティングディフュージョンFDに接続され、ドレインには電源電圧VDDHが供給され、ソースはトランジスタSELのドレインに接続される。トランジスタSELにおいて、ゲートは制御線SELLに接続され、ドレインはトランジスタAMPのソースに接続され、ソースは信号線VSLに接続される。
 この構成により、受光画素Pでは、例えば制御信号STRG,SRSTに基づいてトランジスタTRG,RSTがオン状態になることにより、フォトダイオードPDに蓄積された電荷が排出される。そして、これらのトランジスタTRG,RSTがオフ状態になることにより、露光期間Tが開始され、フォトダイオードPDに、受光量に応じた量の電荷が蓄積される。そして、露光期間Tが終了した後に、受光画素Pは、リセット電圧Vresetおよび画素電圧Vpixを含む信号SIGを、信号線VSLに出力する。具体的には、まず、制御信号SSELに基づいてトランジスタSELがオン状態になることにより、受光画素Pが信号線VSLと電気的に接続される。これにより、トランジスタAMPは、読出部20の定電流源21(後述)に接続され、いわゆるソースフォロワとして動作する。そして、受光画素Pは、後述するように、トランジスタRSTがオン状態になることによりフローティングディフュージョンFDの電圧がリセットされた後のP相(Pre-charge相)期間TPにおいて、その時のフローティングディフュージョンFDの電圧に応じた電圧をリセット電圧Vresetとして出力する。また、受光画素Pは、トランジスタTRGがオン状態になることによりフォトダイオードPDからフローティングディフュージョンFDへ電荷が転送された後のD相(Data相)期間TDにおいて、その時のフローティングディフュージョンFDの電圧に応じた電圧を画素電圧Vpixとして出力する。画素電圧Vpixとリセット電圧Vresetとの差電圧は、露光期間Tにおける受光画素Pの受光量に対応する。このようにして、受光画素Pは、これらのリセット電圧Vresetおよび画素電圧Vpixを含む信号SIGを、信号線VSLに出力するようになっている。
 画素ブロック100Gr(図5)は、10個のフォトダイオードPDと、10個のトランジスタTRGと、1つのフローティングディフュージョンFDと、3つのトランジスタ(トランジスタRST,AMP,SEL)とを有する。一組のフォトダイオードPDおよびトランジスタTRGが受光画素PGrに対応している。10個のトランジスタTRGのゲートは、10本の制御線TRGL(この例では、制御線TRGL1~TRGL6,TRGL9~TRGL12)のうちの互いに異なる制御線TRGLに接続される。画素ブロック100GrのフォトダイオードPDは、本開示における「第1のフォトダイオード」の一具体例に対応する。
 図6に示したように、X方向に並ぶ、同じ行に属する画素ブロック100Gr,100Rは、同じ12本の制御線TRGL(制御線TRGL1~TRGL12)のうちの複数の制御線TRGLに接続される。この例では、図6における下から上に向かって、制御線TRGL1~TRGL12はこの順で並んでいる。画素ブロック100Grは、12本の制御線TRGL(制御線TRGL1~TRGL12)のうちの、10本の制御線TRGL(制御線TRGL1~TRGL6,TRGL9~TRGL12)に接続される。画素ブロック100Rは、この12本の制御線TRGL(制御線TRGL1~TRGL12)のうちの、8本の制御線TRGL(制御線TRGL1,TRGL2,TRGL5~TRGL10)に接続される。
 また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック100Gr,100Rは、1つの制御線RSTL、および1つの制御線SELLに接続される。
 また、図6に示したように、Y方向に並ぶ、同じ列に属する画素ブロック100Grは、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック100Rは、1つの信号線VSLに接続される。
 画素ブロック100Bは、画素ブロック100R(図4)と同様に、8個のフォトダイオードPDと、8個のトランジスタTRGと、1つのフローティングディフュージョンFDと、3つのトランジスタ(トランジスタRST,AMP,SEL)とを有する。一組のフォトダイオードPDおよびトランジスタTRGが受光画素PBに対応している。8個のトランジスタTRGのゲートは、8本の制御線TRGLのうちの互いに異なる制御線TRGLに接続される。画素ブロック100BのフォトダイオードPDは、本開示における「第2のフォトダイオード」の一具体例に対応する。
 画素ブロック100Gbは、画素ブロック100Gr(図5)と同様に、10個のフォトダイオードPDと、10個のトランジスタTRGと、1つのフローティングディフュージョンFDと、3つのトランジスタ(トランジスタRST,AMP,SEL)とを有する。一組のフォトダイオードPDおよびトランジスタTRGが受光画素PGbに対応している。10個のトランジスタTRGのゲートは、10本の制御線TRGLのうちの互いに異なる制御線TRGLに接続される。画素ブロック100GbのフォトダイオードPDは、本開示における「第1のフォトダイオード」の一具体例に対応する。
 図6に示したように、X方向に並ぶ、同じ行に属する画素ブロック100B,100Gbは、同じ12本の制御線TRGLのうちの複数の制御線TRGLに接続される。また、図示していないが、X方向に並ぶ、同じ行に属する画素ブロック100B,100Gbは、1つの制御線RSTL、および1つの制御線SELLに接続される。また、図6に示したように、Y方向に並ぶ、同じ列に属する画素ブロック100Bは、1つの信号線VSLに接続される。同様に、Y方向に並ぶ、同じ列に属する画素ブロック100Gbは、1つの信号線VSLに接続される。
 駆動部12(図1)は、撮像制御部18からの指示に基づいて、画素アレイ11における複数の受光画素Pを駆動するように構成される。具体的には、駆動部12は、画素アレイ11における複数の制御線TRGLに複数の制御信号STRGをそれぞれ供給し、複数の制御線RSTLに複数の制御信号SRSTをそれぞれ供給し、複数の制御線SELLに複数の制御信号SSELをそれぞれ供給することにより、画素アレイ11における複数の受光画素Pを駆動するようになっている。
 参照信号生成部13は、撮像制御部18からの指示に基づいて、参照信号RAMPを生成するように構成される。参照信号RAMPは、読出部20がAD変換を行う期間(P相期間TPおよびD相期間TD)において、時間の経過に応じて電圧レベルが徐々に変化する、いわゆるランプ波形を有する。参照信号生成部13は、このような参照信号RAMPを読出部20に供給するようになっている。
 読出部20は、撮像制御部18からの指示に基づいて、画素アレイ11から信号線VSLを介して供給された信号SIGに基づいてAD変換を行うことにより、画像信号Spic0を生成するように構成される。
 図7は、読出部20の一構成例を表すものである。なお、図7には、読出部20に加え、参照信号生成部13、信号処理部15、および撮像制御部18も描いている。読出部20は、複数の定電流源21と、複数のAD(Analog to Digital)変換部ADCと、転送制御部27とを有する。1つの信号線VSLに対して、1つの定電流源21と、1つのAD変換部ADCとが接続される。
 定電流源21は、対応する信号線VSLに所定の電流を流すように構成される。定電流源21の一端は、対応する信号線VSLに接続され、他端は接地される。
 AD変換部ADCは、対応する信号線VSLにおける信号SIGに基づいてAD変換を行うように構成される。AD変換部ADCは、容量素子22,23と、比較回路24と、カウンタ25と、ラッチ26とを有する。
 容量素子22において、一端は信号線VSLに接続され、他端は比較回路24に接続される。容量素子22には、信号線VSLを介して信号SIGが供給される。容量素子23において、一端は参照信号生成部13に接続され、他端は比較回路24に接続される。容量素子23には、参照信号生成部13から供給された参照信号RAMPが供給される。
 比較回路24は、受光画素Pから信号線VSLおよび容量素子22を介して供給された信号SIG、および参照信号生成部13から容量素子23を介して供給された参照信号RAMPに基づいて、比較動作を行うことにより信号CPを生成するように構成される。比較回路24は、撮像制御部18から供給された制御信号AZに基づいて、容量素子22,23の電圧を設定することにより動作点を設定する。そしてその後に、比較回路24は、P相期間TPにおいて、信号SIGに含まれるリセット電圧Vresetと、参照信号RAMPの電圧とを比較する比較動作を行い、D相期間TDにおいて、信号SIGに含まれる画素電圧Vpixと、参照信号RAMPの電圧とを比較する比較動作を行うようになっている。
 カウンタ25は、比較回路24から供給された信号CPに基づいて、撮像制御部18から供給されたクロック信号CLKのパルスをカウントするカウント動作を行うように構成される。具体的には、カウンタ25は、P相期間TPにおいて、信号CPが遷移するまでクロック信号CLKのパルスをカウントすることによりカウント値CNTPを生成し、このカウント値CNTPを、複数のビットを有するデジタルコードとして出力するようになっている。また、カウンタ25は、D相期間TDにおいて、信号CPが遷移するまでクロック信号CLKのパルスをカウントすることによりカウント値CNTDを生成し、このカウント値CNTDを、複数のビットを有するデジタルコードとして出力するようになっている。
 ラッチ26は、カウンタ25から供給されたデジタルコードを一時的に保持するとともに、転送制御部27からの指示に基づいて、そのデジタルコードをバス配線BUSに出力するように構成される。
 転送制御部27は、撮像制御部18から供給された制御信号CTLに基づいて、複数のAD変換部ADCのラッチ26がデジタルコードをバス配線BUSに順次出力するように、複数のAD変換部ADCを制御するように構成される。読出部20は、このバス配線BUSを用いて、複数のAD変換部ADCから供給された複数のデジタルコードを、画像信号Spic0として、信号処理部15に順次転送するようになっている。
 信号処理部15(図1)は、画像信号Spic0および撮像制御部18からの指示に基づいて、所定の信号処理を行うことにより画像信号Spicを生成するように構成される。信号処理部15は、画像データ生成部16と、位相差データ生成部17とを有する。画像データ生成部16は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDPを生成するように構成される。位相差データ生成部17は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成するように構成される。信号処理部15は、画像データDPおよび位相差データDFを含む画像信号Spicを生成する。
 図8は、画像信号Spicの一例を表すものである。信号処理部15は、例えば、複数行分の受光画素Pに係る画像データDPと、複数行分の受光画素Pに係る位相差データDFを交互に配置することにより、画像信号Spicを生成する。そして、信号処理部15は、このような画像信号Spicを出力するようになっている。
 撮像制御部18は、駆動部12、参照信号生成部13、読出部20、および信号処理部15に制御信号を供給し、これらの回路の動作を制御することにより、撮像装置1の動作を制御するように構成される。撮像制御部18には、外部から制御信号Sctlが供給される。撮像制御部18は、制御信号Sctlに基づいて、撮像装置1の動作を制御するようになっている。
  次に、各受光画素Pの容量について説明する。
 図9は、複数の画素ブロック100の平面構成例を表したものである。図10は、図9に示した配線L1,L2を抜き出して表したものである。図9に示したように、各トランジスタTRG,AMP,RST,SELは半導体基板111(Si基板)に形成される。各トランジスタTRGと、各トランジスタAMP,RST,SELとの間には絶縁層113が設けられる。
 画素ブロック100R,100Bでは、図4、図9、図10に示したように、各トランジスタTRGのドレインと、フローティングディフュージョンFDとを接続する配線L2が設けられる。画素ブロック100Gr,100Gbでは、図5、図9、図10に示したように、各トランジスタTRGのドレインと、フローティングディフュージョンFDとを接続する配線L1が設けられる。各配線L1,L2は、コンタクトCNTを介してフローティングディフュージョンFDと電気的に接続される。各配線L1,L2は、さらに、コンタクトCNTを介してトランジスタAMPのゲートおよびトランジスタRSTのソースと電気的に接続される。
 各配線L1が、本開示における「第1の配線」の一具体例に対応する。画素ブロック100Gr,100GbのフローティングディフュージョンFDが、本開示における「第1のフローティングディフュージョン」の一具体例に対応する。画素ブロック100R,100BのフローティングディフュージョンFDが、本開示における「第2のフローティングディフュージョン」の一具体例に対応する。
 各配線L2は、主配線Lmと、1または複数の分岐配線Lsとを有する。主配線Lmは、トランジスタTRGのドレインと、フローティングディフュージョンFDならびにトランジスタAMPのゲートおよびトランジスタRSTのソースとに接続される。1または複数の分岐配線Lsでは、一端が主配線Lmに連結され、他端が電気的にオープンになっている。図10には、主配線Lmに4本の分岐配線Lsが連結される場合が例示されている。なお、各配線L1に、分岐配線Lsと同様の分岐配線が連結されてもよい。主配線Lmが、本開示における「第2の配線」の一具体例に対応する。分岐配線Lsが、本開示における「分岐配線」の一具体例に対応する。
 図11は、画素ブロック100R,100Gr,100Gb,100Bの容量の一例を表したものである。画素ブロック100Gr,100Gbのそれぞれの容量は、配線L1の容量(配線容量Cb1)と、フローティングディフュージョンFDの容量(FD容量Cb3)とを足し合わせた容量となっている。一方、画素ブロック100R,100Bのそれぞれの容量は、主配線Lmの容量(配線容量Ca1)と、分岐配線Lsの容量(分岐配線容量Ca2)と、フローティングディフュージョンFDの容量(FD容量Ca3)とを足し合わせた容量となっている。
 分岐配線Lsは、各画素ブロック100Gr,100Gbの変換効率と各画素ブロック100R,100Bの変換効率とが略等しくなるように容量調整されている。つまり、分岐配線Lsが、本開示における「容量調整部」の一具体例に対応する。その結果、画素ブロック100R,100Gr,100Gb,100Bのそれぞれの容量が略等しくなっている。
[動作]
 続いて、撮像装置1の動作について説明する。
 駆動部12は、撮像制御部18からの指示に基づいて、画素アレイ11における複数の受光画素Pを順次駆動する。参照信号生成部13は、撮像制御部18からの指示に基づいて、参照信号RAMPを生成する。受光画素Pは、P相期間TPにおいて、リセット電圧Vresetを信号SIGとして出力し、D相期間TDにおいて、受光量に応じた画素電圧Vpixを信号SIGとして出力する。読出部20は、画素アレイ11から信号線VSLを介して供給された信号SIG、および撮像制御部18からの指示に基づいて、画像信号Spic0を生成する。信号処理部15において、画像データ生成部16は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、撮像画像を示す画像データDPを生成する。さらに、位相差データ生成部17は、画像信号Spic0に基づいて、所定の画像処理を行うことにより、像面位相差を示す位相差データDFを生成する。そして、信号処理部15は、画像データDPおよび位相差データDFを含む画像信号Spicを生成する。撮像制御部18は、駆動部12、参照信号生成部13、読出部20、および信号処理部15に制御信号を供給し、これらの回路の動作を制御することにより、撮像装置1の動作を制御する。
[効果]
 次に、撮像装置1の効果について説明する。
 本実施の形態では、各画素ブロック100Gr,100Gbの変換効率と各画素ブロック100R,100Bの変換効率とが略等しくなるように容量調整された分岐配線Lsが設けられる。これにより、変換効率(容量)の不一致に起因する画質の劣化が抑制される。その結果、高い色再現性を得ることができる。
<2.変形例>
[変形例A]
 上記実施の形態において、各画素ブロック100R,100Bは、例えば、図12、図13、図14に示したように、分岐配線Lsの代わりに、容量素子CAを有してもよい。容量素子CAが、本開示における「容量素子」の一具体例に対応する。容量素子CAは、例えば、半導体基板111の表面に形成された拡散層を用いて構成される。容量素子CAは、例えば、図12、図14に示したように、主配線Lmに連結されている。各画素ブロック100R,100Bにおいて、容量素子CAは、例えば、図12、図13、図14に示したように、複数のフォトダイオードPDが配列された領域αの周囲に配置されている。
 図15は、画素ブロック100R,100Gr,100Gb,100Bの容量の一例を表したものである。画素ブロック100Gr,100Gbのそれぞれの容量は、配線L1の容量(配線容量Cb1)と、フローティングディフュージョンFDの容量(FD容量Cb3)とを足し合わせた容量となっている。一方、画素ブロック100R,100Bのそれぞれの容量は、配線L2の容量(配線容量Ca1)と、フローティングディフュージョンFDの容量(FD容量Ca3)と、容量素子CAの容量(素子容量Ca4)とを足し合わせた容量となっている。
 容量素子CAは、各画素ブロック100R,100Bの変換効率と各画素ブロック100Gr,100Gbの変換効率とが略等しくなるように容量調整されている。つまり、容量素子CAが、本開示における「容量調整部」の一具体例に対応する。その結果、画素ブロック100Gr,100Gbのそれぞれの容量と、画素ブロック100R,100Bのそれぞれの容量とが略等しくなっている。
 本変形例では、各画素ブロック100R,100Bの変換効率と各画素ブロック100Gr,100Gbの変換効率とが略等しくなるように容量調整された容量素子CAが設けられる。これにより、変換効率(容量)の不一致に起因する画質の劣化が抑制される。その結果、高い色再現性を得ることができる。
 また、本変形例では、画素ブロック100R,100Gr,100Gb,100Bの容量が容量素子CAによって調整される。これにより、配線容量によって容量調整を行う場合に生じ得る、微細化に伴う配線レイアウトの制限や、配線層数の増加などの問題が生じにくい。
[変形例B]
 上記変形例Aに係る各画素ブロック100R,100Bにおいて、容量素子CAは、例えば、図16、図17、図18に示したように、複数のフォトダイオードPDが配列された領域αの中に配置されてもよい。
 図19は、画素ブロック100R,100Gr,100Gb,100Bの容量の一例を表したものである。画素ブロック100Gr,100Gbのそれぞれの容量は、配線L1の容量(配線容量Cb1)と、フローティングディフュージョンFDの容量(FD容量Cb3)とを足し合わせた容量となっている。一方、画素ブロック100R,100Bのそれぞれの容量は、配線L2の容量(配線容量Ca1)と、フローティングディフュージョンFDの容量(FD容量Ca3)と、容量素子CAの容量(素子容量Ca4)とを足し合わせた容量となっている。
 ところで、上記変形例Aでは、各画素ブロック100R,100Bにおいて、8組のフォトダイオードPDおよびトランジスタTRGが設けられる。一方、本変形例では、各画素ブロック100R,100Bにおいて、8組のフォトダイオードPDおよびトランジスタTRGのうちの一組が割愛され、それによって生じた領域(空き領域)に容量素子CAが配置される。そのため、本変形例では、容量素子CAを十分な大きさで形成することが可能である。したがって、容量素子CAによって、各画素ブロック100R,100Bの変換効率と各画素ブロック100Gr,100Gbの変換効率とが略等しくなるように容量調整することが容易である。
[変形例C]
 上記実施の形態において、各画素ブロック100R,100Bは、例えば、図20に示したように、容量調整のために、1または複数の分岐配線Lsと、容量素子CAとを有してもよい。
 図21は、画素ブロック100R,100Gr,100Gb,100Bの容量の一例を表したものである。画素ブロック100Gr,100Gbのそれぞれの容量は、配線L1の容量(配線容量Cb1)と、フローティングディフュージョンFDの容量(FD容量Cb3)とを足し合わせた容量となっている。一方、画素ブロック100R,100Bのそれぞれの容量は、主配線Lmの容量(配線容量Ca1)と、分岐配線LSの容量(分岐配線容量Ca2)と、フローティングディフュージョンFDの容量(FD容量Ca3)と、容量素子CAの容量(素子容量Ca4)とを足し合わせた容量となっている。
 このように、本変形例では、容量調整のために、1または複数の分岐配線Lsと、容量素子CAとが設けられている。これにより、微細化に伴う配線レイアウトの制限や、配線層数の増加などの問題を生じさせることなく、容量調整を行うことができる。
[変形例D]
 上記実施の形態およびその変形例では、画素ブロック100R,100Bが8個の受光画素Pを有し、画素ブロック100Gr,100Gbが10個の受光画素Pを有していた。しかし、上記実施の形態およびその変形例において、画素ブロック100Gr,100Gbに含まれる受光画素Pの数Mが、画素ブロック100R,100Bに含まれる受光画素Pの数Nよりも少なくなっていればよい。また、上記実施の形態およびその変形例において、画素ブロック100R,100Gr,100Gb,100Bの配列は、上述のベイヤー配列とは異なる配列になっていてもよい。
<2.変換効率の測定方法>
 ところで、受光画素Pの変換効率は、フローティングディフュージョンFDの容量と、ソースフォロワとして動作するトランジスタAMPのゲインとによって決定される。トランジスタAMPのゲインは、トランジスタAMPのゲート容量によって決定される。本実施の形態では、各受光画素Pの変換効率は互いに略等しくなっていることから、受光画素Pの変換効率の動きから、フローティングディフュージョンFDの容量の変動を見ることができる。受光画素Pの変換効率の測定手法としては、例えば、受光画素Pの出力レベル(信号線VSLの信号SIGのレベル)に応じて、光ショットノイズ(光量依存のあるノイズ成分)の依存性を求める測定方法がある。この測定方法による測定によって得られる結果は、例えば、図22に示したグラフで表される。このグラフは、Y=a×X+bで表される。ここで、aが受光画素Pの変換効率である。bが光量非依存のノイズ成分である。
<3.撮像装置の使用例>
 図23は、上記実施の形態およびその変形例に係る撮像装置1の使用例を表すものである。上述した撮像装置1は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビジョンや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<4.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図24は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図24に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達する
ための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図24の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図25は、撮像部12031の設置位置の例を示す図である。
 図25では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図25には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、
車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。車両に搭載される撮像装置では、撮像画像の画質を高めることができる。その結果、車両制御システム12000では、車両の衝突回避あるいは衝突緩和機能、車間距離に基づく追従走行機能、車速維持走行機能、車両の衝突警告機能、車両のレーン逸脱警告機能等を、高い精度で実現できる。
 以上、実施の形態および変形例、ならびにそれらの具体的な応用例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
 例えば、画素アレイにおける画素ブロックの配置、および画素ブロックにおける受光画素Pの配置は、上記実施の形態などに記載された配置に限定されるものではなく、様々な配置が可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成とすることができる。以下の構成の本技術によれば、撮像画像の画質を高めることができる。
(1)
 複数の第1の受光画素と、複数の第2の受光画素とを備え、
 各前記第1の受光画素は、N個の第1のフォトダイオードと、各前記第1のフォトダイオードから第1の配線を介して転送された電荷を蓄積する第1のフローティングディフュージョンとを含んで構成され、
 各前記第2の受光画素は、M個(M<N)の第2のフォトダイオードと、各前記第2のフォトダイオードから第2の配線を介して転送された電荷を蓄積する第2のフローティングディフュージョンとを含んで構成され、
 各前記第2の受光画素は、各前記第1の受光画素の変換効率と各前記第2の受光画素の変換効率とが略等しくなるように調整された容量調整部を有する
 撮像装置。
(2)
 前記容量調整部は、一端が前記第2の配線に連結され、他端が電気的にオープンになっている1または複数の分岐配線を有する
 (1)に記載の撮像装置。
(3)
 前記容量調整部は、前記第2の配線に連結された容量素子を有する
 (1)または(2)に記載の撮像装置。
(4)
 各前記第2の受光画素において、前記容量素子は、前記複数の第2のフォトダイオードが配列された領域の周囲に配置される
 (3)に記載の撮像装置。
(5)
 各前記第2の受光画素において、前記容量素子は、前記複数の第2のフォトダイオードが配列された領域の中に配置される
 (3)に記載の撮像装置。
 本出願は、日本国特許庁において2022年6月15日に出願された日本特許出願番号第2022-096658号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (5)

  1.  複数の第1の受光画素と、複数の第2の受光画素とを備え、
     各前記第1の受光画素は、N個の第1のフォトダイオードと、各前記第1のフォトダイオードから第1の配線を介して転送された電荷を蓄積する第1のフローティングディフュージョンとを含んで構成され、
     各前記第2の受光画素は、M個(M<N)の第2のフォトダイオードと、各前記第2のフォトダイオードから第2の配線を介して転送された電荷を蓄積する第2のフローティングディフュージョンとを含んで構成され、
     各前記第2の受光画素は、各前記第1の受光画素の変換効率と各前記第2の受光画素の変換効率とが略等しくなるように調整された容量調整部を有する
     撮像装置。
  2.  前記容量調整部は、一端が前記第2の配線に連結され、他端が電気的にオープンになっている1または複数の分岐配線を有する
     請求項1に記載の撮像装置。
  3.  前記容量調整部は、前記第2の配線に連結された容量素子を有する
     請求項1に記載の撮像装置。
  4.  各前記第2の受光画素において、前記容量素子は、前記複数の第2のフォトダイオードが配列された領域の周囲に配置される
     請求項3に記載の撮像装置。
  5.  各前記第2の受光画素において、前記容量素子は、前記複数の第2のフォトダイオードが配列された領域の中に配置される
     請求項3に記載の撮像装置。
PCT/JP2023/015793 2022-06-15 2023-04-20 撮像装置 WO2023243222A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-096658 2022-06-15
JP2022096658 2022-06-15

Publications (1)

Publication Number Publication Date
WO2023243222A1 true WO2023243222A1 (ja) 2023-12-21

Family

ID=89190907

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/015793 WO2023243222A1 (ja) 2022-06-15 2023-04-20 撮像装置

Country Status (1)

Country Link
WO (1) WO2023243222A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014022561A (ja) * 2012-07-18 2014-02-03 Sony Corp 固体撮像装置、及び、電子機器
JP2017175164A (ja) * 2017-06-12 2017-09-28 ソニー株式会社 固体撮像装置及び電子機器
WO2021106732A1 (ja) * 2019-11-29 2021-06-03 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014022561A (ja) * 2012-07-18 2014-02-03 Sony Corp 固体撮像装置、及び、電子機器
JP2017175164A (ja) * 2017-06-12 2017-09-28 ソニー株式会社 固体撮像装置及び電子機器
WO2021106732A1 (ja) * 2019-11-29 2021-06-03 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器

Similar Documents

Publication Publication Date Title
US11888004B2 (en) Imaging apparatus having phase difference detection pixels receiving light transmitted through a same color filter
JP7146483B2 (ja) 受光装置およびその制御方法、並びに電子機器
US11924566B2 (en) Solid-state imaging device and electronic device
WO2018216477A1 (ja) 固体撮像素子および電子機器
US11336860B2 (en) Solid-state image capturing device, method of driving solid-state image capturing device, and electronic apparatus
US20230402475A1 (en) Imaging apparatus and electronic device
US20230387155A1 (en) Imaging apparatus
US20210385394A1 (en) Solid-state imaging apparatus and electronic
US11928848B2 (en) Light receiving device, solid-state imaging apparatus, electronic equipment, and information processing system
CN112970117A (zh) 固态成像装置和电子设备
US11330212B2 (en) Imaging device and diagnosis method
WO2023243222A1 (ja) 撮像装置
WO2023074177A1 (ja) 撮像装置
WO2020090459A1 (ja) 固体撮像装置、及び電子機器
WO2023021774A1 (ja) 撮像装置及び撮像装置を備える電子機器
WO2023032416A1 (ja) 撮像装置
WO2023132151A1 (ja) 撮像素子および電子機器
US20240089637A1 (en) Imaging apparatus
CN118120061A (zh) 摄像装置
WO2023210324A1 (ja) 固体撮像装置および電子機器
WO2022172642A1 (ja) 固体撮像素子および撮像方法、並びに電子機器
WO2023188868A1 (ja) リニアセンサ
WO2023286391A1 (ja) 受光装置、電子機器及び受光方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23823525

Country of ref document: EP

Kind code of ref document: A1