WO2021124964A1 - 撮像素子、撮像素子の駆動方法および電子機器 - Google Patents

撮像素子、撮像素子の駆動方法および電子機器 Download PDF

Info

Publication number
WO2021124964A1
WO2021124964A1 PCT/JP2020/045556 JP2020045556W WO2021124964A1 WO 2021124964 A1 WO2021124964 A1 WO 2021124964A1 JP 2020045556 W JP2020045556 W JP 2020045556W WO 2021124964 A1 WO2021124964 A1 WO 2021124964A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
sensitivity
light
pixels
unit
Prior art date
Application number
PCT/JP2020/045556
Other languages
English (en)
French (fr)
Inventor
智彦 朝妻
中村 良助
聡子 飯田
晃史 沖田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202080078854.5A priority Critical patent/CN114730779A/zh
Priority to US17/782,872 priority patent/US20230018370A1/en
Priority to KR1020227017364A priority patent/KR20220115929A/ko
Priority to DE112020006147.7T priority patent/DE112020006147T5/de
Priority to CN202211344606.8A priority patent/CN115696074B/zh
Priority to JP2021565484A priority patent/JPWO2021124964A1/ja
Publication of WO2021124964A1 publication Critical patent/WO2021124964A1/ja
Priority to US18/134,355 priority patent/US11991463B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/621Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming
    • H04N25/622Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels for the control of blooming by controlling anti-blooming drains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/59Control of the dynamic range by controlling the amount of charge storable in the pixel, e.g. modification of the charge conversion ratio of the floating node capacitance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/778Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising amplifiers shared between a plurality of pixels, i.e. at least one part of the amplifier must be on the sensor array itself

Definitions

  • the present disclosure relates to an image sensor, a method of driving the image sensor, and an electronic device.
  • an imaging device provided with a photoelectric conversion element for example, it is desirable that the sensitivity of the photoelectric conversion element is high when the illuminance is low, while it is desirable that the photoelectric conversion element is hard to saturate when the illuminance is high. Therefore, for example, in Patent Document 1, two large and small photoelectric conversion elements having different areas are arranged in a unit pixel, and a high-sensitivity pixel and a small-area photoelectric conversion element corresponding to a case where the large-area photoelectric conversion element has low illuminance are arranged. Is disclosed as a low-sensitivity pixel.
  • the sensitivity is significantly different between the high-sensitivity pixel and the low-sensitivity pixel. Therefore, leakage (crosstalk) of the incident light from the high-sensitivity pixels to the low-sensitivity pixels may occur, and the image quality of the captured image may deteriorate.
  • An object of the present disclosure is to provide an image sensor capable of suppressing crosstalk between pixels, a method for driving the image sensor, and an electronic device.
  • the image pickup element on one side includes a first pixel including a first photoelectric conversion element, and a second pixel including a second photoelectric conversion element, which is arranged adjacent to the first pixel.
  • a unit pixel including, and a storage unit that stores the electric charge generated by the second photoelectric conversion element and converts the accumulated charge into a voltage, and the storage unit is adjacent to the unit pixel and the unit pixel. It is arranged at the boundary with other unit pixels.
  • the image sensor on one side according to the present disclosure includes a pixel array including a plurality of pixels and a light-shielding portion provided between each of the plurality of pixels included in the pixel array, and the light-shielding portion is among the plurality of pixels.
  • the width of the narrowest portion between the two pixels arranged adjacent to each other was defined as the width corresponding to the difference in sensitivity between the two pixels.
  • the image sensor on one side includes a pixel array including a plurality of pixels and a trench shading portion provided around each of the plurality of pixels included in the pixel array, and the trench shading portion includes a plurality of pixels.
  • the first pixel is provided without a gap around the first pixel
  • the second pixel adjacent to the first pixel is provided around the second pixel so as to be separated from the trench light-shielding portion provided around the first pixel. Be done.
  • the image sensor on one side is provided around the first pixel, the second pixel arranged adjacent to the first pixel, and the first pixel and the second pixel, respectively.
  • a light-shielding portion is provided with a light-shielding wall embedded in the depth direction of the trench at the first boundary portion between the trench light-shielding portion and at least the first pixel and the second pixel of the trench light-shielding portion. At the boundary portion of 1, it is embedded so as to be closer to the direction of the second pixel.
  • FIG. 1 It is a figure which shows the structure of the unit pixel applicable to each embodiment. It is a timing chart for demonstrating the operation example at the start of exposure of a unit pixel applicable to each embodiment. It is a timing chart for demonstrating the operation example at the time of reading a unit pixel applicable to each embodiment. It is a top view of an example of a pixel which shows typically the arrangement position of the storage part which concerns on 1st Embodiment. It is a top view of an example of a pixel which shows typically the arrangement position of the storage part which concerns on 1st Embodiment. It is a top view of an example which shows typically the example which the storage part was arranged at an inappropriate position. FIG.
  • FIG. 5 is a cross-sectional view schematically showing a structure of an example of a pixel when a storage portion is arranged at an appropriate position according to the first embodiment. It is sectional drawing which shows typically the structure of an example of a pixel when the storage part is arranged at an inappropriate position. It is a figure which shows the example of the case where the angle of view with respect to the row direction of a pixel array part is wide in a column direction. It is a figure which shows the example of the arrangement of the storage part when the angle of view with respect to a pixel array part is wide in a row direction which concerns on 1st modification of 1st Embodiment.
  • FIG. 1 is a block diagram showing a configuration of an example of an electronic device to which the technology according to each embodiment of the present disclosure can be applied.
  • the electronic device 1000 includes an optical unit 1010, an imaging device 1011, a signal processing circuit 1012, a display device 1013, and a storage medium 1014.
  • an image pickup device as an image pickup device according to the present disclosure, which will be described in detail later, is applied to the image pickup device 1011.
  • the image pickup device includes a plurality of pixels that convert the incident light into an electric signal by photoelectric conversion, and a drive circuit that drives the plurality of pixels.
  • a digital still camera, a digital video camera, a mobile phone with an imaging function, a smartphone, or the like can be applied.
  • the optical unit 1010 includes one or more lenses, an aperture mechanism, a focus mechanism, and the like, and forms an image light (incident light) from the subject on the image pickup surface of the image pickup device 1011. As a result, the signal charge is accumulated in the image pickup apparatus 1011 for a certain period of time.
  • the signal processing circuit 1012 performs various signal processing including image processing on the pixel signal output from the image pickup apparatus 1011.
  • the signal-processed image signal can be stored in a non-volatile storage medium 1014 such as a flash memory or a hard disk drive. Further, an image based on the pixel signal can be output to the display device 1013.
  • FIG. 1 is a block diagram showing a schematic configuration example of a CMOS image sensor applicable to each embodiment.
  • the CMOS image sensor is an image sensor created by applying or partially using a CMOS process.
  • the CMOS image sensor applicable to each embodiment is composed of a back-illuminated CMOS image sensor.
  • the CMOS image sensor 10 as an image pickup device applicable to each embodiment has, for example, a stack structure in which a semiconductor chip on which a pixel array portion 11 is formed and a semiconductor chip on which peripheral circuits are formed are laminated.
  • Peripheral circuits may include, for example, a vertical drive circuit 12, a column processing circuit 13, a horizontal drive circuit 14, and a system control unit 15.
  • the CMOS image sensor 10 further includes a signal processing unit 18 and a data storage unit 19.
  • the signal processing unit 18 and the data storage unit 19 may be provided on the same semiconductor chip as the peripheral circuit, or may be provided on another semiconductor chip.
  • unit pixels (hereinafter, may be simply referred to as “pixels”) having a photoelectric conversion element that generates and stores electric charges according to the amount of received light are arranged in the row direction and the column direction, that is, It has a configuration in which it is arranged in a two-dimensional lattice in a matrix.
  • the row direction refers to the pixel arrangement direction (that is, the horizontal direction) of the pixel row
  • the column direction means the pixel arrangement direction (that is, the vertical direction) of the pixel row.
  • the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row in the matrix-like pixel array.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the pixel.
  • the pixel drive line LD is shown as one wiring, but the wiring is not limited to one.
  • One end of the pixel drive line LD is connected to the output end corresponding to each line of the vertical drive circuit 12.
  • the vertical drive circuit 12 is composed of a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 11 simultaneously for all pixels or in units of rows. That is, the vertical drive circuit 12 constitutes a drive unit that controls the operation of each pixel of the pixel array unit 11 together with the system control unit 15 that controls the vertical drive circuit 12. Although the specific configuration of the vertical drive circuit 12 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
  • the read-out scanning system selectively scans the unit pixels of the pixel array unit 11 row by row in order to read a signal from the unit pixels.
  • the signal read from the unit pixel is an analog signal.
  • the sweep-out scanning system performs sweep-out scanning for the read-out line on which read-out scanning is performed by the read-out scanning system, ahead of the read-out scan by the exposure time.
  • the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of the unit pixel of the read line. Then, by sweeping out (resetting) unnecessary charges with this sweep-out scanning system, a so-called electronic shutter operation is performed.
  • the electronic shutter operation refers to an operation of discarding the electric charge of the photoelectric conversion element and starting a new exposure (starting the accumulation of electric charge).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that. Then, the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as the exposure period) in the unit pixel.
  • the signal output from each unit pixel of the pixel row selectively scanned by the vertical drive circuit 12 is input to the column processing circuit 13 through each of the vertical signal lines VSL for each pixel column.
  • the column processing circuit 13 performs predetermined signal processing on the signal output from each pixel in the selected row through the vertical signal line VSL for each pixel column of the pixel array unit 11, and temporarily processes the pixel signal after the signal processing. Hold the target.
  • the column processing circuit 13 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel.
  • the column processing circuit 13 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.
  • AD analog-digital
  • the horizontal drive circuit 14 is composed of a shift register, an address decoder, and the like, and reads out circuits (hereinafter, referred to as pixel circuits) corresponding to the pixel strings of the column processing circuit 13 are sequentially selected.
  • pixel circuits reads out circuits
  • the system control unit 15 is composed of a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the vertical drive circuit 12, the column processing circuit 13, and the horizontal drive circuit 14 Drive control such as.
  • the signal processing unit 18 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the column processing circuit 13.
  • the data storage unit 19 temporarily stores data necessary for the signal processing in the signal processing unit 18.
  • the output image output from the signal processing unit 18 may be, for example, executed by an application processor or the like in an electronic device equipped with the CMOS image sensor 10 or transmitted to an external device via a predetermined network. You may.
  • FIG. 3 is a circuit diagram showing a schematic configuration example of a unit pixel applicable to each embodiment.
  • the unit pixel 100 includes two photoelectric conversion elements, a first photoelectric conversion element 101 and a second photoelectric conversion element 102. Further, the unit pixel 100 has a first transfer transistor 103, a second transfer transistor 104, a third transfer transistor 105, and a fourth transfer transistor 106 in order to drive the first photoelectric conversion element 101 and the second photoelectric conversion element 102. , FD (floating diffusion) unit 107, reset transistor 108, amplification transistor 109, and selection transistor 110.
  • FD floating diffusion
  • the pixel by the second photoelectric conversion element 102 included in the unit pixel 100 applicable to each embodiment stores the generated charge in the node 113, which is a floating diffusion layer, which will be described later, to perform the second photoelectric conversion. It is configured as an FD storage type pixel that reads out a signal according to the electric charge generated by the element 102.
  • the first transfer transistor 103, the second transfer transistor 104, the third transfer transistor 105, the fourth transfer transistor 106, the reset transistor 108, the amplification transistor 109, and the selection transistor 110 are, for example, n-type MOS transistors (hereinafter referred to as NMOS transistors). ).
  • the first transfer transistor 103, the second transfer transistor 104, the third transfer transistor 105, the fourth transfer transistor 106, the reset transistor 108, the amplification transistor 109, and the selection transistor 110 are also simply referred to as pixel transistors.
  • the reset transistor 108 and the amplification transistor 109 are connected to the power supply VDD.
  • the first photoelectric conversion element 101 includes a so-called embedded photodiode in which an n-type impurity region is formed inside a p-type impurity region formed on a silicon semiconductor substrate.
  • the second photoelectric conversion element 102 includes an embedded photodiode. The first photoelectric conversion element 101 and the second photoelectric conversion element 102 generate an electric charge according to the amount of received light, and accumulate the generated electric charge up to a certain amount.
  • the unit pixel 100 further includes a charge storage unit 111.
  • the charge storage unit 111 is, for example, a MOS (Metal-Oxide-Semiconductor) capacity or a MIS (Metal-Insulator-Semiconductor) capacity.
  • a first transfer transistor 103, a second transfer transistor 104, a third transfer transistor 105, and a fourth transfer transistor 106 are connected in series between the first photoelectric conversion element 101 and the second photoelectric conversion element 102.
  • the floating diffusion layer connected between the first transfer transistor 103 and the second transfer transistor 104 becomes the FD section 107.
  • the FD unit 107 is provided with a parasitic capacitance C10.
  • the floating diffusion layer connected between the second transfer transistor 104 and the third transfer transistor 105 becomes a node 112.
  • the node 112 is provided with a parasitic capacitance C11.
  • the floating diffusion layer connected between the third transfer transistor 105 and the fourth transfer transistor 106 becomes a node 113.
  • a charge storage unit 111 is connected to the node 113.
  • a plurality of drive lines are connected, for example, for each pixel line as the pixel drive line LD described in FIG.
  • various drive signals TRG, FDG, FCG, TGS, RST and SEL are supplied from the vertical drive circuit 12 via the plurality of drive lines.
  • a high level state for example, power supply voltage VDD
  • a low level state for example, ground potential or negative potential
  • It may be a pulse signal that becomes inactive, or a signal that maintains the state of each level for a predetermined time.
  • a drive signal TRG is applied to the gate electrode of the first transfer transistor 103.
  • the drive signal TRG becomes active, the first transfer transistor 103 becomes conductive, and the electric charge accumulated in the first photoelectric conversion element 101 is transferred to the FD unit 107 via the first transfer transistor 103.
  • a drive signal FDG is applied to the gate electrode of the second transfer transistor 104.
  • the drive signal FDG becomes active and the second transfer transistor 104 becomes conductive, the potentials of the FD unit 107 and the node 112 are combined to form one charge storage region.
  • a drive signal FCG is applied to the gate electrode of the third transfer transistor 105.
  • the drive signal FDG and the drive signal FCG are in the active state and the second transfer transistor 104 and the third transfer transistor 105 are in the conductive state, the potentials from the FD unit 107 to the charge storage unit 111 are combined to form one charge. It becomes a storage area.
  • the drive signal TGS is applied to the gate electrode of the fourth transfer transistor 106.
  • the fourth transfer transistor 106 becomes conductive, and the charge stored in the second photoelectric conversion element 102 is transferred to the charge storage unit 111 via the fourth transfer transistor 106.
  • the fourth transfer transistor 106, the third transfer transistor 105, and the second transfer transistor 104 are in the active state, the potentials from the charge storage unit 111 to the FD unit 107 are coupled, and the second photoelectric conversion is performed in the combined charge storage region.
  • the charge stored in the element 102 is transferred.
  • the lower channel region of the gate electrode of the fourth transfer transistor 106 has a slightly higher potential than, for example, the lower channel region of the gate electrode of the first transfer transistor 103, the second transfer transistor 104, or the third transfer transistor 105. It is shifting in the positive direction (in other words, the potential is slightly deeper), which forms an overflow path for the charge.
  • the charge exceeding the saturated charge amount is second through the overflow path. It overflows (overflows) from the photoelectric conversion element 102 to the charge storage unit 111. The overflowed charge is accumulated in the charge storage unit 111.
  • the overflow path formed in the channel region below the gate electrode of the fourth transfer transistor 106 is simply referred to as the overflow path of the fourth transfer transistor 106.
  • the first electrode is a node electrode connected to the node 113 between the third transfer transistor 105 and the fourth transfer transistor 106.
  • the second electrode is a grounded electrode.
  • the second electrode may be connected to a specific potential other than the ground potential, for example, a power supply potential.
  • the second electrode is an impurity region formed on a silicon substrate, and the dielectric film forming the capacity is an oxide film formed on the silicon substrate. And a nitride film.
  • the first electrode is an electrode formed of a conductive material, for example polysilicon or metal, above the second electrode and the dielectric film.
  • the second electrode When the second electrode is set to the ground potential, the second electrode may be a p-type impurity region electrically connected to the p-type impurity region provided in the first photoelectric conversion element 101 or the second photoelectric conversion element 102. .. When the second electrode has a specific potential other than the ground potential, the second electrode may be an n-type impurity region formed in the p-type impurity region.
  • the reset transistor 108 is also connected to the node 112.
  • a specific potential for example, a power supply VDD is connected to the tip of the reset transistor.
  • a drive signal RST is applied to the gate electrode of the reset transistor 108. When the drive signal RST becomes active, the reset transistor 108 becomes conductive and the potential of the node 112 is reset to the level of the voltage VDD.
  • the potentials of the FD unit 107 and the charge storage unit 111 can be individually (independently) reset to the level of the voltage VDD.
  • the FD unit 107 which is a floating diffusion layer, has a function of converting an electric charge into a voltage. That is, when the electric charge is transferred to the FD unit 107, the potential of the FD unit 107 changes according to the amount of the transferred electric charge.
  • the amplification transistor 109 is connected to the current source 131 connected to one end of the vertical signal line VSL to the source side, and the power supply VDD is connected to the drain side, and together with these, constitutes a source follower circuit.
  • the FD section 107 is connected to the gate electrode of the amplification transistor 109, which serves as an input for the source follower circuit.
  • the selection transistor 110 is connected between the source of the amplification transistor 109 and the vertical signal line VSL.
  • a drive signal SEL is applied to the gate electrode of the selection transistor 110.
  • the drive signal SEL is in the active state, the selection transistor 110 is in the conductive state, and the unit pixel 100 is in the selected state.
  • the electric potential of the FD unit 107 becomes a potential corresponding to the amount of the transferred electric charge, and the electric potential is input to the above-mentioned source follower circuit.
  • the drive signal SEL becomes active, the potential of the FD unit 107 corresponding to the amount of this charge is output to the vertical signal line VSL via the selection transistor 110 as the output of the source follower circuit.
  • the light receiving surface of the first photoelectric conversion element 101 is wider than that of the second photoelectric conversion element 102. That is, in each embodiment, the first photoelectric conversion element 101 has a large area, and the second photoelectric conversion element 102 has a small area. In that case, when the image is taken under the conditions of the same illuminance and the same exposure time, the charge generated in the first photoelectric conversion element 101 is larger than the charge generated in the second photoelectric conversion element 102. Therefore, the voltage change before and after transferring the electric charge generated by the first photoelectric conversion element 101 to the FD unit 107 is larger than the voltage change before and after transferring the electric charge generated by the second photoelectric conversion element 102 to the FD unit 107. growing. This indicates that when the first photoelectric conversion element 101 and the second photoelectric conversion element 102 are compared, the first photoelectric conversion element 101 has higher sensitivity than the second photoelectric conversion element 102.
  • the charge generated in excess of the saturated charge amount is stored in the charge storage unit. Since it can be stored in 111, when the charge generated in the second photoelectric conversion element 102 is subjected to charge-voltage conversion, the charge accumulated in the second photoelectric conversion element 102 and the charge accumulated in the charge storage unit 111 are charged. After adding both, charge-voltage conversion can be performed.
  • the second photoelectric conversion element 102 can capture an image having gradation as compared with the first photoelectric conversion element 101 over a wide illuminance range, in other words, an image having a wide dynamic range. Can be photographed.
  • Two images a highly sensitive image taken by using the first photoelectric conversion element 101 and an image having a wide dynamic range taken by using the second photoelectric conversion element 102, are, for example, a CMOS image sensor.
  • CMOS image sensor In the image signal processing circuit provided inside the 10 or the image signal processing device connected to the outside of the CMOS image sensor 10, a wide dynamic range image composition process for synthesizing one image from two images is performed, and then 1 It is combined into a single image.
  • FIG. 4 is a schematic view showing an example of a plane layout of unit pixels according to the present embodiment. Note that FIG. 4 illustrates a case where the unit pixel 100 is a so-called back-illuminated CMOS image sensor.
  • the silicon substrate on which the first photoelectric conversion element 101 and the second photoelectric conversion element 102 are formed has a first surface and a first surface which are light incident surfaces on the photodiode. It is provided with a second surface facing the surface.
  • FIG. 4 shows a planar layout on the second surface of the silicon substrate related to the unit pixel 100, in which the active region provided in the unit pixel 100, the photoelectric conversion element, the pixel transistor, the charge storage unit, and the connection between them are connected. The plane layout of the wiring to be done is shown.
  • the first photoelectric conversion element 101, the first transfer transistor 103, the FD section 107, the second transfer transistor 104, a part of the node 112, the reset transistor 108, and the connection section to the power supply VDD are It is formed on a continuous first active region.
  • the second photoelectric conversion element 102, the fourth transfer transistor 106, the node 113, the third transfer transistor 105, and another part of the node 112 are on a continuous second active region different from the first active region. Is formed in.
  • connection portion to the vertical signal line VSL, the selection transistor 110, the amplification transistor 109, and the connection portion to the power supply VDD are formed on a continuous third active region different from the first and second active regions. ing.
  • the charge storage unit 111 is formed on a fourth active region (not shown), which is different from the first to third active regions.
  • the fourth active region where the impurity region serving as the lower electrode of the charge storage unit 111 is formed the dielectric film is arranged on the fourth active region, and the upper electrode is further arranged on the dielectric film. Therefore, in FIG. 4, only the upper electrode is formed. Is illustrated. Below this upper electrode, a fourth active region in which the lower electrode is formed is arranged.
  • the FD unit 107 and the gate electrode of the amplification transistor 109 are connected by a wiring arranged above the gate electrode. Further, a part of the node 112 formed in the first active region and another part of the node 112 formed in the second active region are also connected by wiring arranged above each gate electrode. Has been done. Further, the node 113 and the upper electrode of the charge storage unit 111 are also connected by wiring arranged above each gate electrode and the upper electrode of the charge storage unit 111.
  • the area surrounded by the dotted line in FIG. 4 corresponds to one area of the unit pixel 100 shown in FIG. Therefore, by arranging the unit pixels 100 in a two-dimensional lattice pattern (matrix pattern), the first photoelectric conversion element 101 is arranged in a two-dimensional lattice pattern.
  • the second photoelectric conversion elements 102 are arranged in a two-dimensional lattice pattern by being arranged between the first photoelectric conversion elements 101.
  • FIG. 5 is a schematic view showing an example of a plane layout of unit pixels according to the present embodiment, and is a schematic diagram in which a plane layout on a second surface of a silicon substrate and a plane layout on a first surface are superimposed. That is, in FIG. 5, in addition to the planar layout of the second surface illustrated in FIG. 4, the planar layout of the photoelectric conversion element and the on-chip lens formed on the first surface is shown. The area surrounded by the dotted line in FIG. 5 corresponds to one area of the unit pixel 100 shown in FIG.
  • the first photoelectric conversion element 101 and the second photoelectric conversion element 102 are located in the same region on the second surface and the first surface, respectively.
  • the first on-chip lens 151 that collects the light incident on the first photoelectric conversion element 101 is arranged so as to cover the first photoelectric conversion element 101.
  • the second on-chip lens 152 that collects the light incident on the second photoelectric conversion element 102 is arranged so as to cover the second photoelectric conversion element 102.
  • the size of the first on-chip lens 151 and the second on-chip lens 152 depends, for example, on the first surface, what range of light is focused and incident on the photoelectric conversion element. On the second surface, how large the photoelectric conversion element, the pixel transistor, and the charge storage unit are, so that the size of one pixel and the pixel pitch when the pixels are arranged in an array are large. It can be set as appropriate depending on factors in pixel design such as whether or not it becomes.
  • the on-chip lens is too large, there are disadvantages such as a decrease in the resolution of the image pickup apparatus and a useless area in which the component of the unit pixel is not arranged on the second surface.
  • the on-chip lens is too small, there are disadvantages such as a decrease in light incident on the photoelectric conversion element and a decrease in sensitivity. Therefore, it is preferable that the size of the on-chip lens on the first surface and the size of each component of the unit pixel on the second surface are appropriately designed while rebalancing the sensitivity and the resolution.
  • the diameter of the first on-chip lens 151 is made equal to the pixel pitch, and the first on-chip lens 151 is arranged vertically and horizontally in a two-dimensional lattice, and the first on-chip lens is shown.
  • the case where the diameter of the second on-chip lens 152 is designed so that the second on-chip lens 152 fits in the region of the gap between 151 is illustrated.
  • the radius r 2 of is the relationship shown in the following equations (1) to (3).
  • Distance a b r 1 x 2 ...
  • the distance ab is twice the radius r 1 of the first on-chip lens 151, and the distance is equivalent to the diameter of the first on-chip lens 151.
  • the distance a c and the distance b c are the same distance, and the value obtained by multiplying the distance a b by ⁇ 2 is divided by 2. That is, the distance a c (distance b c ) is a value obtained by multiplying the radius r 1 of the first on-chip lens 151 by ⁇ 2.
  • the radius r 2 of the second on-chip lens 152 can be derived as equation (1) from equation (2), the value obtained by multiplying the radius r 1 to a value obtained by subtracting 1 from ⁇ 2 less It becomes.
  • FIG. 6 is a schematic view showing a plan layout example of unit pixels applicable to each embodiment, and from FIG. 5, the first photoelectric conversion element 101, the second photoelectric conversion element 102, and the first ON on the first surface are shown. It is the figure which extracted the plane layout of the chip lens 151 and the second on-chip lens 152. The area surrounded by the dotted line in FIG. 6 corresponds to one area of the unit pixel 100 shown in FIG.
  • the diameter of the first on-chip lens 151 is made equal to the pixel pitch, and the first on-chip lens 151 is arranged vertically and horizontally in a two-dimensional lattice, and the first on-chip lens 151 is formed.
  • An example shows a case where the diameter of the second on-chip lens 152 is designed so that the second on-chip lens 152 fits in the region of the gap between the lenses 151.
  • FIG. 7 is a schematic view showing a plan layout example of unit pixels applicable to each embodiment, and is a first photoelectric conversion element 101, a second photoelectric conversion element 102, and a first ON on the first surface shown in FIG.
  • the chip lens 151 and the second on-chip lens 152 it is the figure which extracted the plane layout provided between each pixel on the 1st surface of a unit pixel 100.
  • the inter-pixel light-shielding unit 181 is provided to prevent light from leaking to adjacent pixels.
  • the inter-pixel shading portion 181 is provided in the inner direction of these two on-chip lenses, respectively. Arranged with the same width.
  • inter-pixel shading portion 181 is arranged with the same width in the inner direction of the two on-chip lenses in the portion where the first on-chip lens 151 and the second on-chip lens 152 are closest to each other. ing.
  • FIG. 8 is a plan view showing a plan layout example of a color filter arrangement applicable to each embodiment, and is a plan view showing a first photoelectric conversion element 101, a second photoelectric conversion element 102, and a first surface on the first surface shown in FIG.
  • the first color filters 121R, 121G1, 121G2, and 121B provided on each pixel on the first surface of the unit pixel 100
  • the first color filter is not distinguished, its code is 121.
  • the second color filter is not distinguished, its code is set to 122.
  • the first color filter 121 is a color filter provided for the first photoelectric conversion element 101 constituting a large pixel as the first pixel.
  • the second color filter 122 is a color filter provided for a second photoelectric conversion element 102 that constitutes a small pixel as a second pixel.
  • a second on-chip lens and a second photoelectric conversion element in each pixel It is arranged between 102 and 102.
  • the area of the light receiving surface of the large pixel is large. It is larger than the area of the light receiving surface of the small pixel.
  • the first color filter 121 for large pixels is arranged on the first surface according to, for example, the rules of Bayer arrangement. Therefore, in a total of four large pixels of 2 ⁇ 2 pixels, which are the units for repeating the bayer arrangement, the two first color filters 121G1 and 121G2 that transmit the wavelength component of green (G) are diagonally located.
  • the first color filter 121B that transmits the wavelength component of blue (B) and the first color filter 121R that transmits the wavelength component of red (R) are arranged diagonally so as to intersect with each other.
  • planar layout of the color filter for large pixels is not limited to the Bayer array, but may be another array.
  • the second color filter 122 provided for the small pixels basically transmits the same wavelength components as the bayer arrangement and other color filter arrangements, like the first color filter 121 provided for the large pixels. It is composed of a combination of color filters.
  • the repeating units of the arrangement are two second color filters 122G1 and 122G2 that transmit the wavelength component of green (G) and red (R). ), A second color filter 122R that transmits the wavelength component of blue (B), and a second color filter 122B that transmits the wavelength component of blue (B).
  • FIG. 9 is a schematic view of a cross section relating to the unit pixel 100, in which the first on-chip lens 151 and the second on-chip lens 152 are closest to each other and two adjacent pixels. The portion where the second on-chip lens 152 of the pixel and the first on-chip lens 151 of the pixel adjacent thereto are closest to each other is described repeatedly and schematically.
  • each unit pixel is a photoelectric conversion unit (first photoelectric conversion unit 101-11, 101-12, 101-13) of the first photoelectric conversion element 101, and a photoelectric conversion unit (first) of the second photoelectric conversion element 102.
  • Arranged films having a negative fixed charge (so-called pinning film 231), interlayer insulating film 232, first photoelectric conversion units 101-11, 101-12 and 101-13, and second photoelectric conversion units 102-11, 102-12 and 102-13, and inter-pixel shading portions 181-1, 181-2, 181-3, 181-4, 181-5, 181-6, 181-7 arranged around the above are provided. ing.
  • FIG. 9 shows an example in which R pixels, G pixels, and B pixels are arranged horizontally from the left.
  • the R pixel is a pixel provided with a color filter 2011-11 that transmits a red (R) wavelength component.
  • the G pixel is a pixel provided with a color filter 201-12 that transmits a wavelength component of green (G).
  • the B pixel is a pixel provided with a color filter 201-13 that transmits a blue (B) wavelength component.
  • the G pixel located in the center.
  • a wiring layer 271 in which wiring 272 is arranged is laminated on a support substrate 273.
  • the first photoelectric conversion unit 101-12 which is the photoelectric conversion unit of the first photoelectric conversion element 101
  • the second photoelectric conversion unit 102-12 which is the photoelectric conversion unit of the second photoelectric conversion element 102
  • the first photoelectric conversion unit 101-12 and the second photoelectric conversion unit 102-12 are photodiodes containing a P-well region 241 and an n-type impurity region formed therein, respectively. Further, a P-shaped pinning region 233-12 is formed between the first photoelectric conversion unit 101-12 and the wiring layer 271, and between the second photoelectric conversion unit 102-12 and the wiring layer 271. A P-shaped pinning region 235-12 is formed.
  • An inter-pixel light-shielding unit 181-4 is formed between the first photoelectric conversion unit 101-12 and the second photoelectric conversion unit 102-12, and the first photoelectric conversion unit 101-12 to the second photoelectric conversion unit 102- It is configured to prevent light from leaking into 12 and light from leaking from the second photoelectric conversion unit 102-12 to the first photoelectric conversion unit 101-12.
  • an inter-pixel light-shielding portion 181-3 is formed between the pixel adjacent to the left side (R pixel in FIG. 9) to prevent light from leaking from the R pixel adjacent to the left side and adjacent to the left side. It is configured to prevent light from leaking into the R pixel.
  • an inter-pixel shading portion 181-5 is formed between the pixel adjacent to the right side (pixel B in FIG. 9) to prevent light from leaking from the pixel B adjacent to the right side, and to the right side. It is configured to prevent light from leaking to adjacent B pixels.
  • FIG. 10 is a timing chart for explaining an operation example at the start of exposure of a unit pixel.
  • This processing is performed, for example, for each pixel row of the pixel array unit 11 or for each of a plurality of pixel rows in a predetermined scanning order.
  • FIG. 10 shows timing charts of the horizontal synchronization signal XHS, drive signals SEL, RST, FDG, TRG, TGS, and FCG.
  • the horizontal synchronization signal XHS is input, and the exposure process of the unit pixel 100 starts.
  • the drive signals RST and FDG are turned on, and the reset transistor 108 and the second transfer transistor 104 are turned on.
  • the potentials of the FD unit 107 and the node 112 are combined, and the potential in the combined region is reset to the level of the power supply voltage VDD.
  • the drive signal TRG is turned on, the first transfer transistor 103 is turned on.
  • the electric charge accumulated in the photoelectric conversion section of the first photoelectric conversion element 101 is transferred to the region where the potentials of the FD section 107 and the node 112 are coupled via the first transfer transistor 103, and the first photoelectric conversion is performed.
  • the photoelectric conversion unit of the element 101 is reset.
  • the photoelectric conversion unit of the first photoelectric conversion element 101 will be described simply as the first photoelectric conversion element 101.
  • the photoelectric conversion unit of the second photoelectric conversion element 102 will be described simply as the second photoelectric conversion element 102.
  • the drive signal TRG is turned off and the first transfer transistor 103 is turned off.
  • the accumulation of electric charges on the first photoelectric conversion element 101 is started, and the exposure period is started.
  • the drive signal TGS, FCG is turned on, the fourth transfer transistor 106, the third transfer transistor 105 is turned on.
  • the potentials of the node 113, the FD unit 107, and the node 112 are combined.
  • the electric charge accumulated in the second photoelectric conversion element 102 is transferred to the region coupled via the fourth transfer transistor 106, and the second photoelectric conversion element 102 and the node 113 are reset.
  • the drive signal FCG is turned off and the third transfer transistor 105 is turned off.
  • the node 113 overflows from the second photoelectric conversion element 102 and starts to accumulate the electric charge transferred through the overflow path of the fourth transfer transistor 106.
  • the horizontal synchronization signal XHS is input.
  • FIG. 11 shows timing charts of the horizontal synchronization signal XHS, drive signals SEL, RST, FDG, TRG, TGS, and FCG.
  • the driving signal SEL, RST, FDG is turned on
  • the selection transistor 110 a reset transistor 108
  • the second transfer transistor 104 is turned on.
  • the unit pixel 100 is in the selected state.
  • the potentials of the FD unit 107 and the node 112 are combined, and the potential in the combined region is reset to the level of the power supply voltage VDD.
  • the signal NH 2 based on the potential of the region in which the potential of the FD portion 107 and the node 112 are coupled, via the amplification transistor 109 and select transistor 110 perpendicular It is output to the signal line VSL.
  • the signal NH 2 is a signal based on the potential in the reset state of the region in which the potentials of the FD unit 107 and the node 112 are combined.
  • the signal NH 2 also referred to as high sensitivity reset signal NH 2.
  • the signal NH 1 based on the potential of the FD unit 107 is output to the vertical signal line VSL via the amplification transistor 109 and the selection transistor 110.
  • the signal NH 1 is a signal based on the potential of the FD unit 107 in the reset state.
  • the signal NH 1 also referred to as high sensitivity reset signal NH 1.
  • the drive signal TRG is turned on, the first transfer transistor 103 is turned on.
  • the electric charge generated and accumulated by the first photoelectric conversion element 101 during the exposure period is transferred to the FD unit 107 via the first transfer transistor 103.
  • the drive signal TRG is turned off, the first transfer transistor 103 is turned off. As a result, the transfer of electric charge from the first photoelectric conversion element 101 to the FD unit 107 is stopped.
  • the signal SH 1 based on the potential of the FD unit 107 is output to the vertical signal line VSL via the amplification transistor 109 and the selection transistor 110.
  • the signal SH 1 is a signal generated by the first photoelectric conversion element 101 during the exposure period and based on the potential of the FD unit 107 in a state where the accumulated charge is accumulated in the FD unit 107.
  • the signal SH 1 also referred to as high sensitivity data signals SH 1.
  • the drive signals FDG and TRG are turned on, and the second transfer transistor 104 and the first transfer transistor 103 are turned on.
  • potential binding of the FD portion 107 and the node 112 remaining charges in the first photoelectric conversion element 101 without being completely transferred during a time t 26 from the time t 25, via a first transfer transistor 103 , Transferred to the combined area.
  • the high-sensitivity data signal SH 1 is read out, the capacity for charge-voltage conversion is small with respect to the amount of charge to be handled, so that there is no problem even if the charge remains in the first photoelectric conversion element 101.
  • the electric charge remaining in the first photoelectric conversion element 101 need only be able to be transferred when the high-sensitivity data signal SH 2 is read, and the electric charge is not damaged in the first photoelectric conversion element 101.
  • the drive signal TRG is turned off and the first transfer transistor 103 is turned off.
  • the transfer of electric charge from the first photoelectric conversion element 101 to the region where the potentials of the FD unit 107 and the node 112 are combined is stopped.
  • the signal SH 2 based on the potential of the region (s) attached to the potential of the FD portion 107 and the node 112, via the amplification transistor 109 and select transistor 110 perpendicular It is output to the signal line VSL.
  • the signal SH 2 is generated by the first photoelectric conversion element 101 during the exposure period, and the accumulated charge is based on the potential of the combined region in the state where the potential of the FD unit 107 and the node 112 is accumulated in the combined region. It becomes a signal. Therefore, the capacity for charge-voltage conversion at the time of reading the signal SH 2 is the total capacity of the FD unit 107 and the node 112, which is larger than that at the time of reading the high-sensitivity data signal SH 1 at time t c.
  • the signal SH 2 also referred to as high sensitivity data signals SH 2.
  • the drive signal RST is turned on and the reset transistor 108 is turned on.
  • the potential in the region where the potentials of the FD unit 107 and the nodes 112 are combined is reset to the level of the power supply voltage VDD.
  • the driving signal SEL is turned off, the selection transistor 110 is turned off.
  • the unit pixel 100 is in the non-selected state.
  • the driving signal SEL, TGS, FCG is turned on, select transistor 110, the fourth transfer transistor 106, the third transfer transistor 105 is turned on.
  • the unit pixel 100 is in the selected state.
  • the potentials of the node 113, the FD unit 107, and the node 112 are combined, and the electric charge accumulated in the second photoelectric conversion element 102 is transferred to the combined region.
  • the charges accumulated in the second photoelectric conversion element 102 and the node 113 during the exposure period are accumulated in the bonded region.
  • the drive signal TGS is turned off and the fourth transfer transistor 106 is turned off. As a result, the transfer of electric charge from the second photoelectric conversion element 102 is stopped.
  • the signal SL based on the potential in the region where the potentials of the node 113, the FD unit 107, and the node 112 are combined is the amplification transistor 109 and the selection transistor 110. It is output to the vertical signal line VSL via.
  • the signal SL is generated by the second photoelectric conversion element 102 during the exposure period, and the charges accumulated in the second photoelectric conversion element 102 and the node 113 are combined with the potentials of the node 113, the FD unit 107, and the node 112. It is a signal based on the potential of the combined region in the state accumulated in the region.
  • the capacity for charge-voltage conversion at the time of reading the signal SL is the combined capacity of the node 113, the FD unit 107, and the node 112. This capacitance is larger than when the high-sensitivity data signal SH1 is read out at time t c and when the high-sensitivity data signal SH 2 is read out at time t d.
  • the signal SL is also referred to as a low-sensitivity data signal SL.
  • the driving signal RST is turned on
  • the reset transistor 108 is turned on.
  • the region where the potentials of the node 113, the FD unit 107, and the node 112 are combined is reset.
  • the driving signal SEL, FCG is turned off, the selection transistor 110, a third transfer transistor 105 is turned off.
  • the unit pixel 100 is in the non-selected state. Further, the potential of the node 113 is separated from the potential of the FD unit 107 and the node 112.
  • the drive signals SEL and FCG are turned on, and the selection transistor 110 and the third transfer transistor 105 are turned on.
  • the unit pixel 100 is in the selected state.
  • the potential of the node 113 is combined with the potential of the FD unit 107 and the node 112.
  • the signal NL based on the potential in the region where the potentials of the node 113, the FD unit 107, and the node 112 are combined is the amplification transistor 109 and the selection transistor 110. It is output to the vertical signal line VSL via.
  • This signal NL becomes a signal based on the potential in the reset state of the region where the potentials of the node 113, the FD unit 107, and the node 112 are combined.
  • the signal NL is also referred to as a low-sensitivity reset signal NL.
  • the drive signals SEL, FDG, and FCG are turned off, and the selection transistor 110, the second transfer transistor 104, and the third transfer transistor 105 are turned off.
  • the unit pixel 100 is in the non-selected state. Further, the potential coupling of the node 113, the FD unit 107, and the node 112 is canceled.
  • the horizontal synchronization signal XHS is input, and the pixel signal reading period of the unit pixel 100 ends.
  • the first embodiment relates to the CMOS image sensor 10 as the image pickup device described above, and relates to the arrangement of the storage unit that accumulates electric charges in the unit pixel 100, and particularly in the pixel including the second photoelectric conversion element 102, the second embodiment.
  • the present invention relates to the arrangement of a node 113 which is a floating diffusion layer for accumulating charges generated by the photoelectric conversion element 102.
  • this node 113 is also referred to as a storage unit.
  • the large pixel including the first photoelectric conversion element 101 has a larger area of the light receiving surface than the small pixel including the second photoelectric conversion element 102, and has high sensitivity to incident light. Therefore, unless otherwise specified, the large pixels included in the unit pixel 100 will be referred to as high-sensitivity pixels, and the small pixels will be referred to as low-sensitivity pixels.
  • Patent Document 2 an FD storage type pixel structure is formed by connecting a MOS capacitance to a low-sensitivity pixel.
  • Patent Document 2 does not describe the position of the FD portion, and it is considered difficult to avoid the deterioration of the characteristics as described above.
  • the storage unit by arranging the storage unit at an appropriate position in the unit pixel 100, it is possible to suppress the deterioration of the characteristics due to the light incident on the high-sensitivity pixel incident on the low-sensitivity pixel.
  • FIGS. 12A, 12B and 12C are plan views of an example of pixels schematically showing the arrangement positions of the storage portions.
  • 12A and 12B are diagrams showing an example of proper arrangement of the storage unit according to the first embodiment.
  • FIG. 12C is a plan view schematically showing an example in which the storage portion is arranged at an inappropriate position.
  • These 12A to 12C and similar plan views thereafter are schematic views viewed from the opposite side of the incident surface of the pixel, for example, the side of the wiring layer 271 of FIG.
  • the vertical direction of the figure is the column direction of the pixel array unit 11
  • the horizontal direction is the row direction of the pixel array unit 11.
  • the first color filter 121 and the second color filter 122 of each color shown in FIG. 9, and the configurations other than the storage unit are omitted, and the inter-pixel light-shielding unit 181 is supported as necessary.
  • the configuration to be used is described. Further, the first color filter 121 and the second color filter 122 will be described simply as color filters.
  • a color filter that transmits light having the same wavelength component for example, green
  • one unit pixel is composed of high-sensitivity pixels 300a and low-sensitivity pixels 301a arranged adjacent to each other.
  • the storage unit 302a corresponds to, for example, the node 113 of FIGS. 3 and 4, and is provided corresponding to the low-sensitivity pixel 301a.
  • a set of high-sensitivity pixels 300c and low-sensitivity pixels 301c each of which is provided with a green color filter and arranged adjacent to each other, and a set of high-sensitivity pixels 300d and low-sensitivity pixels 301d, each having one unit. Pixels are configured.
  • storage units 302c and 302d are provided corresponding to the low-sensitivity pixels 301c and 301d of each of these unit pixels, respectively. Further, a color filter that transmits light having the same wavelength component (for example, red) is provided, and one unit pixel is composed of a high-sensitivity pixel 300b and a low-sensitivity pixel 301b arranged adjacent to each other. A storage unit 302b is provided corresponding to the low-sensitivity pixel 301b.
  • a unit pixel including the high-sensitivity pixel 300b and the low-sensitivity pixel 301b is arranged adjacent to the unit pixel including the high-sensitivity pixel 300a and the low-sensitivity pixel 301a in the column direction. At this time, in each unit pixel, one side of the high-sensitivity pixel 300a and one side of the high-sensitivity pixel 300b are in contact with each other by the boundary portion 310, and one side of the low-sensitivity pixel 301a and the other side of the high-sensitivity pixel 300b are in contact with each other. And are in contact with each other.
  • a high-sensitivity pixel 300c and a low-sensitivity pixel 301c are included adjacent to the direction of a line connecting the centers of the high-sensitivity pixel 300a and the low-sensitivity pixel 301a with respect to a unit pixel including the high-sensitivity pixel 300a and the low-sensitivity pixel 301a.
  • a unit pixel and a unit pixel including a high-sensitivity pixel 300d and a low-sensitivity pixel 301d are arranged.
  • FIG. 12A which is an appropriate first arrangement example of the storage unit
  • the position where the storage unit 302a corresponding to the low-sensitivity pixel 301a corresponds to the boundary portion 310 in which the high-sensitivity pixel 300a and the high-sensitivity pixel 300b are in contact with each other in the column direction.
  • the storage portion 302a is arranged at a position straddling the boundary portion 310 as a position corresponding to the boundary portion 310.
  • the other storage units 302b, 302c and 302d also have the high-sensitivity pixels 300b, 300c and 300d of the unit pixel including the corresponding low-sensitivity pixels 301b, 301c and 301d, and the high-sensitivity pixels 300b, 300c and 300d. It is arranged at the boundary with the high-sensitivity pixels adjacent to each other in the column direction.
  • these high-sensitivity pixels 300a to 300d will be described as appropriate as the high-sensitivity pixels 300.
  • these low-sensitivity pixels 301a to 301d will be described as the low-sensitivity pixels 301 as appropriate.
  • these storage units 302a to 302d will be described as appropriate as the storage unit 302.
  • the unit pixel composed of the high-sensitivity pixel 300c and the low-sensitivity pixel 301c is relative to the unit pixel including the high-sensitivity pixel 300b and the low-sensitivity pixel 301b. Adjacent to the row direction.
  • the storage unit 302b corresponding to the low-sensitivity pixel 301b is arranged at a position corresponding to the boundary portion 311 where the high-sensitivity pixel 300b and the high-sensitivity pixel 300c are in contact with each other in the row direction.
  • the other storage units 302b, 302c and 302d also have the high-sensitivity pixels 300b, 300c and 300d of the unit pixel including the corresponding low-sensitivity pixels 301b, 301c and 301d, and the high-sensitivity pixels 300b, 300c and 300d. It is arranged at the boundary with the high-sensitivity pixels adjacent to each other in the row direction.
  • the storage unit 302a is arranged at a position corresponding to the boundary portion 312 where the high-sensitivity pixel 300a and the low-sensitivity pixel 301a are in contact with each other.
  • the other storage portions 302b, 302c and 302d are also arranged at the boundary portion where the corresponding low-sensitivity pixels 301b, 301c and 301d and the high-sensitivity pixels 300b, 300c and 300d are in contact with each other.
  • the direction connecting the high-sensitivity pixel 300 and the low-sensitivity pixel 301 is the direction in which the leakage (crosstalk) of the incident light from the high-sensitivity pixel to the second photoelectric conversion element 102 of the low-sensitivity pixel is the largest. ..
  • the orientation connecting the high-sensitivity pixel 300 and the low-sensitivity pixel 301 is a cross from the high-sensitivity pixel 300 to the storage portion 302 of the low-sensitivity pixel 301 when the storage portion 302 of the low-sensitivity pixel 301 is arranged in that orientation. Most talk. In the example of FIG.
  • the direction in which the crosstalk from the high-sensitivity pixel to the second photoelectric conversion element 102 of the low-sensitivity pixel is the largest, and the crosstalk from the high-sensitivity pixel 300 to the storage unit 302 of the low-sensitivity pixel 301. It is aligned with the largest number of orientations.
  • the crosstalk from the high-sensitivity pixel 300 to the second photoelectric conversion element 102 of the low-sensitivity pixel 301 is the same as the example of FIG. 12C.
  • the arrangement position of the storage unit 302 of the low-sensitivity pixel 301 is not the direction in which the crosstalk from the high-sensitivity pixel 300 to the storage unit 302 of the low-sensitivity pixel 301 becomes the worst. Therefore, the arrangement of FIGS. 12A and 12B is advantageous in terms of crosstalk from the high-sensitivity pixel 300 to the storage unit 302 of the low-sensitivity pixel 301 over the arrangement of FIG. 12C.
  • crosstalk from the high-sensitivity pixel 300 to the second photoelectric conversion element 102 of the low-sensitivity pixel 301 will be appropriately described as “crosstalk from the high-sensitivity pixel 300 to the low-sensitivity pixel 301".
  • FIG. 13 is a cross-sectional view schematically showing the structure of an example of a pixel when the storage unit 302 is arranged at an appropriate position according to the first embodiment.
  • FIG. 13 is a diagram corresponding to FIG. 12A described above.
  • the right figure of FIG. 13 shows an AA'cross section and a BB' cross section in the arrangement of FIG. 12A.
  • the left figure of FIG. 13 is a diagram showing an AA'cross section which is a cross section along a line connecting the center of a high-sensitivity pixel and the center of a low-sensitivity pixel in a pixel unit in the configuration of the right figure of FIG. .
  • the central view of FIG. 13 is a diagram showing a BB'cross section which is a cross section along a line connecting the centers of the high-sensitivity pixels aligned in the column direction in the configuration of the right figure of FIG.
  • the wiring layer 271 (see FIG. 9) is laminated on the support substrate (not shown), and the P-well region 241 (FIG. 9) is further laminated.
  • the semiconductor layer 330 including (see) is laminated.
  • a color filter 320 is provided on the incident surface side of the semiconductor layer 330, and an on-chip lens 322 is provided on the incident surface side of the color filter 320.
  • a trench light-shielding portion 303 corresponding to the above-mentioned inter-pixel light-shielding portion 181 is provided in the layer direction. It is provided by digging into.
  • the trench shading portion 303 is also provided at the boundary portion 310 between the high-sensitivity pixel 300a and the high-sensitivity pixel 300b so as to be dug down in the layer direction.
  • the arrangement position of the storage unit 302a is a point.
  • the storage unit 302a is arranged at the boundary between pixels. Since the trench shading portion 303 is provided at the boundary portion, it is possible to suppress the direct incident of light from the adjacent pixel to the accumulating portion 302a (indicated by the path S in the figure) and blooming.
  • the storage unit 302 is arranged at a portion corresponding to the boundary between the high-sensitivity pixels. Therefore, as in the example of the central view of FIG. 13, the trench shading portion 303 provided at the boundary portion can suppress the direct incident of light from the adjacent pixel to the storage portion and blooming.
  • FIG. 14 is a cross-sectional view schematically showing the structure of an example of a pixel when the storage unit 302 is arranged at an inappropriate position.
  • FIG. 14 is a diagram corresponding to FIG. 12C described above. The right figure of FIG. 14 shows an AA'cross section and a BB' cross section in the arrangement of FIG. 12C.
  • the storage unit 302a is arranged at the boundary portion 312 between the high-sensitivity pixel 300a and the low-sensitivity pixel 301a.
  • the storage unit 302a since it is difficult to arrange the storage unit 302a in the region of the low-sensitivity pixel 301a, the storage unit 302a is actually arranged closer to the high-sensitivity pixel 300a, for example.
  • the storage portion 302a is arranged on the front side of the trench shading portion 303 provided at the boundary portion 310 when viewed from the high-sensitivity pixel 300a side. Therefore, in the case of this arrangement, the light from the high-sensitivity pixel 300a may be directly incident on the storage unit 302a (indicated by the path T in the figure), and blooming may occur. ..
  • the storage unit 302a can be arranged at a position corresponding to the boundary portion 312 of the boundary between the high-sensitivity pixel 300a and the low-sensitivity pixel 301a, as in the central view of FIG. In this case, even if the storage unit 302a is arranged at the boundary portion 312, it is possible to suppress the direct incident of light from the adjacent pixel on the storage unit 302a and the occurrence of blooming.
  • the storage unit 302a is not oriented with the line connecting the high-sensitivity pixel 300a and the low-sensitivity pixel 301a, but with the high-sensitivity pixel 300a and the height thereof.
  • a higher effect can be obtained by arranging it at the boundary with another high-sensitivity pixel adjacent to the sensitive pixel 300a.
  • this is the direction in which the crosstalk from the high-sensitivity pixel 300a to the second photoelectric conversion element 102 of the low-sensitivity pixel 301a becomes the worst, and the direction from the high-sensitivity pixel 300a to the storage unit 302a of the low-sensitivity pixel 301a. This is due to the fact that the crosstalk is not aligned with the worst direction.
  • the first modification of the first embodiment is an example in which the storage unit 302 is arranged at a position corresponding to the direction of the angle of view with respect to the pixel array unit 11 in which the unit pixels are arranged in a matrix arrangement.
  • the main lens is arranged on the incident surface side with the optical axis aligned with the center of the pixel array unit 11.
  • FIG. 15A is a diagram showing an example in which the angle of view of the pixel array unit 11 with respect to the row direction is wide in the column direction. That is, the pixel array portion 11 shown in FIG. 15A has a long side in the row direction. In FIG. 15A, the pixel array portion 11 has a long side in the row direction, and the incident angle ⁇ H at the end of the pixel array portion 11a is larger than the incident angle ⁇ V at the end in the column direction. .. Therefore, crosstalk of incident light to adjacent pixels is disadvantageous in the row direction with respect to the column direction.
  • FIG. 15B is a diagram showing an example of arrangement of the storage unit 302 with respect to the pixel array unit 11 shown in FIG. 15A according to the first modification of the first embodiment.
  • FIG. 15B has the same contents as FIG. 12A described above, but is reprinted for explanation.
  • the storage portion 302 of the low-sensitivity pixel 301 is adjacent to the column direction. It is arranged at the boundary of the high-sensitivity pixels 300 to be arranged.
  • each boundary portion 310 is along the direction of the long side of the pixel array portion 11, and the storage portion 302 is arranged at the boundary portion 310 along the direction of the long side of the pixel array portion 11. ..
  • the incident angle ⁇ V of the incident light with respect to each storage unit 302 is set to the incident angle ⁇ H.
  • the angle can be relatively low with respect to. Therefore, it is possible to suppress crosstalk with respect to the storage unit 302 of the low-sensitivity pixel 301.
  • FIG. 16A is a diagram showing an example in which the angle of view of the pixel array unit 11 in the column direction is wider than the angle of view in the row direction. That is, the pixel array portion 11 shown in FIG. 16A has a long side in the column direction. In FIG. 16A, the pixel array portion 11 has a long side in the column direction, and the incident angle ⁇ of the incident light from the main lens at the end portion of the pixel array portion 11b is the incident angle at the end portion in the column direction. ⁇ V is greater than the incident angle ⁇ H at the edge in the row direction. Therefore, the crosstalk of the incident light to the adjacent pixels is disadvantageous in the column direction with respect to the row direction.
  • FIG. 16B is a diagram showing an example of arrangement of the storage unit 302 when the angle of view with respect to the pixel array unit 11 is wide in the column direction shown in FIG. 16A according to the first modification of the first embodiment. ..
  • FIG. 16B has the same contents as FIG. 12B described above, but is reprinted for explanation.
  • the crosstalk of the incident light to the adjacent pixels is disadvantageous in the column direction with respect to the row direction, so that the storage unit 302 of the low-sensitivity pixel 301 is adjacent to the row direction. It is arranged at the boundary of the high-sensitivity pixels 300 to be arranged.
  • FIG. 16B has the same contents as FIG. 12B described above, but is reprinted for explanation.
  • the crosstalk of the incident light to the adjacent pixels is disadvantageous in the column direction with respect to the row direction, so that the storage unit 302 of the low-sensitivity pixel 301 is adjacent to the row direction. It is arranged at the boundary of the high-sensitivity pixels 300 to be arranged.
  • the storage unit 302 of the low-sensitivity pixel 301 is arranged for each boundary portion 311 in which the high-sensitivity pixels 300 adjacent to each other in the row direction are in contact with each other. Also in this case, the boundary portion 311 is along the direction of the long side of the pixel array portion 11, and the storage portion 302 is arranged at the boundary portion 311 along the direction of the long side of the pixel array portion 11.
  • the storage portions 302 of the low-sensitivity pixels 301 are arranged at the boundary portions 311 of the high-sensitivity pixels 300 that are sequentially adjacent to each other in the row direction. Therefore, as compared with the case where the storage unit 302 is arranged at each boundary portion 310 of each high-sensitivity pixel 300 sequentially adjacent to each other in the column direction, the incident angle ⁇ H of the incident light with respect to each storage unit 302 is set to the incident angle ⁇ V. On the other hand, the angle can be relatively low. Therefore, it is possible to suppress crosstalk from the high-sensitivity pixel 300 with respect to the storage unit 302 of the low-sensitivity pixel 301.
  • FIG. 17A is a plan view schematically showing a first arrangement example of the trench shading portion 303 according to the second modification of the first embodiment.
  • FIG. 17B is a plan view schematically showing a second arrangement example of the trench shading portion 303 according to the second modification of the first embodiment.
  • FIGS. 17A and 17B are plan views viewed from the wiring layer 271 side in FIG.
  • the storage unit 302 of each of the low-sensitivity pixels 301 is arranged at the boundary portion 310 between the high-sensitivity pixel 300 and another high-sensitivity pixel 300 adjacent to the high-sensitivity pixel 300. It is desirable to provide the trench shading portion 303 with respect to the boundary portion 310 in which the accumulating portion 302 is arranged. In the first example shown in FIG. 17A, the trench shading portion 303 is provided without a gap around each high-sensitivity pixel 300 and each low-sensitivity pixel 301.
  • the trench shading portion 303 is provided at least only on the side (that is, the boundary portion 310) of the high-sensitivity pixel 300 where the storage portion 302 is arranged. This also makes it possible to suppress crosstalk from the high-sensitivity pixel 300 to the storage unit 302 of the low-sensitivity pixel 301.
  • the storage unit 302 of the low-sensitivity pixel 301 is arranged at the boundary between the unit pixels, the high-sensitivity pixel 300 is incident on the storage unit 302. Leakage of light can be suppressed. As a result, crosstalk from the high-sensitivity pixel 300 to the storage unit 302 of the low-sensitivity pixel 301 and blooming due to the crosstalk can be suppressed, and the color characteristics within the angle of view can be improved.
  • a second embodiment relates to an inter-pixel light-shielding unit 181 (see FIGS. 7 to 9) provided in the CMOS image sensor 10 as the image sensor described above in order to prevent light from leaking to adjacent pixels.
  • Patent Document 1 discloses a pixel structure having a pixel unit including high-sensitivity pixels and low-sensitivity pixels having different areas.
  • this pixel structure since the sensitivity is significantly different from that of the high-sensitivity pixel and the low-sensitivity pixel, crosstalk from the high-sensitivity pixel to the low-sensitivity pixel may occur.
  • Patent Document 1 shows an example in which the inter-pixel shading width on the low-sensitivity pixel side is increased.
  • the crosstalk rate from the high-sensitivity pixel may increase due to the deterioration of the characteristics of the low-sensitivity pixel with respect to the obliquely incident light and the decrease in the sensitivity of the low-sensitivity pixel.
  • the width of the inter-pixel light-shielding portion arranged between two adjacent pixels is set to the width corresponding to the sensitivity difference between the two pixels.
  • FIG. 18A and 18B are schematic views for explaining the arrangement of the inter-pixel shading portion according to the second embodiment.
  • FIG. 18A is a plan view of the pixels
  • FIG. 18B is a diagram showing a cross section taken along the line AA'and a cross section taken along the line BB'in FIG. 18A.
  • FIG. 18A is a schematic view seen from the opposite side of the incident surface of the pixel, for example, the side of the wiring layer 271 of FIG.
  • a unit pixel including a high-sensitivity pixel 300a and a low-sensitivity pixel 301a and a unit pixel including a high-sensitivity pixel 300b and a low-sensitivity pixel 301b are arranged adjacent to each other in the row direction.
  • an inter-pixel light-shielding film 321 that constitutes an inter-pixel light-shielding portion is provided for each high-sensitivity pixel 300 and each low-sensitivity pixel 301.
  • the material of the inter-pixel light-shielding film 321 for example, tungsten, titanium, titanium nitride, SiO 2 , resin or the like can be applied.
  • the inter-pixel light-shielding film 321 is provided with openings 361 and 362 corresponding to each high-sensitivity pixel 300 and each low-sensitivity pixel 301, respectively.
  • the light emitted to each of the high-sensitivity pixels 300 and each of the low-sensitivity pixels 301 is emitted from the openings 361 and 362 of the first photoelectric conversion element 101 and the second photoelectric conversion element 101 and the second, which are included in the high-sensitivity pixels 300 and each of the low-sensitivity pixels 301. It is incident on the photoelectric conversion element 102.
  • a trench shading portion 303 is provided between each pixel of the high-sensitivity pixel 300 and the low-sensitivity pixel 301. More specifically, a trench shading portion 303bg is provided at the boundary portion 311 between the high-sensitivity pixels 300, and a trench shading portion 303sml is provided around the low-sensitivity pixel 301. As shown in the cross-sectional view taken along the line AA of FIG. 18B, the trench shading portion 303 bg is formed by embedding a specific material in a groove dug down in the layer direction from the position of the boundary portion 311 between the high-sensitivity pixels 300. Will be done.
  • the material embedded in the trench light-shielding portion 303 for example, SiO 2 , tungsten, aluminum, titanium, titanium nitride, magnesium-titanium alloy, magnesium-nickel alloy, tantalum oxide, and the like can be applied.
  • the width of the inter-pixel light-shielding film 321 at the boundary where the sensitivity difference between two adjacent pixels is large is made wider than the width of the inter-pixel light-shielding film 321 at the boundary between the other pixels. .. That is, the sensitivity difference between the high-sensitivity pixels 300 and the low-sensitivity pixels 301 is small. On the other hand, the sensitivity difference between the high-sensitivity pixels 300 and the low-sensitivity pixels 301 is larger than that between the high-sensitivity pixels 300 and the low-sensitivity pixels 301.
  • the width of the inter-pixel light-shielding film 321 at the boundary portion 312 between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 is set to the boundary portion 311 between the high-sensitivity pixels 300 (in the pixel arrangement of FIG. 18A, the low-sensitivity pixels 301 are in contact with each other.
  • the width of the inter-pixel light-shielding film 321 is made thicker than the width of
  • FIG. 18A With reference to FIG. 18A, consider the high-sensitivity pixels 300a and 300b adjacent in the row direction and the low-sensitivity pixels 301a in contact with the high-sensitivity pixels 300a and 300b, respectively.
  • the boundary portion 311 between the pixels to the high-sensitivity pixel 300a (opening 361) at the position where the width is the narrowest is the narrowest.
  • the width W 2 is defined as the width from the boundary portion 311 between the pixels to the high-sensitivity pixel 300b (opening portion 361) at the position where the width is the narrowest in the portion.
  • the boundary between the pixels can be the center line of the trench shading portion 303 provided for the pixel in the center of the pixel array portion 11 without pupil correction.
  • the width up to the high-sensitivity pixel 300b (opening 361) with 312 as the base point is defined as the width W 3 .
  • the side of the opening 561 on the side of the high-sensitivity pixel 300b in contact with the low-sensitivity pixel 301a and the side of the opening 561 on the side of the low-sensitivity pixel 301a in contact with the high-sensitivity pixel 300b are parallel to each other. Is located in.
  • the position where the width becomes the narrowest is the range of the side of the opening 561 on the side of the low-sensitivity pixel 301a in contact with the high-sensitivity pixel 300b.
  • the width W 4 is defined as the width from the boundary portion 312 between the pixels to the low-sensitivity pixel 301a (opening 361) at the position where the width is the narrowest in the portion.
  • the inter-pixel light-shielding film 321 is configured so as to satisfy the condition of the following formula (1) for the widths W 1 to W 4.
  • the width W 1 and the width W 2 and the width W 3 and the width W 4 described above are pixels so as to satisfy the respective conditions of the following equations (2) and (3). It constitutes a light-shielding film 321.
  • the condition of the formula (2) is not essential in the second embodiment.
  • This formula (3) indicates that the inter-pixel light-shielding film 321 is provided between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 closer to the high-sensitivity pixel 300 side. Therefore, the width of the inter-pixel light-shielding film 321 between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 can be set to the width of the inter-pixel light-shielding film 321 between the high-sensitivity pixels 300 without damaging the area of the opening 362 of the low-sensitivity pixel 301. Can be wider than the width of.
  • the low-sensitivity pixel 301 there is no decrease in sensitivity or crosstalk sensitivity with respect to the low-sensitivity pixel having the existing structure, and the decrease in sensitivity of the high-sensitivity pixel 300 is suppressed to a small value, while the high-sensitivity pixel 300 has low sensitivity.
  • Crosstalk to pixel 301 can be suppressed.
  • the trench shading portion 303 is provided at the boundary between the pixels.
  • the first modification of the second embodiment is an example in which the trench shading portion 303 is not provided at the boundary portion between the pixels.
  • 19A and 19B are schematic views for explaining the arrangement of the inter-pixel shading portion according to the first modification of the second embodiment.
  • 19A and 19B are views corresponding to FIGS. 18A and 18B described above, respectively,
  • FIG. 19A is a plan view of pixels
  • FIG. 19B is a cross section taken along the line AA and a cross section taken along the line BB in FIG. 19A. It is sectional drawing which shows.
  • the trench shading portion 303 is not provided between the high-sensitivity pixels 300 and between the high-sensitivity pixels 300 and the low-sensitivity pixels 301.
  • the inter-pixel light-shielding film 321 provided between the high-sensitivity pixels 300 the widths W 1 and W 2 on each side of the high-sensitivity pixels 300b and 300a from the boundary portion 311 and the high-sensitivity pixels 300 and the low-sensitivity pixels
  • the widths W 3 and W 4 on each side of the high-sensitivity pixel 300 and the low-sensitivity pixel 301 from the boundary portion 312 are the above-mentioned equations (1) to (3).
  • the inter-pixel light-shielding film 321 is formed by the above-described equations (1) to (1) to (1). By configuring so as to satisfy the condition of 3), the same effect as that of the second embodiment described above can be obtained.
  • the boundary between the pixels can be defined as the boundary of the periodic pattern of the impurity concentration driven into the silicon substrate.
  • the pixels are arranged in pixel units including the high-sensitivity pixel 300 and the low-sensitivity pixel 301, but the pixel arrangement applicable to the second embodiment. Is not limited to this.
  • the second modification of this second embodiment is an example in which the second embodiment is applied to the RCCC arrangement of pixels.
  • the RCCC array has, for example, a configuration in which a red color filter is arranged in one pixel and a colorless (clear) color filter is arranged in the other three pixels in four pixels arranged in two pixels ⁇ two pixels. It has become.
  • a red color filter is arranged in one pixel
  • a colorless (clear) color filter is arranged in the other three pixels in four pixels arranged in two pixels ⁇ two pixels. It has become.
  • imaging at a lower illuminance becomes possible, and the front light and the tail light of an automobile can be easily distinguished.
  • FIG. 20 is a schematic diagram showing an example of a pixel array based on an RCCC array, which can be applied to a second modification of the second embodiment.
  • one pixel set is composed of pixels 3000 to 3003 arranged in an array of 2 pixels ⁇ 2 pixels, and the pixel sets are arranged in a matrix-like array in the pixel array.
  • the pixel 3000 is provided with a filter that selectively transmits light having a red wavelength component
  • the pixels 3001 to 3003 are a colorless filter, that is, light in the entire visible light region. A filter to make it transparent is placed.
  • the pixel 3000 has low sensitivity to the pixels 3001 to 3003 because the light of the wavelength component other than the red wavelength component is attenuated by the color filter. Therefore, the pixels 3001 to 3003 correspond to the high-sensitivity pixel 300 described above, and the pixel 3000 corresponds to the low-sensitivity pixel 301. Further, in the area of the pixel set, the inter-pixel light-shielding film 3010 is provided in the area other than the openings of the pixels 3000 to 3003. In such a configuration, there is a possibility that the incident light leaks from the pixels 3001 and 3002 adjacent to the pixel 3000 with respect to the pixel 3000.
  • each divided area is used as a pixel area. ..
  • pixels 3000 and 3003 are arranged in the center of this pixel region, respectively.
  • the pixel 3001 is arranged in the center of the pixel area so that the long side is along the column direction
  • the pixel 3002 is arranged in the center of the pixel area so that the long side is along the row direction.
  • the width between the right end of the opening of the pixels 3000 and the boundary portion 3020 corresponds to the above-mentioned width W 4.
  • the width between the left end of the opening of pixel 3001 and the boundary 3020 corresponds to W 3 described above.
  • the width between the lower end of the opening of the pixel 3000 and the boundary portion 3021 corresponds to the width W 4 described above
  • the width between the upper end of the pixel 3002 and the boundary portion 3021 corresponds to the width W 3 described above.
  • the third embodiment relates to the configuration of the trench shading portion 303 in the CMOS image sensor 10 as the image sensor described above.
  • a trench shading portion for suppressing crosstalk is arranged without a gap both around the low-sensitivity pixel and between the high-sensitivity pixels. think about.
  • the width of the connecting portion between the trench shading portion between the high-sensitivity pixels and the trench shading portion around the low-sensitivity pixel is widened, and the depth of the trench shading portion is locally deepened at the connecting portion due to the microloading effect.
  • the trench shading portion when the trench shading portion is deepened, the trench shading portion is applied to the underlying FD depletion layer region, or the damage due to deep digging accumulates, and the dark characteristics deteriorate.
  • the depth of the part is rate-determined by that depth.
  • FIG. 21 is a schematic diagram for explaining a configuration example of the trench shading portion 303 according to the third embodiment.
  • FIG. 21 is a plan view of the pixels. Note that FIG. 21 is a schematic view seen from the opposite side of the incident surface of the pixel, for example, the side of the wiring layer 271 of FIG.
  • the horizontal direction of the figure is the row direction and the vertical direction is the column direction
  • a unit pixel including a high-sensitivity pixel 300d and a low-sensitivity pixel 301d and a unit pixel including a high-sensitivity pixel 300b and a low-sensitivity pixel 301b are arranged adjacent to each other in the row direction.
  • the unit pixel including the high-sensitivity pixel 300d and the low-sensitivity pixel 301d is arranged adjacent to the unit pixel including the high-sensitivity pixel 300b and the low-sensitivity pixel 301b in the column direction.
  • the trench shading portion 303sml is arranged without a gap, in other words, continuously.
  • a trench shading portion 303bg is arranged between the high-sensitivity pixel 300a and the high-sensitivity pixel 300b adjacent to the high-sensitivity pixel 300a in the row direction.
  • the trench shading portion 303bg and the trench shading portion 303sml are not connected, but are arranged so as to be separated from each other by opening a gap Gp.
  • a connecting portion between the trench light-shielding portion 303 bg and the trench light-shielding portion 303 sml does not occur. Therefore, due to the microloading effect, it is possible to prevent the formation of a portion where the line width of the trench shading portion 303bg is locally thickened and the depth is locally deepened. Therefore, the depth of the trench light-shielding portion 303 bg can be made uniform as a whole, and a higher light-shielding effect can be obtained.
  • the interval of the gap Gp is not particularly limited as long as the interval is such that the trench shading portion 303bg and the trench shading portion 303sml are not connected.
  • the trench shading portion 303bg and the trench shading portion sml will be collectively referred to as the trench shading portion 303 as appropriate.
  • FIGS. 22 and 23 show the AA'cross section, the BB'cross section, and the CC'in the pixel arrangement equivalent to the arrangement shown in FIG. The cross section is shown.
  • the cross section AA' is a cross section following a line connecting the central portions of the low-sensitivity pixels 301a and 301d, respectively.
  • the cross section BB' is a cross section along a line connecting the central portions of the high-sensitivity pixels 300a and 300b in the row direction.
  • the cross section CC' is a cross section following a line connecting the high-sensitivity pixels 300a and 300b in the row direction through the immediate vicinity of the low-sensitivity pixel 301d.
  • FIG. 22 is a cross-sectional view schematically showing the structure of an example of a pixel when the third embodiment is not applied.
  • the trench light-shielding portion 303bb shown in the CC'cross section is connected to the trench light-shielding portion 303sml arranged around the low-sensitivity pixel 301d, and is therefore deeply formed by the microloading effect.
  • the depths of the other trench shading portions 303bg and 303sml are rate-determined by the depth of the trench shading portion 303bg, and are formed shallower than the depth of the trench shading portion 303bg (see AA'cross section and BB' cross section). ).
  • FIG. 23 is a cross-sectional view schematically showing the structure of an example of a pixel when the third embodiment is applied.
  • a gap Gp is provided between the trench shading portion 303sml arranged around the low-sensitivity pixel 301 and the trench shading portion 303bg arranged between the high-sensitivity pixels 300, and these trench shading portions 303sml and the trench shading are provided. It is not connected to the part 303bg. Therefore, as shown in the drawings of the AA'cross section, the BB' cross section, and the CC' cross section, each trench shading portion 303 pg and each trench shading portion 303 sml are formed to have substantially uniform depths. Is possible.
  • each trench light-shielding portion 303 bg and each trench light-shielding portion 303 sml at a desired depth, for example, a depth having a higher light-shielding effect and less influence on dark characteristics.
  • leakage of incident light from the high-sensitivity pixel 300b to the low-sensitivity pixel 301d is suppressed.
  • leakage of incident light between the high-sensitivity pixels 300a and 300b is suppressed.
  • leakage of incident light between the high-sensitivity pixels 300a and 300b is suppressed even at the position closest to the trench shading portion 303sml around the low-sensitivity pixel 301.
  • the light incident on the high-sensitivity pixel 300 is focused on, for example, the central portion by the on-chip lens 322 provided in the high-sensitivity pixel 300, there is an interval Gp between the trench light-shielding portion 303bb and the trench light-shielding portion 303sml. The impact provided is small.
  • the low-sensitivity pixels 301 which are greatly affected by crosstalk, are surrounded by the trench shading portion 303sml having a desired depth without any gaps, and the high-sensitivity pixels 300 are also effective.
  • a trench shading portion 303 bg can be formed. Therefore, crosstalk from the high-sensitivity pixel 300 to the low-sensitivity pixel 301 can be suppressed, and crosstalk between the high-sensitivity pixels 300 can also be suppressed.
  • FIG. 24 is a schematic diagram for explaining a configuration example of the trench shading portion 303 according to the first modification of the third embodiment.
  • FIG. 24 is a plan view seen from the opposite side of the incident surface of the pixel, for example, the side of the wiring layer 271 of FIG. Since the arrangement of each high-sensitivity pixel 300 and each low-sensitivity pixel 301 is the same as the arrangement shown in FIG. 21 described above, the description thereof will be omitted here.
  • the trench shading portion 303bg provided between the high-sensitivity pixels 300 is arranged at intervals Gp with respect to the trench shading portion 303sml provided around the low-sensitivity pixel 301. ..
  • the width W 5 of the trench shading portion 303sml arranged around each low-sensitivity pixel 301 is set to the trench shading portion 303bg arranged between the high-sensitivity pixels 300. Make it thicker than the width of. That is, in the first modification of the third embodiment, the width W 5 of the trench shading portion 303sml between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 for which crosstalk is most desired to be suppressed is made thicker in advance at the lithography stage. Form it. Thereby, the depth of the trench shading portion 303sml can be intentionally formed deep.
  • the darkness characteristic is obtained.
  • the depth of the trench shading portion 303sml arranged between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 is not regulated by the depth of the trench shading portion 303bb arranged between the high-sensitivity pixels 300. It becomes possible to deepen the sensitivity. As a result, crosstalk from the high-sensitivity pixel 300 to the low-sensitivity pixel 301 can be effectively suppressed.
  • FIG. 25 is a schematic diagram for explaining a configuration example of the trench shading portion 303 according to the second modification of the third embodiment.
  • FIG. 25 is a plan view seen from the opposite side of the incident surface of the pixel, for example, the side of the wiring layer 271 of FIG.
  • the high-sensitivity pixels 300R 1 and 300R 2 and the low-sensitivity pixels 301R 1 and 301R 2 are red pixels provided with color filters that transmit light having a red wavelength component, respectively.
  • a set of high-sensitivity pixel 300R 1 and low-sensitivity pixel 301R 1 and a set of high-sensitivity pixel 300R 2 and low-sensitivity pixel 301R 2 each constitute one unit pixel.
  • the high-sensitivity pixels 300G 1 and 300G 2 and the low-sensitivity pixels 301G 1 and 301G 3 are green pixels provided with color filters for transmitting light having a green wavelength component, respectively.
  • a set of high-sensitivity pixel 300G 1 and low-sensitivity pixel 301G 1 and a set of high-sensitivity pixel 300G 3 and low-sensitivity pixel 301G 3 each constitute one unit pixel.
  • the high-sensitivity pixels 300B 1 and 300B 2 and the low-sensitivity pixel 301B 1 are blue pixels provided with color filters for transmitting light having a blue wavelength component, respectively.
  • a set of a high-sensitivity pixel 300B 1 and a low-sensitivity pixel 301B 1 constitutes one unit pixel.
  • the unit pixel including a low-sensitivity pixels (not shown) corresponding to the high-sensitivity pixel 300B 2 and the high-sensitivity pixel 300B 2, the unit pixel including a high-sensitivity pixel 300G 1 and the low-sensitivity pixel 301G 1, high A unit pixel including a sensitivity pixel 300B 1 and a low-sensitivity pixel 301B 1 are sequentially arranged adjacent to each other in the column direction. Further, a unit pixel including the high-sensitivity pixel 300R 1 and the low-sensitivity pixel 301R 1 , a unit pixel including the high-sensitivity pixel 300G 1 and the low-sensitivity pixel 301G 1, and a unit including the high-sensitivity pixel 300R 2 and the low-sensitivity pixel 301R 2. Pixels and pixels are sequentially arranged adjacent to each other in the row direction.
  • a sensitivity difference occurs not only due to the size difference but also due to, for example, the provided color filter.
  • a pixel provided with a color filter that transmits light having a green wavelength component hereinafter referred to as G pixel
  • a color filter that transmits light having a blue wavelength component are used.
  • the G pixel generally has higher sensitivity.
  • an R pixel the G pixel generally has higher sensitivity.
  • the order of sensitivity of R pixel, G pixel and B pixel is, for example, "G pixel> R pixel> B pixel".
  • the high-sensitivity pixel 300 is a high-sensitivity pixel, for example, G pixel
  • the low-sensitivity pixel 301 is a low-sensitivity pixel, for example R pixel.
  • the width of the trench shading portion 303sml arranged at the boundary is formed thick in advance at the lithography stage.
  • the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are provided.
  • the width of the trench shading portion 303sml 1 at the boundary portion where the low-sensitivity pixel 301G 1 and the low-sensitivity pixel 301G 1 are adjacent to each other is the reference width.
  • a low-sensitivity pixel 301 is provided with a low-sensitivity color color filter and the high-sensitivity pixel 300 is provided with a high-sensitivity color color filter will be described.
  • the sensitivity difference due to the color filter is added to the sensitivity difference due to the difference in area between the high-sensitivity pixel 300 and the low-sensitivity pixel 301, and the sensitivity difference between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 becomes larger.
  • the width W of the portion of the trench shading portion 303sml 3 arranged around the low-sensitivity pixel 301B 1 which is a B pixel and which is arranged at the boundary portion adjacent to the high-sensitivity pixel 300G 1 which is a G pixel. 13 is formed thicker than the reference width.
  • W 10 is formed thicker than the reference width.
  • the low-sensitivity pixel 301 is provided with a color filter of a high-sensitivity color and the high-sensitivity pixel 300 is provided with a color filter of a low-sensitivity color will be described.
  • the sensitivity difference due to the difference in area between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 is offset to some extent by the sensitivity difference due to the color filter, so that the sensitivity difference between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 becomes small. ..
  • the width W of the portion of the trench shading portion 303sml 4 arranged around the low-sensitivity pixel 301G 3 which is a G pixel and which is arranged at the boundary portion adjacent to the high-sensitivity pixel R 1 which is an R pixel. 12 is equivalent to the standard width W 11.
  • the width of the portion of the trench shading portion 303sml arranged around the low-sensitivity pixel 301G 1 which is a G pixel and the boundary portion adjacent to the high-sensitivity pixel B 2 which is a B pixel is set as the reference width. Equivalent to W 11.
  • one of the two adjacent high-sensitivity pixels 300 is provided with a highly sensitive color filter and the other is provided with a high-sensitivity color filter, a trench arranged between the high-sensitivity pixels 300 is provided.
  • the width of the light-shielding portion 303 bg is not changed.
  • a fourth embodiment relates to a configuration provided in the CMOS image sensor 10 as the image pickup device described above in order to prevent light from leaking to adjacent pixels.
  • Patent Document 4 discloses a technique in which a color mixing suppressing effect (crosstalk suppressing effect) between adjacent pixels is enhanced by devising a light-shielding structure between pixels.
  • An example of an inter-pixel light-shielding structure according to Patent Document 4 as an existing technique will be described with reference to FIG. 26.
  • FIG. 26 is a cross-sectional view showing a cross section of an example of a solid-state image sensor according to an existing technique along the incident direction of incident light H.
  • the solid-state image sensor is provided with a photodiode 2004 forming pixels P and a pixel separation unit 2020 inside the semiconductor substrate 2000.
  • a photodiode 2004 forming pixels P and a pixel separation unit 2020 inside the semiconductor substrate 2000.
  • it is provided on the thinned single crystal silicon semiconductor substrate 2000.
  • Members such as a color filter CF and a microlens ML are provided on the back surface (upper surface in FIG. 26) of the semiconductor substrate 2000.
  • the pixels P are arranged in a grid pattern, for example, to form a pixel array.
  • a wiring / circuit layer 2010 in which pixel circuits and wirings (not shown) are provided is provided, and the semiconductor substrate 2000 is provided in the wiring / circuit layer 2010.
  • a support substrate (not shown) is provided on the surface opposite to the side of the above.
  • the photodiode 2004 receives the incident light H incident from the back surface (upper surface in FIG. 26) side of the semiconductor substrate 2000. As shown in FIG. 26, a color filter (optical filter) CF and a microlens ML are provided above the photodiode 2004, and the incident light H incident through each part is received by the light receiving surface JS. Photoelectric conversion is performed.
  • an n-type semiconductor region 2000n formed as a charge storage region for accumulating charges is provided inside the p-type semiconductor regions 2000pa and 2000pc of the semiconductor substrate 2000.
  • the microlens ML is provided on the upper surface of the color filter CF on the back surface side (upper surface in FIG. 26) of the semiconductor substrate 2000.
  • a plurality of microlenses ML are arranged so as to correspond to each pixel P.
  • the microlens ML is a convex lens formed by using an organic material such as resin and projecting convexly on the back surface side of the semiconductor substrate 2000, and is configured to collect the incident light H on the photodiode 2004 of each pixel P. Has been done.
  • a pixel separation unit 2020 that electrically separates a plurality of pixels P is provided, and the photodiode 2004 is within the region of the pixel P partitioned by the pixel separation unit 2020. It is provided.
  • the pixel separation unit 2020 will be described.
  • the pixel separation unit 2020 is formed inside the semiconductor substrate 2000 so as to partition between a plurality of pixels P. Then, the pixel separation unit 2020 electrically separates each of the plurality of pixels P. That is, the photodiodes 2004 of each pixel P are electrically separated.
  • the p-type semiconductor regions 2000pa and 2000pc are provided between the n-type semiconductor regions 2000n constituting the charge storage region of the photodiode 2004.
  • a trench TR is provided on the back surface (upper surface) side of the semiconductor substrate 2000 where the incident light H is incident, which is located on the side portion of the photodiode 2004.
  • the trench TR is formed so as to include the first trench TR 1 and the second trench TR 2.
  • the first trench TR 1 is provided in a deep portion of the semiconductor substrate 2000.
  • the second trench TR 2 is formed in a portion shallower than the first trench TR 1 in the semiconductor substrate 2000. That is, the second trench TR 2 extends vertically downward from the back surface (upper surface) of the semiconductor substrate 2000, and the first trench TR 1 extends downward from the central portion of the bottom surface of the second trench TR 2. The sides are formed so as to extend vertically. Further, the second trench TR 2 is formed so as to be wider (thicker) than the first trench TR 1.
  • the trench TR is formed so as to be symmetrical in the direction along the back surface (upper surface) of the semiconductor substrate 2000 among the plurality of pixels P.
  • the pixel separation section 2020 includes a pinning layer 2003, an insulating film 2002, and a light-shielding layer 2001, and each of these sections is provided inside the trench TR.
  • the insulating film 2002 is formed so as to cover the inner surface of the second trench TR 2 formed above the first trench TR 1 in the shallow portion of the semiconductor substrate 2000. Further, the insulating film 2002 is formed so as to cover the light receiving surface JS on the back surface (upper surface) of the semiconductor substrate 2000 via the pinning layer 2003 in addition to the pixel separation portion 2020.
  • the light-shielding layer 2001 is formed in a shallow portion of the semiconductor substrate 2000 so as to embed the inside of the second trench TR2 via the pinning layer 2003 and the insulating film 2002.
  • the light-shielding layer 2001 is made of a metal material having a high light-shielding property, such as tungsten (W) or aluminum (Al).
  • an inter-pixel light-shielding structure having two types of trench TRs (first trench TR 1 and second trench TR 2 ) having different widths between the pixels P (hereinafter, B-RDTI (hereinafter, B-RDTI)) B-Rear Deep Trench Isolation) is proposed, and the width of the second trench TR 2 on the back surface side (upper surface in FIG. 26) is wider than the width of the first trench TR 1 on the deep side of the semiconductor substrate 2000 in the trench TR.
  • B-RDTI hereinafter, B-RDTI
  • B-Rear Deep Trench Isolation the width of the second trench TR 2 on the back surface side
  • each pixel is a matrix in the applied pixel layout. It is limited to a grid-like layout arranged in a similar arrangement.
  • the fourth embodiment of the present disclosure the above-mentioned existing technology is applied to the structure of the high-sensitivity pixel 300 and the low-sensitivity pixel 301 according to the present disclosure, and the first trench TR 1 and the light-shielding layer 2001 are embedded in the second.
  • the trench TR 2 is arranged so that the positional relationship is asymmetric with respect to the boundary portion between the high-sensitivity pixel 300 and the low-sensitivity pixel 301.
  • the high-sensitivity pixel 300 and the low-sensitivity pixel 301 can be combined while suppressing deterioration of the pixel sensitivity and important characteristics such as the saturation characteristic of the photodiode, that is, the first photoelectric conversion element 101 (see FIGS. 3 and 4). It is possible to improve the effect of suppressing color mixing, which is a problem when the above is arranged.
  • the second trench TR 2 is arranged closer to the low-sensitivity pixel 301 side. As a result, it is possible to suppress a decrease in pixel sensitivity in the high-sensitivity pixel 300 and a decrease in saturation characteristics of the first photoelectric conversion element 101 due to an increase in the width of the second trench TR 2 due to embedding a light-shielding layer. is there.
  • the low-sensitivity pixel 301 is designed to have low sensitivity, and the saturation characteristic of the photodiode (second photoelectric conversion element 102) is the pixel internal capacitance, that is, the charge storage unit 111 (see FIGS. 3 and 4). It is decided by. Therefore, the low-sensitivity pixel 301 is less affected by the reduction in the opening area (area of the light receiving surface) and the volume of the second photoelectric conversion element 102 due to the second trench TR 2 being moved closer to the low-sensitivity pixel 301.
  • the influence on the sensitivity ratio of the high-sensitivity pixel 300 and the low-sensitivity pixel 301, which is important in the configuration using the high-sensitivity pixel 300 and the low-sensitivity pixel 301, is suppressed. , It is possible to obtain a higher color mixing suppressing effect.
  • the optical black region (for example, between pixels) is obtained without considering the deterioration of the oblique incident characteristic due to the oblique incidence of the incident light on the photoelectric conversion element.
  • An asymmetrical layout with respect to the boundary between the high-sensitivity pixel 300 and the low-sensitivity pixel 301 of the light-shielding portion 181) is possible.
  • the degree of freedom in design can be improved with respect to the adjustment of characteristics such as the sensitivity ratio of the high-sensitivity pixel 300 and the low-sensitivity pixel 301.
  • FIG. 27 is a schematic view schematically showing a cross section of a unit pixel according to a fourth embodiment.
  • FIG. 27 schematically shows a cross section in the direction in which the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are aligned, and the description of the portion that is not related to the description of the fourth embodiment is omitted.
  • the upper side of the semiconductor layer 330 is the back surface side, and the lower side is the front surface side.
  • the wiring layer 271 is provided on the surface side of the semiconductor layer 330.
  • An optical filter (color filter CF in this example) and an on-chip lens 322 are provided on the back surface side of the semiconductor layer 330 via an interlayer insulating film 323.
  • Trench shading portions 303a, 303b and 303c are layered from the interlayer insulating film 323 toward the surface side of the semiconductor layer 330 at the boundary of each color filter CF, that is, at each boundary portion of the high-sensitivity pixel 300 and the low-sensitivity pixel 301. It is provided by digging down in the direction.
  • the region of the semiconductor layer 330 separated by the trench light-shielding portion 303a and the trench light-shielding portion 303b corresponds to the first photoelectric conversion element 101, and the region separated by the trench light-shielding portion 303b and the trench light-shielding portion 303c.
  • the second photoelectric conversion element 102 corresponds to the second photoelectric conversion element 102.
  • an inter-pixel shading portion 351 corresponding to the above-mentioned inter-pixel shading portion 181 is provided as an optical black region, and the light-shielding wall 350 is provided between pixels. It is provided by being dug down from the light-shielding portion 351 in the layer direction.
  • the light-shielding wall 350 corresponds to the light-shielding layer 2001 of FIG. 26, and for example, tungsten (W) is used as a material. Not limited to this, the light-shielding wall 350 may be made of another material having a high light-shielding property such as aluminum (Al).
  • the portion not including the light-shielding wall 350 is referred to as a first trench light-shielding portion 303TR 1
  • the portion including the light-shielding wall 350 is referred to as a second trench light-shielding portion 303TR 2 .
  • the width (thickness) of the second trench shading portion 303TR 2 is larger (thick) than the width (thickness) of the first trench shading portion 303TR 1.
  • each light-shielding wall 350 is provided close to the low-sensitivity pixel 301 in each second trench light-shielding portion 303TR 2.
  • the trench shading portion 303a has a high-sensitivity pixel 300 on the left side and a low-sensitivity pixel 301 (not shown) on the right side in the figure.
  • the light-shielding wall 350 is provided so as to be aligned to the right with respect to the boundary portion 310 between the high-sensitivity pixel 300 and the low-sensitivity pixel 301.
  • the right side of the trench shading portion 303b is the high-sensitivity pixel 300, and the left side is the low-sensitivity pixel 301.
  • the light-shielding wall 350 is provided so as to be closer to the left with respect to the boundary portion 310 between the high-sensitivity pixel 300 and the low-sensitivity pixel 301.
  • FIG. 28 is a schematic view for explaining the relationship between the light-shielding wall 350 according to the fourth embodiment and the first trench light-shielding portion 303TR 1 and the second trench light-shielding portion 303TR 2.
  • the right side is the high-sensitivity pixel 300
  • the left side is the low-sensitivity pixel 301.
  • the width (thickness) of the first trench shading portion 303TR 1 is defined as the width w 20
  • the width (thickness) of the second trench shading portion 303TR 2 is defined as the width w 21 .
  • the light-shielding wall 350 and the first trench light-shielding portion 303TR 1 and the second trench light-shielding portion 303TR 2 must satisfy the following relationships.
  • part of the difference (w 21 -w 20) of the width of the first trench shielding portion 303TR 1 is first with respect to trench shielding portion 303TR 1, the low-sensitivity pixel 301 It is made to project to the side of the high-sensitivity pixel 300 so as not to project to the side of the high-sensitivity pixel 300.
  • the light-shielding wall 350 is provided so that the end on the side of the high-sensitivity pixel 300 is at least in contact with the extension line 370 of the outer edge of the first trench light-shielding portion 303TR 1 on the side of the low-sensitivity pixel 301.
  • the light-shielding wall 350 may hang on the extension line 370.
  • the light-shielding wall 350 needs to be provided so as not to exceed the width (thickness) of the first trench light-shielding portion 303TR 1.
  • the length (depth) of the light-shielding wall 350 is determined according to various conditions including the sizes of the high-sensitivity pixel 300 and the low-sensitivity pixel 301. As an example, referring to the size of the high-sensitivity pixel 300, for example, FIG. 27, when the length and height (depth) between the trench light-shielding portion 303a and the trench light-shielding portion 303b are 3 [ ⁇ m], the light is shielded. It is conceivable that the length (depth) of the wall 350 is several hundred [nm], for example, about 300 [nm] to 400 [nm].
  • FIG. 29 is a schematic diagram for explaining the arrangement of the light-shielding wall 350 according to the fourth embodiment.
  • FIG. 29 is a plan view of the predeterminedly arranged high-sensitivity pixels 300 and low-sensitivity pixels 301 as viewed from the light-receiving surface side.
  • an inter-pixel light-shielding portion 351 as an optical black region is provided on the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301.
  • the inter-pixel light-shielding unit 351 is continuously provided corresponding to all sides of the high-sensitivity pixel 300 and the low-sensitivity pixel 301.
  • the "side" of the high-sensitivity pixel 300 and the low-sensitivity pixel 301 referred to here indicates the side of the pixel when the boundary portion 310 is defined as a pixel.
  • the light-shielding wall 350 is provided on the entire circumference of the low-sensitivity pixel 301.
  • the light-shielding wall 350 is provided so as to be isolated on the side where the high-sensitivity pixels 300 are adjacent to each other.
  • the light-shielding wall 350 is provided on the side where the high-sensitivity pixels 300 are adjacent to each other with gaps at both ends of the side.
  • FIG. 30 is a schematic diagram for explaining the light-shielding effect due to the pixel structure according to the fourth embodiment.
  • Section (a) of FIG. 30 does not provide the light-shielding wall 350 according to the fourth embodiment, an example of a pixel structure according to the existing technique, and section (b) provides the light-shielding wall 350 according to the fourth embodiment. Examples of the pixel structure of the case are shown respectively.
  • sections (a) and (b) of FIG. 30 schematically show a cross section in a direction in which the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are aligned, respectively, as in FIG. 27 described above.
  • the description of the part that is not related to the description of the embodiment is omitted.
  • the trench light-shielding portions 303a', 303b', and 303c' are provided with the inter-pixel light-shielding portion 351 but not the light-shielding wall 350.
  • light oblique incident light
  • the obliquely incident light is incident on the adjacent low-sensitivity pixels 301 via the trench shading portion 303a'. Therefore, in the low-sensitivity pixel 301, the light incident through the color filter CF provided in the low-sensitivity pixel 301 is mixed with the obliquely incident light incident through the color filter CF provided in the high-sensitivity pixel 300. May occur.
  • the obliquely incident light incident on the high-sensitivity pixel 300 from the oblique direction through the color filter CF as shown by the arrow B is, for example,
  • the light-shielding wall 350 made of tungsten or the like suppresses the incident on the low-sensitivity pixel 301.
  • the oblique incident light on the high-sensitivity pixel 300 is also suppressed by the light-shielding wall 350 on the other high-sensitivity pixel 300 adjacent to the high-sensitivity pixel 300.
  • the pixel structure according to the fourth embodiment color mixing due to oblique incident light is suppressed.
  • the area (opening area) of the light receiving surface in the high-sensitivity pixel 300 and the volume of the first photoelectric conversion element 101 are not reduced, and the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are not reduced.
  • the light-shielding wall 350 is provided only on the entire circumference of the low-sensitivity pixel 301, and the high-sensitivity pixels 300 are provided with each other. This is an example in which the light-shielding wall 350 is not provided on the adjacent side.
  • FIG. 31 is a schematic diagram for explaining the arrangement of the light-shielding wall 350 according to the first modification of the fourth embodiment.
  • the light-shielding wall 350 is provided on the entire circumference of the low-sensitivity pixel 301, that is, on all sides of the low-sensitivity pixel 301. Even in this case, similarly to the fourth embodiment described above, the light-shielding wall 350 is provided on the entire circumference of the low-sensitivity pixel 301 so as to be close to the low-sensitivity pixel 301.
  • the light-shielding wall 350 is not provided on the side where the high-sensitivity pixels 300 are adjacent to each other. Since the light-shielding wall 350 is provided on the entire circumference of the low-sensitivity pixel 301, the light-shielding wall 350 is provided on the side where the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are adjacent to each other. Further, the light-shielding wall 350 provided for the side is arranged closer to the side of the low-sensitivity pixel 301.
  • the inter-pixel shading portion 351 as an optical black region is provided on the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301, as in the fourth embodiment described above. Further, as described with reference to FIG. 28, the trench shading portion 303 is provided so as not to project toward the high-sensitivity pixel 300.
  • the first modification of the fourth embodiment is, for example, an example in which the light-shielding wall 350 is connected around the high-sensitivity pixel 300 and the low-sensitivity pixel 301 with respect to the pixel structure according to the fourth embodiment described above. is there.
  • FIG. 32 is a schematic view for explaining the arrangement of the light-shielding wall 350 according to the second modification of the fourth embodiment.
  • the light-shielding wall 350 is provided on the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301, and is provided on the entire circumference of the high-sensitivity pixel 300.
  • the light-shielding wall 350 and the light-shielding wall 350 provided on the entire circumference of the low-sensitivity pixel 301 are connected. Also in this case, the light-shielding wall 350 provided on the entire circumference of the low-sensitivity pixel 301 is arranged closer to the side of the low-sensitivity pixel 301.
  • the inter-pixel shading portion 351 as an optical black region is provided on the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301, as in the fourth embodiment described above. Further, as described with reference to FIG. 28, the trench shading portion 303 is provided so as not to project toward the high-sensitivity pixel 300.
  • the inter-pixel shading portion 351 is provided at the boundary between the high-sensitivity pixel 300 and the low-sensitivity pixel 301. This is an example of providing the 310 asymmetrically.
  • FIG. 33 is a schematic view schematically showing a cross section of a unit pixel according to a third modification of the fourth embodiment.
  • FIG. 33 schematically shows a cross section in the direction in which the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are aligned, as in FIG. 27 described above, and is related to the description of the third modification of the fourth embodiment. The description of the thin part of is omitted.
  • the light-shielding wall 350 is provided closer to the low-sensitivity pixel 301 in each of the second trench light-shielding portions 303TR 2 as in the fourth embodiment described above.
  • the inter-pixel shading portion 351 is provided asymmetrically with respect to the boundary portion 310 of each pixel. More specifically, in the example of FIG. 33, for example, the inter-pixel shading portion 351 shown corresponding to the position of the trench shading portion 303b is on the right side with respect to the boundary portion 310, and in this example, the side of the high-sensitivity pixel 300. It is provided at a different position.
  • inter-pixel light-shielding portion 351 shown corresponding to the position of the trench light-shielding portion 303c is provided so as to be shifted to the left side with respect to the boundary portion 310, to the side of the high-sensitivity pixel 300 in this example.
  • FIG. 34 is a schematic diagram for explaining the arrangement of the inter-pixel light-shielding portion 351 according to the third modification of the fourth embodiment.
  • the light-shielding wall 350 is provided so as to be connected to the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301, as in the second modification of the fourth embodiment described above.
  • the inter-pixel light-shielding portion 351 as an optical black region is provided in the high-sensitivity pixel 300 so as to project toward the inside of the pixel.
  • the inter-pixel light-shielding portion 351 is provided so as to be offset toward the outside of the pixel.
  • the inter-pixel light-shielding portion 351 is provided at the boundary portion 310 so as to be offset toward the high-sensitivity pixel 300 so that the inter-pixel light-shielding portion 351 projects inside the high-sensitivity pixel 300.
  • this is not limited to this example.
  • the inter-pixel light-shielding portion 351 may be provided at the boundary portion 310 so as to be offset toward the low-sensitivity pixel 301 so that the inter-pixel light-shielding portion 351 projects inside the low-sensitivity pixel 301.
  • the light-shielding wall 350 causes the obliquely incident light to enter from the high-sensitivity pixel 300 to the low-sensitivity pixel 301, and the high-sensitivity pixel 300 to the high-sensitivity pixel.
  • the incident of obliquely incident light on the other high-sensitivity pixels 300 adjacent to the 300 is suppressed. Therefore, the layout of the inter-pixel light-shielding unit 351 can be determined by paying attention to characteristics such as the sensitivity ratio of the pixels without considering the color mixing between the pixels.
  • the sensitivity ratio is, for example, the sensitivity ratio between the high-sensitivity pixel 300 and the adjacent low-sensitivity pixel 301, the high-sensitivity pixel 300, and the color different from the high-sensitivity pixel 300 adjacent to the high-sensitivity pixel 300.
  • the sensitivity ratio with the high-sensitivity pixel 300 provided with the color filter CF of the above can be considered.
  • the oblique incident light on the high-sensitivity pixel 300 is also suppressed by the light-shielding wall 350 on the other high-sensitivity pixels 300 adjacent to the high-sensitivity pixel 300, so that a high-quality image can be obtained. .. Further, since the incident light of obliquely incident light on the adjacent pixels is suppressed by the light-shielding wall 350, the degree of freedom in designing the layout of the inter-pixel light-shielding portion 351 is improved.
  • the fourth modification of the fourth embodiment is an example in which a waveguide is used as the optical black region, for example, instead of the inter-pixel light-shielding portion 351 in the fourth embodiment described above.
  • FIG. 35 is a schematic view schematically showing a cross section of a unit pixel according to a fourth modification of the fourth embodiment.
  • FIG. 35 schematically shows a cross section in the direction in which the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are aligned, as in FIG. 27 described above, and is related to the description of the third modification of the fourth embodiment. The description of the thin part of is omitted.
  • a waveguide 360 is provided between the color filter CF and another color filter adjacent to the color filter CF instead of the inter-pixel light-shielding portion 351.
  • the waveguide 360 is made of a material (low bending agent) having a refractive index lower than that of the color filter CF. Since the waveguide 360 totally reflects the light incident from the adjacent color filter CF at an incident angle of a predetermined value or more, it can be used as an optical black region and realizes the same function as the light shielding wall 350. Can be done.
  • the low bending agent for forming the waveguide 360 for example, air (Air-gap), SiN, TEOS (tetraethoxysilane), and a resin (polysiloxane-based, silica-based, etc.) can be applied.
  • air Air-gap
  • SiN SiN
  • TEOS tetraethoxysilane
  • a resin polysiloxane-based, silica-based, etc.
  • the color mixing due to the obliquely incident light from the high-sensitivity pixel 300 to the low-sensitivity pixel 301 can be suppressed by the light-shielding wall 350 and the waveguide 360. Further, the oblique incident light on the high-sensitivity pixel 300 is also suppressed by the light-shielding wall 350 and the waveguide 360. Therefore, it is possible to obtain a higher quality image.
  • the opening portion (light receiving portion) of the high-sensitivity pixel 300 and the low-sensitivity pixel 301 is compared with the case where the inter-pixel light-shielding portion 351 made of tungsten or the like is used as described above. It is possible to make effective use of the surface).
  • the fifth modification of the fourth embodiment has been described with the inter-pixel shading portion 351 made of tungsten or the like and the fourth modification of the fourth embodiment as the structure of the optical black region for shading between pixels. This is an example of using the waveguide 360 in combination.
  • FIG. 36 is a schematic diagram for explaining the arrangement of the inter-pixel light-shielding portion 351 and the waveguide 360 according to the fifth modification of the fourth embodiment.
  • the light-shielding wall 350 is provided so as to be connected to the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301. Shown.
  • the entire circumference of the low-sensitivity pixel 301 that is, the boundary portion 310 between the low-sensitivity pixel 301 and the high-sensitivity pixel 300 adjacent to the low-sensitivity pixel 301 is used as an optical black region.
  • a waveguide 360 is provided.
  • an inter-pixel light-shielding portion 351 as an optical black region is provided at each boundary portion 310 of the high-sensitivity pixel 300 and another high-sensitivity pixel 300 adjacent to the high-sensitivity pixel 300.
  • the arrangement of the inter-pixel shading portion 351 and the waveguide 360 shown in FIG. 36 is an example, and is not limited to this example.
  • the arrangement of the inter-pixel shading portion 351 and the waveguide 360 may be reversed, the inter-pixel shading portion 351 may be provided on the entire circumference of the low-sensitivity pixel 301, and the waveguide 360 may be provided between the high-sensitivity pixels 300. Can be combined.
  • the color mixing due to the obliquely incident light from the high-sensitivity pixel 300 to the low-sensitivity pixel 301 is suppressed by the waveguide 360 together with the light-shielding wall 350, and a higher quality image can be obtained. ..
  • FIG. 37 is a schematic view schematically showing a cross section of a unit pixel according to a sixth modification of the fourth embodiment.
  • FIG. 37 schematically shows a cross section in the direction in which the high-sensitivity pixel 300 and the low-sensitivity pixel 301 are aligned, as in FIG. 27 described above, and is related to the description of the sixth modification of the fourth embodiment. The description of the thin part of is omitted.
  • the color filter CF is provided directly on the interlayer insulating film 323.
  • the flattening film 324 is provided on the interlayer insulating film 323, and the color filter CF is placed on the flattening film 324. I am trying to provide it.
  • the flattening film 324 is provided so as to cover the interlayer insulating film 323 and the inter-pixel light-shielding portion 351.
  • A A pattern that isolates the light-shielding wall 350 between the high-sensitivity pixels 300 (fourth embodiment)
  • B A pattern in which the light-shielding wall 350 is provided only on the entire circumference of the low-sensitivity pixel 301 (first modification of the fourth embodiment).
  • C A pattern in which the light-shielding wall 350 is connected to the entire circumference of each of the high-sensitivity pixel 300 and the low-sensitivity pixel 301 (second modification of the fourth embodiment).
  • optical black region by the inter-pixel light-shielding portion 351 made of ordinary tungsten or the like (fourth embodiment)
  • any of these 36 patterns it is possible to obtain at least the effect of suppressing color mixing due to oblique incident light from the high-sensitivity pixel 300 to the low-sensitivity pixel 301 without deteriorating the sensitivity and saturation characteristics of the high-sensitivity pixel 300. Is.
  • FIG. 38 shows a first embodiment, a second embodiment, a third embodiment and a fourth embodiment described above, and an example of using the image sensor according to each modification of each embodiment. It is a figure.
  • the image pickup device may be, for example, as shown below. It can be used in various cases for sensing light such as infrared light, ultraviolet light, and X-ray.
  • -A device that captures images used for viewing, such as digital cameras and mobile devices with camera functions.
  • in-vehicle sensors that photograph the front, rear, surroundings, inside of the vehicle, etc., surveillance cameras that monitor traveling vehicles and roads, inter-vehicle distance, etc.
  • a device used for traffic such as a distance measuring sensor that measures the distance.
  • -A device used for home appliances such as TVs, refrigerators, and air conditioners in order to take a picture of a user's gesture and operate the device according to the gesture.
  • -Devices used for medical treatment and healthcare such as endoscopes and devices that perform angiography by receiving infrared light.
  • -Devices used for security such as surveillance cameras for crime prevention and cameras for personal authentication.
  • -Devices used for beauty such as a skin measuring device that photographs the skin and a microscope that photographs the scalp.
  • -Devices used for sports such as action cameras and wearable cameras for sports applications.
  • -Agricultural equipment such as cameras for monitoring the condition of fields and crops.
  • the technology according to the present disclosure (6-2. Example of application to endoscopic surgery system)
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the techniques according to the present disclosure may be applied to endoscopic surgery systems.
  • FIG. 39 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 39 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 40 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 39.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the above-mentioned imaging conditions such as frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. Good.
  • the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100 and the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • the above-mentioned image sensor can be applied to the image pickup unit 10112. Since the image sensor according to the present disclosure suppresses crosstalk from the high-sensitivity pixel 300 to the low-sensitivity pixel 301, a higher quality image can be obtained. This allows, for example, the surgeon 11131 to proceed with the surgery more reliably.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure may be further applied to devices mounted on various moving objects such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. Good.
  • FIG. 41 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the vehicle exterior information detection unit 12030 performs image processing on the received image, for example, and performs object detection processing and distance detection processing based on the result of the image processing.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 42 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104 and 12105 as imaging units 12031.
  • the imaging units 12101, 12102, 12103, 12104 and 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back door and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 30 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured images of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in captured images of imaging units 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the above-mentioned image sensor can be applied to the image pickup unit 12031. Since the image sensor according to the present disclosure suppresses crosstalk from the high-sensitivity pixel 300 to the low-sensitivity pixel 301, a higher quality image can be obtained. This makes it possible to realize more accurate pedestrian recognition and vehicle control.
  • the accumulation part is It is arranged at the boundary between the unit pixel and another unit pixel adjacent to the unit pixel.
  • the accumulation part is The first pixel and the other first pixel are arranged at an adjacent boundary portion.
  • the image pickup device according to (1) or (2) above.
  • the accumulation part is The unit pixels are arranged at the boundary portion along the direction of the long side of the pixel array in which the unit pixels are arranged in a matrix.
  • the image pickup device according to any one of (1) to (3).
  • the first pixel is a pixel having a higher sensitivity than the second pixel.
  • the image pickup device according to any one of (1) to (4).
  • the area of the light receiving surface of the first pixel is larger than the area of the light receiving surface of the second pixel.
  • the sensitivity is The sensitivity is based on the size of the area of the light receiving surface of each of the first pixel and the second pixel.
  • the electric charge generated by the second photoelectric conversion element is accumulated, the accumulated electric charge is converted into a voltage, and the electric charge is arranged at the boundary between the unit pixel and another unit pixel adjacent to the unit pixel.
  • Accumulation part and An image sensor equipped with The first electric charge generated by the first photoelectric conversion element is accumulated in the storage unit, and the electric charge is accumulated in the storage unit.
  • a signal based on the first charge accumulated in the storage unit is output to a signal line, and the signal is output. After the signal based on the first charge is output to the signal line, the storage unit is initialized.
  • the second electric charge generated by the second photoelectric conversion element is accumulated in the initialized storage unit, and the electric charge is accumulated in the initialized storage unit.
  • a signal based on the second charge accumulated in the storage unit is output to the signal line.
  • the electric charge generated by the second photoelectric conversion element is accumulated, the accumulated electric charge is converted into a voltage, and the electric charge is arranged at the boundary between the unit pixel and another unit pixel adjacent to the unit pixel.
  • An image sensor equipped with A signal processing unit that executes signal processing on a pixel signal based on the electric charge accumulated in the storage unit of the image sensor to generate image data, and a signal processing unit.
  • a storage unit that stores the image data generated by the signal processing unit, and a storage unit.
  • Electronic equipment with. (9) A pixel array containing multiple pixels and A light-shielding portion provided between each of the plurality of pixels included in the pixel array, With The light-shielding portion The width of the narrowest portion between the two pixels arranged adjacent to each other among the plurality of pixels was defined as the width corresponding to the difference in sensitivity of the two pixels.
  • Image sensor A signal processing unit that executes signal processing on a pixel signal based on the electric charge accumulated in the storage unit of the image sensor to generate image data, and a signal processing unit.
  • a storage unit that stores the image data generated by the signal processing unit, and a storage unit.
  • Electronic equipment with. (9) A pixel array containing multiple pixels and A light-shiel
  • the plurality of pixels Unit pixels including a first pixel and a second pixel which is less sensitive to the first pixel and is arranged adjacent to the first pixel are arranged in a matrix array.
  • the light-shielding portion The width of the narrowest portion between the first pixel and the second pixel is set to be wider than the width between the first pixels and the width between the second pixels.
  • the image pickup device according to (9) above.
  • (11) The light-shielding portion Between two adjacent pixels, the width of the narrowest portion of the two pixels on the side of the higher-sensitivity pixel, with the boundary between the two pixels as the base point, is the sensitivity of the two pixels. Wider than the width of the narrowest part on the lower pixel side of The image pickup device according to (9) or (10).
  • the sensitivity is Sensitivity according to the area of the light receiving surface of each of the plurality of pixels.
  • the image pickup device according to any one of (9) to (11).
  • the light-shielding portion includes an image sensor in which the width of the narrowest portion between two pixels arranged adjacent to each other among the plurality of pixels is set to a width corresponding to the difference in sensitivity of the two pixels.
  • a signal processing unit that executes signal processing on the pixel signal read from the image sensor to generate image data
  • a storage unit that stores the image data generated by the signal processing unit, and a storage unit. Electronic equipment with.
  • the sensitivity is Sensitivity according to the area of the light receiving surface of each of the plurality of pixels.
  • the sensitivity is The sensitivity is according to the wavelength component of the light transmitted by the color filter provided in each of the plurality of pixels.
  • the trench shading portion provided between the plurality of pixels and adjacent pixels is It has a width corresponding to the difference in sensitivity between the adjacent pixels.
  • the image pickup device according to (16) or (17). (20) A plurality of pixels arranged adjacent to each other and a trench shading portion provided around each of the plurality of pixels are provided.
  • the trench shading part A gap is provided around the first pixel of the plurality of pixels without a gap.
  • an image sensor provided at a distance from the trench shading portion provided around the first pixel, and an image sensor.
  • a signal processing unit that executes signal processing on the pixel signal read from the image sensor to generate image data
  • a storage unit that stores the image data generated by the signal processing unit, and a storage unit.
  • Electronic equipment with. (21) The first pixel and A second pixel arranged adjacent to the first pixel and A trench shading portion provided around each of the first pixel and the second pixel, A light-shielding wall embedded in the depth direction of the trench at least at the first boundary portion between the first pixel and the second pixel of the trench light-shielding portion.
  • the second pixel is embedded in the direction of the second pixel.
  • Image sensor. The first pixel is a pixel having a higher sensitivity than the second pixel.
  • the area of the light receiving surface of the first pixel is larger than the area of the light receiving surface of the second pixel.
  • the sensitivity is The sensitivity is based on the size of the area of the light receiving surface of each of the first pixel and the second pixel.
  • the trench shading part The thickness of the first portion in which the light-shielding wall is embedded is thicker than the thickness of the second portion in which the light-shielding wall is not embedded, and the first portion is thicker than the thickness of the second portion. Does not overhang to the side of the first pixel, The image pickup device according to any one of (21) to (23). (25) The light-shielding wall It hangs at a position where the outer edge on the side of the second pixel in the second portion is extended. The image pickup device according to (22). (26) The light-shielding wall At the first boundary portion, it does not protrude to the side of the first pixel and does not protrude from the trench shading portion. The imaging device according to any one of (21) to (25).
  • the light-shielding wall Provided on the entire circumference of the second pixel, The image pickup device according to any one of (21) to (26).
  • the light-shielding wall further A second boundary portion between the first pixel and another first pixel adjacent to the first pixel is provided at a distance from the other light-shielding wall.
  • the light-shielding wall further Provided on the entire circumference of the first pixel, The image pickup device according to (27).
  • An inter-pixel light-shielding portion provided around the light-receiving surface of each of the first pixel and the second pixel is further provided.
  • the inter-pixel light-shielding portion is Provided symmetrically with respect to a pixel boundary relating to at least one of the first pixel and the second pixel.
  • the inter-pixel light-shielding portion is It is provided asymmetrically with respect to a pixel boundary relating to at least one of the first pixel and the second pixel.
  • a waveguide provided between an optical filter provided on the light receiving surface of each of the first pixel and the second pixel and the other optical filter is further provided.
  • an inter-pixel light-shielding portion provided around at least a part of the light-receiving surface of each of the first pixel and the second pixel.
  • the inter-pixel shading portion and the waveguide are provided in combination in at least a part around each of the first pixel and the second pixel.
  • the image pickup device according to (33). (35)
  • the waveguide is provided around the second pixel.
  • the inter-pixel shading portion is provided at a boundary portion where the first pixels are adjacent to each other.
  • the light-shielding wall An image sensor and an image sensor embedded in the first boundary portion toward the second pixel.
  • a signal processing unit that executes signal processing on the pixel signal read from the image sensor to generate image data
  • a storage unit that stores the image data generated by the signal processing unit, and a storage unit.
  • Pixel array unit 181,181-1,181-2,181-3,181-4,181-5,181-6,181-7,351 Pixel-to-pixel shading unit 300, 300a, 300b, 300c , 300d, 300R 1 , 300R 2 , 300G 1 , 300G 2 , 300B 1 , 300B 2 High-sensitivity pixels 301, 301a, 301b, 301c, 301d, 301R 1 , 301G 1 , 301G 3 , 301B 1 Low-sensitivity pixels 302, 302a , 302b, 302c, 302d Accumulation part 303, 303a, 303b, 303c, 303bg, 303sml, 303sml 1 , 303sml 2 , 303sml 3 , 303sml 4 Trench shading part 303TR 1 1st trench shading part 303TR 2 2nd trench shading part 310, 311, 312, 3020, 3021 Boundary 321

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

画素間のクロストークを抑制可能な撮像素子、撮像素子の駆動方法および電子機器を提供する。本開示に係る撮像素子は、第1の光電変換素子(101)を含む第1の画素(300a)と、第2の光電変換素子(102)を含む、第1の画素に隣接して配置される第2の画素(301a)と、を含む単位画素と、第2の光電変換素子により生成された電荷を蓄積し、蓄積された電荷を電圧に変換する蓄積部(302a)と、を備える。蓄積部は、単位画素と単位画素に隣接する他の単位画素との境界部に配置される。

Description

撮像素子、撮像素子の駆動方法および電子機器
 本開示は、撮像素子、撮像素子の駆動方法および電子機器に関する。
 光電変換素子を備えた撮像装置では、例えば、照度が低い場合には光電変換素子の感度が高いことが望ましく、一方、照度が高い場合には光電変換素子が飽和し難いことが望ましい。そこで、例えば特許文献1には、単位画素内に面積の異なる大小2つの光電変換素子を配置し、大面積の光電変換素子を照度が低い場合に対応する高感度画素、小面積の光電変換素子を低感度画素として用いる技術が開示されている。
特開2017-163010号公報 特開2017-175345号公報 特開2017-191950号公報 特開2012-178457号公報
 上述した、単位画素内に高感度画素と低感度画素とを配置する構成の場合、高感度画素と低感度画素とでは感度が大きく異なる。そのため、入射光の高感度画素から低感度画素への漏れ込み(クロストーク)が発生し、撮像画像の画質が低下してしまうおそれがある。
 本開示は、画素間のクロストークを抑制可能な撮像素子、撮像素子の駆動方法および電子機器を提供することを目的とする。
 本開示に係る一側面の撮像素子は、第1の光電変換素子を含む第1の画素と、第2の光電変換素子を含む、第1の画素に隣接して配置される第2の画素と、を含む単位画素と、第2の光電変換素子により生成された電荷を蓄積し、蓄積された電荷を電圧に変換する蓄積部と、を備え、蓄積部は、単位画素と単位画素に隣接する他の単位画素との境界部に配置される。
 本開示に係る一側面の撮像素子は、複数の画素を含む画素アレイと、画素アレイに含まれる複数の画素それぞれの間に設けられる遮光部と、を備え、遮光部は、複数の画素のうち隣接して配置される2つの画素間において最も狭くなる部分の幅を、2つの画素の感度の差に応じた幅とした。
 本開示に係る一側面の撮像素子は、複数の画素を含む画素アレイと、画素アレイに含まれる複数の画素それぞれの周囲に設けられるトレンチ遮光部と、を備え、トレンチ遮光部は、複数の画素のうち第1の画素の周囲には隙間無く設けられ、第1の画素に隣接する第2の画素の周囲には、第1の画素の周囲に設けられるトレンチ遮光部に対して離間して設けられる。
 本開示に係る一側面の撮像素子は、第1の画素と、第1の画素に隣接して配置される第2の画素と、第1の画素および第2の画素それぞれの周囲に設けられたトレンチ遮光部と、トレンチ遮光部の、少なくとも第1の画素と第2の画素との第1の境界部分に、トレンチの深さ方向に埋め込まれた遮光壁と、を備え、遮光壁は、第1の境界部分において、第2の画素の方向に寄せて埋め込まれる。
本開示の各実施形態に係る技術を適用可能な電子機器の一例の構成を示すブロック図である。 各実施形態に適用可能なCMOSイメージセンサの概略構成例を示すブロック図である。 各実施形態に適用可能な単位画素の概略構成例を示す回路図である。 各実施形態に適用可能な単位画素の平面レイアウト例を示す模式図である。 各実施形態に適用可能な単位画素の平面レイアウト例を示す模式図である。 各実施形態に適用可能な単位画素の平面レイアウト例を示す模式図である。 各実施形態に適用可能な単位画素の平面レイアウト例を示す模式図である。 各実施形態に適用可能なカラーフィルタ配列の平面レイアウト例を示す平面図である。 各実施形態に適用可能な単位画素の構造を示す図である。 各実施形態に適用可能な単位画素の露光開始時の動作例を説明するためのタイミングチャートである。 各実施形態に適用可能な単位画素の読み出し時の動作例を説明するためのタイミングチャートである。 第1の実施形態に係る蓄積部の配置位置を模式的に示す、画素の一例の平面図である。 第1の実施形態に係る蓄積部の配置位置を模式的に示す、画素の一例の平面図である。 蓄積部を不適切な位置に配置した例を模式的に示す一例の平面図である。 第1の実施形態に係る、適切な位置に蓄積部が配された場合の画素の一例の構造を概略的に示す断面図である。 不適切な位置に蓄積部が配された場合の画素の一例の構造を概略的に示す断面図である。 画素アレイ部の行方向に対する画角が列方向に広い場合の例を示す図である。 第1の実施形態の第1の変形例に係る、画素アレイ部に対する画角が行方向に広い場合の蓄積部の配置の例を示す図である。 画素アレイ部の列方向に対する画角が行方向に対する画角よりも広い場合の例を示す図である。 第1の実施形態の第1の変形例に係る、画素アレイ部11に対する画角が列方向に広い場合の蓄積部の配置の例を示す図である。 第1の実施形態の第2の変形例に係るトレンチ遮光部の第1の配置例を模式的に示す平面図である。 第1の実施形態の第2の変形例に係るトレンチ遮光部の第2の配置例を模式的に示す平面図である。 第2の実施形態に係る画素間遮光部の配置について説明するための模式図である。 第2の実施形態に係る画素間遮光部の配置について説明するための模式図である。 第2の実施形態の第1の変形例に係る画素間遮光部の配置について説明するための模式図である。 第2の実施形態の第1の変形例に係る画素間遮光部の配置について説明するための模式図である。 第2の実施形態の第2の変形例に適用可能な、RCCC配列による画素配列の例を示す模式図である。 第3の実施形態に係るトレンチ遮光部の配置例を示す平面図である。 第3の実施形態を適用しない場合の画素の一例の構造を概略的に示す断面図である。 第3の実施形態を適用した場合の、素の一例の構造を概略的に示す断面図である。 第3の実施形態の第1の変形例に係るトレンチ遮光部の構成例について説明するための模式図である。 第3の実施形態の第2の変形例に係るトレンチ遮光部の構成例について説明するための模式図である。 既存技術に係る固体撮像素子の、入射光の入射方向に沿った一例の断面を示す断面図である。 第4の実施形態に係る単位画素の断面を模式的に示す模式図である。 第4の実施形態に係る遮光壁と、第1トレンチ遮光部および第2トレンチ遮光部と、の関係を説明するための模式図である。 第4の実施形態に係る遮光壁の配置を説明するための模式図である。 第4の実施形態に係る画素構造による遮光効果について説明するための模式図である。 第4の実施形態の第1の変形例に係る遮光壁の配置を説明するための模式図である。 第4の実施形態の第2の変形例に係る遮光壁の配置を説明するための模式図である。 第4の実施形態の第3の変形例に係る単位画素の断面を模式的に示す模式図である。 第4の実施形態の第2の変形例に係る遮光壁の配置を説明するための模式図である。 第4の実施形態の第4の変形例に係る単位画素の断面を模式的に示す模式図である。 第4の実施形態の第5の変形例に係る画素間遮光部および導波路の配置を説明するための模式図である。 第4の実施形態の第6の変形例に係る単位画素の断面を模式的に示す模式図である。 本開示の技術を適用した撮像装置の使用例を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッドおよびCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部および撮像部の設置位置の一例を示す説明図である。
 以下、本開示の実施形態について、図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより、重複する説明を省略する。
 以下、本開示の実施形態について、下記の順序に従って説明する。
1.各実施形態に適用可能な技術
 1-1.電子機器
 1-2.CMOSイメージセンサの概略構成
 1-3.単位画素
  1-3-1.回路構成例
  1-3-2.平面レイアウト例
   1-3-2-1.第2面の平面レイアウト例
   1-3-2-2.第1面および第2面の平面レイアウト
   1-3-2-3.カラーフィルタの平面レイアウト
  1-3-3.構造例
  1-3-4.動作例
2.第1の実施形態
 2-1.第1の変形例
 2-2.第2の変形例
3.第2の実施形態
 3-1.第1の変形例
 3-2.第2の変形例
4.第3の実施形態
 4-1.第1の変形例
 4-2.第2の変形例
5.第4の実施形態
 5-0.既存技術について
 5-1.第4の実施形態について
  5-1-1.第4の実施形態の概要
  5-1-2.第4の実施形態の具体的な説明
 5-2.第1の変形例
 5-3.第2の変形例
 5-4.第3の変形例
 5-5.第4の変形例
 5-6.第5の変形例
 5-7.第6の変形例
 5-8.他の変形例
6.第5の実施形態
 6-1.本開示の技術の適用例
 6-2.内視鏡手術システムへの応用例
 6-3.移動体への適用例
[1.各実施形態に適用可能な技術]
 先ず、理解を容易とするために、各実施形態に適用可能な技術について、概略的に説明する。
(1-1.電子機器)
 先ず、本開示の各実施形態に係る技術を適用可能な電子機器について説明する。図1は、本開示の各実施形態に係る技術を適用可能な電子機器の一例の構成を示すブロック図である。
 図1において、電子機器1000は、光学部1010と、撮像装置1011と、信号処理回路1012と、表示装置1013と、記憶媒体1014と、を備えている。図1においては、撮像装置1011に対して、詳細を後述する本開示に係る撮像装置としての撮像素子が適用される。当該撮像素子は、それぞれ入射された光を光電変換により電気信号に変換する複数の画素と、これら複数の画素を駆動する駆動回路と、を含む。ここで、電子機器1000としては、デジタルスチルカメラ、デジタルビデオカメラ、撮像機能付きの携帯電話やスマートフォンなどを適用することができる。
 光学部1010は、1枚以上のレンズと、絞り機構、フォーカス機構などを含み、被写体からの像光(入射光)を撮像装置1011の撮像面上に結像させる。これにより、信号電荷が一定期間、撮像装置1011内に蓄積される。信号処理回路1012は、撮像装置1011から出力された画素信号に対して、画像処理を含む各種の信号処理を行う。信号処理が行われた画像信号は、フラッシュメモリや、ハードディスクドライブといった不揮発性の記憶媒体1014に記憶させることができる。また、当該画素信号に基づく画像を、表示装置1013に出力することもできる。
(1-2.CMOSイメージセンサの概略構成)
 次に、本開示に係る撮像素子としてのCMOS(Complementary Metal-Oxide-Semiconductor)型の固体撮像装置の概略的な構成について説明する。なお、以下では、CMOS型の固体撮像装置を、CMOSイメージセンサと略称して説明を行う。図1は、各実施形態に適用可能なCMOSイメージセンサの概略構成例を示すブロック図である。ここで、CMOSイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサである。例えば、各実施形態に適用可能なCMOSイメージセンサは、裏面照射型のCMOSイメージセンサで構成されている。
 図1において、各実施形態に適用可能な撮像素子としてのCMOSイメージセンサ10は、例えば、画素アレイ部11が形成された半導体チップと、周辺回路が形成された半導体チップとが積層されたスタック構造を有する。周辺回路には、例えば、垂直駆動回路12、カラム処理回路13、水平駆動回路14およびシステム制御部15が含まれ得る。
 CMOSイメージセンサ10は更に、信号処理部18およびデータ格納部19を備えている。信号処理部18およびデータ格納部19は、周辺回路と同じ半導体チップに設けられてもよいし、別の半導体チップに設けられてもよい。
 画素アレイ部11は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を有する単位画素(以下、単に「画素」と記述する場合もある)が行方向および列方向に、すなわち、行列状に2次元格子状に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(すなわち、水平方向)を言い、列方向とは画素列の画素の配列方向(すなわち、垂直方向)を言う。単位画素の具体的な回路構成や画素構造の詳細については後述する。
 画素アレイ部11では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図1では、画素駆動線LDについて1本の配線として示しているが、1本に限られるものではない。画素駆動線LDの一端は、垂直駆動回路12の各行に対応した出力端に接続されている。
 垂直駆動回路12は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部11の各画素を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路12は、当該垂直駆動回路12を制御するシステム制御部15と共に、画素アレイ部11の各画素の動作を制御する駆動部を構成している。この垂直駆動回路12はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。
 読出し走査系は、単位画素から信号を読み出すために、画素アレイ部11の単位画素を行単位で順に選択走査する。単位画素から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の単位画素の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素における電荷の蓄積期間(露光期間ともいう)となる。
 垂直駆動回路12によって選択走査された画素行の各単位画素から出力される信号は、画素列ごとに垂直信号線VSLの各々を通してカラム処理回路13に入力される。カラム処理回路13は、画素アレイ部11の画素列ごとに、選択行の各画素から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理回路13は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。カラム処理回路13は、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、光電変換素子から読み出され得たアナログの画素信号をデジタル信号に変換して出力する。
 水平駆動回路14は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路13の画素列に対応する読出し回路(以下、画素回路という)を順番に選択する。この水平駆動回路14による選択走査により、カラム処理回路13において画素回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部15は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路12、カラム処理回路13、および、水平駆動回路14などの駆動制御を行う。
 信号処理部18は、少なくとも演算処理機能を有し、カラム処理回路13から出力される画素信号に対して演算処理等の種々の信号処理を行う。データ格納部19は、信号処理部18での信号処理に当たって、その処理に必要なデータを一時的に格納する。
 なお、信号処理部18から出力された出力画像は、例えば、CMOSイメージセンサ10を搭載する電子機器におけるアプリケーションプロセッサ等において所定の処理が実行されたり、所定のネットワークを介して外部装置へ送信されたりしてもよい。
(1-3.単位画素)
 次に、上述した単位画素について、より具体的に説明する。
(1-3-1.回路構成例)
 図3は、各実施形態に適用可能な単位画素の概略構成例を示す回路図である。図3に示すように、単位画素100は、第1光電変換素子101および第2光電変換素子102の2つの光電変換素子を含む。さらに、単位画素100は、これら第1光電変換素子101および第2光電変換素子102を駆動するために、第1転送トランジスタ103、第2転送トランジスタ104、第3転送トランジスタ105、第4転送トランジスタ106、FD(フローティングディフュージョン)部107、リセットトランジスタ108、増幅トランジスタ109、および、選択トランジスタ110を備える。
 各実施形態に適用可能な単位画素100に含まれる、第2光電変換素子102による画素は、生成された電荷を、浮遊拡散層である、後述するノード113に蓄積することで、第2光電変換素子102で生成された電荷に応じた信号の読み出しを行う、FD蓄積型の画素として構成される。
 第1転送トランジスタ103、第2転送トランジスタ104、第3転送トランジスタ105、第4転送トランジスタ106、リセットトランジスタ108、増幅トランジスタ109および選択トランジスタ110は、例えば、n型のMOSトランジスタ(以下、NMOSトランジスタという)で構成される。
 以下の説明において、第1転送トランジスタ103、第2転送トランジスタ104、第3転送トランジスタ105、第4転送トランジスタ106、リセットトランジスタ108、増幅トランジスタ109および選択トランジスタ110は、単に画素トランジスタとも称される。
 リセットトランジスタ108および増幅トランジスタ109は、電源VDDに接続される。第1光電変換素子101は、シリコン半導体基板に形成されたp型不純物領域の内部に、n型不純物領域が形成された、いわゆる埋め込み型のフォトダイオードを含む。同様に、第2光電変換素子102は、埋め込み型のフォトダイオードを含む。第1光電変換素子101および第2光電変換素子102は、受光した光量に応じた電荷を生成し、生成した電荷を一定量まで蓄積する。
 また、単位画素100は、電荷蓄積部111をさらに備える。電荷蓄積部111は、例えばMOS(Metal-Oxide-Semiconductor)容量やMIS(Metal-Insulator-Semiconductor)容量である。
 図3において、第1光電変換素子101と第2光電変換素子102との間には、第1転送トランジスタ103、第2転送トランジスタ104、第3転送トランジスタ105および第4転送トランジスタ106が直列に接続されている。第1転送トランジスタ103と第2転送トランジスタ104との間に接続された浮遊拡散層は、FD部107となる。FD部107には、寄生容量C10が備わる。
 第2転送トランジスタ104と第3転送トランジスタ105との間に接続された浮遊拡散層は、ノード112となる。ノード112には、寄生容量C11が備わる。第3転送トランジスタ105と第4転送トランジスタ106との間に接続された浮遊拡散層は、ノード113となる。ノード113には、電荷蓄積部111が接続されている。
 図3に例示する単位画素100に対しては、図2において説明した画素駆動線LDとして、複数の駆動線が、例えば画素行毎に接続される。そして、垂直駆動回路12から複数の駆動線を介して、各種の駆動信号TRG、FDG、FCG、TGS、RSTおよびSELが供給される。なお、各駆動信号TRG、FDG、FCG、TGS、RSTおよびSELは、例えば、高レベル(例えば、電源電圧VDD)の状態がアクティブ状態となり、低レベルの状態(例えば、接地電位または負電位)が非アクティブ状態となるパルス信号、あるいは、それぞれのレベルの状態を所定時間維持する信号であってよい。
 第1転送トランジスタ103のゲート電極には、駆動信号TRGが印加される。駆動信号TRGがアクティブ状態になると、第1転送トランジスタ103が導通状態になり、第1光電変換素子101に蓄積されている電荷が、第1転送トランジスタ103を介してFD部107へ転送される。
 第2転送トランジスタ104のゲート電極には、駆動信号FDGが印加される。駆動信号FDGがアクティブ状態となって第2転送トランジスタ104が導通状態になると、これによりFD部107とノード112のポテンシャルが結合して、1つの電荷蓄積領域となる。
 第3転送トランジスタ105のゲート電極には、駆動信号FCGが印加される。駆動信号FDGと駆動信号FCGがアクティブ状態となって第2転送トランジスタ104と第3転送トランジスタ105とが導通状態になると、FD部107から電荷蓄積部111までのポテンシャルが結合して、1つの電荷蓄積領域となる。
 第4転送トランジスタ106のゲート電極には、駆動信号TGSが印加される。駆動信号TGSがアクティブ状態になると、第4転送トランジスタ106が導通状態になり、第2光電変換素子102に蓄積されている電荷が、第4転送トランジスタ106を介して、電荷蓄積部111へ転送される。第4転送トランジスタ106、第3転送トランジスタ105および第2転送トランジスタ104がアクティブ状態の場合、電荷蓄積部111からFD部107までのポテンシャルが結合し、この結合した電荷蓄積領域へ、第2光電変換素子102に蓄積されている電荷が転送される。
 さらに、第4転送トランジスタ106のゲート電極の下部のチャネル領域は、例えば、第1転送トランジスタ103、第2転送トランジスタ104または第3転送トランジスタ105のゲート電極の下部のチャネル領域よりも、ポテンシャルが若干プラスの方向にシフトしており(換言すれば、ポテンシャルが若干深くなっており)、これにより電荷のオーバーフローパスが形成されている。第2光電変換素子102における光電変換の結果、第2光電変換素子102の飽和電荷量を超える電荷が発生した場合には、飽和電荷量を超えた電荷が、上記オーバーフローパスを介して、第2光電変換素子102から電荷蓄積部111へとオーバーフローする(溢れ出す)。オーバーフローした電荷は、電荷蓄積部111に蓄積される。
 なお、以下の説明では、第4転送トランジスタ106のゲート電極の下部のチャネル領域に形成されているオーバーフローパスを、単に第4転送トランジスタ106のオーバーフローパスと称する。
 図3において、電荷蓄積部111が有する2つの電極のうち、第1電極は、第3転送トランジスタ105と第4転送トランジスタ106との間のノード113へ接続された、ノード電極である。電荷蓄積部111が有する2つの電極のうち、第2電極は、接地された、接地電極である。
 なお、第2電極は、変形例として、接地電位以外の特定電位、例えば電源電位に接続されてもよい。
 電荷蓄積部111がMOS容量またはMIS容量である場合、一例として、第2電極は、シリコン基板に形成された不純物領域であり、容量を形成する誘電膜は、シリコン基板上に形成された酸化膜や窒化膜である。第1電極は、第2電極および誘電膜の上方において、導電性を有する材料、例えばポリシリコンや金属で形成された電極である。
 第2電極を接地電位にする場合、第2電極は、第1光電変換素子101または第2光電変換素子102に備わるp型不純物領域と電気的に接続されたp型不純物領域であってもよい。第2電極を、接地電位以外の特定電位にする場合、第2電極は、p型不純物領域内に形成されたn型不純物領域であってもよい。
 ノード112には、第2転送トランジスタ104の他に、リセットトランジスタ108も接続される。リセットトランジスタの先には、特定電位、例えば電源VDDが接続される。リセットトランジスタ108のゲート電極には、駆動信号RSTが印加される。駆動信号RSTがアクティブ状態になると、リセットトランジスタ108が導通状態になり、ノード112の電位が電圧VDDのレベルにリセットされる。
 駆動信号RSTをアクティブ状態にする際に、第2転送トランジスタ104の駆動信号FDGと第3転送トランジスタ105の駆動信号FCGとをアクティブ状態にすると、ポテンシャルが結合したノード112とFD部107と電荷蓄積部111の電位が、電圧VDDのレベルにリセットされる。
 なお、駆動信号FDGと駆動信号FCGを個別に制御することで、FD部107と電荷蓄積部111との電位を、それぞれ単独で(独立して)電圧VDDのレベルにリセットすることができる。
 浮遊拡散層であるFD部107は、電荷を電圧に変換する機能を備えている。すなわち、FD部107に電荷が転送されると、転送された電荷の量に応じて、FD部107の電位が変化する。
 増幅トランジスタ109は、そのソース側に垂直信号線VSLの一端に接続された電流源131が接続され、ドレイン側に電源VDDが接続され、これらとともにソースフォロワ回路を構成する。増幅トランジスタ109のゲート電極には、FD部107が接続され、これがソースフォロワ回路の入力となる。
 選択トランジスタ110は、増幅トランジスタ109のソースと垂直信号線VSLとの間に接続される。選択トランジスタ110のゲート電極には、駆動信号SELが印加される。駆動信号SELがアクティブ状態になると、選択トランジスタ110が導通状態になり、単位画素100が選択状態となる。
 FD部107に電荷が転送されると、FD部107の電位が、転送された電荷の量に応じた電位となり、その電位が、上記したソースフォロワ回路へ入力される。駆動信号SELがアクティブ状態になると、この電荷の量に応じたFD部107の電位が、ソースフォロワ回路の出力として、選択トランジスタ110を介して垂直信号線VSLに出力される。
 第1光電変換素子101の受光面は、第2光電変換素子102のそれよりも広い。すなわち、各実施形態では、第1光電変換素子101が大面積であり、第2光電変換素子102が小面積である。その場合、同一の照度と同一の露光時間との条件の下で撮影した場合、第1光電変換素子101において発生する電荷は、第2光電変換素子102において発生する電荷よりも多い。そのため、第1光電変換素子101で発生した電荷をFD部107へ転送する前後での電圧変化は、第2光電変換素子102で発生した電荷をFD部107へ転送する前後での電圧変化よりも大きくなる。これは、第1光電変換素子101と第2光電変換素子102を比較すると、第1光電変換素子101は、第2光電変換素子102よりも感度が高いことを示している。
 一方、第2光電変換素子102は、高い照度の光が入射して第2光電変換素子102の飽和電荷量を超える電荷が発生した場合でも、飽和電荷量を超えて発生した電荷を電荷蓄積部111へ蓄積することができるため、第2光電変換素子102で生じた電荷を電荷―電圧変換する際に、第2光電変換素子102内に蓄積した電荷と、電荷蓄積部111に蓄積した電荷の双方を加えた上で、電荷―電圧変換することができる。
 これにより、第2光電変換素子102は、第1光電変換素子101よりも、階調性を備えた画像を、広い照度範囲に渡って撮影することができる、換言すれば、ダイナミックレンジの広い画像を撮影することができる。
 第1光電変換素子101を用いて撮影された、感度の高い画像と、第2光電変換素子102を用いて撮影された、ダイナミックレンジの広い画像との2枚の画像は、例えば、CMOSイメージセンサ10の内部に備わる画像信号処理回路、または、CMOSイメージセンサ10の外部に接続された画像信号処理装置において、2枚の画像から1枚の画像を合成するワイドダイナミックレンジ画像合成処理を経て、1枚の画像へと合成される。
(1-3-2.平面レイアウト例)
 次に、各実施形態に適用可能な単位画素100の平面レイアウト例について説明する。
(1-3-2-1.第2面の平面レイアウト例)
 図4は、本実施形態に係る単位画素の平面レイアウト例を示す模式図である。なお、図4では、単位画素100が、いわゆる裏面照射型のCMOSイメージセンサである場合が例示されている。
 裏面照射型のCMOSイメージセンサ10では、第1光電変換素子101と第2光電変換素子102とが形成されたシリコン基板は、フォトダイオードへの光の入射面となる第1面と、第1面に対向する第2面とを備える。図4には、単位画素100に関わる、シリコン基板の第2面における平面レイアウトであって、単位画素100に備わる活性領域、光電変換素子、画素トランジスタ、電荷蓄積部、および、これらの間を接続する配線の平面レイアウトが示されている。
 図4に示すように、第1光電変換素子101、第1転送トランジスタ103、FD部107、第2転送トランジスタ104、ノード112の一部、リセットトランジスタ108、および、電源VDDへの接続部は、連続した第1活性領域上に形成されている。
 一方、第2光電変換素子102、第4転送トランジスタ106、ノード113、第3転送トランジスタ105、および、ノード112の別の一部は、第1活性領域とは異なる、連続した第2活性領域上に形成されている。
 また、垂直信号線VSLへの接続部、選択トランジスタ110、増幅トランジスタ109、および、電源VDDへの接続部は、第1および第2活性領域とは異なる、連続した第3活性領域上に形成されている。
 さらに、電荷蓄積部111は、上記第1~第3活性領域とは異なる、第4活性領域(不図示)上に形成されている。電荷蓄積部111の下部電極となる不純物領域が形成される第4活性領域は、その上に誘電膜が配置され、さらにその上に上部電極が配置されるため、図4においては、上部電極だけが図示されている。この上部電極の下に、下部電極が形成される第4活性領域が配置されている。
 図4において、FD部107と、増幅トランジスタ109のゲート電極との間は、ゲート電極よりも上層に配置された配線によって接続されている。また、第1活性領域に形成されるノード112の一部と、第2活性領域に形成されるノード112の別の一部との間も、各ゲート電極よりも上層に配置された配線によって接続されている。さらに、ノード113と、電荷蓄積部111の上部電極との間も、各ゲート電極と電荷蓄積部111の上部電極よりも上層に配置された配線によって接続されている。
 なお、図4において点線で囲まれた領域は、図3に示した単位画素100の1つ分の領域に相当する。したがって、単位画素100が2次元格子状(行列状)に配列することで、第1光電変換素子101が2次元格子状に配列することとなる。第2光電変換素子102は、第1光電変換素子101の間それぞれに配置されることで、2次元格子状に配列している。
(1-3-2-2.第1面および第2面の平面レイアウト)
 図5は、本実施形態に係る単位画素の平面レイアウト例を示す模式図であって、シリコン基板の第2面における平面レイアウトと、第1面における平面レイアウトを重畳した模式図である。すなわち、図5には、図4に例示した第2面の平面レイアウトに加え、第1面に形成された光電変換素子およびオンチップレンズの平面レイアウトが記載されている。なお、図5において点線で囲まれた領域が、図3に示した単位画素100の1つ分の領域に相当する。
 図5に示すように、第1光電変換素子101および第2光電変換素子102は、第2面と第1面とにおいて、それぞれ同じ領域に位置している。
 第1光電変換素子101へ入射させる光を集光する第1オンチップレンズ151は、第1光電変換素子101を覆うように配置されている。同様に、第2光電変換素子102へ入射させる光を集光する第2オンチップレンズ152は、第2光電変換素子102を覆うように配置されている。
 第1オンチップレンズ151と第2オンチップレンズ152とをどの程度の大きさにするかは、例えば、第1面において、どの範囲の光を集光して光電変換素子へ入射させるかということや、第2面において、光電変換素子、画素トランジスタおよび電荷蓄積部がどれほどの大きさになり、それによって1画素の大きさや、画素をアレイ状に配置した場合の画素ピッチがどれほどの大きさになるかということなど、画素設計上の要因によって適宜設定することができる。
 例えば、オンチップレンズが大き過ぎる場合には、撮像装置の解像度の低下や、第2面において単位画素の構成要素が配置されない無駄な領域が発生するなどのデメリットが生じる。一方、オンチップレンズが小さ過ぎる場合には、光電変換素子へ入射する光が減少して感度が低下するなどのデメリットが生じる。このため、第1面におけるオンチップレンズの大きさと、第2面における単位画素の各構成要素の大きさとは、感度と解像度とのリバランスを図りつつ、適正に設計されることが好ましい。
 図5には、画素設計の結果、第1オンチップレンズ151の直径が画素ピッチと等しくされ、かつ、第1オンチップレンズ151が上下左右に2次元格子状に配列され、第1オンチップレンズ151間の隙間の領域内に第2オンチップレンズ152が収まるように、第2オンチップレンズ152の直径が設計された場合が例示されている。
 この場合、ある第1の画素に備わる第1オンチップレンズ151の中心aから第1の画素に隣接する第2の画素に備わる第1オンチップレンズ151の中心bまで距離abと、第1の画素に備わる第1オンチップレンズ151の中心aから第3の画素に備わる第2オンチップレンズ152の中心cまでの距離acと、第2の画素に備わる第1オンチップレンズ151の中心bから第3の画素に備わる第2オンチップレンズ152の中心cまでの距離bcと、各画素に備わる第1オンチップレンズ151の半径r1と、各画素に備わる第2オンチップレンズ152の半径r2とは、以下の式(1)~式(3)に示す関係となる。
距離ab=r1×2  …(1)
距離ac=距離bc=距離ab×√2/2  …(2)
2≦r1×(√2-1)  …(3)
 式(1)より、距離abは、第1オンチップレンズ151の半径r1の2倍となり、その距離は、第1オンチップレンズ151の直径と同等となる。また、式(2)より、距離acと距離bcとは同じ距離となり、距離abに√2を乗算した値を2で除算した値となる。すなわち、距離ac(距離bc)は、第1オンチップレンズ151の半径r1に√2を乗算した値となる。式(3)より、第2オンチップレンズ152の半径r2は、式(1)と式(2)から導き出すことができ、√2から1を減算した値に半径r1を乗算した値以下となる。
 図6は、各実施形態に適用可能な単位画素の平面レイアウト例を示す模式図であって、図5から、第1面における第1光電変換素子101、第2光電変換素子102、第1オンチップレンズ151および第2オンチップレンズ152の平面レイアウトを抽出した図である。なお、図6において点線で囲まれた領域は、図3に示した単位画素100の1つ分の領域に相当する。
 図6には、図5と同様に、第1オンチップレンズ151の直径が画素ピッチと等しくされ、かつ、第1オンチップレンズ151が上下左右に2次元格子状に配列され、第1オンチップレンズ151間の隙間の領域内に第2オンチップレンズ152が収まるように、第2オンチップレンズ152の直径が設計された場合が例示されている。
 図7は、各実施形態に適用可能な単位画素の平面レイアウト例を示す模式図であって、図6に示す第1面における第1光電変換素子101、第2光電変換素子102、第1オンチップレンズ151および第2オンチップレンズ152に加え、単位画素100の第1面において各画素間に設けられた平面レイアウトを抽出した図である。
 図7に示すように、画素間遮光部181は、隣接する画素への光の漏れ込みを防ぐために設けられている。画素間遮光部181は、ある画素の第1オンチップレンズ151とこれに隣接する画素の第1オンチップレンズ151とが最も近接する部分においては、これら2つのオンチップレンズの内側方向へ、それぞれ同じ幅を持って配置される。
 また、画素間遮光部181は、第1オンチップレンズ151と第2オンチップレンズ152とが最も近接する部分においては、これら2つのオンチップレンズの内側方向へ、それぞれ同じ幅を持って配置されている。
(1-3-2-3.カラーフィルタの平面レイアウト)
 図8は、各実施形態に適用可能なカラーフィルタ配列の平面レイアウト例を示す平面図であって、図7に示す第1面における第1光電変換素子101、第2光電変換素子102、第1オンチップレンズ151、第2オンチップレンズ152および画素間遮光部181の平面レイアウトに加えて、単位画素100の第1面において各画素に設けられた第1カラーフィルタ121R、121G1、121G2および121B、並びに、第2カラーフィルタ122R、122G1~122G3、122B1および122B2の平面レイアウトを抽出した図である。なお、以下の説明において、第1カラーフィルタを区別しない場合、その符号を121とする。同様に、第2カラーフィルタを区別しない場合、その符号を122とする。
 第1カラーフィルタ121は、第1の画素としての大画素を構成する第1光電変換素子101に対して設けられるカラーフィルタであり、例えば、各画素における第1オンチップレンズ151と第1光電変換素子101との間に配置される。
 第2カラーフィルタ122は、第2の画素としての小画素を構成する第2光電変換素子102に対して設けられるカラーフィルタであり、例えば、各画素における第2オンチップレンズと第2光電変換素子102との間に配置される。
 図4~図8、および、上述した式(1)~(3)に基づく第1オンチップレンズ151および第2オンチップレンズ152のサイズからも分かるように、大画素の受光面の面積は、小画素の受光面の面積よりも大きい。
 ここで、大画素に対するカラーフィルタの平面レイアウトについて説明する。大画素に対する第1カラーフィルタ121は、図8に示すように、例えば、ベイヤ配列の規則に従って第1面に配列している。したがって、ベイヤ配列の繰返しの単位となる2×2画素の計4つの大画素では、緑色(G)の波長成分を透過する2つの第1カラーフィルタ121G1および121G2が対角に位置し、これと交差するように、青色(B)の波長成分を透過する第1カラーフィルタ121Bと赤色(R)の波長成分を透過する第1カラーフィルタ121Rとが対角に位置するように配列している。
 大画素に対するカラーフィルタの平面レイアウトは、ベイヤ配列に限らず、他の配列であってもよい。
 小画素に対して設けられる第2カラーフィルタ122は、基本的には、大画素に対して設けられる第1カラーフィルタ121と同様に、例えばベイヤ配列や他のカラーフィルタ配列と同じ波長成分を透過するカラーフィルタの組合せで構成される。例えば、第2カラーフィルタ122に対してベイヤ配列を適用した場合には、配列の繰返しの単位が、緑色(G)の波長成分を透過する2つの第2カラーフィルタ122G1及び122G2と、赤色(R)の波長成分を透過する1つの第2カラーフィルタ122Rと、青色(B)の波長成分を透過する1つの第2カラーフィルタ122Bとで構成される。
(1-3-3.構造例)
 次に、各実施形態に適用可能な単位画素の構造例について説明する。図9は、単位画素100に関わる断面の模式図であって、1画素内において、第1オンチップレンズ151と第2オンチップレンズ152とが最も近接する部分と、隣接する2画素において、ある画素の第2オンチップレンズ152と、これに隣接する画素の第1オンチップレンズ151とが最も近接する部分とを、繰り返し模式的に記載したものである。
 図9において、各単位画素は、第1光電変換素子101の光電変換部(第1光電変換部101-11、101-12、101-13)、第2光電変換素子102の光電変換部(第2光電変換部102-11、102-12、102-13)、これら光電変換部の上にそれぞれ配置された第1オンチップレンズ151-11、151-12、151-13、第2オンチップレンズ152-11、152-12、152-13、光電変換部とオンチップレンズとの間に配置されたカラーフィルタ201-11、201-12、201-13、光電変換部とカラーフィルタとの間に配置された、負の固定電荷を有する膜(いわゆるピニング膜231)、層間絶縁膜232、第1光電変換部101-11、101-12および101-13と、第2光電変換部102-11、102-12および102-13と、の周囲に配置された画素間遮光部181-1、181-2、181-3、181-4、181-5、181-6、181-7と、を備えている。
 図9においては、横方向に左からR画素と、G画素、およびB画素が配列されている例を示した。R画素は、赤色(R)の波長成分を透過するカラーフィルタ201-11が設けられた画素である。G画素は、緑色(G)の波長成分を透過するカラーフィルタ201-12が設けられた画素である。また、B画素は、青色(B)の波長成分を透過するカラーフィルタ201-13が設けられた画素である。
 例えば、中央に位置するG画素を参照する。G画素は、支持基板273上に配線272が配置された配線層271が積層されている。配線層271上に第1光電変換素子101における光電変換部である第1光電変換部101-12と、第2光電変換素子102における光電変換部である第2光電変換部102-12と、が形成されている。
 第1光電変換部101-12と第2光電変換部102-12は、それぞれ、Pウェル領域241と、その内部に形成されたn型不純物領域を含むフォトダイオードである。また、第1光電変換部101-12と配線層271との間には、P型のピニング領域233-12が形成され、第2光電変換部102-12と配線層271との間には、P型のピニング領域235-12が形成されている。
 第1光電変換部101-12と第2光電変換部102-12との間には、画素間遮光部181-4が形成され、第1光電変換部101-12から第2光電変換部102-12への光の漏れ込みと、第2光電変換部102-12から第1光電変換部101-12への光の漏れ込みを防ぐように構成されている。
 また、左側に隣接する画素(図9では、R画素)との間には、画素間遮光部181-3が形成され、左側に隣接するR画素からの光の漏れ込みを防ぎ、左側に隣接するR画素への光の漏れ込みを防ぐ構成とされている。
 同様に、右側に隣接する画素(図9では、B画素)との間には、画素間遮光部181-5が形成され、右側に隣接するB画素からの光の漏れ込みを防ぎ、右側に隣接するB画素への光の漏れ込みを防ぐ構成とされている。
(1-3-4.動作例)
 次に、各実施形態に適用可能な単位画素の動作例について説明する。
(露光開始時の動作例)
 図10は、単位画素の露光開始時の動作例を説明するためのタイミングチャートである。先ず、この図10のタイミングチャートと、上述した図3の回路図とを参照して、単位画素100の露光開始時の動作例について説明する。この処理は、例えば、画素アレイ部11の画素行毎、または、複数の画素行毎に、所定の走査順で行われる。なお、図10には、水平同期信号XHS、駆動信号SEL、RST、FDG、TRG、TGS、FCGのタイミングチャートが示されている。
 まず、時刻t1において、水平同期信号XHSが入力され、単位画素100の露光処理が開始する。
 次に、時刻t2において、駆動信号RST、FDGがオンし、リセットトランジスタ108、第2転送トランジスタ104がオンする。これにより、FD部107とノード112のポテンシャルが結合され、結合した領域の電位が、電源電圧VDDのレベルにリセットされる。
 次に、時刻t3において、駆動信号TRGがオンし、第1転送トランジスタ103がオンする。これにより、第1光電変換素子101の光電変換部に蓄積されている電荷が、第1転送トランジスタ103を介して、FD部107とノード112のポテンシャルが結合した領域に転送され、第1光電変換素子101の光電変換部がリセットされる。
 なお、以下では、特に記載の無い限り、第1光電変換素子101の光電変換部を、単に第1光電変換素子101として説明を行う。同様に、第2光電変換素子102の光電変換部を、単に第2光電変換素子102として説明を行う。
 次に、時刻t4において、駆動信号TRGがオフし、第1転送トランジスタ103がオフする。これにより、第1光電変換素子101への電荷の蓄積が開始され、露光期間が開始する。
 次に、時刻t5において、駆動信号TGS、FCGがオンし、第4転送トランジスタ106、第3転送トランジスタ105がオンする。これにより、ノード113、FD部107およびノード112のポテンシャルが結合する。また、第2光電変換素子102に蓄積されている電荷が、第4転送トランジスタ106を介して結合した領域に転送され、第2光電変換素子102およびノード113がリセットされる。
 次に、時刻t6において、駆動信号TGSがオフし、第4転送トランジスタ106がオフする。これにより、第2光電変換素子102への電荷の蓄積が開始される。
 次に、時刻t7において、駆動信号FCGがオフし、第3転送トランジスタ105がオフする。これにより、ノード113が、第2光電変換素子102から溢れ、第4転送トランジスタ106のオーバーフローパスを介して転送されてくる電荷の蓄積を開始する。
 次に、時刻t8において、駆動信号RST、FDGがオフし、リセットトランジスタ108、第2転送トランジスタ104がオフする。
 そして、時刻t9において、水平同期信号XHSが入力される。
(読み出し時の動作例)
 次に、図11のタイミングチャートを参照して、単位画素100の画素信号の読み出し時の第1の動作例について説明する。この処理は、例えば、画素アレイ部11の画素行毎、または、複数の画素行毎に、図10の処理が行われてから所定の時間後に所定の走査順で行われる。なお、図11には、水平同期信号XHS、駆動信号SEL、RST、FDG、TRG、TGS、FCGのタイミングチャートが示されている。
 まず、時刻t21において、水平同期信号XHSが入力され、単位画素100の読み出し期間が開始する。
 次に、時刻t22において、駆動信号SEL、RST、FDGがオンし、選択トランジスタ110、リセットトランジスタ108、第2転送トランジスタ104がオンする。これにより、単位画素100が選択状態になる。また、FD部107とノード112のポテンシャルが結合され、結合した領域の電位が、電源電圧VDDのレベルにリセットされる。
 次に、時刻t23において、駆動信号RSTがオフし、リセットトランジスタ108がオフする。
 次に、時刻t23と時刻t24の間の時刻taにおいて、FD部107とノード112のポテンシャルが結合した領域の電位に基づく信号NH2が、増幅トランジスタ109および選択トランジスタ110を介して垂直信号線VSLに出力される。信号NH2は、FD部107とノード112のポテンシャルを結合した領域のリセットした状態における電位に基づく信号となる。
 なお、以下、信号NH2のことを、高感度リセット信号NH2とも称する。
 次に、時刻t24において、駆動信号FDGがオフし、第2転送トランジスタ104がオフする。これにより、FD部107とノード112のポテンシャルの結合が解消される。
 次に、時刻t24と時刻t25の間の時刻tbにおいて、FD部107の電位に基づく信号NH1が、増幅トランジスタ109および選択トランジスタ110を介して垂直信号線VSLに出力される。信号NH1は、FD部107のリセットした状態における電位に基づく信号となる。
 なお、以下、信号NH1のことを、高感度リセット信号NH1とも称する。
 次に、時刻t25において、駆動信号TRGがオンし、第1転送トランジスタ103がオンする。これにより、露光期間中に第1光電変換素子101で生成され、蓄積された電荷が、第1転送トランジスタ103を介してFD部107に転送される。
 この時刻t25において、画素信号の読み出しが開始され、露光期間が終了する。
 次に、時刻t26において、駆動信号TRGがオフし、第1転送トランジスタ103がオフする。これにより、第1光電変換素子101からFD部107への電荷の転送が停止する。
 次に、時刻t26と時刻t27の間の時刻tcにおいて、FD部107の電位に基づく信号SH1が、増幅トランジスタ109および選択トランジスタ110を介して垂直信号線VSLに出力される。信号SH1は、露光期間中に第1光電変換素子101で生成され、蓄積された電荷がFD部107に蓄積された状態におけるFD部107の電位に基づく信号となる。
 なお、以下、信号SH1のことを、高感度データ信号SH1とも称する。
 次に、時刻t27において、駆動信号FDG、TRGがオンし、第2転送トランジスタ104、第1転送トランジスタ103がオンする。これにより、FD部107とノード112のポテンシャルが結合し、時刻t25から時刻t26の間に転送しきれずに第1光電変換素子101に残っている電荷が、第1転送トランジスタ103を介して、結合した領域に転送される。なお、高感度データ信号SH1の読み出し時には、取り扱う電荷量に対して電荷電圧変換する容量が小さいため、第1光電変換素子101に電荷が残っていても問題にはならない。第1光電変換素子101に残った電荷は、高感度データ信号SH2の読み出し時に電荷転送できればよく、第1光電変換素子101に電荷を毀損することはない。
 次に、時刻t28において、駆動信号TRGがオフし、第1転送トランジスタ103がオフする。これにより、第1光電変換素子101からFD部107とノード112のポテンシャルが結合した領域への電荷の転送が停止する。
 次に、時刻t28と時刻t29の間の時刻tdにおいて、FD部107とノード112のポテンシャルを結合した領域の電位に基づく信号SH2が、増幅トランジスタ109および選択トランジスタ110を介して垂直信号線VSLに出力される。信号SH2は、露光期間中に第1光電変換素子101で生成され、蓄積された電荷が、FD部107とノード112のポテンシャルを結合した領域に蓄積された状態における結合した領域の電位に基づく信号となる。従って、信号SH2の読み出し時に電荷電圧変換する容量は、FD部107とノード112を合わせた容量となり、時刻tcにおける高感度データ信号SH1の読み出し時より大きくなる。
 なお、以下、信号SH2のことを、高感度データ信号SH2とも称する。
 次に、時刻t29において、駆動信号RSTがオンし、リセットトランジスタ108がオンする。これにより、FD部107とノード112のポテンシャルを結合した領域の電位が、電源電圧VDDのレベルにリセットされる。
 次に、時刻t30において、駆動信号SELがオフし、選択トランジスタ110がオフする。これにより、単位画素100が非選択状態になる。
 次に、時刻t31において、駆動信号RSTがオフし、リセットトランジスタ108がオフする。
 次に、時刻t32において、駆動信号SEL、TGS、FCGがオンし、選択トランジスタ110、第4転送トランジスタ106、第3転送トランジスタ105がオンする。これにより、単位画素100が選択状態になる。また、ノード113、FD部107、および、ノード112のポテンシャルが結合するとともに、第2光電変換素子102に蓄積されている電荷が、結合した領域に転送される。これにより、露光期間中に第2光電変換素子102およびノード113に蓄積された電荷が、結合した領域に蓄積される。
 次に、時刻t33において、駆動信号TGSがオフし、第4転送トランジスタ106がオフする。これにより、第2光電変換素子102からの電荷の転送が停止する。
 次に、時刻t33と時刻t34の間の時刻teにおいて、ノード113、FD部107、および、ノード112のポテンシャルが結合した領域の電位に基づく信号SLが、増幅トランジスタ109および選択トランジスタ110を介して垂直信号線VSLに出力される。信号SLは、露光期間中に第2光電変換素子102で生成され、第2光電変換素子102およびノード113に蓄積された電荷が、ノード113、FD部107、および、ノード112のポテンシャルが結合した領域に蓄積された状態における結合した領域の電位に基づく信号となる。従って、信号SLの読み出し時に電荷電圧変換する容量は、ノード113、FD部107、および、ノード112を合わせた容量となる。この容量は、時刻tcにおける高感度データ信号SH1の読み出し時、および、時刻tdにおける高感度データ信号SH2の読み出し時より大きくなる。
 なお、信号SLのことを、低感度データ信号SLとも称する。
 次に、時刻t34において、駆動信号RSTがオンし、リセットトランジスタ108がオンする。これにより、ノード113、FD部107、および、ノード112のポテンシャルが結合した領域がリセットされる。
 次に、時刻t35において、駆動信号SEL、FCGがオフし、選択トランジスタ110、第3転送トランジスタ105がオフする。これにより、単位画素100が非選択状態になる。また、ノード113のポテンシャルが、FD部107およびノード112のポテンシャルから切り離される。
 次に、時刻t36において、駆動信号RSTがオフし、リセットトランジスタ108がオフする。
 次に、時刻t37において、駆動信号SEL、FCGがオンし、選択トランジスタ110、第3転送トランジスタ105がオンする。これにより、単位画素100が選択状態になる。また、ノード113のポテンシャルが、FD部107およびノード112のポテンシャルと結合する。
 次に、時刻t37と時刻t38の間の時刻tfにおいて、ノード113、FD部107、および、ノード112のポテンシャルが結合した領域の電位に基づく信号NLが、増幅トランジスタ109および選択トランジスタ110を介して垂直信号線VSLに出力される。この信号NLは、ノード113、FD部107、および、ノード112のポテンシャルが結合した領域のリセットされた状態における電位に基づく信号となる。
 なお、信号NLのことを、低感度リセット信号NLとも称する。
 次に、時刻t38において、駆動信号SEL、FDG、FCGがオフし、選択トランジスタ110、第2転送トランジスタ104、第3転送トランジスタ105がオフする。これにより、単位画素100が非選択状態になる。また、ノード113、FD部107、および、ノード112のポテンシャルの結合が解消される。
 次に、時刻t39において、水平同期信号XHSが入力され、単位画素100の画素信号の読み出し期間が終了する。
[2.第1の実施形態]
 次に、本開示の第1の実施形態について説明する。第1の実施形態は、上述した撮像素子としてのCMOSイメージセンサ10に関し、単位画素100において電荷を蓄積する蓄積部の配置に関するもので、特に、第2光電変換素子102を含む画素において、第2光電変換素子102で生成された電荷を蓄積する浮遊拡散層であるノード113の配置に関する。以下では、このノード113を、蓄積部とも呼ぶ。
 また、第1光電変換素子101を含む大画素は、第2光電変換素子102を含む小画素に対して、例えば受光面の面積が大きく、入射光に対する感度が高い。そのため、特に記載の無い限り、単位画素100に含まれる大画素を高感度画素、小画素を低感度画素として説明を行う。
 FD蓄積型の画素構造においては,FD部に直接光、もしくは電子が入り込むことが、クロストークやPLS(Parasitic Light Sensitivity)の大幅悪化の要因となる。特に、ハイダイナミックレンジ対応を目的とした、感度の異なる画素を組み合わせた画素構造の場合、低感度画素がFD蓄積型であると、高感度画素からの光が低感度画素のFD部に直接的に入射することで、大幅な特性悪化につながるおそれがある。
 例えば、特許文献2には,低感度画素にMOS容量を接続することでFD蓄積型の画素構造を形成している。しかしながら、特許文献2には、そのFD部に関する位置については記載されておらず、上述したような特性悪化の回避が困難であると考える。 
 第1の実施形態では、単位画素100において蓄積部を適切な位置に配置することで、高感度画素に入射した光の低感度画素への入射による特性悪化を抑制することを可能としている。
 図12A、図12Bおよび図12Cは、蓄積部の配置位置を模式的に示す、画素の一例の平面図である。図12Aおよび図12Bは、第1の実施形態に係る蓄積部の適切な配置の例を示す図である。一方、図12Cは、蓄積部を不適切な位置に配置した例を模式的に示す一例の平面図である。これら図12A~図12C、および、以降の同様の平面図は、画素の入射面の反対側、例えば図9の配線層271の側から見た模式図である。図12A~図12Cにおいて、図の縦方向を画素アレイ部11の列方向、横方向を画素アレイ部11の行方向とする。
 なお、これらの図において、図9に示される各色の第1カラーフィルタ121および第2カラーフィルタ122、ならびに、蓄積部以外の構成は、省略され、必要に応じて、画素間遮光部181に対応する構成が記載されている。また、第1カラーフィルタ121および第2カラーフィルタ122は、単にカラーフィルタとして説明を行う。
 図12A~図12Cにおいて、同一の波長成分の光(例えば緑色)を透過するカラーフィルタが設けられ、互いに隣接して配置される高感度画素300aおよび低感度画素301aで1つの単位画素が構成される。蓄積部302aは、例えば図3および図4のノード113に対応するもので、低感度画素301aに対応して設けられている。同様に、それぞれ緑色のカラーフィルタが設けられ、互いに隣接して配置される高感度画素300cおよび低感度画素301cの組、ならびに、高感度画素300dおよび低感度画素301dの組で、それぞれ1つの単位画素が構成される。また、これらの単位画素それぞれの低感度画素301cおよび301dに対応して、蓄積部302cおよび302dがそれぞれ設けられる。さらに、同一の波長成分の光(例えば赤色)を透過するカラーフィルタが設けられ、互いに隣接して配置される高感度画素300bと低感度画素301bとで、1つの単位画素が構成される。低感度画素301bに対応して、蓄積部302bが設けられる。
 高感度画素300aおよび低感度画素301aを含む単位画素に対して列方向に隣接して、高感度画素300bおよび低感度画素301bを含む単位画素が配置される。このとき、各単位画素は、高感度画素300aの1辺と、高感度画素300bの1辺とが境界部310により接すると共に、低感度画素301aの1辺と高感度画素300bの他の1辺と、が接する配置となっている。
 高感度画素300aおよび低感度画素301aを含む単位画素に対して、高感度画素300aおよび低感度画素301aそれぞれの中心を結ぶ線の方位に隣接して、高感度画素300cおよび低感度画素301cを含む単位画素と、高感度画素300dおよび低感度画素301dを含む単位画素と、が配置される。
 蓄積部の適切な第1の配置例である図12Aにおいて、低感度画素301aに対応する蓄積部302aが、高感度画素300aと高感度画素300bとが列方向で接する境界部310に対応する位置に配置されている。例えば、蓄積部302aは、境界部310に対応する位置として、境界部310を跨ぐ位置に配置される。他の蓄積部302b、302cおよび302dも同様に、それぞれ対応する低感度画素301b、301cおよび301dが含まれる単位画素の各高感度画素300b、300cおよび300dと、当該高感度画素300b、300cおよび300dに列方向に隣接する高感度画素との境界部に配置されている。
 なお、以下において、高感度画素300a~300dを区別する必要の無い場合には、これら高感度画素300a~300dを、適宜、高感度画素300として説明を行う。また、低感度画素301a~301dを区別する必要の無い場合には、これら低感度画素301a~301dを、適宜、低感度画素301として説明を行う。同様に、蓄積部302a~302dを区別する必要の無い場合には、これら蓄積部302a~302dを、適宜、蓄積部302として説明を行う。
 蓄積部の適切な第2の配置例である図12Bにおいて、高感度画素300cおよび低感度画素301cとで構成される単位画素は、高感度画素300bおよび低感度画素301bを含む単位画素に対して行方向に隣接している。図12Bの例では、低感度画素301bに対応する蓄積部302bが、高感度画素300bと高感度画素300cとが行方向に接する境界部311に対応する位置に配置されている。他の蓄積部302b、302cおよび302dも同様に、それぞれ対応する低感度画素301b、301cおよび301dが含まれる単位画素の各高感度画素300b、300cおよび300dと、当該高感度画素300b、300cおよび300dに行方向に隣接する高感度画素との境界部に配置されている。
 一方、蓄積部の不適切な配置例である図12Cによれば、例えば蓄積部302aが、高感度画素300aと低感度画素301aとが接する境界部312に対応する位置に配置されている。他の蓄積部302b、302cおよび302dも同様に、それぞれ対応する低感度画素301b、301cおよび301dと、高感度画素300b、300cおよび300dと、が接する境界部に配置されている。
 ここで、高感度画素300と低感度画素301とを結ぶ方位は、高感度画素から低感度画素の第2光電変換素子102への入射光の漏れ込み(クロストーク)が最も多くなる方位である。また、高感度画素300と低感度画素301とを結ぶ方位は、その方位に低感度画素301の蓄積部302を配置した場合に、高感度画素300から低感度画素301の蓄積部302へのクロストークが最も多くなる。図12Cの例では、この高感度画素から低感度画素の第2光電変換素子102へのクロストークが最も多くなる方位と、高感度画素300から低感度画素301の蓄積部302へのクロストークが最も多くなる方位とを揃えてしまっている。
 一方、図12Aおよび図12Bの例では、高感度画素300から低感度画素301の第2光電変換素子102へのクロストークについては、図12Cの例と同等である。しかしながら、図12Aおよび図12Bの例では、低感度画素301の蓄積部302の配置位置は、高感度画素300から低感度画素301の蓄積部302へのクロストークが最悪になる方位ではない。したがって、図12Aおよび図12Bの配置は、図12Cの配置に対して、高感度画素300から低感度画素301の蓄積部302へのクロストークの点で有利である。
 以下、「高感度画素300から低感度画素301の第2光電変換素子102へのクロストーク」を、適宜、「高感度画素300から低感度画素301へのクロストーク」のように記載する。
 図13は、第1の実施形態に係る、適切な位置に蓄積部302が配された場合の画素の一例の構造を概略的に示す断面図である。この図13は、上述した図12Aに対応する図である。図13の右図は、図12Aの配置におけるA-A’断面およびB-B’断面を示す。
 図13の左図は、図13の右図の構成において、画素単位における高感度画素の中央と低感度画素の中央とを結ぶ線に沿った断面であるA-A’断面を示す図である。また、図13の中央図は、図13の右図の構成において、列方向に整列する高感度画素の中央を結ぶ線に沿った断面であるB-B’断面を示す図である。
 図13におけるA-A’断面図およびB-B’断面図に示されるように、図示されない支持基板に対して配線層271(図9参照)が積層され、さらに、Pウェル領域241(図9参照)を含む半導体層330が積層される。半導体層330の入射面側に、カラーフィルタ320が設けられ、カラーフィルタ320の入射面側にオンチップレンズ322が設けられている。
 A-A’断面図に示されるように、高感度画素300aと、低感度画素301cおよび301dとの境界部312には、上述した画素間遮光部181に対応するトレンチ遮光部303が、層方向に掘り下げられて設けられている。同様に、B-B’断面図に示されるように、高感度画素300aと高感度画素300bとの境界部310にも、トレンチ遮光部303が、層方向に掘り下げられて設けられている。
 ここで、低感度画素301aに対応する蓄積部302aを低感度画素301aの領域内に配置することは、面積律速の点で困難である。そのため、蓄積部302aの配置位置がポイントとなる。第1の実施形態では、蓄積部302aを、画素と画素との境界部に配置する。境界部には、トレンチ遮光部303が設けられるため、隣接する画素から蓄積部302aへの直接的な光の入射(図中に経路Sで示す)や、ブルーミングを抑制することが可能である。
 なお、上述した図12Bについても、蓄積部302が高感度画素間の境界に対応する部分に配置される。そのため、図13の中央図の例と同様に、境界部に設けられたトレンチ遮光部303により、隣接する画素から蓄積部への直接的な光の入射やブルーミングを抑制することが可能である。
 図14は、不適切な位置に蓄積部302が配された場合の画素の一例の構造を概略的に示す断面図である。この図14は、上述した図12Cと対応する図である。図14の右図は、図12Cの配置におけるA-A’断面およびB-B’断面を示す。
 この例の場合、例えば蓄積部302aが高感度画素300aと低感度画素301aとの境界部312に配置されている。ここで、上述したように、蓄積部302aを低感度画素301aの領域内に配置することが困難であるため、実際には、蓄積部302aは、例えば高感度画素300a側に寄って、配置される。そのため、蓄積部302aは、高感度画素300a側から見た場合に、境界部310に設けられるトレンチ遮光部303の手前側に配置されることになる。したがって、この配置の場合、高感度画素300aからの光が蓄積部302aに対して直接的に入射される可能性があり(図中に経路Tで示す)、また、ブルーミングが発生するおそれもある。
 なお、レイアウトによっては、蓄積部302aを、図13の中央図と同様に、高感度画素300aと低感度画素301aとの境界の境界部312に対応する位置に配置可能となることも考えられる。この場合、蓄積部302aを当該境界部312に配置しても、蓄積部302aに対する隣接画素からの光の直接的な入射や、ブルーミングの発生を抑制することが可能である。
 なお、この場合においても、図12Aおよび図12Bを用いて説明したように、蓄積部302aを、高感度画素300aと低感度画素301aを結ぶ線の方位ではなく、高感度画素300aと、当該高感度画素300aに隣接する他の高感度画素との境界部に配置することで、より高い効果が得られる。これは、上述したように、高感度画素300aから低感度画素301aの第2光電変換素子102へのクロストークが最悪になる方位と、高感度画素300aから低感度画素301aの蓄積部302aへのクロストークが最悪になる方位とを揃えないことに起因する。
(2-1.第1の変形例)
 次に、第1の実施形態の第1の変形例について説明する。第1の実施形態の第1の変形例は、蓄積部302を、単位画素が行列状の配列で配置される画素アレイ部11に対する画角の方向に応じた位置に配置する例である。なお、画素アレイ部11は、撮像装置などへの実装時には、入射面側に、画素アレイ部11の中心に光軸を合わせて、メインレンズが配置されるものとする。
 図15Aは、画素アレイ部11の行方向に対する画角が列方向に広い場合の例を示す図である。すなわち、図15Aに示される画素アレイ部11は、行方向が長辺とされている。図15Aにおいて、画素アレイ部11は、行方向の辺が長辺とされており、画素アレイ部11aの端部における入射角θHが、列方向の端部における入射角θVよりも大きくなる。したがって、入射光の隣接画素へのクロストークは、行方向が列方向に対して不利となる。
 図15Bは、第1の実施形態の第1の変形例に係る、図15Aに示した、画素アレイ部11に対する蓄積部302の配置の例を示す図である。なお、図15Bは、上述した図12Aと同一の内容であるが、説明のため再掲する。この場合、上述したように、入射光の隣接画素へのクロストークは、行方向が列方向に対して不利となっているため、低感度画素301の蓄積部302を、列方向に隣接して配置される高感度画素300の境界部に配置する。図15Bの例では、列方向に順次隣接する高感度画素300b、300a、…のそれぞれが接する各境界部310に対して、低感度画素301b、301a、…の蓄積部302b、302a、…をそれぞれ配置する。
 このように、画素アレイ部11に対する行方向の画角が列方向の画角よりも大きい場合、低感度画素301の蓄積部302を、列方向に順次隣接する高感度画素300の各境界部310に配置する。換言すれば、各境界部310は、画素アレイ部11の長辺の方向に沿ったものとなり、当該蓄積部302は、画素アレイ部11の長辺の方向に沿った境界部310に配置される。これにより、蓄積部302を、行方向に順次隣接する各高感度画素300の各境界部311に配置する場合に比べて、各蓄積部302に対する入射光の入射角θVを、入射角θHに対して相対的に低角度とすることができる。したがって、低感度画素301の蓄積部302に対するクロストークを抑制することが可能となる。
 図16Aは、画素アレイ部11の列方向に対する画角が行方向に対する画角よりも広い場合の例を示す図である。すなわち、図16Aに示される画素アレイ部11は、列方向が長辺とされている。図16Aにおいて、画素アレイ部11は、列方向の辺が長辺とされており、画素アレイ部11bの端部におけるメインレンズからの入射光の入射角θは、列方向の端部における入射角θVが行方向の端部における入射角θHよりも大きくなる。したがって、入射光の隣接画素へのクロストークは、列方向が行方向に対して不利となる。
 図16Bは、第1の実施形態の第1の変形例に係る、図16Aに示した、画素アレイ部11に対する画角が列方向に広い場合の蓄積部302の配置の例を示す図である。なお、図16Bは、上述した図12Bと同一の内容であるが、説明のため再掲する。この場合、上述したように、入射光の隣接画素へのクロストークは、列方向が行方向に対して不利となっているため、低感度画素301の蓄積部302を、行方向に隣接して配置される高感度画素300の境界部に配置する。図16Bの例では、行方向に順次隣接する高感度画素300それぞれが接する各境界部311に対して、低感度画素301の蓄積部302をそれぞれ配置する。この場合も、境界部311は、画素アレイ部11の長辺の方向に沿ったものとなり、当該蓄積部302は、画素アレイ部11の長辺の方向に沿った境界部311に配置される。
 この場合も、上述した図15Aおよび図15Bの場合と同様に、低感度画素301の蓄積部302が、行方向に順次隣接する高感度画素300の各境界部311に配置される。そのため、蓄積部302を、列方向に順次隣接する各高感度画素300の各境界部310に配置する場合に比べて、各蓄積部302に対する入射光の入射角θHを、入射角θVに対して相対的に低角度とすることができる。したがって、低感度画素301の蓄積部302に対する高感度画素300からのクロストークを抑制することが可能となる。
(2-2.第2の変形例)
 次に、第1の実施形態の第2の変形例について説明する。第1の実施形態の第2の変形例は、トレンチ遮光部303の配置に関する例である。図17Aは、第1の実施形態の第2の変形例に係るトレンチ遮光部303の第1の配置例を模式的に示す平面図である。また、図17Bは、第1の実施形態の第2の変形例に係るトレンチ遮光部303の第2の配置例を模式的に示す平面図である。上述したように、図17Aおよび図17Bは、図9における配線層271側から見た平面図である。
 低感度画素301それぞれの蓄積部302が、高感度画素300と、当該高感度画素300と隣接する他の高感度画素300との境界部310に配置される。この、蓄積部302が配置される境界部310に対して、トレンチ遮光部303を設けることが望ましい。図17Aに示す第1の例では、トレンチ遮光部303は、各高感度画素300と、各低感度画素301との周囲に隙間無く設けられている。
 これに限らず、図17Bに第2の例として示されるように、少なくとも、高感度画素300の、蓄積部302が配置される辺(すなわち境界部310)に限定してトレンチ遮光部303を設けることでも、高感度画素300から低感度画素301の蓄積部302に対するクロストークなどを抑制することが可能である。
 このように、第1の実施形態およびその各変形例では、低感度画素301の蓄積部302を、単位画素間の境界部に配置しているため、高感度画素300から当該蓄積部302に対する入射光の漏れ込みを抑制することができる。これにより、高感度画素300から低感度画素301の蓄積部302に対するクロストーク、および、それによるブルーミングを抑制でき、画角内での色特性を向上させることができる。
[3.第2の実施形態]
 次に、本開示の第2の実施形態について説明する。第2の実施形態は、上述した撮像素子としてのCMOSイメージセンサ10において、隣接する画素への光の漏れ込みを防ぐために設けられる、画素間遮光部181(図7~図9参照)に関する。
 例えば、特許文献1には、面積の異なる高感度画素と低感度画素を含む画素単位を有する画素構造が開示されている。この画素構造においては、高感度画素低感度画素との感度が大きく異なるため、高感度画素から低感度画素へのクロストークが発生するおそれがある。このクロストークの対策として、特許文献1には、低感度画素側の画素間遮光幅を太くする例が示されている。しかしながら、この場合、低感度画素の感度が大幅に低下するため、高感度画素との感度比も含めた設計が必要となる。また、低感度画素の斜入射光に対する特性の劣化や、低感度画素の感度低下により、高感度画素からのクロストーク率が上昇するおそれもある。
 本開示の第2の実施形態では、隣接する2つの画素間に配置される画素間遮光部の幅を、当該2つの画素の感度差に応じた幅とする。
 図18Aおよび図18Bは、第2の実施形態に係る画素間遮光部の配置について説明するための模式図である。図18Aは、画素の平面図、図18Bは、図18AにおけるA-A’断面およびB-B’断面を示す図である。なお、図18Aは、画素の入射面の反対側、例えば図9の配線層271の側から見た模式図である。図18Aでは、高感度画素300aおよび低感度画素301aを含む単位画素と、高感度画素300bおよび低感度画素301bを含む単位画素が、行方向に隣接して配置されている。
 図18Aにおいて、各高感度画素300および各低感度画素301に対して画素間遮光部を構成する画素間遮光膜321が設けられる。画素間遮光膜321の材料は、例えばタングステン、チタン、チタンナイトライド,SiO2、樹脂などを適用することができる。
 画素間遮光膜321には、各高感度画素300および各低感度画素301それぞれに対応して、開口部361および362が設けられる。各高感度画素300および各低感度画素301に照射された光は、これら各開口部361および362から、各高感度画素300および各低感度画素301に含まれる第1光電変換素子101および第2光電変換素子102に入射される。
 また、図18Aの例では、高感度画素300および低感度画素301の各画素間に、トレンチ遮光部303が設けられている。より具体的には、高感度画素300同士の境界部311にトレンチ遮光部303bgが設けられ、低感度画素301の周囲にトレンチ遮光部303smlが設けられている。図18BのA-A’断面図に示されるように、トレンチ遮光部303bgは、高感度画素300同士の境界部311の位置から層方向に掘り下げられた溝に、特定の材料が埋め込まれて形成される。トレンチ遮光部303に埋め込まれる材料は、例えばSiO2、タングステン、アルミニウム、チタン、チタンナイトライド、マグネシウム-チタン合金、マグネシウム-ニッケル合金、酸化タンタル、などを適用することができる。
 第2の実施形態では、隣接する2つの画素間の感度差が大きい境界部における画素間遮光膜321の幅を、その他の画素間の境界部における画素間遮光膜321の幅より太くしている。すなわち、高感度画素300同士、および、低感度画素301同士では、画素間の感度差が小さい。これに対して、高感度画素300と低感度画素301とでは、画素間の感度差が、これら高感度画素300同士、および、低感度画素301同士の場合に比べて大きい。したがって、高感度画素300と低感度画素301との境界部312における画素間遮光膜321の幅を、高感度画素300間の境界部311(図18Aの画素配置では、低感度画素301同士は接しない)における画素間遮光膜321の幅より太くする。
 図18Aを用いて、より具体的に説明する。図18Aを参照し、行方向に隣接する高感度画素300aおよび300b、ならびに、これら高感度画素300aおよび300bにそれぞれ接する、低感度画素301aについて考える。
 画素間遮光膜321の、高感度画素300aと高感度画素300bとの間に設けられる部分において、最も幅が狭くなる位置の、画素間の境界部311から高感度画素300a(の開口部361)までの幅を幅W1とする。図18Aの例では、高感度画素300aの開口部361は、境界部311に対して斜めに配置されているため、当該開口部361の、境界部311側の角部分が、当該最も幅が狭くなる位置となる。同様に、当該部分における、最も幅が狭くなる位置の、画素間の境界部311から高感度画素300b(の開口部361)までの幅を幅W2とする。
 なお、画素間の境界部は、瞳補正の無い状態の画素アレイ部11の中央部の画素に対して設けられるトレンチ遮光部303の中心線とすることができる。
 また、画素間遮光膜321の、高感度画素300bと、高感度画素300bの1辺に接する低感度画素301aとの間に設けられる部分において、最も幅が狭くなる位置の、画素間の境界部312を基点とした高感度画素300b(の開口部361)までの幅を幅W3とする。図18Aの例では、高感度画素300bの低感度画素301aと接する側の開口部561の辺と、低感度画素301aの高感度画素300bに接する側の開口部561の辺とが平行になるように配置されている。そのため、当該最も幅が狭くなる位置は、低感度画素301aの高感度画素300bに接する側の開口部561の辺の範囲となる。同様に、当該部分における、最も幅が狭くなる位置の、画素間の境界部312を基点とした低感度画素301a(の開口部361)までの幅を幅W4とする。
 この場合、幅W1~W4について、下記の式(1)の条件を満たすように、画素間遮光膜321を構成する。
3+W4>W1+W2  …(1)
 さらに、第1の実施形態では、上述の幅W1および幅W2、ならびに、幅W3および幅W4について、下記の式(2)および式(3)の各条件を満たすように、画素間遮光膜321を構成する。なお、式(2)の条件は、第2の実施形態において必須ではない。また、幅W4は、例えば第2の実施形態を適用しない場合の幅とすることが考えられる。
1=W2  …(2)
3>W4  …(3)
 この式(3)は、画素間遮光膜321が、高感度画素300と低感度画素301との間においては、高感度画素300側に寄って設けられることを示している。したがって、低感度画素301の開口部362の面積を損なうこと無く、高感度画素300と低感度画素301との間の画素間遮光膜321の幅を、高感度画素300間の画素間遮光膜321の幅より広くすることができる。
 これにより、低感度画素301において、既存構造の低感度画素に対して感度低下や斜入射感度の低下が無く、また、高感度画素300の感度低下も小さく抑えつつ、高感度画素300から低感度画素301へのクロストークを抑制できる。
(3-1.第1の変形例)
 次に、第2の実施形態の第1の変形例について説明する。上述した第2の実施形態では、各画素間の境界部にトレンチ遮光部303を設けた。これに対して、この第2の実施形態の第1の変形例は、各画素間の境界部にトレンチ遮光部303を設けない例である。
 図19Aおよび図19Bは、第2の実施形態の第1の変形例に係る画素間遮光部の配置について説明するための模式図である。図19Aおよび図19Bは、それぞれ上述した図18Aおよび図18Bと対応する図であって、図19Aは、画素の平面図、図19Bは、図19AにおけるA-A’断面およびB-B’断面を示す断面図である。
 図19Aおよび図19Bに示すように、各高感度画素300間、および、各高感度画素300と低感度画素301との間に、トレンチ遮光部303が設けられていない。一方、各高感度画素300間に設けられる画素間遮光膜321における、境界部311から高感度画素300bおよび300aそれぞれの側の各幅W1およびW2と、各高感度画素300および低感度画素301の間に設けられる画素間遮光膜321における、境界部312から高感度画素300および低感度画素301それぞれの側の各幅W3およびW4とは、上述した式(1)~(3)の条件を満たすようにされる。
 この第2の実施形態の第1の変形例のような、各画素間の境界部にトレンチ遮光部303を設けない場合であっても、画素間遮光膜321を上述した式(1)~(3)の条件を満たすように構成することで、上述した第2の実施形態と同等の効果を得ることができる。
 なお、第2の実施形態の第1の変形例において、画素間の境界部は、シリコン基板に打ち込まれた不純物濃度の周期パターンの境界として定義することが可能である。
(3-2.第2の変形例)
 次に、第2の実施形態の第2の変形例について説明する。上述の第2の実施形態およびその第1の変形例では、画素が、高感度画素300および低感度画素301を含む画素単位で配列されているが、第2の実施形態に適用可能な画素配列は、これに限定されない。この第2の実施形態の第2の変形例は、第2の実施形態を画素のRCCC配列に適用した例である。
 RCCC配列は、例えば、2画素×2画素に配列された4つの画素において、1つの画素に赤色のカラーフィルタが配置され、他の3つの画素に無色(クリア)のカラーフィルタが配置された構成となっている。一例として、RCCC配列を車載用の撮像装置に適用した場合、例えば、より低い照度における撮像が可能となると共に、自動車のフロントライトとテールライトの識別が容易となる。
 図20は、第2の実施形態の第2の変形例に適用可能な、RCCC配列による画素配列の例を示す模式図である。図20の例では、2画素×2画素の配列で配置された画素3000~3003で1つの画素セットが構成され、画素アレイにおいて、この画素セットが行列状の配列で配置される。画素セットに含まれる各画素3000のうち、画素3000は、赤色の波長成分の光を選択的に透過させるフィルタが配置され、画素3001~3003は、無色のフィルタすなわち可視光領域の全域の光を透過させるフィルタが配置される。
 ここで、画素3000は、カラーフィルタで赤色の波長成分以外の波長成分の光が減衰されるため、画素3001~3003に対して感度が低い。したがって、画素3001~3003が上述した高感度画素300に対応し、画素3000が低感度画素301に対応する。さらに、画素セットの領域において、各画素3000~3003の開口部以外の領域に、画素間遮光膜3010が設けられる。このような構成の場合、画素3000に対する、画素3000に隣接する画素3001および3002からの入射光の漏れ込みが発生する可能性がある。
 ここで、画素セットの領域を行方向に等分に2分割する境界部3020と、列方向に等分に2分割する境界部3021と、を考え、分割されたそれぞれの領域を画素領域とする。図20の例では、画素3000および3003は、この画素領域の中央にそれぞれ配置される。また、画素3001は、当該画素領域の中央に、長辺が列方向に沿うように配置され、画素3002は、当該画素領域の中央に、長辺が行方向に沿うように配置されている。
 この配置の場合、画素間遮光膜3010の画素3000と画素3001との間に設けられる部分において、画素3000の開口部の右端と境界部3020との間の幅が上述した幅W4に相当し、画素3001の開口部の左端と境界部3020との間の幅が上述したW3に相当する。同様に、画素3000の開口部の下端と境界部3021との間の幅が上述した幅W4に相当し、画素3002の上端と境界部3021との間の幅が上述した幅W3に相当する。
 この場合においても、幅W3およびW4を、上述した式(3)の条件を満たすようにすることで、低感度画素である画素3000の感度低下や斜入射感度の低下が無く、また、高感度画素である画素3001および3002の感度低下も小さく抑えつつ、画素3001および3002から画素3000へのクロストークを抑制できる。
[4.第3の実施形態]
 次に、本開示の第3の実施形態について説明する。第3の実施形態は、上述した撮像素子としてのCMOSイメージセンサ10における、トレンチ遮光部303の構成に関する。
 高感度画素と低感度画素とが1対となり単位画素を構成する画素構造において、低感度画素の周囲と高感度画素間のどちらにもクロストーク抑制のためのトレンチ遮光部を隙間なく配置する場合について考える。この場合、高感度画素間のトレンチ遮光部と、低感度画素周囲のトレンチ遮光部との繋ぎ部分の幅が拡大し、マイクロローディング効果により、トレンチ遮光部の深さが繋ぎ部分で局所的に深くなる。
 一方で、トレンチ遮光部を深くすると、下地のFD空乏層領域にトレンチ遮光部が掛かる、または、深堀りによるダメージが蓄積する、などにより暗時特性が悪化することが知られており、トレンチ遮光部の深さは、その深さで律速されてしまう。
 以上より、トレンチ遮光部を隙間無く配置しようとすると、最もクロストークを抑制したい高感度画素と低感度画素との間ではなく、画素間遮光の繋ぎ部分でトレンチ遮光部の深さが最大となり、効果的な遮光ができない。例えば、特許文献3では、トレンチ遮光部に対応する構成として、絶縁膜が埋め込まれた素子分離部が記載されているが、そのレイアウトに関しては、画素を取り囲むように格子状に配置される点が記載されるのみで、マイクロローディング効果への対策等に関しては、記載が無い。
 図21は、第3の実施形態に係るトレンチ遮光部303の構成例について説明するための模式図である。図21は、画素の平面図である。なお、図21は、画素の入射面の反対側、例えば図9の配線層271の側から見た模式図である。
 図21では、図の水平方向が行方向、垂直方向が列方向とされ、高感度画素300aおよび低感度画素301aを含む単位画素と、高感度画素300bおよび低感度画素301bを含む単位画素と、高感度画素300dおよび低感度画素301dを含む単位画素と、高感度画素300bおよび低感度画素301bを含む単位画素と、が行方向に隣接して配置されている。また、高感度画素300dおよび低感度画素301dを含む単位画素が、高感度画素300bおよび低感度画素301bを含む単位画素と、列方向に隣接して配置されている。
 図21において、説明のため、高感度画素300aおよび300bと、低感度画素301aと、に注目する。低感度画素301aの周囲は、トレンチ遮光部303smlが隙間無く、換言すれば、連続して配置される。一方、高感度画素300aと、当該高感度画素300aに対して行方向に隣接する高感度画素300bとの間は、トレンチ遮光部303bgが配置される。このとき、トレンチ遮光部303bgと、トレンチ遮光部303smlとを繋がずに、隙間Gpを開けて離間させて配置する。
 この配置によれば、トレンチ遮光部303bgとトレンチ遮光部303smlとの繋ぎ部分が発生しない。そのため、マイクロローディング効果による、トレンチ遮光部303bgの線幅が局所的に太くなり、その深さが局所的に深くなる部分が形成されることが防がれる。したがって、トレンチ遮光部303bgの深さを、全体として一律とすることができ、より高い遮光効果を得ることが可能となる。
 なお、隙間Gpの間隔は、トレンチ遮光部303bgとトレンチ遮光部303smlとが繋がらない間隔であれば、特に限定されない。
 なお、以下では、トレンチ遮光部303bgとトレンチ遮光部smlとを特に区別する必要のない場合には、適宜、トレンチ遮光部303bgとトレンチ遮光部smlをトレンチ遮光部303として纏めて説明を行う。
 図22および図23の断面図を用いて、より具体的に説明する。なお、図22および図23は、図22の右上に例示されるように、図21に示した配置と同等の画素配置における、A-A’断面、B-B’断面および、C-C’断面を示している。
 ここで、断面A-A’は、低感度画素301aおよび301dそれぞれの中央部を結ぶ線に従った断面である。断面B-B’は、高感度画素300aおよび300bそれぞれの中央部を行方向に結ぶ線に従った断面である。また、断面C-C’は、高感度画素300aおよび300bを、行方向に、低感度画素301dの直近を通って結ぶ線に従った断面である。
 図22は、第3の実施形態を適用しない場合の、画素の一例の構造を概略的に示す断面図である。図22において、C-C’断面に示されるトレンチ遮光部303bgは、低感度画素301dの周囲に配置されるトレンチ遮光部303smlと接続されているため、マイクロローディング効果により深く形成される。他のトレンチ遮光部303bgおよび303smlの深さは、このトレンチ遮光部303bgの深さに律速され、このトレンチ遮光部303bgの深さより浅く形成される(A-A’断面、B-B’断面参照)。したがって、例えばA-A’断面の図に示されるように、高感度画素300bに斜めから入射された光が、浅く形成されたトレンチ遮光部303smlの下部から、隣接する低感度画素301dに漏れ込んでしまうおそれがある(経路U1参照)。同様に、B-B’断面の図に示されるように、高感度画素300aに斜めから入射された光が、浅く形成されたトレンチ遮光部303bgの下部から、隣接する高感度画素300bに漏れ込んでしまうおそれもある(経路U2参照)。
 図23は、第3の実施形態を適用した場合の、画素の一例の構造を概略的に示す断面図である。この場合、低感度画素301の周囲に配置されるトレンチ遮光部303smlと、高感度画素300間に配置されるトレンチ遮光部303bgとの間に隙間Gpが設けられ、これらトレンチ遮光部303smlとトレンチ遮光部303bgとが繋がらない。したがって、A-A’断面、B-B’断面およびC-C’断面の図にそれぞれ示されるように、各トレンチ遮光部303bgと各トレンチ遮光部303smlとを略均一の深さで形成することが可能となる。これにより、各トレンチ遮光部303bgおよび各トレンチ遮光部303smlを、所望の深さ、例えば、より遮光効果が高く、且つ、暗時特性に影響の少ない深さで形成することが可能となる。
 図23の例では、A-A’断面の図に示されるように、高感度画素300bから低感度画素301dへの入射光の漏れ込み(経路V1参照)が抑制される。また、B-B’断面の図に示されるように、高感度画素300aおよび300b間の入射光の漏れ込み(経路V2参照)が抑制される。さらに、C-C’断面の図に示されるように、低感度画素301周囲のトレンチ遮光部303smlの直近の位置においても、高感度画素300aおよび300b間の入射光の漏れ込みが抑制される。
 なお、高感度画素300に入射した光は、高感度画素300に設けられるオンチップレンズ322により例えば中央部に集光されるため、トレンチ遮光部303bgとトレンチ遮光部303smlとの間に間隔Gpが設けられる影響は、少ない。
 このように、第3の実施形態によれば、クロストークの影響が大きい低感度画素301間を所望の深さのトレンチ遮光部303smlで隙間無く囲いつつ、高感度画素300間にも効果的なトレンチ遮光部303bgを形成することができる。そのため、高感度画素300から低感度画素301へのクロストークを抑制できると共に、高感度画素300間のクロストークも抑制することができる。
(4-1.第1の変形例)
 次に、第3の実施形態の第1の変形例について説明する。図24は、第3の実施形態の第1の変形例に係るトレンチ遮光部303の構成例について説明するための模式図である。図24は、画素の入射面の反対側、例えば図9の配線層271の側から見た平面図である。各高感度画素300および各低感度画素301の配置は、上述した図21に示した配置と同一であるので、ここでの説明を省略する。
 図24において、上述した図21と同様に、高感度画素300間に設けられるトレンチ遮光部303bgは、低感度画素301の周囲に設けられるトレンチ遮光部303smlに対して間隔Gpを開けて配置される。
 さらに、第3の実施形態の第1の変形例では、各低感度画素301の周囲に配置されるトレンチ遮光部303smlの幅W5を、各高感度画素300間に配置されるトレンチ遮光部303bgの幅に対して太くする。すなわち、第3の実施形態の第1の変形例では、クロストークを最も抑制したい高感度画素300と低感度画素301との間のトレンチ遮光部303smlの幅W5を、リソグラフィの段階で予め太く形成しておく。これにより、当該トレンチ遮光部303smlの深さを意図的に深く形成できる。
 一例として、配線層271上に配置される浮遊拡散層(例えば図12Aなどに示す蓄積部302)の位置との関係などで、高感度画素300間のトレンチ遮光部303bgを深くすると暗時特性が悪化する一方で、高感度画素300と低感度画素301との間では、トレンチ遮光部303smlをより深くしても暗時特性の悪化が無い場合がある。このような場合、高感度画素300間に配置されるトレンチ遮光部303bgの深さに律速されることなく、高感度画素300と低感度画素301との間に配置されるトレンチ遮光部303smlの深さを深くすることが可能となる。これにより、高感度画素300から低感度画素301へのクロストークを、効果的に抑制できる。
(4-2.第2の変形例)
 次に、第3の実施形態の第2の変形例について説明する。第3の実施形態の第2の変形例では、上述した第3の実施形態の第1の変形例に対して、高感度画素300および低感度画素301の面積の違いによる感度差に加え、他の要因による感度差に応じて、画素間に配置するトレンチ遮光部303の幅を変える。
 図25は、第3の実施形態の第2の変形例に係るトレンチ遮光部303の構成例について説明するための模式図である。図25は、画素の入射面の反対側、例えば図9の配線層271の側から見た平面図である。
 図25の例では、高感度画素300R1および300R2、ならびに、低感度画素301R1および301R2は、それぞれ赤色の波長成分の光を透過させるカラーフィルタが設けられた、赤色画素である。高感度画素300R1および低感度画素301R1の組、ならびに、高感度画素300R2および低感度画素301R2の組で、それぞれ1つの単位画素が構成される。
 また、高感度画素300G1および300G2、ならびに、低感度画素301G1および301G3は、それぞれ緑色の波長成分の光を透過させるカラーフィルタが設けられた、緑色画素である。高感度画素300G1および低感度画素301G1の組、ならびに、高感度画素300G3および低感度画素301G3の組で、それぞれ1つの単位画素が構成される。さらに、高感度画素300B1および300B2、ならびに、低感度画素301B1は、それぞれ青色の波長成分の光を透過させるカラーフィルタが設けられた、青色画素である。高感度画素300B1および低感度画素301B1の組で、1つの単位画素が構成される。
 図25において、高感度画素300B2および当該高感度画素300B2に対応する低感度画素(図示しない)を含む単位画素と、高感度画素300G1および低感度画素301G1を含む単位画素と、高感度画素300B1および低感度画素301B1を含む単位画素と、が列方向に順次隣接して配置されている。また、高感度画素300R1および低感度画素301R1を含む単位画素と、高感度画素300G1および低感度画素301G1を含む単位画素と、高感度画素300R2および低感度画素301R2を含む単位画素と、が行方向に順次隣接して配置されている。
 ここで、各高感度画素300および各低感度画素301において、大きさの差異のみならず、例えば設けられるカラーフィルタによっても、感度差が発生する。例えば、同じ面積および構造の画素で比較した場合、緑色の波長成分の光を透過するカラーフィルタを設けた画素(以下、G画素と呼ぶ)と、青色の波長成分の光を透過するカラーフィルタを設けた画素(以下、B画素と呼ぶ)とでは、一般的には、G画素の方が感度が高い。また、G画素と、赤色の波長成分の光を透過するカラーフィルタを設けた画素(以下、R画素と呼ぶ)とでは、一般的には、G画素の方が感度が高い。R画素、G画素およびB画素の感度の順位は、例えば「G画素>R画素>B画素」のようになる。
 一例として、高感度画素300から低感度画素301へのクロストークが最も顕著となる、高感度画素300が感度の高い例えばG画素であり、低感度画素301が感度の低い例えばR画素となる画素境界に配置されるトレンチ遮光部303smlの幅を、リソグラフィの段階であらかじめ太く形成しておく。これにより上述した第3の実施形態の第1の変形例の場合と同様に、クロストークを最も抑制したい箇所のトレンチ遮光部303を選択的に深く形成することができ、それ以外の個所が浅くなることで、暗時特性の改善が可能である。
 一例として、図25において、例えば互いに隣接する高感度画素300と低感度画素301とに、同一の波長成分の光を透過させるカラーフィルタを設けた場合の、当該高感度画素300と低感度画素301との境界部に配置するトレンチ遮光部303smlの幅を基準として考える。図25の例では、それぞれR画素である高感度画素300R1と低感度画素301R1とが隣接する境界部におけるトレンチ遮光部303sml2の幅W11や、それぞれG画素である高感度画素300G1と低感度画素301G1とが隣接する境界部におけるトレンチ遮光部303sml1の幅が基準の幅となる。
 第1の例として、低感度画素301に感度の低い色のカラーフィルタが設けられ、高感度画素300に感度の高い色のカラーフィルタが設けられる場合について説明する。この場合、高感度画素300と低感度画素301との面積の差異による感度差に、カラーフィルタによる感度差が加わり、高感度画素300と低感度画素301との感度差がより大きくなる。
 図25の例では、B画素である低感度画素301B1の周囲に配置されるトレンチ遮光部303sml3の、G画素である高感度画素300G1と隣接する境界部に配置される部分の幅W13を、基準の幅よりも太く形成する。同様に、例えばR画素である低感度画素301R1の周囲に配置されるトレンチ遮光部303sml2の、G画素である高感度画素300G1および300G2と隣接する各境界部に配置される部分の幅W10を、基準の幅よりも太く形成する。
 第2の例として、低感度画素301に感度の高い色のカラーフィルタが設けられ、高感度画素300に感度の低い色のカラーフィルタが設けられる場合について説明する。この場合、高感度画素300と低感度画素301との面積の差異による感度差が、カラーフィルタによる感度差である程度相殺されるため、高感度画素300と低感度画素301との感度差が小さくなる。
 図25の例では、G画素である低感度画素301G3の周囲に配置されるトレンチ遮光部303sml4の、R画素である高感度画素R1と隣接する境界部に配置される部分の幅W12を、基準の幅W11と同等とする。同様に、G画素である低感度画素301G1の周囲に配置されるトレンチ遮光部303smlの、B画素である高感度画素B2と隣接する境界部に配置される部分の幅を、基準の幅W11と同等とする。
 なお、隣接する2つの高感度画素300のうち、一方に感度の高い色のカラーフィルタが設けられ、他方に感度の高いカラーフィルタが設けられる場合については、高感度画素300間に配置されるトレンチ遮光部303bgの幅の変更などは行わない。
[5.第4の実施形態]
 次に、本開示の第4の実施形態について説明する。第4の実施形態は、上述した撮像素子としてのCMOSイメージセンサ10において、隣接する画素への光の漏れ込みを防ぐために設けられる構成に関する。
(5-0.既存技術について)
 先ず、第4の実施形態に関連する既存技術について説明する。特許文献4には、画素間の遮光構造を工夫することで隣接する画素間での混色抑制効果(クロストーク抑制効果)を高めるようにした技術が開示されている。図26を用いて、既存技術としての特許文献4による画素間遮光構造の例について説明する。
 図26は、既存技術に係る固体撮像素子の、入射光Hの入射方向に沿った一例の断面を示す断面図である。図3に示すように、固体撮像素子は、半導体基板2000の内部に画素Pを構成するフォトダイオード2004と画素分離部2020とが設けられている。ここでは、薄膜化された単結晶シリコンの半導体基板2000に設けられている。半導体基板2000の裏面(図26では上面)には、カラーフィルタCF、マイクロレンズMLなどの部材が設けられている。画素Pは、例えば格子状の配列で配置され、画素アレイを構成する。
 これに対して、半導体基板2000の表面(図26では、下面)には、図示されない画素回路や配線が設けられる配線・回路層2010が設けられており、配線・回路層2010において、半導体基板2000の側に対して反対側の面には、支持基板(図示しない)が設けられている。
 半導体基板2000の裏面(図26では上面)側から入射する入射光Hをフォトダイオード2004が受光する。フォトダイオード2004の上方には、図26に示すように、カラーフィルタ(光学フィルタ)CF、マイクロレンズMLが設けられており、各部を順次介して入射した入射光Hを、受光面JSで受光して光電変換が行われる。
 フォトダイオード2004は、電荷を蓄積する電荷蓄積領域として形成されるn型半導体領域2000nが、半導体基板2000のp型半導体領域2000pa,2000pcの内部に設けられている。
 固体撮像装置1において、マイクロレンズMLは、半導体基板2000の裏面(図26では上面)の側において、カラーフィルタCFの上面に設けられている。マイクロレンズMLは、各画素Pに対応するように複数が配置されている。マイクロレンズMLは、樹脂などの有機材料を用いて形成され、半導体基板2000の裏面側において凸状に突き出した凸レンズであり、各画素Pのフォトダイオード2004へ入射光Hを集光するように構成されている。
 半導体基板2000の内部には、複数の画素Pの間を電気的に分離する画素分離部2020が設けられており、フォトダイオード2004は、この画素分離部2020で区画された画素Pの領域内に設けられている。
 画素分離部2020について説明する。当該固体撮像装置において、画素分離部2020は、半導体基板2000の内部において、複数の画素Pの間を区画するように形成されている。そして、画素分離部2020は、複数の画素Pのそれぞれの間を電気的に分離している。つまり、各画素Pのフォトダイオード2004の間を電気的に分離している。
 複数の画素Pの間に位置する画素分離部2020においては、フォトダイオード2004の電荷蓄積領域を構成するn型半導体領域2000nの間に、p型半導体領域2000pa、2000pcが設けられている。そして、半導体基板2000において入射光Hが入射する裏面(上面)の側であって、フォトダイオード2004の側部に位置する部分に、トレンチTRが設けられている。
 具体的には、第1トレンチTR1と第2トレンチTR2とを含むように、トレンチTRが形成されている。ここでは、第1トレンチTR1が、半導体基板2000において深い部分に設けられている。
 第2トレンチTR2は、半導体基板2000において第1トレンチTR1よりも浅い部分に形成されている。つまり、第2トレンチTR2が半導体基板2000の裏面(上面)から下方へ側面が垂直に延在しており、第1トレンチTR1が、その第2トレンチTR2の底面の中心部分から下方へ側面が垂直に延在するように形成されている。また、第2トレンチTR2は、第1トレンチTR1よりも幅が広く(厚みが厚く)なるように形成されている。
 さらに、この例では、トレンチTRは、複数の画素Pの間においては、半導体基板2000の裏面(上面)に沿った方向において対称になるように形成されている。
 画素分離部2020は、ピニング層2003と、絶縁膜2002と、遮光層2001とを含み、これらの各部が、上記のトレンチTRの内部に設けられている。絶縁膜2002は、半導体基板2000の浅い部分において、第1トレンチTR1の上方に形成された第2トレンチTR2の内側の面を被覆するように形成されている。また、絶縁膜2002は、画素分離部2020の他に、半導体基板2000の裏面(上面)においては、ピニング層2003を介して、受光面JSを被覆するように形成されている。
 遮光層2001は、半導体基板2000の浅い部分において、ピニング層2003と絶縁膜2002とを介して、第2トレンチTR2の内部を埋め込むように形成されている。遮光層2001は、例えばタングステン(W)やアルミニウム(Al)といった、光に対する遮光性の高い金属材料を用いて構成されている。
 このように、特許文献4による構造では、画素Pの間に幅の異なる2種類のトレンチTR(第1トレンチTR1および第2トレンチTR2)を持つ画素間遮光構造(以下、B-RDTI(B-Rear Deep Trench Isolation)を提案しており、トレンチTRのうち半導体基板2000の深部側の第1トレンチTR1の幅より、裏面側(図26では上面)の第2トレンチTR2の幅の方が広くなっている。この第2トレンチTR2の内部に遮光層2001を埋め込むことで、混色抑制効果を高めている。なお、特許文献4は、適用される画素レイアウトは、各画素が行列状の配列で配置される格子状のレイアウトに限定される。
 特許文献4の技術では、遮光層2001により混色抑制効果が高められる一方で、遮光層2001を埋め込むために、第2トレンチTR2の幅を、第1トレンチTR1に対して広げる必要がある。そのため、画素Pの開口面積(受光面の面積)と、フォトダイオード2004の体積と、が減少することにより、画素Pの感度と、フォトダイオード2004の飽和が低下してしまうことになる。
(5-1.第4の実施形態について)
(5-1-1.第4の実施形態の概要)
 そこで、本開示の第4の実施形態では、上述の既存技術を本開示による高感度画素300および低感度画素301の構造に適用し、第1トレンチTR1と、遮光層2001を埋め込んだ第2トレンチTR2とを、位置関係が、高感度画素300および低感度画素301の境界部分に対して非対称となるように配置する。これにより、画素の感度や、フォトダイオードすなわち第1光電変換素子101(図3および図4参照)の飽和特性のような重要特性の劣化を抑制しつつ、高感度画素300と低感度画素301とを配置した場合の課題となる混色抑制効果を向上させることができる。
 さらに、本開示の第4の実施形態では、第2トレンチTR2を低感度画素301側に寄せて配置する。これにより、遮光層を埋め込むことによる第2トレンチTR2の幅の増大による、高感度画素300における画素の感度の低下や、第1光電変換素子101の飽和特性の低下を抑制することが可能である。
 すなわち、遮光膜を埋め込んだ第2トレンチTR2を低感度画素301の側に寄せて配置することで、高感度画素300の感度と第1光電変換素子101の飽和特性の低下を抑制することが可能である。一方、低感度画素301においては、低い感度となるような設計であり、フォトダイオード(第2光電変換素子102)の飽和特性は、画素内容量すなわち電荷蓄積部111(図3および図4参照)により決定している。そのため、低感度画素301は、第2トレンチTR2を低感度画素301の側に寄せることによる開口面積(受光面の面積)や第2光電変換素子102の体積の減少による影響が少ない。
 したがって、第4の実施形態に係る構成を適用することで、高感度画素300および低感度画素301を用いた構成において重要な、高感度画素300および低感度画素301の感度比対する影響が抑制され、より高い混色抑制効果を得ることが可能となる。
 また、第4の実施形態に係る構成で得られる他の効果としては、入射光の光電変換素子への斜めからの入射による斜入射特性の悪化を考慮すること無く、オプティカルブラック領域(例えば画素間遮光部181)の高感度画素300および低感度画素301の境界に対する非対称なレイアウトが可能となる点が挙げられる。これにより、例えば高感度画素300および低感度画素301の感度比など特性の調整に関し、設計自由度を向上させることができる。
 より具体的には、既存技術によれば、オプティカルブラック領域のレイアウトは、斜入力特性と感度比の特性とのトレードオフを十分に考慮して設計する必要があった。第4の実施形態に係る構成を適用することで、このトレードオフに関する考慮を省くことが可能となる。
(5-1-2.第4の実施形態の具体的な説明)
 次に、第4の実施形態について、より具体的に説明する。図27は、第4の実施形態に係る単位画素の断面を模式的に示す模式図である。図27は、高感度画素300および低感度画素301が整列する方向の断面を模式的に示すもので、第4の実施形態の説明と関わりの薄い部分の記載を省略している。
 図27において、図26と同様に、半導体層330の上側が裏面側、下側が表面側とする。半導体層330の表面側に配線層271が設けられる。半導体層330の裏面側は、層間絶縁膜323を介して光学フィルタ(この例ではカラーフィルタCF)とオンチップレンズ322とが設けられる。
 各カラーフィルタCFの境界、すなわち、高感度画素300および低感度画素301の各境界部分に対して、層間絶縁膜323から半導体層330の表面側に向けてトレンチ遮光部303a、303bおよび303cが層方向に掘り下げられて設けられている。図27において、半導体層330の、トレンチ遮光部303aとトレンチ遮光部303bとで区切られた領域が第1光電変換素子101に相当し、トレンチ遮光部303bとトレンチ遮光部303cとで区切られた領域が第2光電変換素子102に相当する。
 各トレンチ遮光部303a、303bおよび303cの底部(図27における上端部)に、オプティカルブラック領域として、上述した画素間遮光部181に対応する画素間遮光部351が設けられ、遮光壁350が画素間遮光部351から層方向に掘り下げられて設けられている。遮光壁350は、図26の遮光層2001に対応し、例えば材料としてタングステン(W)が用いられる。これに限らず、遮光壁350は、アルミニウム(Al)などの遮光性の高い他の材料であってもよい。
 ここで、各トレンチ遮光部303a、303bおよび303cにおいて、遮光壁350を含まない部分を第1トレンチ遮光部303TR1、遮光壁350を含む部分を第2トレンチ遮光部303TR2と呼ぶ。各トレンチ遮光部303a、303bおよび303cにおいて、第2トレンチ遮光部303TR2の幅(厚み)は、第1トレンチ遮光部303TR1の幅(厚み)より大きい(厚い)。
 また、各遮光壁350は、各第2トレンチ遮光部303TR2において、低感度画素301の側に寄せて設けられる。図27の例では、トレンチ遮光部303aは、図において左側が高感度画素300であり、右側が低感度画素301(図示しない)となっている。トレンチ遮光部303aの第2トレンチ遮光部303TR2において、遮光壁350は、高感度画素300と低感度画素301との境界部310に対して右に寄せて設けられている。
 同様に、トレンチ遮光部303bは、図において右側が高感度画素300であり、左側が低感度画素301となっている。トレンチ遮光部303bの第2トレンチ遮光部303TR2において、遮光壁350は、高感度画素300と低感度画素301との境界部310に対して左に寄せて設けられている。
 図28は、第4の実施形態に係る遮光壁350と、第1トレンチ遮光部303TR1および第2トレンチ遮光部303TR2と、の関係を説明するための模式図である。図28において、右側が高感度画素300、左側が低感度画素301とされている。また、第1トレンチ遮光部303TR1の幅(厚み)を幅w20、第2トレンチ遮光部303TR2の幅(厚み)を幅w21としている。
 遮光壁350と、第1トレンチ遮光部303TR1および第2トレンチ遮光部303TR2とは、下記の各関係を満たしている必要がある。
(1)幅w20と幅w21との関係は、[w20<w21]である必要がある。
(2)第2トレンチ遮光部303TR2における、第1トレンチ遮光部303TR1との幅の差分(w21-w20)の部分は、第1トレンチ遮光部303TR1に対して、低感度画素301の側に張り出し、高感度画素300の側には張り出さないようにされる。
 これにより、上述した図26の例では生じていた、高感度画素300における感度の低下、および、第1光電変換素子101の飽和特性の劣化が生じない。
(3)また、遮光壁350は、高感度画素300の側の端が、第1トレンチ遮光部303TR1における低感度画素301の側の外縁の延長線370に、少なくとも接するように設けられる。遮光壁350は、当該延長線370に掛かっていても良い。
(4)さらに、遮光壁350は、第1トレンチ遮光部303TR1の幅(厚み)を超えないように設ける必要がある。
 なお、遮光壁350の長さ(深さ)は、高感度画素300および低感度画素301の大きさを含む諸条件に応じて決められる。一例として、高感度画素300の大きさ、例えば図27を参照し、トレンチ遮光部303aとトレンチ遮光部303bとの間の長さおよび高さ(深さ)がそれぞれ3[μm]の場合、遮光壁350の長さ(深さ)を、数100[nm]、例えば300[nm]~400[nm]程度とすることが考えられる。
 図29は、第4の実施形態に係る遮光壁350の配置を説明するための模式図である。図29は、所定に配列された高感度画素300および低感度画素301を、受光面の側から見た平面図である。図29の例では、オプティカルブラック領域としての画素間遮光部351が、高感度画素300および低感度画素301それぞれの全周に設けられる。換言すると、画素間遮光部351は、高感度画素300および低感度画素301の全ての辺に対応して連続して設けられる。
 なお、ここでいう高感度画素300や低感度画素301の「辺」は、境界部310までを画素として定義した場合の、画素の辺を示す。
 第4の実施形態では、遮光壁350は、低感度画素301の全周に設けられる。高感度画素300については、遮光壁350は、高感度画素300同士が隣接する辺において、孤立して設けられる。換言すると、遮光壁350は、高感度画素300同士が隣接する辺において、当該辺の両端に間隙を有して設けられる。このように、辺の両端に間隙を有して遮光壁350を設けることで、当該隣接する辺に設けられる遮光壁350と、低感度画素301の全周に設けられる遮光壁350と、の交差を避けることで、マイクロローディング効果による遮光壁350の深さおよび幅の局所的な増大を抑制することができる。
 図30は、第4の実施形態に係る画素構造による遮光効果について説明するための模式図である。図30のセクション(a)は、第4の実施形態に係る遮光壁350を設けない、既存技術による画素構造の例、セクション(b)は、第4の実施形態に係る遮光壁350を設けた場合の画素構造の例を、それぞれ示している。
 なお、図30のセクション(a)および(b)は、それぞれ、上述した図27と同様に、高感度画素300および低感度画素301が整列する方向の断面を模式的に示すもので、第4の実施形態の説明と関わりの薄い部分の記載を省略している。
 図30のセクション(a)において、トレンチ遮光部303a’、303b’および303c’は、それぞれ画素間遮光部351は設けられるが、遮光壁350は設けられていない。ここで、例えば高感度画素300に対して、矢印Aで示すように、カラーフィルタCFを介して斜め方向から光(斜入射光)が入射された場合について考える。この場合、この斜入射光は、トレンチ遮光部303a’を介して隣接する低感度画素301に入射される。そのため、低感度画素301では、低感度画素301に設けられたカラーフィルタCFを介して入射された光に対する、高感度画素300に設けられたカラーフィルタCFを介して入射される斜入射光による混色が発生するおそれがある。
 これに対して、図30のセクション(b)では、同様にして、高感度画素300に対して、矢印Bで示すようにカラーフィルタCFを介して斜め方向から入射された斜入射光は、例えばタングステンなどによる遮光壁350により、低感度画素301への入射が抑制される。また、高感度画素300に対する斜入射光の、当該高感度画素300に隣接する他の高感度画素300に対する入射も、遮光壁350により抑制される。
 したがって、第4の実施形態に係る画素構造では、斜入射光による混色が抑制される。それと共に、第4の実施形態に係る画素構造では、高感度画素300における受光面の面積(開口面積)および第1光電変換素子101の体積の減少が無く、高感度画素300および低感度画素301の組み合わせを単位画素とした場合の感度の低下や飽和特性の劣化が抑制され、より高品質の画像を得ることが可能となる。
(5-2.第1の変形例)
 次に、第4の実施形態の第1の変形例について説明する。第4の実施形態の第1の変形例は、例えば上述した第4の実施形態に係る画素の構造に対して、遮光壁350を低感度画素301の全周にのみ設け、高感度画素300同士が隣接する辺には、遮光壁350を設けない例である。
 図31は、第4の実施形態の第1の変形例に係る遮光壁350の配置を説明するための模式図である。図31に示すように、第4の実施形態の第1の変形例では、遮光壁350を低感度画素301の全周、すなわち、低感度画素301の全ての辺に設ける。この場合であっても、上述した第4の実施形態と同様に、遮光壁350は、低感度画素301の側に寄せて、当該低感度画素301の全周に設けられる。
 一方、高感度画素300については、高感度画素300同士が隣接する辺には、遮光壁350を設けない。低感度画素301の全周に遮光壁350が設けられるため、高感度画素300と低感度画素301とが隣接する辺には、遮光壁350が設けられることになる。また、当該辺に対して設けられる遮光壁350は、低感度画素301の側に寄せて配置される。
 なお、オプティカルブラック領域としての画素間遮光部351は、上述した第4の実施形態と同様に、高感度画素300および低感度画素301それぞれの全周に設けられる。また、トレンチ遮光部303は、図28を用いて説明したように、高感度画素300の側に張り出さないように設けられる。
 このような構造でも、上述の高感度画素300から低感度画素301への斜入射光による混色を抑制することが可能である。また、高感度画素300における受光面の面積(開口面積)および第1光電変換素子101の体積の減少が無いため、より高品質の画像を得ることが可能となる。
(5-3.第2の変形例)
 次に、第4の実施形態の第2の変形例について説明する。第4の実施形態の第1の変形例は、例えば上述した第4の実施形態に係る画素の構造に対して、遮光壁350を、高感度画素300および低感度画素301の周囲で繋げる例である。
 図32は、第4の実施形態の第2の変形例に係る遮光壁350の配置を説明するための模式図である。図32に示すように、第4の実施形態の第2の変形例では、遮光壁350を、高感度画素300および低感度画素301それぞれの全周に設け、高感度画素300の全周に設けた遮光壁350と、低感度画素301の全周に設けた遮光壁350とを繋げる。この場合においても、低感度画素301の全周に設けられる遮光壁350は、低感度画素301の側に寄せて配置される。
 なお、オプティカルブラック領域としての画素間遮光部351は、上述した第4の実施形態と同様に、高感度画素300および低感度画素301それぞれの全周に設けられる。また、トレンチ遮光部303は、図28を用いて説明したように、高感度画素300の側に張り出さないように設けられる。
 このような構造でも、上述の高感度画素300から低感度画素301への斜入射光による混色を抑制することが可能である。また、高感度画素300に対する斜入射光の、当該高感度画素300に隣接する他の高感度画素300に対する入射も、遮光壁350により抑制される。さらに、高感度画素300における受光面の面積(開口面積)および第1光電変換素子101の体積の減少が無いため、より高品質の画像を得ることが可能となる。
(5-4.第3の変形例)
 次に、第4の実施形態の第3の変形例について説明する。第4の実施形態の第3の変形例は、例えば上述した第4の実施形態に係る画素の構造に対して、画素間遮光部351を、高感度画素300および低感度画素301それぞれの境界部310に対して非対称に設ける例である。
 図33は、第4の実施形態の第3の変形例に係る単位画素の断面を模式的に示す模式図である。図33は、上述した図27と同様に、高感度画素300および低感度画素301が整列する方向の断面を模式的に示すもので、第4の実施形態の第3の変形例の説明と関わりの薄い部分の記載を省略している。
 図33の例では、遮光壁350は、上述した第4の実施形態などと同様に、各各第2トレンチ遮光部303TR2において、低感度画素301の側に寄せて設けられている。一方、画素間遮光部351は、各画素の境界部310に対して非対称に設けられる。より具体的には、図33の例では、例えばトレンチ遮光部303bの位置に対応して示される画素間遮光部351は、境界部310に対して右側、この例では、高感度画素300の側に位置をずらして設けられている。また、トレンチ遮光部303cの位置に対応して示される画素間遮光部351は、境界部310に対して左側、この例では高感度画素300の側に位置をずらして設けられている。
 図34は、第4の実施形態の第3の変形例に係る画素間遮光部351の配置を説明するための模式図である。図34の例では、上述した第4の実施形態の第2の変形例と同様に、遮光壁350は、高感度画素300および低感度画素301それぞれの全周に、繋げて設けられる。一方、オプティカルブラック領域としての画素間遮光部351は、高感度画素300において、画素の内側に向けて張り出すように設けられている。低感度画素301においては、画素間遮光部351は、逆に、画素の外側に向けてずらして設けられている。
 なお、図33および図34では、画素間遮光部351が、境界部310において、高感度画素300の側にずらして設けられ、画素間遮光部351が高感度画素300の内側に張り出すようにされているが、これはこの例に限定されない。例えば、画素間遮光部351を、境界部310において低感度画素301の側にずらして設け、画素間遮光部351が低感度画素301の内側に張り出すようにしてもよい。
 すなわち、第4の実施形態の第3の変形例によれば、遮光壁350により、高感度画素300から低感度画素301への斜入射光の入射や、高感度画素300から、当該高感度画素300に隣接する他の高感度画素300への斜入射光の入射が抑制される。そのため、画素間遮光部351のレイアウトを、画素間での混色を考えずに、画素の感度比などの特性に注目して決定することが可能となる。この場合の感度比としては、例えば、高感度画素300と隣接する低感度画素301との感度比、高感度画素300と、当該高感度画素300に隣接する、当該高感度画素300とは異なる色のカラーフィルタCFが設けられた高感度画素300との感度比、などが考えられる。
 このような構造でも、上述の高感度画素300から低感度画素301への斜入射光による混色を抑制することが可能である。また、高感度画素300に対する斜入射光の、当該高感度画素300に隣接する他の高感度画素300に対する入射も、遮光壁350により抑制されるため、高品質の画像を得ることが可能となる。また、隣接画素への斜入射光の入射が遮光壁350により抑制されるため、画素間遮光部351のレイアウト等の設計自由度が向上する。
(5-5.第4の変形例)
 次に、第4の実施形態の第4の変形例について説明する。第4の実施形態の第4の変形例は、オプティカルブラック領域として、例えば上述した第4の実施形態における画素間遮光部351の代わりに導波路を用いた例である。
 図35は、第4の実施形態の第4の変形例に係る単位画素の断面を模式的に示す模式図である。図35は、上述した図27と同様に、高感度画素300および低感度画素301が整列する方向の断面を模式的に示すもので、第4の実施形態の第3の変形例の説明と関わりの薄い部分の記載を省略している。
 図35の例では、画素間遮光部351の代わりに、カラーフィルタCFと、当該カラーフィルタCFに隣接する他のカラーフィルタとの間に、導波路360が設けられている。導波路360は、カラーフィルタCFと比較して屈折率が低い材料(低屈剤)により構成される。導波路360は、隣接するカラーフィルタCFから所定以上の入射角で入射された光を全反射させるため、オプティカルブラック領域として用いることが可能であると共に、遮光壁350と同等の機能を実現することができる。
 導波路360を構成するための低屈剤としては、例えば、空気(Air-gap)、SiN、TEOS(テトラエトキシシラン)、樹脂(ポリシロキサン系、シリカ系等)を適用することができる。
 この場合、上述の高感度画素300から低感度画素301への斜入射光による混色を、遮光壁350と導波路360とにより抑制することができる。また、高感度画素300に対する斜入射光の、当該高感度画素300に隣接する他の高感度画素300に対する入射も、遮光壁350と導波路360とにより抑制される。そのため、より高品質の画像を得ることが可能となる。
 また、導波路360は、カラーフィルタCF間に設けられるため、上述したような、タングステンなどによる画素間遮光部351を用いた場合に比べ、高感度画素300や低感度画素301の開口部分(受光面)を有効に活用することが可能である。
(5-6.第5の変形例)
 次に、第4の実施形態の第5の変形例について説明する。第4の実施形態の第5の変形例は、画素間の遮光を行うオプティカルブラック領域の構造として、タングステンなどによる画素間遮光部351と、第4の実施形態の第4の変形例で説明した導波路360と、を組み合わせて用いる例である。
 図36は、第4の実施形態の第5の変形例に係る画素間遮光部351および導波路360の配置を説明するための模式図である。なお、図36の例では、上述した第4の実施形態の第2の変形例と同様に、遮光壁350が高感度画素300および低感度画素301それぞれの全周に、繋げて設けられるものとして示している。
 図36の例では、低感度画素301の全周、すなわち、低感度画素301と、当該低感度画素301に隣接する高感度画素300と、の各境界部310に対して、オプティカルブラック領域としての導波路360が設けられている。また、高感度画素300と、当該高感度画素300と隣接する他の高感度画素300と、の各境界部310に対して、オプティカルブラック領域としての画素間遮光部351が設けられている。
 なお、図36に示す画素間遮光部351および導波路360の配置は、一例であって、この例に限定されない。例えば、画素間遮光部351および導波路360の配置を逆として、低感度画素301の全周に画素間遮光部351を設け、高感度画素300間に導波路360を設けることもできるし、その他の組み合わせも可能である。
 このような構造でも、上述の高感度画素300から低感度画素301への斜入射光による混色が、遮光壁350と共に導波路360によっても抑制され、より高品質の画像を得ることが可能となる。
(5-7.第6の変形例)
 次に、第4の実施形態の第6の変形例について説明する。図37は、第4の実施形態の第6の変形例に係る単位画素の断面を模式的に示す模式図である。図37は、上述した図27と同様に、高感度画素300および低感度画素301が整列する方向の断面を模式的に示すもので、第4の実施形態の第6の変形例の説明と関わりの薄い部分の記載を省略している。
 上述した第4の実施形態では、カラーフィルタCFが層間絶縁膜323上に直接的に設けられていた。これに対して、第4の実施形態の第6の変形例では、図37に示されるように、層間絶縁膜323上に平坦化膜324を設け、カラーフィルタCFをこの平坦化膜324上に設けるようにしている。図37の例では、平坦化膜324は、層間絶縁膜323と画素間遮光部351とを覆って設けられている。
 このような構造でも、上述の高感度画素300から低感度画素301への斜入射光による混色を抑制することが可能である。また、高感度画素300に対する斜入射光の、当該高感度画素300に隣接する他の高感度画素300に対する入射も、遮光壁350により抑制されるため、高品質の画像を得ることが可能となる。
(5-8.他の変形例)
 次に、第4の実施形態の他の変形例について説明する。上述では、第1のカテゴリとして、上層構造、例えばカラーフィルタCFの構造について、次の2通りの構造について説明した。
(A)カラーフィルタCFを層間絶縁膜323上に直接的に設ける構造(第4の実施形態)
(B)カラーフィルタCFを層間絶縁膜323上の平坦化膜324に対して設ける構造(第4の実施形態の第6の変形例)
 また、第2のカテゴリとして、遮光壁350のレイアウトパターンについて、次の3通りのパターンについて説明した。
(a)高感度画素300間の遮光壁350を孤立させるパターン(第4の実施形態)
(b)遮光壁350を低感度画素301の全周にのみ設けるパターン(第4の実施形態の第1の変形例)
(c)遮光壁350を高感度画素300および低感度画素301それぞれの全周に繋げて設けるパターン(第4の実施形態の第2の変形例)
 また、第3のカテゴリとして、オプティカルブラック領域の構造について、次の3通りの構造について説明した。
(ア)通常のタングステンなどによる画素間遮光部351によるオプティカルブラック領域(第4の実施形態)
(イ)導波路360を用いたオプティカルブラック領域(第4の実施形態の第4の変形例)
(ウ)画素間遮光部351と導波路360とを組み合わせたオプティカルブラック領域(第4の実施形態の第5の変形例)
 さらに、第4のカテゴリとして、オプティカルブラック領域のレイアウトパターンについて、次の2通りのパターンについて説明した。
(α)画素間の境界部310に対して対称なパターン(第4の実施形態)
(β)画素間の境界部310に対して非対称なパターン(第4の実施形態の第3の変形例)
 上述した第1のカテゴリの2つの構造、第2のカテゴリの3通りのパターン、第3のカテゴリの3通りのパターン、および、第4のカテゴリの2通りのパターンについて、各カテゴリから任意に1つずつ選択して組み合わせることが可能である。すなわち、組み合わせによる変形例の総パターン数は、(第1のカテゴリの2構造)×(第2のカテゴリの3パターン)×(第3のカテゴリの3パターン)×第4のカテゴリの2パターン)=36パターンとなる。
 これら36パターンの何れにおいても、高感度画素300の感度および飽和特性の劣化を伴わずに、少なくとも高感度画素300から低感度画素301への斜入射光による混色を抑制する効果を得ることが可能である。
[6.第5の実施形態]
(6-1.本開示の技術の適用例)
 次に、第5の実施形態として、本開示に係る、第1の実施形態、第2の実施形態、第3の実施形態および第4の実施形態、ならびに、各実施形態の各変形例による撮像素子(CMOSイメージセンサ10)の適用例について説明する。図38は、上述の第1の実施形態、第2の実施形態、第3の実施形態および第4の実施形態、ならびに、各実施形態の各変形例に係る撮像素子を使用する使用例を示す図である。
 上述した第1の実施形態、第2の実施形態、第3の実施形態および第4の実施形態、ならびに、各実施形態の各変形例による撮像素子は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置。
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置。
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置。
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置。
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置。
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置。
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置。
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置。
(6-2.内視鏡手術システムへの応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図39は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図39では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図40は、図39に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102の撮像部11402に適用され得る。具体的には、上述した撮像素子を撮像部10112に適用することができる。本開示に係る撮像素子は、高感度画素300から低感度画素301へのクロストークが抑制されるため、より高品質な撮像画像を得ることができる。これにより、例えば術者11131は、より確実に手術を進めることが可能となる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(6-3.移動体への適用例)
 本開示に係る技術は、さらに、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットといった各種の移動体に搭載される装置に対して適用されてもよい。
 図41は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図41に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、および統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、および車載ネットワークI/F(インタフェース)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、および、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット12030は、例えば、受信した画像に対して画像処理を施し、画像処理の結果に基づき物体検出処理や距離検出処理を行う。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声および画像のうちの少なくとも一方の出力信号を送信する。図29の例では、出力装置として、オーディオスピーカ12061、表示部12062およびインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイおよびヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図42は、撮像部12031の設置位置の例を示す図である。図30では、車両12100は、撮像部12031として、撮像部12101、12102、12103、12104および12105を有する。
 撮像部12101、12102、12103、12104および12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドアおよび車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101および車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101および12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図30には、撮像部12101~12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112および12113は、それぞれサイドミラーに設けられた撮像部12102および12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101~12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101~12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101~12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101~12104から得られた距離情報を基に、撮像範囲12111~12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101~12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101~12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101~12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101~12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101~12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。
 具体的には、上述した撮像素子を撮像部12031に適用することができる。本開示に係る撮像素子は、高感度画素300から低感度画素301へのクロストークが抑制されるため、より高品質な撮像画像を得ることができる。これにより、より正確な歩行者の認識や、車両の制御を実現することが可能となる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の光電変換素子を含む第1の画素と、
 第2の光電変換素子を含む、前記第1の画素に隣接して配置される第2の画素と、
を含む単位画素と、
 前記第2の光電変換素子により生成された電荷を蓄積し、蓄積された該電荷を電圧に変換する蓄積部と、
を備え、
 前記蓄積部は、
 前記単位画素と該単位画素に隣接する他の前記単位画素との境界部に配置される、
撮像素子。
(2)
 前記蓄積部は、
 前記第1の画素と他の前記第1の画素とが隣接する境界部に配置される、
前記(1)に記載の撮像素子。
(3)
 前記境界部に設けられるトレンチ遮光部をさらに備え、
 前記トレンチ遮光部は、
 少なくとも、前記蓄積部が配置される前記境界部に設けられる、
前記(1)または(2)に記載の撮像素子。
(4)
 前記蓄積部は、
 前記単位画素が行列状の配列で配置される画素アレイの長辺の方向に沿った前記境界部に配置される、
前記(1)乃至(3)の何れかに記載の撮像素子。
(5)
 前記第1の画素は、前記第2の画素と比べて感度が高い画素である、
前記(1)乃至(4)の何れかに記載の撮像素子。
(6)
 前記第1の画素の受光面の面積は、前記第2の画素の受光面の面積よりも大きく、
 前記感度は、
 前記第1の画素および前記第2の画素それぞれの受光面の面積の大きさに応じた感度である、
前記(5)に記載の撮像素子。
(7)
 第1の光電変換素子を含む第1の画素と、第2の光電変換素子を含む、前記第1の画素に隣接して配置される第2の画素と、を含む単位画素と、
 前記第2の光電変換素子により生成された電荷を蓄積し、蓄積された該電荷を電圧に変換し、前記単位画素と該単位画素に隣接する他の前記単位画素との境界部に配置される蓄積部と、
を備える撮像素子を、
 前記第1の光電変換素子により生成された第1の電荷を前記蓄積部に蓄積し、
 前記蓄積部に蓄積された前記第1の電荷に基づく信号を信号線に出力し、
 前記第1の電荷に基づく信号が信号線に出力された後に、前記蓄積部を初期化し、
 前記第2の光電変換素子により生成された第2の電荷を、初期化された前記蓄積部に蓄積し、
 前記蓄積部に蓄積された前記第2の電荷に基づく信号を前記信号線に出力する、
ように駆動する、
撮像素子の駆動方法。
(8)
 第1の光電変換素子を含む第1の画素と、第2の光電変換素子を含む、前記第1の画素に隣接して配置される第2の画素と、を含む単位画素と、
 前記第2の光電変換素子により生成された電荷を蓄積し、蓄積された該電荷を電圧に変換し、前記単位画素と該単位画素に隣接する他の前記単位画素との境界部に配置される蓄積部と、
を備える撮像素子と、
 前記撮像素子の前記蓄積部に蓄積された前記電荷に基づく画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
 前記信号処理部により生成された前記画像データを記憶する記憶部と、
を有する電子機器。
(9)
 複数の画素を含む画素アレイと、
 前記画素アレイに含まれる前記複数の画素それぞれの間に設けられる遮光部と、
を備え、
 前記遮光部は、
 前記複数の画素のうち隣接して配置される2つの画素間において最も狭くなる部分の幅を、該2つの画素の感度の差に応じた幅とした、
撮像素子。
(10)
 前記複数の画素は、
 第1の画素と、該第1の画素に対して感度が低く、該第1の画素に隣接して配置される第2の画素と、を含む単位画素が行列状の配列で配置され、
 前記遮光部は、
 前記第1の画素と前記第2の画素との間において最も狭くなる部分の幅を、前記第1の画素間における幅、および、前記第2の画素間における幅に対して広い幅とした、
前記(9)に記載の撮像素子。
(11)
 前記遮光部は、
 隣接する2つの画素の間において、該2つの画素の境界を基点とした、該2つの画素のうち感度の高い方の画素の側の最も狭くなる部分の幅を、該2つの画素のうち感度の低い方の画素の側の最も狭くなる部分の幅より広くした、
前記(9)または(10)に記載の撮像素子。
(12)
 前記感度は、
 前記複数の画素それぞれの受光面の面積に応じた感度である、
前記(9)乃至(11)の何れかに記載の撮像素子。
(13)
 隣接して配置される複数の画素と、前記複数の画素それぞれの間に設けられる遮光部と、を備え、
 前記遮光部は、前記複数の画素のうち隣接して配置される2つの画素間において最も狭くなる部分の幅を、該2つの画素の感度の差に応じた幅とした撮像素子と、
 前記撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
 前記信号処理部により生成された前記画像データを記憶する記憶部と、
を有する電子機器。
(14)
 複数の画素を含む画素アレイと、
 前記画素アレイに含まれる前記複数の画素それぞれの周囲に設けられるトレンチ遮光部と、
を備え、
 前記トレンチ遮光部は、
 前記複数の画素のうち第1の画素の周囲には隙間無く設けられ、
 前記第1の画素に隣接する第2の画素の周囲には、該第1の画素の周囲に設けられる前記トレンチ遮光部に対して離間して設けられる、
撮像素子。
(15)
 前記第1の画素と前記第2の画素との境界部に対して、
 前記第1の画素同士の境界部に設けられる前記トレンチ遮光部よりも厚いトレンチ遮光部が設けられる、
前記(14)に記載の撮像素子。
(16)
 前記第2の画素は、前記第1の画素よりも感度が高い、
前記(14)または(15)に記載の撮像素子。
(17)
 前記感度は、
 前記複数の画素それぞれの受光面の面積に応じた感度である、
前記(16)に記載の撮像素子。
(18)
 前記感度は、
 前記複数の画素それぞれに設けられたカラーフィルタが透過する光の波長成分に応じた感度である、
前記(16)または(17)に記載の撮像素子。
(19)
 前記複数の画素のうち隣接する画素との間に設けられる前記トレンチ遮光部は、
 前記隣接する画素との間の感度の差に応じた幅を有する、
前記(16)または(17)に記載の撮像素子。
(20)
 互いに隣接して配置される複数の画素と、前記複数の画素それぞれの周囲に設けられるトレンチ遮光部と、を備え、
 前記トレンチ遮光部は、
 前記複数の画素のうち第1の画素の周囲には隙間無く設けられ、
 前記第1の画素に隣接する第2の画素の周囲には、該第1の画素の周囲に設けられる前記トレンチ遮光部に対して離間して設けられる撮像素子と、
 前記撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
 前記信号処理部により生成された前記画像データを記憶する記憶部と、
を有する電子機器。
(21)
 第1の画素と、
 前記第1の画素に隣接して配置される第2の画素と、
 前記第1の画素および前記第2の画素それぞれの周囲に設けられたトレンチ遮光部と、
 前記トレンチ遮光部の、少なくとも前記第1の画素と前記第2の画素との第1の境界部分に、トレンチの深さ方向に埋め込まれた遮光壁と、
を備え、
 前記遮光壁は、
 前記第1の境界部分において、前記第2の画素の方向に寄せて埋め込まれる、
撮像素子。
(22)
 前記第1の画素は、前記第2の画素と比べて感度が高い画素である、
前記(21)に記載の撮像素子。
(23)
 前記第1の画素の受光面の面積は、前記第2の画素の受光面の面積よりも大きく、
 前記感度は、
 前記第1の画素および前記第2の画素それぞれの受光面の面積の大きさに応じた感度である、
前記(22)に記載の撮像素子。
(24)
 前記トレンチ遮光部は、
 前記遮光壁が埋め込まれた第1の部分の厚みが、前記遮光壁が埋め込まれていない第2の部分の厚みに対して厚く、且つ、前記第1の部分が前記第2の部分に対して前記第1の画素の側に張り出さない、
前記(21)乃至(23)の何れかに記載の撮像素子。
(25)
 前記遮光壁は、
 前記第2の部分における前記第2の画素の側の外縁を延長した位置に掛かる、
前記(22)に記載の撮像素子。
(26)
 前記遮光壁は、
 前記第1の境界部分において前記第1の画素の側にはみ出さず、且つ、前記トレンチ遮光部からはみ出ない、
前記(21)乃至(25)の何れかに記載の撮像装置。
(27)
 前記遮光壁は、
 前記第2の画素の全周に設けられる、
前記(21)乃至(26)の何れかに記載の撮像素子。
(28)
 前記遮光壁は、さらに、
 前記第1の画素と、該第1の画素に隣接する他の前記第1の画素と、の第2の境界部分に、他の前記遮光壁と間隔を開けて設けられる、
前記(27)に記載の撮像素子。
(29)
 前記遮光壁は、さらに、
 前記第1の画素の全周に設けられる、
前記(27)に記載の撮像素子。
(30)
 前記第1の画素および前記第2の画素それぞれの受光面の周囲に設けられる画素間遮光部、をさらに備える、
前記(21)乃至(29)の何れかに記載の撮像素子。
(31)
 前記画素間遮光部は、
 前記第1の画素および前記第2の画素の少なくとも一方に係る画素境界に対して対称に設けられる、
前記(30)に記載の撮像素子。
(32)
 前記画素間遮光部は、
 前記第1の画素および前記第2の画素の少なくとも一方に係る画素境界に対して非対称に設けられる、
前記(30)に記載の撮像素子。
(33)
 前記第1の画素および前記第2の画素それぞれの受光面に設けられる光学フィルタと他の前記光学フィルタと、の間に設けられる導波路、をさらに備える、
前記(21)乃至(29)の何れかに記載の撮像素子。
(34)
 前記第1の画素および前記第2の画素それぞれの受光面の周囲の少なくとも一部に設けられる画素間遮光部、をさらに備え、
 前記第1の画素および前記第2の画素それぞれの周囲の少なくとも一部に、前記画素間遮光部と前記導波路とが組み合わせて設けられる、
前記(33)に記載の撮像素子。
(35)
 前記導波路は、前記第2の画素の周囲に設けられ、
 前記画素間遮光部は、前記第1の画素同士が隣接する境界部分に設けられる、
前記(34)に記載の撮像素子。
(36)
 第1の画素と、
 前記第1の画素に隣接して配置される第2の画素と、
 前記第1の画素および前記第2の画素それぞれの周囲に設けられたトレンチ遮光部と、
 前記トレンチ遮光部の、少なくとも前記第1の画素と前記第2の画素との第1の境界部分に、トレンチの深さ方向に埋め込まれた遮光壁と、
を備え、
 前記遮光壁は、
 前記第1の境界部分において、前記第2の画素の方向に寄せて埋め込まれる、撮像素子と、
 前記撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
 前記信号処理部により生成された前記画像データを記憶する記憶部と、
を有する電子機器。
10 CMOSイメージセンサ
11 画素アレイ部
181,181-1,181-2,181-3,181-4,181-5,181-6,181-7,351 画素間遮光部
300,300a,300b,300c,300d,300R1,300R2,300G1,300G2,300B1,300B2 高感度画素
301,301a,301b,301c,301d,301R1,301G1,301G3,301B1 低感度画素
302,302a,302b,302c,302d 蓄積部
303,303a,303b,303c,303bg,303sml,303sml1,303sml2,303sml3,303sml4 トレンチ遮光部
303TR1 第1トレンチ遮光部
303TR2 第2トレンチ遮光部
310,311,312,3020,3021 境界部
321 画素間遮光膜
350 遮光壁
360 導波路
361,362 開口部
3000,3001,3002,3003 画素

Claims (36)

  1.  第1の光電変換素子を含む第1の画素と、
     第2の光電変換素子を含む、前記第1の画素に隣接して配置される第2の画素と、
    を含む単位画素と、
     前記第2の光電変換素子により生成された電荷を蓄積し、蓄積された該電荷を電圧に変換する蓄積部と、
    を備え、
     前記蓄積部は、
     前記単位画素と該単位画素に隣接する他の前記単位画素との境界部に配置される、
    撮像素子。
  2.  前記蓄積部は、
     前記第1の画素と他の前記第1の画素とが隣接する境界部に配置される、
    請求項1に記載の撮像素子。
  3.  前記境界部に設けられるトレンチ遮光部をさらに備え、
     前記トレンチ遮光部は、
     少なくとも、前記蓄積部が配置される前記境界部に設けられる、
    請求項1に記載の撮像素子。
  4.  前記蓄積部は、
     前記単位画素が行列状の配列で配置される画素アレイの長辺の方向に沿った前記境界部に配置される、
    請求項1に記載の撮像素子。
  5.  前記第1の画素は、前記第2の画素と比べて感度が高い画素である、
    請求項1に記載の撮像素子。
  6.  前記第1の画素の受光面の面積は、前記第2の画素の受光面の面積よりも大きく、
     前記感度は、
     前記第1の画素および前記第2の画素それぞれの受光面の面積の大きさに応じた感度である、
    請求項5に記載の撮像素子。
  7.  第1の光電変換素子を含む第1の画素と、第2の光電変換素子を含む、前記第1の画素に隣接して配置される第2の画素と、を含む単位画素と、
     前記第2の光電変換素子により生成された電荷を蓄積し、蓄積された該電荷を電圧に変換し、前記単位画素と該単位画素に隣接する他の前記単位画素との境界部に配置される蓄積部と、
    を備える撮像素子を、
     前記第1の光電変換素子により生成された第1の電荷を前記蓄積部に蓄積し、
     前記蓄積部に蓄積された前記第1の電荷に基づく信号を信号線に出力し、
     前記第1の電荷に基づく信号が信号線に出力された後に、前記蓄積部を初期化し、
     前記第2の光電変換素子により生成された第2の電荷を、初期化された前記蓄積部に蓄積し、
     前記蓄積部に蓄積された前記第2の電荷に基づく信号を前記信号線に出力する、
    ように駆動する、
    撮像素子の駆動方法。
  8.  第1の光電変換素子を含む第1の画素と、第2の光電変換素子を含む、前記第1の画素に隣接して配置される第2の画素と、を含む単位画素と、
     前記第2の光電変換素子により生成された電荷を蓄積し、蓄積された該電荷を電圧に変換し、前記単位画素と該単位画素に隣接する他の前記単位画素との境界部に配置される蓄積部と、
    を備える撮像素子と、
     前記撮像素子の前記蓄積部に蓄積された前記電荷に基づく画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
     前記信号処理部により生成された前記画像データを記憶する記憶部と、
    を有する電子機器。
  9.  複数の画素を含む画素アレイと、
     前記画素アレイに含まれる前記複数の画素それぞれの間に設けられる遮光部と、
    を備え、
     前記遮光部は、
     前記複数の画素のうち隣接して配置される2つの画素間において最も狭くなる部分の幅を、該2つの画素の感度の差に応じた幅とした、
    撮像素子。
  10.  前記複数の画素は、
     第1の画素と、該第1の画素に対して感度が低く、該第1の画素に隣接して配置される第2の画素と、を含む単位画素が行列状の配列で配置され、
     前記遮光部は、
     前記第1の画素と前記第2の画素との間において最も狭くなる部分の幅を、前記第1の画素間における幅、および、前記第2の画素間における幅に対して広い幅とした、
    請求項9に記載の撮像素子。
  11.  前記遮光部は、
     隣接する2つの画素の間において、該2つの画素の境界を基点とした、該2つの画素のうち感度の高い方の画素の側の最も狭くなる部分の幅を、該2つの画素のうち感度の低い方の画素の側の最も狭くなる部分の幅より広くした、
    請求項9に記載の撮像素子。
  12.  前記感度は、
     前記複数の画素それぞれの受光面の面積に応じた感度である、
    請求項9に記載の撮像素子。
  13.  隣接して配置される複数の画素と、前記複数の画素それぞれの間に設けられる遮光部と、を備え、
     前記遮光部は、前記複数の画素のうち隣接して配置される2つの画素間において最も狭くなる部分の幅を、該2つの画素の感度の差に応じた幅とした撮像素子と、
     前記撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
     前記信号処理部により生成された前記画像データを記憶する記憶部と、
    を有する電子機器。
  14.  複数の画素を含む画素アレイと、
     前記画素アレイに含まれる前記複数の画素それぞれの周囲に設けられるトレンチ遮光部と、
    を備え、
     前記トレンチ遮光部は、
     前記複数の画素のうち第1の画素の周囲には隙間無く設けられ、
     前記第1の画素に隣接する第2の画素の周囲には、該第1の画素の周囲に設けられる前記トレンチ遮光部に対して離間して設けられる、
    撮像素子。
  15.  前記第1の画素と前記第2の画素との境界部に対して、
     前記第1の画素同士の境界部に設けられる前記トレンチ遮光部よりも厚いトレンチ遮光部が設けられる、
    請求項14に記載の撮像素子。
  16.  前記第2の画素は、前記第1の画素よりも感度が高い、
    請求項14に記載の撮像素子。
  17.  前記感度は、
     前記複数の画素それぞれの受光面の面積に応じた感度である、
    請求項16に記載の撮像素子。
  18.  前記感度は、
     前記複数の画素それぞれに設けられたカラーフィルタが透過する光の波長成分に応じた感度である、
    請求項16に記載の撮像素子。
  19.  前記複数の画素のうち隣接する画素との間に設けられる前記トレンチ遮光部は、
     前記隣接する画素との間の感度の差に応じた幅を有する、
    請求項16に記載の撮像素子。
  20.  互いに隣接して配置される複数の画素と、前記複数の画素それぞれの周囲に設けられるトレンチ遮光部と、を備え、
     前記トレンチ遮光部は、
     前記複数の画素のうち第1の画素の周囲には隙間無く設けられ、
     前記第1の画素に隣接する第2の画素の周囲には、該第1の画素の周囲に設けられる前記トレンチ遮光部に対して離間して設けられる撮像素子と、
     前記撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
     前記信号処理部により生成された前記画像データを記憶する記憶部と、
    を有する電子機器。
  21.  第1の画素と、
     前記第1の画素に隣接して配置される第2の画素と、
     前記第1の画素および前記第2の画素それぞれの周囲に設けられたトレンチ遮光部と、
     前記トレンチ遮光部の、少なくとも前記第1の画素と前記第2の画素との第1の境界部分に、トレンチの深さ方向に埋め込まれた遮光壁と、
    を備え、
     前記遮光壁は、
     前記第1の境界部分において、前記第2の画素の方向に寄せて埋め込まれる、
    撮像素子。
  22.  前記第1の画素は、前記第2の画素と比べて感度が高い画素である、
    請求項21に記載の撮像素子。
  23.  前記第1の画素の受光面の面積は、前記第2の画素の受光面の面積よりも大きく、
     前記感度は、
     前記第1の画素および前記第2の画素それぞれの受光面の面積の大きさに応じた感度である、
    請求項22に記載の撮像素子。
  24.  前記トレンチ遮光部は、
     前記遮光壁が埋め込まれた第1の部分の厚みが、前記遮光壁が埋め込まれていない第2の部分の厚みに対して厚く、且つ、前記第1の部分が前記第2の部分に対して前記第1の画素の側に張り出さない、
    請求項21に記載の撮像素子。
  25.  前記遮光壁は、
     前記第2の部分における前記第2の画素の側の外縁を延長した位置に掛かる、
    請求項22に記載の撮像素子。
  26.  前記遮光壁は、
     前記第1の境界部分において前記第1の画素の側にはみ出さず、且つ、前記トレンチ遮光部からはみ出ない、
    請求項21に記載の撮像素子。
  27.  前記遮光壁は、
     前記第2の画素の全周に設けられる、
    請求項21に記載の撮像素子。
  28.  前記遮光壁は、さらに、
     前記第1の画素と、該第1の画素に隣接する他の前記第1の画素と、の第2の境界部分に、他の前記遮光壁と間隔を開けて設けられる、
    請求項27に記載の撮像素子。
  29.  前記遮光壁は、さらに、
     前記第1の画素の全周に設けられる、
    請求項27に記載の撮像素子。
  30.  前記第1の画素および前記第2の画素それぞれの受光面の周囲に設けられる画素間遮光部、をさらに備える、
    請求項21に記載の撮像素子。
  31.  前記画素間遮光部は、
     前記第1の画素および前記第2の画素の少なくとも一方に係る画素境界に対して対称に設けられる、
    請求項30に記載の撮像素子。
  32.  前記画素間遮光部は、
     前記第1の画素および前記第2の画素の少なくとも一方に係る画素境界に対して非対称に設けられる、
    請求項30に記載の撮像素子。
  33.  前記第1の画素および前記第2の画素それぞれの受光面に設けられる光学フィルタと他の前記光学フィルタと、の間に設けられる導波路、をさらに備える、
    請求項21に記載の撮像素子。
  34.  前記第1の画素および前記第2の画素それぞれの受光面の周囲の少なくとも一部に設けられる画素間遮光部、をさらに備え、
     前記第1の画素および前記第2の画素それぞれの周囲の少なくとも一部に、前記画素間遮光部と前記導波路とが組み合わせて設けられる、
    請求項33に記載の撮像素子。
  35.  前記導波路は、前記第2の画素の周囲に設けられ、
     前記画素間遮光部は、前記第1の画素同士が隣接する境界部分に設けられる、
    請求項34に記載の撮像素子。
  36.  第1の画素と、
     前記第1の画素に隣接して配置される第2の画素と、
     前記第1の画素および前記第2の画素それぞれの周囲に設けられたトレンチ遮光部と、
     前記トレンチ遮光部の、少なくとも前記第1の画素と前記第2の画素との第1の境界部分に、トレンチの深さ方向に埋め込まれた遮光壁と、
    を備え、
     前記遮光壁は、
     前記第1の境界部分において、前記第2の画素の方向に寄せて埋め込まれる、撮像素子と、
     前記撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
     前記信号処理部により生成された前記画像データを記憶する記憶部と、
    を有する電子機器。
PCT/JP2020/045556 2019-12-17 2020-12-08 撮像素子、撮像素子の駆動方法および電子機器 WO2021124964A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN202080078854.5A CN114730779A (zh) 2019-12-17 2020-12-08 摄像元件、摄像元件驱动方法和电子装置
US17/782,872 US20230018370A1 (en) 2019-12-17 2020-12-08 Imaging element, imaging element driving method, and electronic device
KR1020227017364A KR20220115929A (ko) 2019-12-17 2020-12-08 촬상 소자, 촬상 소자의 구동 방법 및 전자 기기
DE112020006147.7T DE112020006147T5 (de) 2019-12-17 2020-12-08 Bildgebungselement, bildgebungselementansteuerungsverfahren und elektronische vorrichtung
CN202211344606.8A CN115696074B (zh) 2019-12-17 2020-12-08 光检测装置
JP2021565484A JPWO2021124964A1 (ja) 2019-12-17 2020-12-08
US18/134,355 US11991463B2 (en) 2019-12-17 2023-04-13 Imaging element, imaging element driving method, and electronic device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019227660 2019-12-17
JP2019-227660 2019-12-17
JP2020112161 2020-06-29
JP2020-112161 2020-06-29

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/782,872 A-371-Of-International US20230018370A1 (en) 2019-12-17 2020-12-08 Imaging element, imaging element driving method, and electronic device
US18/134,355 Continuation US11991463B2 (en) 2019-12-17 2023-04-13 Imaging element, imaging element driving method, and electronic device

Publications (1)

Publication Number Publication Date
WO2021124964A1 true WO2021124964A1 (ja) 2021-06-24

Family

ID=76476599

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045556 WO2021124964A1 (ja) 2019-12-17 2020-12-08 撮像素子、撮像素子の駆動方法および電子機器

Country Status (6)

Country Link
US (2) US20230018370A1 (ja)
JP (1) JPWO2021124964A1 (ja)
KR (1) KR20220115929A (ja)
CN (2) CN115696074B (ja)
DE (1) DE112020006147T5 (ja)
WO (1) WO2021124964A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042447A1 (ja) * 2021-09-16 2023-03-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2023079999A1 (ja) * 2021-11-05 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115696074B (zh) 2019-12-17 2023-09-15 索尼半导体解决方案公司 光检测装置
KR20220045665A (ko) * 2020-10-06 2022-04-13 삼성전자주식회사 이미지 센서
KR20220085542A (ko) * 2020-12-15 2022-06-22 에스케이하이닉스 주식회사 이미지 센싱 장치
CN115776617A (zh) * 2021-09-06 2023-03-10 思特威(上海)电子科技股份有限公司 像素结构、图像传感器、设备及图像处理方法、控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015216369A (ja) * 2014-04-23 2015-12-03 株式会社半導体エネルギー研究所 撮像装置
JP2017220877A (ja) * 2016-06-10 2017-12-14 キヤノン株式会社 撮像装置及び撮像システム
JP2019165212A (ja) * 2018-03-16 2019-09-26 パナソニックIpマネジメント株式会社 撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810551B2 (ja) 2011-02-25 2015-11-11 ソニー株式会社 固体撮像装置、および、その製造方法、電子機器
JP6299058B2 (ja) 2011-03-02 2018-03-28 ソニー株式会社 固体撮像装置、固体撮像装置の製造方法及び電子機器
JP6754157B2 (ja) * 2015-10-26 2020-09-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置
US10872919B2 (en) * 2016-01-29 2020-12-22 Sony Corporation Solid-state imaging device and electronic apparatus
JP2017163010A (ja) 2016-03-10 2017-09-14 ソニー株式会社 撮像装置、電子機器
JP2017175345A (ja) 2016-03-23 2017-09-28 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法、及び、電子機器
JP2018092976A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 撮像装置
WO2019075227A1 (en) * 2017-10-12 2019-04-18 Johnson Controls Technology Company SELF-POWERED WIRELESS POWER SENSOR FOR EFFICIENT BUILDING MANAGEMENT
EP4243436A3 (en) * 2017-11-22 2023-10-25 Sony Semiconductor Solutions Corporation Solid-state imaging element and electronic device
JP6779929B2 (ja) * 2018-02-09 2020-11-04 キヤノン株式会社 光電変換装置および機器
JP2022017616A (ja) * 2018-11-09 2022-01-26 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、固体撮像装置の製造方法および電子機器
US20220399391A1 (en) * 2019-12-03 2022-12-15 Sony Semiconductor Solutions Corporation Imaging apparatus, manufacturing method thereof, and electronic equipment
CN115696074B (zh) * 2019-12-17 2023-09-15 索尼半导体解决方案公司 光检测装置
US11233080B2 (en) * 2019-12-30 2022-01-25 Omnivision Technologies, Inc. Image sensor with partially encapsulating attenuation layer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015216369A (ja) * 2014-04-23 2015-12-03 株式会社半導体エネルギー研究所 撮像装置
JP2017220877A (ja) * 2016-06-10 2017-12-14 キヤノン株式会社 撮像装置及び撮像システム
JP2019165212A (ja) * 2018-03-16 2019-09-26 パナソニックIpマネジメント株式会社 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042447A1 (ja) * 2021-09-16 2023-03-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2023079999A1 (ja) * 2021-11-05 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Also Published As

Publication number Publication date
JPWO2021124964A1 (ja) 2021-06-24
US20230254602A1 (en) 2023-08-10
CN115696074B (zh) 2023-09-15
CN115696074A (zh) 2023-02-03
US11991463B2 (en) 2024-05-21
CN114730779A (zh) 2022-07-08
DE112020006147T5 (de) 2022-12-29
US20230018370A1 (en) 2023-01-19
KR20220115929A (ko) 2022-08-19

Similar Documents

Publication Publication Date Title
JP7439214B2 (ja) 固体撮像素子および電子機器
WO2021124964A1 (ja) 撮像素子、撮像素子の駆動方法および電子機器
WO2019159711A1 (ja) 撮像素子
WO2019220945A1 (ja) 撮像素子、電子機器
WO2020066640A1 (ja) 撮像素子、電子機器
US20230025911A1 (en) Imaging device and electronic device
TW202133412A (zh) 攝像元件、攝像元件之驅動方法及電子機器
WO2021149577A1 (ja) 固体撮像素子および電子機器
WO2021100446A1 (ja) 固体撮像装置及び電子機器
WO2019235230A1 (ja) 撮像素子、電子機器
JP2023040823A (ja) 撮像装置および電子機器
JP2021072397A (ja) 固体撮像装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20902248

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021565484

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20902248

Country of ref document: EP

Kind code of ref document: A1