WO2022065153A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2022065153A1
WO2022065153A1 PCT/JP2021/033897 JP2021033897W WO2022065153A1 WO 2022065153 A1 WO2022065153 A1 WO 2022065153A1 JP 2021033897 W JP2021033897 W JP 2021033897W WO 2022065153 A1 WO2022065153 A1 WO 2022065153A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
semiconductor layer
photoelectric conversion
solid
unit
Prior art date
Application number
PCT/JP2021/033897
Other languages
English (en)
French (fr)
Inventor
智記 平松
秀晃 富樫
信宏 河合
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2022551917A priority Critical patent/JPWO2022065153A1/ja
Priority to CN202180064056.1A priority patent/CN116325163A/zh
Priority to US18/043,969 priority patent/US20230403871A1/en
Priority to EP21872283.3A priority patent/EP4220721A4/en
Priority to KR1020237008143A priority patent/KR20230073185A/ko
Publication of WO2022065153A1 publication Critical patent/WO2022065153A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14638Structures specially adapted for transferring the charges across the imager perpendicular to the imaging plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • H01L27/14667Colour imagers
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/80Constructional details
    • H10K30/81Electrodes
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/601Assemblies of multiple devices comprising at least one organic radiation-sensitive element
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Definitions

  • This disclosure relates to a solid-state image sensor and an electronic device.
  • Patent Document 1 proposes a laminated image sensor in which a plurality of photoelectric conversion elements are laminated in the thickness direction of a semiconductor substrate.
  • Patent Document 2 proposes a structure in which the electric charge generated by photoelectric conversion and accumulated on the upper side of the storage electrode is vertically transferred to the collection electrode installed below the storage electrode.
  • the present disclosure proposes a solid-state image sensor and an electronic device that enable improvement in quantum efficiency.
  • the solid-state image pickup device includes a plurality of pixels arranged in a matrix, and each of the pixels is a first semiconductor layer and a first semiconductor layer. From the photoelectric conversion unit arranged on the one surface side, the storage electrode arranged close to the second surface side opposite to the first surface in the first semiconductor layer, and the second surface of the first semiconductor layer. It includes an extending wiring, a floating diffusion region connected to the first semiconductor layer via the wiring, and a first gate electrode arranged close to the wiring.
  • FIG. 12 is a horizontal cross-sectional view showing still another example of the AA cross section in FIG. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on the 2nd example of one Embodiment. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 3rd example of one Embodiment. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 4th example of one Embodiment. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 5th example of one Embodiment. 19 is a horizontal cross-sectional view showing a BB cross section in FIG.
  • FIG. 22 is a horizontal cross-sectional view showing a CC cross section in FIG. 22. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 8th example of one Embodiment. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on the 9th example of one Embodiment.
  • FIG. 3 is a horizontal cross-sectional view showing a DD cross section in FIG. 31. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 15th example of one Embodiment. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 16th example of one Embodiment. It is a vertical cross-sectional view which shows the cross-sectional structure of the pixel which concerns on 17th example of one Embodiment.
  • FIG. 2 is a band diagram showing the potential of each drive step along the EE plane in FIG. 40 (No. 2). It is a band diagram which shows the potential for each drive step along the EE plane in FIG. 40 (Part 2-2). It is a vertical cross-sectional view which shows the example of the cross-sectional structure of a pixel which is quoted in explaining the 2nd drive example of one Embodiment. It is a band diagram which shows the potential for each drive step along the FF plane in FIG. 44 (No. 1). It is a band diagram which shows the potential for each drive step along the FF plane in FIG. 44 (No. 2). FIG.
  • FIG. 3 is a band diagram showing the potential of each drive step along the FF plane in FIG. 44 (No. 3).
  • FIG. 4 is a band diagram showing the potential of each drive step along the FF plane in FIG. 44 (No. 4). It is a band diagram which shows the potential for each drive step along the FF plane in FIG. 44 (Part 2-2).
  • FIG. 4 is a band diagram showing the potential of each drive step along the FF plane in FIG. 44 (No. 4-2). It is a vertical cross-sectional view which shows the example of the cross-sectional structure of the image sensor which concerns on the 1st variation of this disclosure.
  • FIG. 5 is a horizontal cross-sectional view showing an I-I cross section in FIG. 51.
  • FIG. 5 is a horizontal cross-sectional view showing a cross section of II-II in FIG. 53.
  • It is a block diagram which shows the structural example of one Embodiment of the image pickup apparatus as an electronic device to which this disclosure is applied.
  • It is a block diagram which shows an example of the schematic structure of a vehicle control system.
  • It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.
  • It is a figure which shows an example of the schematic structure of an endoscopic surgery system.
  • It is a block diagram which shows an example of the functional structure of a camera head and a CCU.
  • CMOS Complementary Metal-Oxide Semiconductor
  • CCD Charge-Coupled Device
  • the CMOS type image sensor may be an image sensor created by applying or partially using a CMOS process.
  • FIG. 1 is a schematic diagram showing a schematic configuration example of an electronic device according to the present embodiment
  • FIG. 2 is a schematic configuration example of a distance measuring device using the electronic device according to the present embodiment. It is a block diagram which shows.
  • the electronic device 1 includes a laser light source 1010, an irradiation lens 1030, an image pickup lens 1040, an image sensor 100, and a system control unit 1050.
  • the laser light source 1010 is composed of, for example, a vertical resonator type surface emitting laser (VCSEL) 1012 and a light source driving unit 1011 for driving the VCSEL 1012.
  • VCSEL vertical resonator type surface emitting laser
  • the present invention is not limited to VCSEL1012, and various light sources such as LEDs (Light Emitting Diode) may be used.
  • the laser light source 1010 may be any of a point light source, a surface light source, and a line light source.
  • the laser light source 1010 may include, for example, a configuration in which a plurality of point light sources (for example, VCSEL) are arranged one-dimensionally or two-dimensionally.
  • the laser light source 1010 may emit light having a wavelength band different from that of visible light, such as infrared (IR) light.
  • IR infrared
  • the irradiation lens 1030 is arranged on the emission surface side of the laser light source 1010, and converts the light emitted from the laser light source 1010 into irradiation light having a predetermined spread angle.
  • the image pickup lens 1040 is arranged on the light receiving surface side of the image sensor 100, and forms an image of incident light on the light receiving surface of the image sensor 100.
  • the incident light may also include reflected light emitted from the laser light source 1010 and reflected by the subject 901.
  • the image sensor 100 generates image data by driving a light receiving unit 1022 in which a plurality of pixels are arranged in a two-dimensional grid pattern and a light receiving unit 1022. It is composed of a sensor control unit 1021.
  • the pixels arranged in the light receiving unit 1022 include, for example, pixels for detecting light in the wavelength band of visible light, pixels in the wavelength band other than visible light, for example, pixels for detecting light in the wavelength band of infrared light, and the like. It may be.
  • the pixel that detects light in a wavelength band other than visible light may be a pixel (for an image sensor) for generating image data of light in a wavelength band other than visible light, or the distance to an object. It may be a pixel (for ToF sensor) for measuring, or a pixel (for EVS) for detecting a change in brightness.
  • image data all the data read from each pixel of the light receiving unit 1022 and generated will be referred to as image data.
  • the system control unit 1050 is configured by, for example, a processor (CPU), and drives the VCSEL 1012 via the light source drive unit 1011. Further, the system control unit 1050 acquires image data by controlling the image sensor 100. At that time, the system control unit 1050 controls the image sensor 100 in synchronization with the control for the laser light source 1010 to detect the reflected light of the irradiation light emitted from the laser light source 1010, and obtains image data. You may get it.
  • a processor CPU
  • the irradiation light emitted from the laser light source 1010 is projected onto the subject (also referred to as a measurement object or object) 901 through the irradiation lens 1030.
  • This projected light is reflected by the subject 901.
  • the light reflected by the subject 901 passes through the image pickup lens 1040 and is incident on the image sensor 100.
  • the light receiving unit 1022 in the image sensor 100 receives the reflected light reflected by the subject 901 and generates image data.
  • the image data generated by the image sensor 100 is supplied to the application processor 1100 of the electronic device 1.
  • the application processor 1100 can execute various processes such as recognition processing and arithmetic processing on the image data input from the image sensor 100.
  • FIG. 3 is a block diagram showing a schematic configuration example of an image sensor in the present embodiment.
  • the image sensor 100 includes, for example, a pixel array unit 101, a vertical drive circuit 102, a signal processing circuit 103, a horizontal drive circuit 104, a system control circuit 105, and a data processing unit 108.
  • a data storage unit 109 is provided.
  • the vertical drive circuit 102, the signal processing circuit 103, the horizontal drive circuit 104, the system control circuit 105, the data processing unit 108, and the data storage unit 109 are also referred to as peripheral circuits.
  • pixels (hereinafter referred to as unit pixels) 110 having a photoelectric conversion element that generates and stores electric charges according to the amount of received light are arranged in a row direction and a column direction, that is, in a two-dimensional lattice shape (hereinafter referred to as a two-dimensional lattice shape). It has a structure arranged in a matrix).
  • the row direction means the arrangement direction of the pixels in the pixel row (in the drawing, the horizontal direction)
  • the column direction means the arrangement direction of the pixels in the pixel row (in the drawing, the vertical direction).
  • the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row with respect to the matrix-shaped pixel array.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the pixel.
  • the pixel drive lines LD are shown as wiring one by one, but the wiring is not limited to one by one.
  • One end of the pixel drive line LD is connected to the output end corresponding to each line of the vertical drive circuit 102.
  • the vertical drive circuit 102 is composed of a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 101 simultaneously for all pixels or in line units. That is, the vertical drive circuit 102 constitutes a drive unit that controls the operation of each pixel of the pixel array unit 101 together with the system control circuit 105 that controls the vertical drive circuit 102. Although the specific configuration of the vertical drive circuit 102 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
  • the read scanning system selectively scans each pixel of the unit pixel 110 of the pixel array unit 101 row by row in order to read a signal from each pixel of the unit pixel 110.
  • the signal read from each pixel of the unit pixel 110 is an analog signal.
  • the sweep scan system performs sweep scan for the read row on which read scan is performed by the read scan system, ahead of the read scan by the exposure time.
  • the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of each pixel of the unit pixel 110 of the read row. Then, by sweeping out (resetting) unnecessary charges with this sweeping scanning system, a so-called electronic shutter operation is performed.
  • the electronic shutter operation refers to an operation in which the electric charge of the photoelectric conversion element is discarded and a new exposure is started (charge accumulation is started).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that.
  • the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as an exposure period) in each pixel of the unit pixel 110.
  • the signal output from each unit pixel 110 of the pixel row selectively scanned by the vertical drive circuit 102 is input to the signal processing circuit 103 through each of the vertical signal lines VSL for each pixel column.
  • the signal processing circuit 103 performs predetermined signal processing on the signal output from each pixel of the selected row through the vertical signal line VSL for each pixel row of the pixel array unit 101, and temporarily processes the pixel signal after the signal processing. Hold on.
  • the signal processing circuit 103 performs at least noise reduction processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel.
  • the signal processing circuit 103 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.
  • AD analog-digital
  • the horizontal drive circuit 104 is composed of a shift register, an address decoder, and the like, and a read circuit (hereinafter referred to as a pixel circuit) corresponding to the pixel sequence of the signal processing circuit 103 is sequentially selected.
  • a read circuit hereinafter referred to as a pixel circuit
  • the system control circuit 105 is configured by a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the vertical drive circuit 102, the signal processing circuit 103, and the horizontal drive circuit 104. Drive control such as.
  • the data processing unit 108 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the signal processing circuit 103.
  • the data storage unit 109 temporarily stores the data necessary for the signal processing in the data processing unit 108.
  • the image data output from the data processing unit 108 may be, for example, executed by a predetermined process in the application processor 1100 or the like in the electronic device 1 equipped with the image sensor 100, or transmitted to the outside via a predetermined network. You may.
  • FIG. 4 is a diagram showing an example of a laminated structure of an image sensor according to the present embodiment.
  • the image sensor 100 has a stack structure in which a light receiving chip 121 and a circuit chip 122 are stacked one above the other.
  • the light receiving chip 121 may be, for example, a semiconductor chip including a pixel array unit 101 in which a plurality of unit pixels 110 are arranged in a matrix
  • the circuit chip 122 may be, for example, a semiconductor chip including the peripheral circuit in FIG. ..
  • the bonding between the light receiving chip 121 and the circuit chip 122 for example, a so-called direct bonding in which the respective bonding surfaces are flattened and the two are bonded by an intramolecular force can be used.
  • the present invention is not limited to this, and for example, so-called Cu-Cu bonding in which copper (Cu) electrode pads formed on the bonding surfaces of each other are bonded to each other, or other bump bonding or the like can be used. ..
  • connection portion such as a TSV (Through-Silicon Via) that penetrates the semiconductor substrate.
  • Connections using TSVs include, for example, a so-called twin TSV method in which two TSVs, a TSV provided on the light receiving chip 121 and a TSV provided from the light receiving chip 121 to the circuit chip 122, are connected on the outer surface of the chip, or a light receiving light.
  • a so-called shared TSV method or the like, in which both are connected by a TSV penetrating from the chip 121 to the circuit chip 122, can be adopted.
  • the unit pixel 110 is a pixel that detects each color component in the three primary colors of RGB (hereinafter, also referred to as RGB pixel 10) and a pixel that detects infrared (IR) light (hereinafter, also referred to as IR pixel 20).
  • RGB pixel 10 a pixel that detects each color component in the three primary colors of RGB
  • IR pixel 20 a pixel that detects infrared (IR) light
  • IR pixel 20 a pixel that detects infrared (IR) light
  • IR pixel 20 a pixel that detects infrared (IR) light
  • IR pixel 20 infrared light
  • FIG. 5 is a schematic diagram showing a schematic configuration example of the pixel array unit according to the present embodiment.
  • unit pixels 110 having a structure in which unit pixels 110 composed of RGB pixels 10 and IR pixels 20 are arranged along the incident direction of light are arranged in a two-dimensional grid pattern. It has a configuration. That is, in the present embodiment, the RGB pixels 10 and the IR pixels 20 are located in the direction perpendicular to the arrangement direction (planar direction) of the unit pixels 110, and the RGB pixels 10 are located on the upstream side in the optical path of the incident light.
  • the light transmitted through the image is configured to enter the IR pixel 20 located on the downstream side of the RGB pixel 10.
  • the photoelectric conversion unit PD2 of the IR pixel 20 is arranged on the surface side opposite to the incident surface of the incident light in the photoelectric conversion unit PD1 of the RGB pixel 10.
  • the optical axes of the incident light of the RGB pixels 10 and the IR pixels 20 arranged along the incident direction of the light are coincident or substantially the same.
  • the photoelectric conversion unit PD1 constituting the RGB pixel 10 is composed of an organic material and the photoelectric conversion unit PD2 constituting the IR pixel 20 is composed of a semiconductor material such as silicon will be exemplified.
  • both the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of a semiconductor material, or both the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of an organic material, or the photoelectric conversion unit may be made of an organic material.
  • the part PD1 may be made of a semiconductor material, and the photoelectric conversion part PD2 may be made of an organic material.
  • at least one of the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of a photoelectric conversion material different from the organic material and the semiconductor material.
  • FIG. 6 is a circuit diagram showing a schematic configuration example of a unit pixel according to the present embodiment. As shown in FIG. 6, in this example, the unit pixel 110 includes one RGB pixel 10 and one IR pixel 20.
  • the RGB pixel 10 includes, for example, a photoelectric conversion unit PD1, a transfer gate 11, a floating diffusion region FD1, a reset transistor 12, an amplification transistor 13, and a selection transistor 14.
  • a selection control line included in the pixel drive line LD is connected to the gate of the selection transistor 14, and a reset control line included in the pixel drive line LD is connected to the gate of the reset transistor 12, which will be described later.
  • a transfer control line included in the pixel drive line LD is connected to the storage electrode (see the storage electrode 37 in FIG. 8 described later). Further, a vertical signal line VSL1 having one end connected to the signal processing circuit 103 is connected to the drain of the amplification transistor 13 via the selection transistor 14.
  • the reset transistor 12, the amplification transistor 13, and the selection transistor 14 are collectively referred to as a pixel circuit.
  • the pixel circuit may include a stray diffusion region FD1 and / or a transfer gate 11.
  • the photoelectric conversion unit PD1 is made of, for example, an organic material, and performs photoelectric conversion of incident light.
  • the transfer gate 11 transfers the electric charge generated in the photoelectric conversion unit PD1.
  • the floating diffusion region FD1 accumulates the electric charge transferred by the transfer gate 11.
  • the amplification transistor 13 causes a pixel signal having a voltage value corresponding to the electric charge stored in the stray diffusion region FD1 to appear on the vertical signal line VSL1.
  • the reset transistor 12 emits the electric charge accumulated in the stray diffusion region FD1.
  • the selection transistor 14 selects the RGB pixel 10 to be read.
  • the anode of the photoelectric conversion unit PD1 is grounded, and the cascade is connected to the transfer gate 11.
  • the details of the photoelectric conversion unit PD1 will be described later with reference to FIG. 8, but for example, the storage electrodes 37 are arranged close to each other.
  • a voltage for collecting the electric charge generated in the photoelectric conversion unit PD1 in the semiconductor layer 35 in the vicinity of the storage electrode 37 is applied to the storage electrode 37 via the transfer control line.
  • a voltage for causing the electric charge collected in the semiconductor layer 35 in the vicinity of the storage electrode 37 to flow out through the reading electrode 36 is applied to the storage electrode 37 via the transfer control line.
  • the electric charge flowing out through the read electrode 36 is accumulated in the stray diffusion region FD1 configured by the wiring structure connecting the read electrode 36, the source of the reset transistor 12, and the gate of the amplification transistor 13.
  • the drain of the reset transistor 12 may be connected to, for example, a power supply line to which a reset voltage lower than the power supply voltage VDD or the power supply voltage VDD is supplied.
  • the source of the amplification transistor 13 may be connected to a power line via, for example, a constant current circuit (not shown).
  • the drain of the amplification transistor 13 is connected to the source of the selection transistor 14, and the drain of the selection transistor 14 is connected to the vertical signal line VSL1.
  • the floating diffusion region FD1 converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge.
  • the floating diffusion region FD1 may be, for example, a grounding capacitance.
  • the present invention is not limited to this, and the floating diffusion region FD1 is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer gate 11 and the source of the reset transistor 12 and the gate of the amplification transistor 13 are connected. It may be a capacity or the like.
  • the vertical signal line VSL1 is connected to an AD (Analog-to-Digital) conversion circuit 103a provided for each column (that is, for each vertical signal line VSL1) in the signal processing circuit 103.
  • the AD conversion circuit 103a includes, for example, a comparator and a counter, and has a reference voltage such as a single slope or a lamp shape input from an external reference voltage generation circuit (DAC (Digital-to-Analog Converter)) and a vertical signal. By comparing with the pixel signal appearing on the line VSL1, the analog pixel signal is converted into the digital pixel signal.
  • the AD conversion circuit 103a may be provided with, for example, a CDS (Correlated Double Sampling) circuit and may be configured to be able to reduce kTC noise and the like.
  • the IR pixel 20 includes, for example, a photoelectric conversion unit PD2, a transfer transistor 21, a floating diffusion region FD2, a reset transistor 22, an amplification transistor 23, a selection transistor 24, and an emission transistor 25. That is, in the IR pixel 20, the transfer gate 11 in the RGB pixel 10 is replaced with the transfer transistor 21, and the emission transistor 25 is added.
  • connection relationship between the stray diffusion region FD2, the reset transistor 22 and the amplification transistor 23 with respect to the transfer transistor 21 may be the same as the connection relationship between the stray diffusion region FD1, the reset transistor 12 and the amplification transistor 13 with respect to the transfer gate 11 in the RGB pixel 10. .. Further, the connection relationship between the amplification transistor 23, the selection transistor 24, and the vertical signal line VSL2 may be the same as the connection relationship between the amplification transistor 13 and the selection transistor 14 and the vertical signal line VSL1 in the RGB pixel 10.
  • the source of the transfer transistor 21 is connected to, for example, the cathode of the photoelectric conversion unit PD2, and the drain is connected to the floating diffusion region FD2. Further, a transfer control line included in the pixel drive line LD is connected to the gate of the transfer transistor 21.
  • the source of the emission transistor 25 may be connected to, for example, the cathode of the photoelectric conversion unit PD2, and the drain may be connected to a power supply line to which a reset voltage lower than the power supply voltage VDD or the power supply voltage VDD is supplied. Further, the emission control line included in the pixel drive line LD is connected to the gate of the emission transistor 25.
  • the reset transistor 22, the amplification transistor 23, and the selection transistor 24 are collectively referred to as a pixel circuit.
  • This pixel circuit may include one or more of the stray diffusion region FD2, the transfer transistor 21, and the emission transistor 25.
  • the photoelectric conversion unit PD2 is made of, for example, a semiconductor material, and performs photoelectric conversion of incident light.
  • the transfer transistor 21 transfers the electric charge generated in the photoelectric conversion unit PD2.
  • the floating diffusion region FD2 accumulates the electric charge transferred by the transfer transistor 21.
  • the amplification transistor 23 causes a pixel signal having a voltage value corresponding to the electric charge accumulated in the stray diffusion region FD2 to appear on the vertical signal line VSL2.
  • the reset transistor 22 emits the electric charge accumulated in the stray diffusion region FD2.
  • the selection transistor 24 selects the IR pixel 20 to be read.
  • the anode of the photoelectric conversion unit PD2 is grounded, and the cascade is connected to the transfer transistor 21.
  • the drain of the transfer transistor 21 is connected to the source of the reset transistor 22 and the gate of the amplification transistor 23, and the wiring structure connecting these constitutes the floating diffusion region FD2.
  • the electric charge flowing out from the photoelectric conversion unit PD2 via the transfer transistor 21 is accumulated in the floating diffusion region FD2.
  • the floating diffusion region FD2 converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge.
  • the floating diffusion region FD2 may be, for example, a grounding capacity.
  • the present invention is not limited to this, and the stray diffusion region FD2 is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer transistor 21, the source of the reset transistor 22, and the gate of the amplification transistor 23 are connected. It may be a capacity or the like.
  • the discharge transistor 25 is turned on when the charge accumulated in the photoelectric conversion unit PD2 is discharged and the photoelectric conversion unit PD2 is reset. As a result, the electric charge accumulated in the photoelectric conversion unit PD2 flows out to the power supply line via the discharge transistor 25, and the photoelectric conversion unit PD2 is reset to an unexposed state.
  • the vertical signal line VSL2 is connected to the AD conversion circuit 103a provided for each column (that is, for each vertical signal line VSL2) in the IR signal processing circuit 103B.
  • FIG. 7 is a circuit diagram showing a schematic configuration example of a unit pixel according to a modified example of the present embodiment. As shown in FIG. 7, in this modification, the RGB pixel 10A in each unit pixel 110 further includes a memory MEM and a transfer transistor 15.
  • the memory MEM is connected to the transfer gate 11 and temporarily holds the electric charge flowing out from the photoelectric conversion unit PD1.
  • the source of the transfer transistor 15 is connected to the memory MEM and the drain is connected to the stray diffusion region FD1.
  • the gate of the transfer transistor 15 is connected to a transfer control line, which is one of the pixel drive lines LD, and transfers the electric charge held in the memory MEM to the stray diffusion region FD1 according to the control from the vertical drive circuit 102.
  • the transfer gates 11 of all the RGB pixels 10 in the pixel array unit 101 are turned on all at once.
  • the electric charge generated in the photoelectric conversion unit PD1 of each RGB pixel 10 during the same period is transferred to the memory MEM of each RGB pixel 10 and held.
  • the reading of the pixel signal based on the charge held in the memory MEM may be the same as the reading drive of the so-called rolling shutter method.
  • FIG. 8 is a cross-sectional view showing an example of a cross-sectional structure of an image sensor according to the present embodiment.
  • an example of the cross-sectional structure of the semiconductor chip in which the photoelectric conversion units PD1 and PD2 are formed in the unit pixel 110 will be described.
  • a so-called back-illuminated cross-sectional structure in which the incident surface of light is the back surface side (opposite the element forming surface) of the semiconductor substrate 50 is exemplified, but the present invention is not limited to this, and the incident surface of light is incident. It may have a so-called surface-illuminated cross-sectional structure in which the surface is the surface side (element forming surface side) of the semiconductor substrate 50.
  • the photoelectric conversion materials of the photoelectric conversion units PD1 and PD2 are organic materials and semiconductors. One or both of the materials (also referred to as inorganic materials) may be used.
  • the image sensor 100 uses the same semiconductor substrate 50 for the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2. It may have a built-in cross-sectional structure, or it may have a cross-sectional structure in which a semiconductor substrate in which the photoelectric conversion unit PD1 is built and a semiconductor substrate in which the photoelectric conversion unit PD2 is built are bonded together. Further, one of the photoelectric conversion units PD1 and PD2 may have a cross-sectional structure formed in the semiconductor substrate 50 and the other in the semiconductor layer formed on the back surface or the front surface of the semiconductor substrate 50. ..
  • the photoelectric conversion unit PD2 of the IR pixel 20 is formed on the semiconductor substrate 50, and the RGB pixel 10 is formed on the back surface side (opposite the element forming surface) of the semiconductor substrate 50. It has a structure provided with the photoelectric conversion unit PD1 of the above.
  • the back surface of the semiconductor substrate 50 is located on the upper side of the paper surface, and the front surface is located on the lower side.
  • a semiconductor material such as silicon (Si) may be used.
  • Si silicon
  • the present invention is not limited to this, and various semiconductor materials including compound semiconductors such as GaAs, InGaAs, InP, AlGaAs, InGaP, AlGaInP, and InGaAsP may be used.
  • the photoelectric conversion unit PD1 of the RGB pixel 10 is provided on the back surface side of the semiconductor substrate 50 with the insulating layer 53 interposed therebetween.
  • the photoelectric conversion unit PD1 includes, for example, a photoelectric conversion film 34 made of an organic material, a transparent electrode 33 arranged so as to sandwich the photoelectric conversion film 34, and a semiconductor layer 35.
  • the transparent electrode 33 provided on the upper side of the paper surface with respect to the photoelectric conversion film 34 (hereinafter, the upper side of the paper surface is the upper surface side and the lower side is the lower surface side) functions as, for example, the anode of the photoelectric conversion unit PD1.
  • the semiconductor layer 35 provided on the lower surface side functions as a cathode of the photoelectric conversion unit PD1.
  • the semiconductor layer 35 that functions as a cathode is electrically connected to the readout electrode 36 formed in the insulating layer 53.
  • the readout electrode 36 is electrically drawn out to the surface (lower surface) side of the semiconductor substrate 50 by connecting to the wirings 61, 62, 63, and 64 penetrating the insulating layer 53 and the semiconductor substrate 50.
  • the wiring 64 is electrically connected to the floating diffusion region FD1 shown in FIG.
  • a storage electrode 37 is provided on the lower surface side of the semiconductor layer 35 that functions as a cathode with an insulating layer 53 interposed therebetween. Although not shown in FIG. 8, the storage electrode 37 is connected to the transfer control line in the pixel drive line LD1, and as described above, the charge generated in the photoelectric conversion unit PD1 at the time of exposure is stored in the storage electrode 37. A voltage for collecting the electric charge is applied to the semiconductor layer 35 in the vicinity, and at the time of reading, a voltage is applied for causing the electric charge collected in the semiconductor layer 35 in the vicinity of the storage electrode 37 to flow out through the reading electrode 36.
  • the readout electrode 36 and the storage electrode 37 may be a transparent conductive film like the transparent electrode 33.
  • a transparent conductive film such as indium tin oxide (ITO) or zinc oxide (IZO) may be used.
  • ITO indium tin oxide
  • IZO zinc oxide
  • the present invention is not limited to these, and various conductive films may be used as long as they are conductive films capable of transmitting light in the wavelength band to be detected by the photoelectric conversion unit PD2.
  • the semiconductor layer 35 for example, a transparent semiconductor layer such as IGZO may be used.
  • IGZO a transparent semiconductor layer
  • the present invention is not limited to these, and various semiconductor layers may be used as long as they are semiconductor layers capable of transmitting light in the wavelength band to be detected by the photoelectric conversion unit PD2.
  • an insulating film such as a silicon oxide film (SiO 2 ) or a silicon nitride film (SiN) may be used.
  • SiO 2 silicon oxide film
  • SiN silicon nitride film
  • the present invention is not limited to these, and various insulating films may be used as long as they can transmit light in the wavelength band to be detected by the photoelectric conversion unit PD2.
  • a color filter 31 is provided on the upper surface side of the transparent electrode 33 that functions as an anode with a sealing film 32 interposed therebetween.
  • the sealing film 32 is made of an insulating material such as silicon nitride (SiN), and these atoms are prevented from diffusing atoms such as aluminum (Al) and titanium (Ti) from the transparent electrode 33. May include.
  • the color filters 31 will be described later. For example, for one RGB pixel 10, a color filter 31 that selectively transmits light having a specific wavelength component is provided. However, when a monochrome pixel for acquiring luminance information is provided instead of the RGB pixel 10 for acquiring color information, the color filter 31 may be omitted.
  • the photoelectric conversion unit PD2 of the IR pixel 20 has, for example, a p-type semiconductor region 43 formed in the p-well region 42 of the semiconductor substrate 50 and an n-type semiconductor region 44 formed near the center of the p-type semiconductor region 43. Be prepared.
  • the n-type semiconductor region 44 functions as, for example, a charge storage region for accumulating charges (electrons) generated by photoelectric conversion, and the p-type semiconductor region 43 collects charges generated by photoelectric conversion in the n-type semiconductor region 44. Functions as a region to form a potential gradient for.
  • an IR filter 41 that selectively transmits IR light is arranged on the light incident surface side of the photoelectric conversion unit PD2.
  • the IR filter 41 may be arranged, for example, in the insulating layer 53 provided on the back surface side of the semiconductor substrate 50.
  • a fine uneven structure is provided on the light incident surface of the semiconductor substrate 50 in order to suppress the reflection of the incident light (IR light in this example).
  • This uneven structure may be a so-called moth-eye structure, or may be a uneven structure having a different size and pitch from the moth-eye structure.
  • a vertical transistor 45 that functions as a transfer transistor 21 is provided on the surface (lower surface of the paper surface) side of the semiconductor substrate 50, that is, on the element forming surface side.
  • the gate electrode of the vertical transistor 45 reaches from the surface of the semiconductor substrate 50 to the n-type semiconductor region 44, and is a part of the wirings 65 and 66 (a part of the transfer control line of the pixel drive line LD2) formed in the interlayer insulating film 56. ) Is connected to the vertical drive circuit 102.
  • the electric charge flowing out through the vertical transistor 45 is accumulated in the stray diffusion region FD2.
  • the floating diffusion region FD2 is connected to the source of the reset transistor 22 and the gate of the amplification transistor 23 via a wiring (not shown) formed in the interlayer insulating film 56.
  • the floating diffusion region FD2, the reset transistor 22, the amplification transistor 23, and the selection transistor 24 may be provided on the element forming surface of the semiconductor substrate 50, or may be provided on a semiconductor substrate different from the semiconductor substrate 50.
  • the RGB pixel 10 located upstream with respect to the incident light generates an RGB image signal and the IR pixel 20 located downstream generates an image signal based on the IR light is illustrated. It is not limited to such a configuration.
  • an image signal based on light having a wavelength component corresponding to green is generated by a pixel on the upstream side (corresponding to RGB pixel 10), and light having a wavelength component corresponding to red is generated by a pixel on the downstream side (corresponding to IR pixel 20). It may be configured to generate an image signal based on and an image signal based on light having a wavelength component corresponding to blue.
  • a material that selectively absorbs the wavelength component corresponding to green is used for the photoelectric conversion film 34, and instead of the IR filter 41, a color filter that selectively transmits the wavelength component corresponding to red and blue are used.
  • Color filters that selectively transmit the corresponding wavelength components can be arranged in a matrix. Further, in this configuration, it is possible to omit the color filter 31. With such a configuration, it is possible to expand the light receiving area of the pixel that detects the wavelength component of each of the three RGB primary colors (which may be CMY three primary colors) constituting the color image, so that the quantum efficiency is increased. It is possible to achieve an improvement in the S / N ratio.
  • the semiconductor substrate 50 is provided with a pixel separation unit 54 that electrically separates between a plurality of unit pixels 110, and a photoelectric conversion unit PD2 is provided in each region partitioned by the pixel separation unit 54. ..
  • the pixel separation unit 54 has, for example, a grid shape interposed between a plurality of unit pixels 110, and each photoelectric.
  • the conversion unit PD2 is formed in each region partitioned by the pixel separation unit 54.
  • a reflective film that reflects light such as tungsten (W) or aluminum (Al) may be used.
  • the incident light that has entered the photoelectric conversion unit PD2 can be reflected by the pixel separation unit 54, so that the optical path length of the incident light in the photoelectric conversion unit PD2 can be lengthened.
  • the pixel separation unit 54 by forming the pixel separation unit 54 with a light reflection structure, it is possible to reduce leakage of light to adjacent pixels, so that it is possible to further improve image quality, distance measurement accuracy, and the like.
  • the configuration in which the pixel separation unit 54 has a light reflection structure is not limited to the configuration using a reflective film, and can be realized, for example, by using a material having a refractive index different from that of the semiconductor substrate 50 for the pixel separation unit 54. can.
  • a fixed charge film 55 is provided between the semiconductor substrate 50 and the pixel separation unit 54.
  • the fixed charge film 55 uses, for example, a high dielectric having a negative fixed charge so that a positive charge (hole) storage region is formed at the interface with the semiconductor substrate 50 and the generation of dark current is suppressed. It is formed. Since the fixed charge film 55 is formed so as to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 138 due to the negative fixed charge, and a positive charge (hole) storage region is formed.
  • the fixed charge film 55 can be formed of, for example, a hafnium oxide film (HfO 2 film). Further, the fixed charge film 55 can be formed so as to contain at least one of other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid element.
  • hafnium oxide film HfO 2 film
  • other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid element.
  • FIG. 8 illustrates a case where the pixel separating portion 54 has a so-called FTI (Full Trench Isolation) structure in which the pixel separating portion 54 reaches from the front surface to the back surface of the semiconductor substrate 50, but the present invention is not limited to this, and for example, pixels. It is possible to adopt various element separation structures such as a so-called DTI (Deep Trench Isolation) structure in which the separation portion 54 is formed from the back surface or the front surface of the semiconductor substrate 50 to the vicinity of the middle part of the semiconductor substrate 50.
  • FTI Frull Trench Isolation
  • the upper surface of the flattening film 52 is flattened by, for example, CMP (Chemical Mechanical Polishing), and an on-chip lens 51 for each unit pixel 110 is provided on the flattened upper surface.
  • the on-chip lens 51 of each unit pixel 110 has a curvature that collects incident light on the photoelectric conversion units PD1 and PD2.
  • the positional relationship between the on-chip lens 51, the color filter 31, the IR filter 41, and the photoelectric conversion unit PD2 in each unit pixel 110 is adjusted according to, for example, the distance (image height) from the center of the pixel array unit 101. May (pupil correction).
  • a light-shielding film may be provided to prevent light incident obliquely from leaking to adjacent pixels.
  • the light-shielding film may be located above the pixel separation portion 54 provided inside the semiconductor substrate 50 (upstream side in the optical path of the incident light).
  • the position of the light-shielding film may be adjusted according to, for example, the distance (image height) from the center of the pixel array unit 101.
  • Such a light-shielding film may be provided in, for example, the sealing film 32 or the flattening film 52.
  • a light-shielding material such as aluminum (Al) or tungsten (W) may be used as the material of the light-shielding film.
  • the layer structure of the photoelectric conversion film 34 can be as follows. However, in the case of a laminated structure, the stacking order can be changed as appropriate.
  • (1) Single-layer structure of p-type organic semiconductor (2) Single-layer structure of n-type organic semiconductor (3-1) Laminated structure of p-type organic semiconductor layer / n-type organic semiconductor layer (3-2) p-type organic semiconductor Layer / Mixed layer of p-type organic semiconductor and n-type organic semiconductor (bulk heterostructure) / Laminated structure of n-type organic semiconductor layer (3-3) p-type organic semiconductor layer / p-type organic semiconductor and n-type organic semiconductor Laminated structure of mixed layer (bulk heterostructure) (3-4) Laminated structure of n-type organic semiconductor layer / mixed layer of p-type organic semiconductor and n-type organic semiconductor (bulk heterostructure) (4) p-type organic semiconductor and p-type Mixed layer with organic semiconductor (
  • n-type organic semiconductor examples include fullerenes and fullerene derivatives (for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fullerenes derivatives (eg, fullerene fluorides, PCBM fullerene compounds, fullerene multimers, etc.).
  • fullerenes and fullerene derivatives for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fullerenes derivatives (eg, fullerene fluorides, PCBM fullerene compounds, fullerene multimers, etc.).
  • fullerenes and fullerene derivatives for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fuller
  • n-type organic semiconductor examples include heterocyclic compounds containing a nitrogen atom, an oxygen atom, and a sulfur atom, such as a pyridine derivative, a pyrazine derivative, a pyrimidine derivative, a triazine derivative, a quinoline derivative, a quinoxalin derivative, an isoquinolin derivative, and an acridin.
  • Derivatives phenazine derivatives, phenanthroline derivatives, tetrazole derivatives, pyrazole derivatives, imidazole derivatives, thiazole derivatives, oxazole derivatives, imidazole derivatives, benzimidazole derivatives, benzotriazole derivatives, benzoxazole derivatives, benzoxazole derivatives, carbazole derivatives, benzofuran derivatives, dibenzofuran derivatives , Subporphyrazine derivative, polyphenylene vinylene derivative, polybenzothianazole derivative, polyfluorene derivative and the like as a part of the molecular skeleton, organic molecule, organic metal complex and subphthalocyanine derivative can be mentioned.
  • Examples of the group contained in the fullerene derivative include a halogen atom; a linear, branched or cyclic alkyl group or phenyl group; a group having a linear or condensed aromatic compound; a group having a halide; a partial fluoroalkyl group; Fluoroalkyl group; silylalkyl group; silylalkoxy group; arylsilyl group;arylsulfanyl group;alkylsulfanyl group;arylsulfonyl group;alkylsulfonyl group;arylsulfide group;alkylsulfide group;amino group;alkylamino group;arylamino group Hydroxy group; alkoxy group; acylamino group; acyloxy group; carbonyl group; carboxy group; carboxoamide group; carboalkoxy group; acyl group; sulfonyl group; cyano group; nitro group; group having
  • the film thickness of the photoelectric conversion film 34 made of the above organic materials is not limited to the following values, but is, for example, 1 ⁇ 10-8 m (meters) to 5 ⁇ 10-7 . m, preferably 2.5 ⁇ 10 -8 m to 3 ⁇ 10 -7 m, more preferably 2.5 ⁇ 10 -8 m to 2 ⁇ 10 -7 m, and even more preferably 1 ⁇ 10 -7 . M to 1.8 ⁇ 10-7 m can be exemplified.
  • Organic semiconductors are often classified into p-type and n-type, but p-type means that holes are easily transported, and n-type means that electrons are easily transported, and they are inorganic. It is not limited to the interpretation that it has holes or electrons as a majority carrier of thermal excitation like a semiconductor.
  • Examples of the material constituting the photoelectric conversion film 34 that photoelectrically converts light having a green wavelength include rhodamine-based dyes, melancyanine-based dyes, quinacridone derivatives, subphthalocyanine-based dyes (subphthalocyanine derivatives), and the like.
  • examples of the material constituting the photoelectric conversion film 34 for photoelectric conversion of blue light include coumalic acid dye, tris-8-hydroxyquinolialuminum (Alq3), and melanin-based dye.
  • examples of the material constituting the photoelectric conversion film 34 for photoelectric conversion of red light include a phthalocyanine dye and a subphthalocyanine dye (subphthalocyanine derivative).
  • the photoelectric conversion film 34 it is also possible to use a panchromatic photosensitive organic photoelectric conversion film that is sensitive to almost all visible light from the ultraviolet region to the red region.
  • the material constituting the semiconductor layer 35 has a large bandgap value (for example, a bandgap value of 3.0 eV (electron volt) or more), and the mobility is higher than that of the material constituting the photoelectric conversion film 34. It is preferable that a material having a degree is used. Specific examples thereof include oxide semiconductor materials such as IGZO, transition metal dichalcogenides, silicon carbides, diamonds, graphene, carbon nanotubes, and organic semiconductor materials such as condensed polycyclic hydrocarbon compounds and condensed heterocyclic compounds. ..
  • the charge generated in the photoelectric conversion film 34 is an electron
  • a material having an ionization potential larger than that of the material constituting the photoelectric conversion film 34 can be used as the material constituting the semiconductor layer 35.
  • the charge is a hole
  • a material having an electron affinity smaller than that of the material constituting the photoelectric conversion film 34 can be used as the material constituting the semiconductor layer 35.
  • the impurity concentration in the material constituting the semiconductor layer 35 is preferably 1 ⁇ 10 18 cm -3 or less. Further, if the photoelectric conversion performance and the mobility performance can be satisfied, the photoelectric conversion film 34 and the semiconductor layer 35 can be made of the same material.
  • a transparent material is used for each of the transparent electrode 33, the readout electrode 36, the semiconductor layer 35, and the storage electrode 37.
  • a material composed of Al-Nd (alloy of aluminum and neodymium) or ASC (alloy of aluminum, samarium and copper) can be used.
  • the bandgap energy of the transparent conductive material is 2.5 eV or more, preferably 3.1 eV or more.
  • the transparent conductive material constituting them may be a conductive metal oxide.
  • indium oxide indium-tin oxide (including ITO (Indium Tin Oxide), Sn-doped In 2 O 3 , crystalline ITO and amorphous ITO), and indium-zinc oxide added with indium as a dopant.
  • ITO Indium Tin Oxide
  • IGO indium-gallium oxide
  • IGZO indium-gallium-zinc oxide
  • indium-tin-zinc oxide indium-tin-zinc oxide (ITZO) in which indium and tin are added as dopants to zinc oxide
  • IFO F-doped In 2 O 3
  • tin oxide SnO 2
  • ATO Sb-doped SnO 2
  • FTO F-doped SnO 2
  • zinc oxide including ZnO doped with other elements
  • aluminum-zinc oxide AZO in which aluminum is added as a dopant to zinc oxide, and zinc oxide.
  • Gallium-zinc oxide with gallium added as a dopant, titanium oxide (TiO 2 ), niobium-titanium oxide (TNO) with niobium added as a dopant to titanium oxide, antimony oxide, spinel-type oxide, YbFe 2
  • GZO gallium-zinc oxide
  • TiO 2 titanium oxide
  • TNO niobium-titanium oxide
  • O4 YbFe 2
  • a transparent electrode having a gallium oxide, titanium oxide, niobium oxide, nickel oxide or the like as a base layer can be mentioned.
  • the thickness of the transparent electrode 2 ⁇ 10 -8 m to 2 ⁇ 10 -7 m, preferably 3 ⁇ 10 -8 m to 1 ⁇ 10 -7 m can be mentioned.
  • each unit pixel 110 may include N (N is an integer of 1 or more) RGB pixels 10 and M (M is an integer of 1 or more) IR pixels 20.
  • N RGB pixels 10 may share a part of the pixel circuit
  • M IR pixels 20 may share a part of the pixel circuit.
  • FIG. 9 is a schematic diagram showing a schematic configuration example of a unit pixel according to a modification of the present embodiment.
  • the unit pixel 110A has a structure in which one IR pixel 20 is arranged in the incident direction of light for four RGB pixels 10 arranged in 2 rows and 2 columns. That is, in this modification, one IR pixel 20 for each of the four RGB pixels 10 is located in the direction perpendicular to the arrangement direction (planar direction) of the unit pixels 110A, and is on the upstream side in the optical path of the incident light.
  • the light transmitted through the four RGB pixels 10 located in is incident on one IR pixel 20 located on the downstream side of the four RGB pixels 10. Therefore, in this modification, the optical axis of the incident light of the IR pixel 20 and the unit array of the Bayer array composed of the four RGB pixels 10 are coincident or substantially the same.
  • FIG. 10 is a circuit diagram showing a schematic configuration example of a unit pixel according to a modification of the present embodiment.
  • the unit pixel 110A includes a plurality of RGB pixels 10-1 to 10-N (N is 4 in FIG. 10) and one IR pixel 20.
  • the plurality of RGB pixels 10 share one pixel circuit (reset transistor 12, stray diffusion region FD1, amplification transistor 13 and selection transistor 14). It is possible (pixel sharing).
  • a plurality of RGB pixels 10-1 to 10-N share a pixel circuit including a reset transistor 12, a stray diffusion region FD1, an amplification transistor 13, and a selection transistor 14. That is, in this modification, a plurality of photoelectric conversion units PD1 and transfer gate 11 are connected to the common floating diffusion region FD1.
  • FIG. 11 is a cross-sectional view showing an example of a cross-sectional structure of an image sensor according to a modified example of the present embodiment.
  • each unit pixel 110A is composed of four RGB pixels 10 arranged in two rows and two columns and one IR pixel 20
  • an example of the cross-sectional structure of the semiconductor chip in which the photoelectric conversion units PD1 and PD2 are formed in the unit pixel 110A will be described.
  • the duplicated description will be omitted by quoting them.
  • the on-chip lens 51, the color filter 31, and the storage electrode 37 are four in two rows and two columns. (However, two of the four are shown in FIG. 11), thereby forming four RGB pixels 10.
  • the four RGB pixels 10 in each unit pixel 210 may form a basic array of Bayer arrays.
  • the RGB pixel 10 is also simply referred to as a pixel 10.
  • the readout electrode 36 electrically connected to the floating diffusion region FD1 will be described as a part of the floating diffusion region FD1.
  • the electric charge generated by the photoelectric conversion film 34 is a negative charge (that is, an electron) is illustrated.
  • the electric charge generated by the photoelectric conversion film 34 may be a positive charge (that is, a hole).
  • the structures and effects described in each example may be similar to other examples unless otherwise noted.
  • FIG. 12 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the first example of the present embodiment.
  • FIG. 13 is a horizontal cross-sectional view showing a cross section taken along the line AA in FIG.
  • the term "perpendicular” here means that the semiconductor substrate 50 is perpendicular to the element forming surface, and the term “horizontal” means that the semiconductor substrate 50 is horizontal to the element forming surface.
  • this protruding portion is referred to as a semiconductor wiring 60.
  • a storage electrode 37 having an open center is arranged so as to surround the semiconductor wiring 60.
  • An insulating layer 53 is interposed between the storage electrode 37 and the semiconductor wiring 60 to electrically separate them.
  • a transfer gate 11 is arranged on the read electrode 36 side of the semiconductor wiring 60. Similar to the storage electrode 37, the gate electrode of the transfer gate 11 has a shape with an opening in the center and is arranged so as to surround the semiconductor wiring 60. The gate electrode of the transfer gate 11 and the semiconductor wiring 60 are electrically separated by an insulating layer 53. In the following description, for the sake of simplicity, the gate electrode of the transfer gate 11 may be simply referred to as the transfer gate 11.
  • the storage electrode 37 and the transfer gate 11 arranged with respect to the semiconductor wiring 60 are for each pixel 10. It may be divided into.
  • the storage electrode 37 receives a drive signal (control voltage) that lowers the potential in the semiconductor layer 35 in the vicinity of the storage electrode 37 during the exposure period. Also referred to as) is applied from the vertical drive circuit 102.
  • a drive signal for raising the potential in the semiconductor layer 35 in the vicinity of the storage electrode 37 is transmitted from the vertical drive circuit 102 to the storage electrode 37 during the exposure period. Applied. Therefore, the electric charge 58 generated in the photoelectric conversion film 34 and entering the semiconductor layer 35 accumulates in the region near the storage electrode 37 in the semiconductor layer 35.
  • the transfer gate 11 by turning off the transfer gate 11 and forming a potential barrier in the semiconductor wiring 60 between the region where the charge is accumulated and the transfer gate 11, the accumulated charge leaks to the read electrode 36 side. It can be suppressed from coming out. Thereby, it becomes possible to improve the quantum efficiency.
  • the electric charge generated by the photoelectric conversion units PD1 and PD2 by the photoelectric conversion is an electron
  • the present invention is not limited to this, and the direction of the potential control is reversed even when the charge is a hole.
  • the shield electrode (SLD) 57 is arranged so as to surround the storage electrode (ASE) 37 of each pixel 10.
  • the shield electrode 57 is connected to the vertical drive circuit 102 via a wiring (not shown) which is one of the pixel drive lines LD.
  • the vertical drive circuit 102 drives each pixel 10 individually, the vertical drive circuit 102 applies a drive signal to the shield electrode 57 to form a potential barrier in the semiconductor layer 35 located between the adjacent pixels 10.
  • the charge generated in the photoelectric conversion film 34 of a certain pixel 10 and entering the semiconductor layer 35 is suppressed from flowing out to the adjacent pixel 10, so that the quantum efficiency of the pixel 10 can be further improved.
  • FIG. 13 illustrates a case where the horizontal cross section of the semiconductor wiring 60 and the opening shapes of the storage electrode 37 and the transfer gate 11 are circular.
  • a quadrangle, a regular octagon, or the like is illustrated. It may be changed to various shapes such as polygons and ellipses. This also applies to other examples described later.
  • FIG. 16 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the second example of the present embodiment.
  • the pixel 10 according to the second example has the same cross-sectional structure as the pixel 10 according to the first example described above with reference to FIG. 12, and the transfer gate 11 is arranged inside the storage electrode 37. It has a structure that has been constructed. That is, in the second example, the opening of the storage electrode 37 is enlarged in diameter, and the transfer gate 11 is arranged on the same plane as the storage electrode 37.
  • the length of the semiconductor wiring 60 can be shortened, so that the height of the image sensor 100 can be reduced, and the size of the image sensor 100 can be reduced.
  • FIG. 17 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the third example of the present embodiment.
  • the pixel 10 according to the third example has the same cross-sectional structure as the pixel 10 according to the first example described above with reference to FIG. 12, as the semiconductor wiring 60 approaches the readout electrode 36. It has a tapered shape that becomes thinner.
  • the diameter of the semiconductor wiring 60 on the readout electrode 36 side is narrowed, the contact area with the readout electrode 36 is reduced, whereby the readout electrode 36 can be reduced. As a result, it is possible to increase the amount of light propagating to the lower layer than the readout electrode 36. Therefore, for example, the quantum of the IR pixel 20 when the photoelectric conversion unit PD2 of the IR pixel 20 is arranged in the lower layer of the pixel 10. It is possible to increase the efficiency.
  • FIG. 18 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the fourth example of the present embodiment.
  • the pixel 10 according to the fourth example has a cross-sectional structure similar to that of the pixel 10 according to the first example described above with reference to FIG. It has a structure in which the floating diffusion region FD) is shared.
  • the read electrode 36 and the floating diffusion region FD are shared and the transfer of electric charges from each pixel 10 to the floating diffusion region FD can be controlled by using the transfer gate 11, the reading for each pixel 10 is possible. And simultaneous reading from a plurality of pixels 10 can be switched.
  • FIG. 19 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the fifth example of the present embodiment.
  • FIG. 20 is a horizontal cross-sectional view showing a BB cross section in FIG. Note that FIG. 19 shows the configuration of the upper layer from the color filter 31 for convenience of explanation.
  • the pixel 10 according to the fifth example has a plurality of (two in this example) in the same cross-sectional structure as the pixel 10 according to the first example described above with reference to FIG. It has a structure in which one on-chip lens 51 is provided for the pixel 10 of the above.
  • FIG. 21 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to a sixth example of the present embodiment.
  • the pixel 10 according to the sixth example has the same cross-sectional structure as the pixel 10 according to the first example described above with reference to FIG. 12, between the transfer gate 11 and the read electrode 36.
  • the memory electrode 16 constituting the memory MEM and the transfer transistor 15 are arranged in order.
  • the transfer transistor 15 is arranged on the side of the semiconductor wiring 60 closest to the read electrode 36. Similar to the storage electrode 37, the gate electrode of the transfer transistor 15 has a shape with an opening in the center and is arranged so as to surround the semiconductor wiring 60. The gate electrode of the transfer transistor 15 and the semiconductor wiring 60 are electrically separated by an insulating layer 53. In the following description, for the sake of simplicity, the gate electrode of the transfer transistor 15 may be simply referred to as the transfer transistor 15.
  • the memory electrode 16 is arranged between the transfer gate 11 and the transfer transistor 15. Further, the memory electrode 16 has a shape with an opening in the center like the storage electrode 37, and is arranged so as to surround the semiconductor wiring 60.
  • the electric charge transferred from the semiconductor layer 35 via the transfer gate 11 can be temporarily held in the region near the memory electrode 16 in the semiconductor wiring 60. As a result, the reading drive of the global shutter method becomes possible.
  • FIG. 22 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to a seventh example of the present embodiment.
  • FIG. 23 is a horizontal cross-sectional view showing a CC cross section in FIG. 22.
  • the transfer gates 11 in all the pixels 10 are driven at the same time. Therefore, as shown in FIGS. 22 and 23, the transfer gates 11 of all the pixels 10 in the pixel array unit 101 may be connected by the wiring 71. Similarly, the memory electrodes 16 of all the pixels 10 in the pixel array unit 101 may also be connected by the wiring 72. The storage electrodes 37 of all the pixels 10 in the pixel array unit 101 may also be coupled to each other via the wiring 73.
  • FIG. 24 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to an eighth example of the present embodiment.
  • the pixel 10 according to the eighth example has the same cross-sectional structure as the pixel 10 according to the sixth example described above with reference to FIG. 21, and the semiconductor layer 35 is the first semiconductor layer 35A and the first semiconductor layer 35A. It has a structure divided into two layers, that is, two semiconductor layers 35B. An insulating layer 53 is interposed between the first semiconductor layer 35A and the second semiconductor layer 35B. The semiconductor wiring 60 penetrates from the first semiconductor layer 35A to the second semiconductor layer 35B and reaches the readout electrode 36.
  • the storage electrode 37, the transfer gate 11, and the shield electrode 57 are arranged in the insulating layer 53 between the first semiconductor layer 35A and the second semiconductor layer 35B, as in the sixth example.
  • the memory electrode 16 and the transfer transistor 15 are arranged in the insulating layer 53 between the second semiconductor layer 35B and the read electrode 36. More specifically, the memory electrode 16 is arranged on the second semiconductor layer 35B side in the semiconductor wiring 60 between the second semiconductor layer 35B and the read electrode 36, and the gate electrode of the transfer transistor 15 is the second semiconductor layer. It is arranged on the read electrode 36 side in the semiconductor wiring 60 between the 35B and the read electrode 36.
  • a shield electrode 57B similar to the shield electrode 57 is provided.
  • the shield electrode 57B is connected to the vertical drive circuit 102 via a wiring (not shown) which is one of the pixel drive lines LD.
  • the vertical drive circuit 102 drives each pixel 10 individually, the vertical drive circuit 102 applies a drive signal to the shield electrode 57 to form a potential barrier in the second semiconductor layer 35B located between the adjacent pixels 10.
  • the electric charge held in the memory MEM of a certain pixel 10 is suppressed from flowing out to the memory MEM of the adjacent pixel 10, so that the quantum efficiency of the pixel 10 can be further improved.
  • Example 9 a driving example of the global shutter system will be described.
  • the driving example of the pixel 10 described with reference to FIG. 21 in the sixth example will be described, but the driving is not limited to this, and the driving of the global shutter method (hereinafter referred to as the global shutter driving) is possible. The same can be applied to the example of.
  • FIG. 25 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to a ninth example of the present embodiment.
  • the exposure operation is performed on the other pixel 10 while one of the two adjacent pixels 10a and 10b is executing the exposure operation. Not executed.
  • the two pixels 10a and 10b may have the same configuration as the above-mentioned pixel 10, respectively.
  • the storage electrode 37 of the pixel 10b is turned on and the storage electrode 37 of the pixel 10a is turned off. Further, the shield electrode 57 located between these two pixels 10a and 10b is turned off. Further, the transfer gate 11 and the transfer transistor 15 of the pixel 10a, the transfer gate 11, the memory electrode 16 and the transfer transistor 15 of the pixel 10b are turned off, and the memory electrode 16 of the pixel 10a is turned on.
  • the on state of the storage electrode 37, the shield electrode 57, and the memory electrode 16 means a state in which a drive signal is supplied to each electrode from the vertical drive circuit 102, and an off state means a drive signal from the vertical drive circuit 102. Is not supplied.
  • the electric charge 58 generated in the photoelectric conversion film 34 corresponding to the photoelectric conversion unit PD1 of each of the pixels 10a and 10b is attracted to the storage electrode 37 of the pixel 10b, and thereby the electric charge generated in the photoelectric conversion film 34. 58 is accumulated in the semiconductor layer 35 in the vicinity of the storage electrode 37 in the pixel 10b.
  • the outflow destination of the charge 58 overflowing from the semiconductor layer 35 in the vicinity of the storage electrode 37 in the pixel 10b may be the floating diffusion region FD connected to the read electrode 36 of the pixel 10b.
  • the charge 59 stored in the semiconductor layer 35 near the storage electrode 37 in the front frame is held in the memory MEM.
  • the charges 59 stored in the memory MEM are sequentially read out by the read operation for the pixel 10a executed in parallel during the exposure to the pixel 10b, and are used for generating the pixel signal.
  • FIG. 26 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to a tenth example of the present embodiment.
  • the shield electrode 57 located between the two pixels 10a and 10b forming the pair was turned off while the global shutter drive was being executed.
  • the shield electrode 57 between the two pixels 10a and 10b forming the pair is omitted.
  • the configuration for driving the shield electrode 57 can be omitted, so that the size can be reduced by omitting the pixel drive line LD for driving the shield electrode 57 and the shield electrode 57, and the power consumption during driving the global shutter can be reduced. The effect of is obtained.
  • FIG. 27 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the eleventh example of the present embodiment.
  • the read electrode 36 and the floating diffusion region FD of the two pixels 10a and 10b forming the pair are shared.
  • the global shutter drive can be realized by the drive described in the ninth example.
  • FIG. 28 is a vertical cross-sectional view showing an example of a cross-sectional structure of a pixel according to the twelfth example of the present embodiment.
  • the semiconductor layer 35 (including the first semiconductor layer 35A and the second semiconductor layer 35B described in the eighth example) in each of the above-mentioned and later examples includes the first layer 35a and the second layer 35b. It may be composed of two layers of.
  • the second layer 35b is provided, for example, on a surface of the semiconductor layer 35 that comes into contact with the insulating layer 53.
  • the second layer 35b may be a film provided for the purpose of reducing the interface trap level formed between the insulating layer 53 and the first layer 35a. Further, as the material constituting each of the first layer 35a and the second layer 35b, for example, the same material as the above-mentioned semiconductor layer 35 may be used. However, the first layer 35a and the second layer 35b may have different properties, for example, due to differences in composition and the like.
  • the second layer 35b for reducing the interface trap level between the insulating layer 53 and the first layer 35a, it is formed between the insulating layer 53 and the first layer 35a. Since the interface trap level is reduced, it is possible to reduce the afterimage generated between the frames.
  • the color filter 31 may be arranged on the incident surface side (on-chip lens 51 side) of light with respect to the photoelectric conversion film 34, as illustrated in FIG. 29, or in FIG. 30. As illustrated in the above, it may be arranged on the side opposite to the incident surface of light (on the circuit chip 122 side (not shown)) with respect to the photoelectric conversion film 34.
  • the color filter 31 When the color filter 31 is arranged on the side opposite to the incident surface of light from the photoelectric conversion film 34, the color filter 31 may be arranged in the insulating layer 53, for example, as illustrated in FIG.
  • the shield electrode 57 (and the shield electrode 57B) are arranged between the pixels 10 in order to prevent charge leakage (blooming) between the pixels 10.
  • the 14th example by arranging a fixed charge film having the same polarity as the charge between the pixels 10 instead of the shield electrode 57 (and the shield electrode 57B), the charge leaks between the pixels 10.
  • a configuration for preventing (blooming) will be described.
  • the base pixel 10 is not limited to the pixel 10 according to the first example, and is the pixel 10 according to another example. You may.
  • a hafnium oxide film (HfO 2 film) and other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid elements are used.
  • HfO 2 film hafnium oxide film
  • other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid elements.
  • FIG. 31 is a vertical cross-sectional view showing the cross-sectional structure of the pixel according to the 14th example of the present embodiment.
  • FIG. 32 is a horizontal cross-sectional view showing a DD cross section in FIG. 31.
  • the shield charge film 67 may be composed of a fixed charge film having the same polarity as the charge generated by the photoelectric conversion film 34.
  • the shield charge film 67 is arranged on the same surface as the surface on which the storage electrode 37 is arranged.
  • the shield charge film 67 may be in contact with the side surface of the storage electrode 37 or may be separated from the side surface of the storage electrode 37.
  • the size can be reduced by omitting the shield electrode 57 and the pixel drive line LD for driving the shield electrode 57.
  • the storage electrode 37 can be expanded. As a result, electric charges can be efficiently collected by the semiconductor layer 35 in the vicinity of the storage electrode 37, and further improvement in quantum efficiency can be expected.
  • FIG. 33 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the fifteenth example of the present embodiment.
  • the shield charge film 67 is a boundary portion between adjacent pixels 10, and is a surface of the insulating layer 53 on which the upper surface of the storage electrode 37 is arranged and the semiconductor layer 35 (other than the semiconductor wiring 60). It may be arranged between the lower surface and the lower surface. At that time, the region around the opening in the shielded charge film 67 may be superimposed on the outer peripheral portion of the storage electrode 37 in the vertical direction.
  • FIG. 34 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the 16th example of the present embodiment.
  • the shield charge film 67 may be arranged at a boundary portion between adjacent pixels 10 and in a lower layer portion of the semiconductor layer 35, that is, a region in contact with the insulating layer 53 in the semiconductor layer 35. At that time, the region around the opening in the shielded charge film 67 may be superimposed on the outer peripheral portion of the storage electrode 37 in the vertical direction.
  • FIG. 35 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the 17th example of the present embodiment.
  • the shield charge film 67 may be arranged at a boundary portion between adjacent pixels 10 so as to replace the semiconductor layer 35 in this portion. At that time, the region around the opening in the shielded charge film 67 may be superimposed on the outer peripheral portion of the storage electrode 37 in the vertical direction.
  • FIG. 36 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the 18th example of the present embodiment.
  • the shield charge film 67 is a boundary portion between adjacent pixels 10 and is arranged in a lower layer portion of the photoelectric conversion film 34, that is, a region in contact with the semiconductor layer 35 in the photoelectric conversion film 34. good.
  • the region around the opening in the shielded charge film 67 may be superimposed on the outer peripheral portion of the storage electrode 37 in the vertical direction.
  • FIG. 37 is a vertical cross-sectional view showing a cross-sectional structure of a pixel according to the 19th example of the present embodiment.
  • the shield charge film 67 may be arranged at a boundary portion between adjacent pixels 10 so as to replace the photoelectric conversion film 34 in this portion.
  • the region around the opening in the shielded charge film 67 may be superimposed on the outer peripheral portion of the storage electrode 37 in the vertical direction.
  • FIGS. 38 and 39 are vertical cross-sectional views showing a cross-sectional structure of a pixel according to the 20th example of the present embodiment.
  • the shield charge film 67 is a boundary portion between adjacent pixels 10 and is arranged below the lower surface of the storage electrode 37 in the insulating layer 53 (reading electrode 36 side). You may.
  • the region around the opening in the shielded charge film 67 may be superimposed on the outer peripheral portion of the storage electrode 37 in the vertical direction.
  • the region around the opening in the shielded charge film 67 and the outer peripheral portion of the storage electrode 37 may be in contact with each other as shown in FIG. 38, or may be separated in the vertical direction as shown in FIG. 39. ..
  • FIG. 40 is a vertical cross-sectional view showing an example of a cross-sectional structure of a pixel cited in explaining the first driving example.
  • the cross-sectional structure of the pixel 10 illustrated in FIG. 40 may be the same as the cross-sectional structure of the pixel 10 according to the first example described above with reference to FIG. 41 to 43 are band diagrams showing the potential of each drive step along the EE plane in FIG. 40.
  • the vertical axis indicates the potential
  • the horizontal axis indicates the position along the EE plane. Further, in FIGS.
  • the region (also referred to as a gate region) of the semiconductor wiring 60 whose potential is controlled by the transfer gate 11 is referred to as'TG', and the potential is controlled by the storage electrode 37.
  • the region of the semiconductor layer 35 (also referred to as a storage region) is referred to as'ASE', and the region of the semiconductor layer 35 whose potential is controlled by the shield electrode 57 (also referred to as a shield region) is referred to as'SLD'.
  • the transfer gate 11 is turned off (OFF) and the storage electrode 37 is turned on (ON).
  • the potential of the storage region ASE is lowered, and a high potential barrier is formed in the gate region TG.
  • the electric charge 58 generated in the photoelectric conversion film 34 and entering the semiconductor layer 35 is accumulated in the storage region ASE.
  • the shield electrode 57 by keeping the shield electrode 57 in the off state, it is possible to suppress the leakage of the charge 58 to the adjacent pixel via the shield region SLD. It is desirable that the potential of the shield region SLD when the shield electrode 57 is in the off state is higher than the potential of the gate region TG when the transfer gate 11 is in the off state.
  • the storage electrode 37 is turned off as shown in FIG. 42.
  • the potential of the storage region ASE when the storage electrode 37 is in the off state is higher than the potential of the gate region TG when the transfer gate 11 is in the off state, and the potential of the shield region SLD when the shield electrode 57 is in the off state. It may be set to a potential lower than the potential.
  • the electric charge 58 stored in the storage region ASE can be discharged to the floating diffusion region FD via the gate region TG.
  • control at the time of charge transfer can be facilitated.
  • the transfer gate 11 may be turned on in the transfer step.
  • the electric charge 58 can be transferred more smoothly from the storage region ASE to the floating diffusion region FD.
  • a drive example of the pixel 10 capable of driving the global shutter will be described.
  • the method of driving the pixel 10 according to the sixth example described above with reference to FIG. 21 is illustrated, but the present invention is not limited to the sixth example, and the pixel 10 according to another example including the memory MEM is not limited to the sixth example. It is also possible to apply the same driving method.
  • FIG. 44 is a vertical cross-sectional view showing an example of a cross-sectional structure of a pixel cited in explaining a second drive example.
  • the cross-sectional structure of the pixel 10 illustrated in FIG. 44 may be the same as the cross-sectional structure of the pixel 10 according to the sixth example described above with reference to FIG. 21.
  • 45 to 48 are band diagrams showing the potential of each drive step along the FF plane in FIG. 44.
  • the vertical axis indicates the potential
  • the horizontal axis indicates the position along the FF plane. Further, in FIGS.
  • the area of the semiconductor wiring 60 whose potential is controlled by the memory electrode 16 (corresponding to the memory MEM, also referred to as the memory area) is referred to as'MEM', and is indicated by the transfer transistor 15.
  • the region (also referred to as the gate region) of the semiconductor wiring 60 whose potential is controlled is referred to as'TX'.
  • the transfer gate 11 and the transfer transistor 15 are turned off (OFF), and the storage electrode 37 and the memory MEM are turned on. It is set to (ON).
  • the potentials of the storage region ASE and the memory region MEM are lowered, and a high potential barrier is formed in the gate regions TG and TX.
  • the electric charge 58 generated in the photoelectric conversion film 34 and entering the semiconductor layer 35 is accumulated in the storage region ASE.
  • the shield electrode 57 by keeping the shield electrode 57 in the off state, it is possible to suppress the leakage of the charge 58 to the adjacent pixel via the shield region SLD. It is desirable that the potential of the shield region SLD when the shield electrode 57 is in the off state is higher than the potential of the gate region TX when the transfer transistor 15 is in the off state.
  • the storage electrode 37 is turned off as shown in FIG. 46.
  • the potential of the storage region ASE when the storage electrode 37 is in the off state is higher than the potential of the gate region TX when the transfer transistor 15 is in the off state, and the potential of the shield region SLD when the shield electrode 57 is in the off state. It may be set to a potential lower than the potential. As a result, the electric charge 58 stored in the storage region ASE can be discharged to the memory MEM via the gate region TX.
  • the memory MEM is turned off while maintaining the storage electrode 37 in the on state.
  • the electric charge 59 held in the memory MEM can be transferred to the floating diffusion region FD while continuing the exposure operation.
  • a modified example of the second drive example will be described below as a third drive example.
  • the driving method of the pixel 10 according to the sixth example is illustrated as in the second driving example, but the present invention is not limited to the sixth example, and the pixel 10 according to the other example including the memory MEM is also included. , It is possible to apply a similar drive method.
  • the cross-sectional structure example of the pixel 10 cited in explaining the third drive example may be the same as the cross-sectional structure of the pixel 10 illustrated in FIG. 44.
  • the exposure step of storing the electric charge generated in the photoelectric conversion film 34 in the storage region ASE may be the same as the operation described with reference to FIG. 45 in the second drive example.
  • the storage electrode 37 is turned off and the transfer gate 11 is turned on. Will be done. As a result, the charge 58 can be transferred more smoothly from the storage area ASE to the memory MEM. Further, it is possible to lower the potential of the storage region ASE when the storage electrode 37 is in the off state, and to reduce the amount of change in the potential of the storage region ASE when the storage electrode 37 is in the on state.
  • the storage electrode 37 is turned on again to accumulate the charge 58 generated in the photoelectric conversion film 34 and entered into the semiconductor layer 35. Store in the area ASE.
  • the transfer gate 11 is switched from the on state to the off state.
  • the memory MEM while maintaining the on state of the storage electrode 37, the memory MEM is turned off and the transfer transistor 15 is turned on.
  • the electric charge 59 held in the memory MEM can be transferred to the floating diffusion region FD while continuing the exposure operation.
  • the charge 59 can be transferred more smoothly from the memory MEM to the floating diffusion region FD. Further, it is possible to lower the potential of the memory area MEM when the memory MEM is off, and to reduce the amount of change in the potential of the memory area MEM when the memory MEM is turned on.
  • the potential barrier between the storage electrode 37 and the read electrode 36 is controlled by using the transfer gate 11. As a result, it is possible to suppress the electric charge accumulated in the semiconductor layer 35 in the vicinity of the storage electrode 37 from leaking to the readout electrode 36 side, and thus it is possible to improve the quantum efficiency. Further, the potential barrier between the adjacent pixels 10 is controlled by using the shield electrode 57 or the shield charge film 67. As a result, the charge generated in the photoelectric conversion film 34 of a certain pixel 10 and entering the semiconductor layer 35 is suppressed from flowing out to the adjacent pixel 10 (blooming), so that the quantum efficiency of the pixel 10 can be further improved. Is possible.
  • FIG. 51 is a vertical cross-sectional view showing an example of a cross-sectional structure of an image sensor according to the first variation.
  • FIG. 52 is a horizontal cross-sectional view showing an I-I cross section in FIG. 51.
  • the image sensor 100 is, for example, a laminated type image pickup in which RGB pixels 10 arranged on the upstream side and IR pixels 20 arranged on the downstream side are laminated with respect to incident light. It is an element.
  • On the upstream side for example, one RGB pixel 10 having a color filter 31r that selectively transmits red light (R) and two RGB pixels 10 having a color filter 31g that selectively transmits green light (G).
  • RGB pixel 10 including a color filter 31b that selectively transmits blue light (B), and four RGB pixels 10 are arranged so as to form a unit array of 2 rows ⁇ 2 columns in the Bayer arrangement. Will be done.
  • this unit array becomes a repeating unit and is repeatedly arranged in an array consisting of a row direction and a column direction.
  • RGB pixels 10 In a unit array consisting of four RGB pixels 10 arranged in 2 rows ⁇ 2 columns, two color filters 31 g that selectively transmit green light (G) are arranged diagonally, and red light (R) and blue light (R) and blue. Color filters 31r and 31b that selectively transmit light (B) are arranged one by one on orthogonal diagonal lines.
  • the photoelectric conversion film 34 of each RGB pixel 10 provided with one of the color filters 31r, 31g and 31b photoelectrically converts the color light corresponding to each color filter 31 to generate an electric charge.
  • the light in the visible light region (red light (R), green light (G), and blue light (B)) is the RGB pixel 10 provided with each color filter 31.
  • Light absorbed by the photoelectric conversion film 34 for example, light in the infrared light region (for example, 700 nm or more and 1000 nm or less) (IR light) passes through the photoelectric conversion film 34.
  • the IR light transmitted through the photoelectric conversion film 34 is detected by the photoelectric conversion unit PD1 of the IR pixel 20 arranged downstream with respect to each RGB pixel 10.
  • the image sensor 100 according to the first variation can simultaneously generate both a visible light image and an infrared light image.
  • FIG. 53 is a vertical cross-sectional view showing an example of a cross-sectional structure of an image sensor according to the second variation.
  • FIG. 54 is a horizontal cross-sectional view showing the II-II cross section in FIG. 53.
  • a color filter 31 that selectively transmits red light (R), green light (G), and blue light (B) is provided above the photoelectric conversion film 34 (light incident side).
  • the color filter 31 may be provided between the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2, for example.
  • the color filter 31 selectively transmits at least red light (R) and at least the color filter 31b selectively transmits blue light (B) diagonally to each other. It has an arranged configuration.
  • the photoelectric conversion film 34 located on the upstream side with respect to the incident light is configured to selectively absorb, for example, the wavelength corresponding to the green light.
  • the signals corresponding to the three primary colors of RGB can be acquired by the photoelectric conversion unit PD1 on the upstream side and the photoelectric conversion unit PD2 on the downstream side arranged below the color filters 31r and 31b, respectively.
  • the light receiving areas of the photoelectric conversion units PD1 and PD2 of each of the three primary colors of RGB can be expanded as compared with the image sensor having a general Bayer arrangement, so that the S / N ratio can be improved.
  • FIG. 55 is a block diagram showing a configuration example of an embodiment of an imaging device as an electronic device to which the present disclosure is applied.
  • the image pickup device 2000 of FIG. 55 is a video camera, a digital still camera, or the like.
  • the image pickup device 2000 includes a lens group 2001, a solid-state image pickup device 2002, a DSP circuit 2003, a frame memory 2004, a display unit 2005, a recording unit 2006, an operation unit 2007, and a power supply unit 2008.
  • the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, the operation unit 2007, and the power supply unit 2008 are connected to each other via the bus line 2009.
  • the lens group 2001 captures incident light (image light) from the subject and forms an image on the image pickup surface of the solid-state image pickup device 2002.
  • the solid-state image sensor 2002 may be the image sensor 100 according to the above-described embodiment.
  • the solid-state imaging device 2002 converts the amount of incident light imaged on the imaging surface by the lens group 2001 into an electric signal in pixel units and supplies it to the DSP circuit 2003 as a pixel signal.
  • the DSP circuit 2003 performs predetermined image processing on the pixel signal supplied from the solid-state image sensor 2002, supplies the image signal after the image processing to the frame memory 2004 in frame units, and temporarily stores the image signal.
  • the display unit 2005 comprises a panel-type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel, and displays an image based on a pixel signal in frame units temporarily stored in the frame memory 2004.
  • a panel-type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel, and displays an image based on a pixel signal in frame units temporarily stored in the frame memory 2004.
  • the recording unit 2006 is composed of a DVD (Digital Versatile Disk), a flash memory, etc., and reads and records a frame-by-frame pixel signal temporarily stored in the frame memory 2004.
  • DVD Digital Versatile Disk
  • flash memory etc.
  • the operation unit 2007 issues operation commands for various functions of the image pickup apparatus 2000 under the operation of the user.
  • the power supply unit 2008 appropriately supplies power to the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, and the operation unit 2007.
  • the electronic device to which this technology is applied may be any device that uses an image sensor for the image capture unit (photoelectric conversion unit), and in addition to the image pickup device 2000, a portable terminal device having an image pickup function and an image sensor for the image reading unit. There is a copying machine to be used.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 56 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the vehicle interior information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 57 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the image pickup unit 12031 has image pickup units 12101, 12102, 12103, 12104, and 12105.
  • the image pickup units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided in the front nose and the image pickup section 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the image pickup unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 57 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like that autonomously travels without relying on the driver's operation.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the image pickup unit 12031 or the like among the configurations described above.
  • the image pickup unit 12101, 12102, 12103, 12104, 12105 and the like illustrated in FIG. 57 may be mounted on the vehicle 12100.
  • the sensitivity of the image pickup unit 12031 can be improved, so that a clearer image can be displayed on the driver or the like. It is also possible to improve the accuracy of various processes using the image acquired by the image pickup unit 12031.
  • FIG. 58 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 58 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (light emission diode), and supplies the irradiation light for photographing the surgical site or the like to the endoscope 11100.
  • a light source such as an LED (light emission diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the observation target is irradiated with the laser light from each of the RGB laser light sources in a time-division manner, and the driving of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating the excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 59 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 58.
  • the camera head 11102 includes a lens unit 11401, an image pickup unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup element constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to the 3D (dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the image pickup unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the image pickup conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques.
  • the control unit 11413 detects a surgical tool such as forceps, a specific biological part, bleeding, mist when using the energy treatment tool 11112, etc. by detecting the shape, color, etc. of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgery support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can surely proceed with the surgery.
  • the transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100, the camera head 11102 (imaging unit 11402), the CCU 11201 (image processing unit 11412), and the like) among the configurations described above.
  • the technique according to the present disclosure it is possible to obtain an effect such as being able to display a clearer image to the operator.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the present technology can also have the following configurations.
  • (1) With multiple pixels arranged in a matrix, Each of the pixels The first semiconductor layer and A photoelectric conversion unit arranged on the first surface side of the first semiconductor layer, and A storage electrode arranged close to the second surface side opposite to the first surface in the first semiconductor layer, The wiring extending from the second surface of the first semiconductor layer and A floating diffusion region connected to the first semiconductor layer via the wiring, The first gate electrode placed close to the wiring and A solid-state image sensor.
  • the solid-state image sensor according to (1) wherein the storage electrode is arranged closer to the first semiconductor layer than the first gate electrode.
  • (3) The solid-state image pickup device according to (1), wherein the storage electrode and the first gate electrode are arranged on the same plane.
  • the wiring is The first wiring extending from the first semiconductor layer and connecting to the second semiconductor layer, A second wiring extending from the second semiconductor layer and connecting to the stray diffusion region, Equipped with The first gate electrode is arranged close to the first wiring.
  • the memory electrode is arranged close to the second semiconductor layer, and the memory electrode is arranged close to the second semiconductor layer.
  • the solid-state image pickup device according to any one of (1) to (8), wherein the storage electrode is arranged at a position surrounding the side surface of the wiring.
  • the solid-state image sensor according to any one of (1) to (9) above, wherein the cross section of the wiring is circular or polygonal.
  • the solid-state image sensor according to any one of (1) to (10), wherein the wiring has a tapered shape whose diameter is reduced from the first semiconductor layer to the floating diffusion region.
  • a plurality of on-chip lenses arranged on the opposite side of the first semiconductor layer with respect to the photoelectric conversion unit are provided. At least one of the plurality of on-chip lenses is arranged in any one of the above (1) to (11) so as to straddle at least two adjacent pixels of the plurality of pixels.
  • each of the pixels further includes a color filter arranged on the incident surface side of light in the photoelectric conversion unit.
  • each of the pixels further includes a color filter arranged on the opposite side of the photoelectric conversion unit with the first semiconductor layer interposed therebetween.
  • the photoelectric conversion unit is an organic film.
  • the first semiconductor layer is The first layer in contact with the photoelectric conversion unit and The solid-state image pickup device according to any one of (1) to (15), further comprising a second layer located on the opposite side of the photoelectric conversion unit with the first layer interposed therebetween.
  • the solid-state image pickup device according to (18), wherein the fixed charge film has the same polarity as the charge generated by the photoelectric conversion unit.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

量子効率の向上を可能にする。実施形態に係る固体撮像装置は、行列状に配列する複数の画素(110)を備え、前記画素それぞれは、第1半導体層(35)と、前記第1半導体層の第1面側に配置された光電変換部(PD1)と、前記第1半導体層における前記第1面と反対側の第2面側に近接配置された蓄積電極(37)と、前記第1半導体層の前記第2面から延出する配線(61,62,63,64)と、前記配線を介して前記第1半導体層に接続された浮遊拡散領域(FD1)と、前記配線に近接配置された第1ゲート電極と、を備える。

Description

固体撮像装置及び電子機器
 本開示は、固体撮像装置及び電子機器に関する。
 近年、複数の光電変換素子を半導体基板の基板厚方向に積層した積層型イメージセンサが提案されている。例えば、特許文献1には、偽色を解決する方法として、同一の画素の縦方向にグリーン、ブルー及びレッドそれぞれの波長の光を光電変換する光電変換領域を積層し、グリーンの光電変換領域は、有機光電変換膜で構成するという積層型固体撮像装置が提案されている。また、特許文献2には、光電変換で発生して蓄積電極の上側に溜まった電荷を、蓄積電極の下方に設置した捕集電極へ縦方向に転送する構造も提案されている。
特開2017-157816号公報 特開2016-63156号公報
 しかしながら、従来の積層型固体撮像装置では、有機光電変換膜に発生した電荷を有機光電変換膜の下層に位置する半導体層に効率的に蓄えておくことができず、それにより、量子効率が低下してしまうという課題が存在した。
 そこで本開示は、量子効率の向上を可能にする固体撮像装置及び電子機器を提案する。
 上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、行列状に配列する複数の画素を備え、前記画素それぞれは、第1半導体層と、前記第1半導体層の第1面側に配置された光電変換部と、前記第1半導体層における前記第1面と反対側の第2面側に近接配置された蓄積電極と、前記第1半導体層の前記第2面から延出する配線と、前記配線を介して前記第1半導体層に接続された浮遊拡散領域と、前記配線に近接配置された第1ゲート電極と、を備える。
一実施形態に係る電子機器の概略構成例を示す模式図である。 一実施形態に係る電子機器を用いた測距装置の概略構成例を示すブロック図である。 一実施形態にイメージセンサの概略構成例を示すブロック図である。 一実施形態に係るイメージセンサの積層構造例を示す図である。 一実施形態に係る画素アレイ部の概略構成例を示す模式図である。 一実施形態に係る単位画素の概略構成例を示す回路図である。 一実施形態の変形例に係る単位画素の概略構成例を示す回路図である。 一実施形態に係るイメージセンサの断面構造例を示す断面図である。 一実施形態の変形例に係る単位画素の概略構成例を示す模式図である。 一実施形態の変形例に係る単位画素の概略構成例を示す回路図である。 一実施形態の変形例に係るイメージセンサの断面構造例を示す断面図である。 一実施形態の第1例に係る画素の断面構造を示す垂直断面図である。 図12におけるA-A断面を示す水平断面図である。 図12におけるA-A断面の他の例を示す水平断面図である。 図12におけるA-A断面のさらに他の例を示す水平断面図である。 一実施形態の第2例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第3例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第4例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第5例に係る画素の断面構造を示す垂直断面図である。 図19におけるB-B断面を示す水平断面図である。 一実施形態の第6例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第7例に係る画素の断面構造を示す垂直断面図である。 図22におけるC-C断面を示す水平断面図である。 一実施形態の第8例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第9例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第10例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第11例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第12例に係る画素の断面構造例を示す垂直断面図である。 一実施形態の第13例に係る画素の断面構造例を示す垂直断面図である。 一実施形態の第13例に係る画素の他の断面構造例を示す垂直断面図である。 一実施形態の第14例に係る画素の断面構造を示す垂直断面図である。 図31におけるD-D断面を示す水平断面図である。 一実施形態の第15例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第16例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第17例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第18例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第19例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第20例に係る画素の断面構造を示す垂直断面図である。 一実施形態の第20例に係る画素の他の断面構造を示す垂直断面図である。 一実施形態の第1駆動例を説明するにあたって引用する画素の断面構造例を示す垂直断面図である。 図40におけるE-E面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その1)。 図40におけるE-E面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その2)。 図40におけるE-E面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その2の2)。 一実施形態の第2駆動例を説明するにあたって引用する画素の断面構造例を示す垂直断面図である。 図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その1)。 図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その2)。 図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その3)。 図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その4)。 図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その2の2)。 図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である(その4の2)。 本開示の第1バリエーションに係るイメージセンサの断面構造例を示す垂直断面図である。 図51におけるI-I断面を示す水平断面図である。 本開示の第2バリエーションに係るイメージセンサの断面構造例を示す垂直断面図である。 図53におけるII-II断面を示す水平断面図である。 本開示を適用した電子機器としての撮像装置の一実施の形態の構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.一実施形態
   1.1 システム構成例
   1.2 固体撮像装置の構成例
   1.3 固体撮像装置の積層構造例
   1.4 単位画素の構成例
   1.5 単位画素の回路構成例
    1.5.1 回路構成の変形例
   1.6 単位画素の断面構造例
   1.7 各層の材料
   1.8 単位画素の変形例
    1.8.1 単位画素の構成例
    1.8.2 単位画素の回路構成例
    1.8.3 単位画素の断面構造例
   1.9 量子効率の向上
    1.9.1 第1例
    1.9.2 第2例
    1.9.3 第3例
    1.9.4 第4例
    1.9.5 第5例
    1.9.6 第6例
    1.9.7 第7例
    1.9.8 第8例
    1.9.9 第9例
    1.9.10 第10例
    1.9.11 第11例
    1.9.12 第12例
    1.9.13 第13例
    1.9.14 第14例
    1.9.15 第15例
    1.9.16 第16例
    1.9.17 第17例
    1.9.18 第18例
    1.9.19 第19例
    1.9.20 第20例
   1.10 画素駆動例
    1.10.1 第1駆動例
    1.10.2 第2駆動例
    1.10.3 第3駆動例
   1.11 まとめ
  2.断面構造のバリエーション
   2.1 第1バリエーション
   2.2 第2バリエーション
  3.撮像装置の構成例
  4.移動体への応用例
  5.内視鏡手術システムへの応用例
 1.一実施形態
 まず、一実施形態に係る固体撮像装置(以下、イメージセンサという)、電子機器及び認識システムについて、図面を参照して詳細に説明する。なお、本実施形態では、CMOS(Complementary Metal-Oxide Semiconductor)型のイメージセンサに本実施形態に係る技術を適用した場合を例示するが、これに限定されず、例えば、CCD(Charge-Coupled Device)型のイメージセンサやToF(Time-of-Flight)センサや同期型又は非同期型のEVS(Event Visio Sensor)など、光電変換素子を備える種々のセンサに本実施形態に係る技術を適用することが可能である。なお、CMOS型のイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサであってよい。
 1.1 システム構成例
 図1は、本実施形態に係る電子機器の概略構成例を示す模式図であり、図2は、本実施形態に係る電子機器を用いた測距装置の概略構成例を示すブロック図である。
 図1に示すように、本実施形態に係る電子機器1は、レーザ光源1010と、照射レンズ1030と、撮像レンズ1040と、イメージセンサ100と、システム制御部1050とを備える。
 レーザ光源1010は、図2に示すように、例えば、垂直共振器型面発光レーザ(VCSEL)1012と、VCSEL1012を駆動する光源駆動部1011とから構成される。ただし、VCSEL1012に限定されず、LED(Light Emitting Diode)などの種々の光源が使用されてもよい。また、レーザ光源1010は、点光源、面光源、線光源のいずれであってもよい。面光源又は線光源の場合、レーザ光源1010は、例えば、複数の点光源(例えばVCSEL)が1次元又は2次元に配列した構成を備えてもよい。なお、本実施形態において、レーザ光源1010は、例えば赤外(IR)光など、可視光の波長帯とは異なる波長帯の光を出射してよい。
 照射レンズ1030は、レーザ光源1010の出射面側に配置され、レーザ光源1010から出射した光を所定の広がり角の照射光に変換する。
 撮像レンズ1040は、イメージセンサ100の受光面側に配置され、入射光による像をイメージセンサ100の受光面に結像する。入射光には、レーザ光源1010から出射して被写体901で反射した反射光も含まれ得る。
 イメージセンサ100は、その詳細については後述するが、図2に示すように、例えば、複数の画素が2次元格子状に配列する受光部1022と、受光部1022を駆動して画像データを生成するセンサ制御部1021とから構成される。受光部1022に配置される画素には、例えば可視光の波長帯の光を検出する画素や、可視光以外の波長帯の光、例えば赤外光の波長帯の光を検出する画素などが含まれてもよい。その際、可視光以外の波長帯の光を検出する画素は、可視光以外の波長帯の光の画像データを生成するための画素(イメージセンサ用)であってもよいし、物体までの距離を測定するための画素(ToFセンサ用)であってもよいし、輝度変化を検出するための画素(EVS用)であってもよい。以下、説明の簡略化のため、受光部1022の各画素から読み出されて生成されたデータをすべて画像データと称する。
 システム制御部1050は、例えばプロセッサ(CPU)によって構成され、光源駆動部1011を介してVCSEL1012を駆動する。また、システム制御部1050は、イメージセンサ100を制御することで、画像データを取得する。その際、システム制御部1050は、レーザ光源1010に対する制御と同期してイメージセンサ100を制御することで、レーザ光源1010から出射された照射光の反射光を検出することで得られた画像データを取得してもよい。
 例えば、レーザ光源1010から出射した照射光は、照射レンズ1030を透して被写体(測定対象物又は物体ともいう)901に投影される。この投影された光は、被写体901で反射される。そして、被写体901で反射された光は、撮像レンズ1040を透してイメージセンサ100に入射する。イメージセンサ100における受光部1022は、被写体901で反射した反射光を受光して画像データを生成する。イメージセンサ100で生成された画像データは、電子機器1のアプリケーションプロセッサ1100に供給される。アプリケーションプロセッサ1100は、イメージセンサ100から入力された画像データに対して認識処理や演算処理などの各種処理を実行し得る。
 1.2 固体撮像装置の構成例
 図3は、本実施形態にイメージセンサの概略構成例を示すブロック図である。図3に示すように、イメージセンサ100は、例えば、画素アレイ部101と、垂直駆動回路102と、信号処理回路103と、水平駆動回路104と、システム制御回路105と、データ処理部108と、データ格納部109とを備える。以下の説明において、垂直駆動回路102、信号処理回路103、水平駆動回路104、システム制御回路105、データ処理部108及びデータ格納部109は、周辺回路とも称される。
 画素アレイ部101は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を有する画素(以下、単位画素という)110が行方向及び列方向に、すなわち、2次元格子状(以下、行列状ともいう)に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(図面中、横方向)をいい、列方向とは画素列の画素の配列方向(図面中、縦方向)をいう。
 画素アレイ部101では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図3では、画素駆動線LDが1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LDの一端は、垂直駆動回路102の各行に対応した出力端に接続されている。
 垂直駆動回路102は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101の各画素を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路102は、当該垂直駆動回路102を制御するシステム制御回路105と共に、画素アレイ部101の各画素の動作を制御する駆動部を構成している。この垂直駆動回路102はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。
 読出し走査系は、単位画素110の各画素から信号を読み出すために、画素アレイ部101の単位画素110の各画素を行単位で順に選択走査する。単位画素110の各画素から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の単位画素110の各画素の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素110の各画素における電荷の蓄積期間(露光期間ともいう)となる。
 垂直駆動回路102によって選択走査された画素行の各単位画素110から出力される信号は、画素列ごとに垂直信号線VSLの各々を通して信号処理回路103に入力される。信号処理回路103は、画素アレイ部101の画素列ごとに、選択行の各画素から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、信号処理回路103は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。信号処理回路103は、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、光電変換素子から読み出され得たアナログの画素信号をデジタル信号に変換して出力する。
 水平駆動回路104は、シフトレジスタやアドレスデコーダなどによって構成され、信号処理回路103の画素列に対応する読出し回路(以下、画素回路という)を順番に選択する。この水平駆動回路104による選択走査により、信号処理回路103において画素回路ごとに信号処理された画素信号が順番に出力される。
 システム制御回路105は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路102、信号処理回路103、及び、水平駆動回路104などの駆動制御を行う。
 データ処理部108は、少なくとも演算処理機能を有し、信号処理回路103から出力される画素信号に対して演算処理等の種々の信号処理を行う。データ格納部109は、データ処理部108での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 なお、データ処理部108から出力された画像データは、例えば、イメージセンサ100を搭載する電子機器1におけるアプリケーションプロセッサ1100等において所定の処理が実行されたり、所定のネットワークを介して外部へ送信されたりしてもよい。
 1.3 固体撮像装置の積層構造例
 図4は、本実施形態に係るイメージセンサの積層構造例を示す図である。図4に示すように、イメージセンサ100は、受光チップ121と回路チップ122とが上下に積層されたスタック構造を備える。受光チップ121は、例えば、複数の単位画素110が行列状に配列する画素アレイ部101を備える半導体チップであり、回路チップ122は、例えば、図3における周辺回路等を備える半導体チップであってよい。
 受光チップ121と回路チップ122との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
 また、受光チップ121と回路チップ122とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、受光チップ121に設けられたTSVと受光チップ121から回路チップ122にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、受光チップ121から回路チップ122まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
 ただし、受光チップ121と回路チップ122との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続される。
 1.4 単位画素の構成例
 次に、単位画素110の構成例について説明する。なお、ここでは、単位画素110が、RGB三原色における各色成分を検出する画素(以下、RGB画素10ともいう)と、赤外(IR)光を検出する画素(以下、IR画素20ともいう)とを含む場合を例示に挙げる。なお、図5及び以下では、RGB三原色を構成する各色成分の光を透過させるカラーフィルタ31r、31g又は31bを区別しない場合、その符号が31とされている。
 図5は、本実施形態に係る画素アレイ部の概略構成例を示す模式図である。図5に示すように、画素アレイ部101は、RGB画素10とIR画素20とからなる単位画素110が光の入射方向に沿って配列した構造を備える単位画素110が2次元格子状に配列した構成を備える。すなわち、本実施形態では、RGB画素10とIR画素20とが単位画素110の配列方向(平面方向)に対して垂直方向に位置されており、入射光の光路における上流側に位置するRGB画素10を透過した光が、このRGB画素10の下流側に位置するIR画素20に入射するように構成されている。このような構成によれば、RGB画素10の光電変換部PD1における入射光の入射面と反対側の面側にIR画素20の光電変換部PD2が配置される。それにより、本実施形態では、光の入射方向に沿って配列するRGB画素10とIR画素20との入射光の光軸が一致又は略一致している。
 なお、本実施形態では、RGB画素10を構成する光電変換部PD1を有機材料で構成し、IR画素20を構成する光電変換部PD2をシリコンなどの半導体材料で構成する場合を例示するが、これに限定されるものではない。例えば、光電変換部PD1と光電変換部PD2との両方が半導体材料で構成されてもよいし、光電変換部PD1と光電変換部PD2との両方が有機材料で構成されてもよいし、光電変換部PD1が半導体材料で構成され、光電変換部PD2が有機材料で構成されてもよい。若しくは、光電変換部PD1と光電変換部PD2との少なくとも一方が有機材料及び半導体材料とは異なる光電変換材料で構成されてもよい。
 1.5 単位画素の回路構成例
 次に、単位画素110の回路構成例について説明する。図6は、本実施形態に係る単位画素の概略構成例を示す回路図である。図6に示すように、本例では、単位画素110は、RGB画素10と、IR画素20とを1つずつ備える。
 (RGB画素10)
 RGB画素10は、例えば、光電変換部PD1と、転送ゲート11と、浮遊拡散領域FD1と、リセットトランジスタ12と、増幅トランジスタ13と、選択トランジスタ14とを備える。
 選択トランジスタ14のゲートには、画素駆動線LDに含まれる選択制御線が接続され、リセットトランジスタ12のゲートには、画素駆動線LDに含まれるリセット制御線が接続され、転送ゲート11の後述する蓄積電極(後述において説明する図8の蓄積電極37参照)には、画素駆動線LDに含まれる転送制御線が接続される。また、増幅トランジスタ13のドレインには、信号処理回路103に一端が接続される垂直信号線VSL1が選択トランジスタ14を介して接続される。
 以下の説明において、リセットトランジスタ12、増幅トランジスタ13及び選択トランジスタ14は、まとめて画素回路とも称される。この画素回路には、浮遊拡散領域FD1及び/又は転送ゲート11が含まれてもよい。
 光電変換部PD1は、例えば有機材料で構成され、入射した光を光電変換する。転送ゲート11は、光電変換部PD1に発生した電荷を転送する。浮遊拡散領域FD1は、転送ゲート11が転送した電荷を蓄積する。増幅トランジスタ13は、浮遊拡散領域FD1に蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSL1に出現させる。リセットトランジスタ12は、浮遊拡散領域FD1に蓄積された電荷を放出する。選択トランジスタ14は、読出し対象のRGB画素10を選択する。
 光電変換部PD1のアノードは、接地されており、カソ-ドは、転送ゲート11に接続される。光電変換部PD1には、その詳細については後述において図8を用いて説明するが、例えば、蓄積電極37が近接配置される。露光時には、光電変換部PD1に発生した電荷を蓄積電極37の近傍の半導体層35に集めるための電圧が、転送制御線を介して蓄積電極37に印加される。読出し時には、蓄積電極37の近傍の半導体層35に集められた電荷を読出し電極36を介して流出させるための電圧が、転送制御線を介して蓄積電極37に印加される。
 読出し電極36を介して流出した電荷は、読出し電極36と、リセットトランジスタ12のソースと、増幅トランジスタ13のゲートとを接続する配線構造によって構成される浮遊拡散領域FD1に蓄積される。なお、リセットトランジスタ12のドレインは、例えば、電源電圧VDDや電源電圧VDDよりも低いリセット電圧が供給される電源線に接続されてもよい。
 増幅トランジスタ13のソースは、例えば、不図示の定電流回路等を介して電源線に接続されてよい。増幅トランジスタ13のドレインは、選択トランジスタ14のソースに接続され、選択トランジスタ14のドレインは、垂直信号線VSL1に接続される。
 浮遊拡散領域FD1は、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散領域FD1は、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散領域FD1は、転送ゲート11のドレインとリセットトランジスタ12のソースと増幅トランジスタ13のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量等であってもよい。
 垂直信号線VSL1は、信号処理回路103においてカラム毎(すなわち、垂直信号線VSL1毎)に設けられたAD(Analog-to-Digital)変換回路103aに接続される。AD変換回路103aは、例えば、比較器とカウンタとを備え、外部の基準電圧生成回路(DAC(Digital-to-Analog Converter))から入力されたシングルスロープやランプ形状等の基準電圧と、垂直信号線VSL1に出現した画素信号とを比較することで、アナログの画素信号をデジタルの画素信号に変換する。なお、AD変換回路103aは、例えば、CDS(Correlated Double Sampling)回路などを備え、kTCノイズ等を低減可能に構成されていてもよい。
 (IR画素20)
 IR画素20は、例えば、光電変換部PD2と、転送トランジスタ21と、浮遊拡散領域FD2と、リセットトランジスタ22と、増幅トランジスタ23と、選択トランジスタ24と、排出トランジスタ25とを備える。すなわち、IR画素20では、RGB画素10における転送ゲート11が転送トランジスタ21に置き換えられるとともに、排出トランジスタ25が追加されている。
 転送トランジスタ21に対する浮遊拡散領域FD2、リセットトランジスタ22及び増幅トランジスタ23の接続関係は、RGB画素10における転送ゲート11に対する浮遊拡散領域FD1、リセットトランジスタ12及び増幅トランジスタ13の接続関係と同様であってよい。また、増幅トランジスタ23と選択トランジスタ24と垂直信号線VSL2との接続関係も、RGB画素10における増幅トランジスタ13と選択トランジスタ14と垂直信号線VSL1との接続関係と同様であってよい。
 転送トランジスタ21のソースは、例えば、光電変換部PD2のカソードに接続され、ドレインは浮遊拡散領域FD2に接続される。また、転送トランジスタ21のゲートには、画素駆動線LDに含まれる転送制御線が接続される。
 排出トランジスタ25のソースは、例えば、光電変換部PD2のカソードに接続され、ドレインは、電源電圧VDDや電源電圧VDDよりも低いリセット電圧が供給される電源線に接続されてよい。また、排出トランジスタ25のゲートには、画素駆動線LDに含まれる排出制御線が接続される。
 以下の説明において、リセットトランジスタ22、増幅トランジスタ23及び選択トランジスタ24は、まとめて画素回路とも称される。この画素回路には、浮遊拡散領域FD2、転送トランジスタ21及び排出トランジスタ25のうちの1つ以上が含まれてもよい。
 光電変換部PD2は、例えば半導体材料で構成され、入射した光を光電変換する。転送トランジスタ21は、光電変換部PD2に発生した電荷を転送する。浮遊拡散領域FD2は、転送トランジスタ21が転送した電荷を蓄積する。増幅トランジスタ23は、浮遊拡散領域FD2に蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSL2に出現させる。リセットトランジスタ22は、浮遊拡散領域FD2に蓄積された電荷を放出する。選択トランジスタ24は、読出し対象のIR画素20を選択する。
 光電変換部PD2のアノードは、接地されており、カソ-ドは、転送トランジスタ21に接続される。転送トランジスタ21のドレインは、リセットトランジスタ22のソースおよび増幅トランジスタ23のゲートに接続されており、これらを接続する配線構造が、浮遊拡散領域FD2を構成する。光電変換部PD2から転送トランジスタ21を介して流出した電荷は、浮遊拡散領域FD2に蓄積される。
 浮遊拡散領域FD2は、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散領域FD2は、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散領域FD2は、転送トランジスタ21のドレインとリセットトランジスタ22のソースと増幅トランジスタ23のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量等であってもよい。
 排出トランジスタ25は、光電変換部PD2に蓄積された電荷を排出して、光電変換部PD2をリセットする際にオン状態とされる。それにより、光電変換部PD2に蓄積された電荷が排出トランジスタ25を介して電源線へ流出し、光電変換部PD2が露光されていない状態にリセットされる。
 垂直信号線VSL2は、垂直信号線VSL1と同様、IR信号処理回路103Bにおいてカラム毎(すなわち、垂直信号線VSL2毎)に設けられたAD変換回路103aに接続される。
 1.5.1 回路構成の変形例
 ここで、画素アレイ部101におけるRGB画素10に対して所謂グローバルシャッタ方式の読出し駆動を可能にする回路構成を、変形例として説明する。図7は、本実施形態の変形例に係る単位画素の概略構成例を示す回路図である。図7に示すように、本変形例では、各単位画素110におけるRGB画素10Aが、メモリMEMと転送トランジスタ15とをさらに備える。
 メモリMEMは、転送ゲート11に接続され、光電変換部PD1から流出した電荷を一時保持する。転送トランジスタ15のソースは、メモリMEMに接続され、ドレインは、浮遊拡散領域FD1に接続される。転送トランジスタ15のゲートは、画素駆動線LDの1つである転送制御線に接続され、垂直駆動回路102からの制御に従い、メモリMEMに保持されている電荷を浮遊拡散領域FD1へ転送する。
 露光後の電荷転送時には、画素アレイ部101における全てのRGB画素10の転送ゲート11が一斉にオン状態とされる。これにより、同一期間中に各RGB画素10の光電変換部PD1で発生した電荷が各RGB画素10のメモリMEMに転送されて保持される。メモリMEMに保持された電荷に基づく画素信号の読出しは、所謂ローリングシャッタ方式の読出し駆動と同様であってよい。
 1.6 単位画素の断面構造例
 次に、図8を参照して、一実施形態に係るイメージセンサ100の断面構造例を説明する。図8は、本実施形態に係るイメージセンサの断面構造例を示す断面図である。ここでは、単位画素110における光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。
 また、以下の説明では、光の入射面が半導体基板50の裏面側(素子形成面と反対側)である、いわゆる裏面照射型の断面構造を例示するが、これに限定されず、光の入射面が半導体基板50の表面側(素子形成面側)である、いわゆる表面照射型の断面構造であってもよい。さらに、本説明では、RGB画素10の光電変換部PD1に有機材料が用いられた場合を例示するが、上述したように、光電変換部PD1及びPD2それぞれの光電変換材料には、有機材料及び半導体材料(無機材料ともいう)のうちの一方若しくは両方が用いられてよい。
 なお、光電変換部PD1の光電変換材料及び光電変換部PD2の光電変換材料の両方に半導体材料を用いる場合、イメージセンサ100は、光電変換部PD1と光電変換部PD2とが同一の半導体基板50に作り込まれた断面構造を有してもよいし、光電変換部PD1が作り込まれた半導体基板と光電変換部PD2が作り込まれた半導体基板とが貼り合わされた断面構造を有してもよいし、光電変換部PD1及びPD2のうちの一方が半導体基板50に作り込まれ、他方が半導体基板50の裏面又は表面上に形成された半導体層に作り込まれた断面構造を有してもよい。
 図8に示すように、本実施形態では、半導体基板50にIR画素20の光電変換部PD2が形成され、半導体基板50の裏面側(素子形成面と反対側)の面上に、RGB画素10の光電変換部PD1が設けられた構造を備える。なお、図8では、説明の都合上、半導体基板50の裏面が紙面中上側に位置し、表面が下側に位置している。
 半導体基板50には、例えば、シリコン(Si)などの半導体材料が用いられてよい。ただし、これに限定されず、GaAs、InGaAs、InP、AlGaAs、InGaP、AlGaInP、InGaAsP等の化合物半導体を含む種々の半導体材料が用いられてよい。
 (RGB画素10)
 RGB画素10の光電変換部PD1は、絶縁層53を挟んで、半導体基板50の裏面側に設けられている。光電変換部PD1は、例えば、有機材料により構成された光電変換膜34と、光電変換膜34を挟むように配置された透明電極33及び半導体層35とを備える。光電変換膜34に対して紙面中上側(以降、紙面中上側を上面側とし、下側を下面側とする)に設けられた透明電極33は、例えば、光電変換部PD1のアノードとして機能し、下面側に設けられた半導体層35は、光電変換部PD1のカソードとして機能する。
 カソードとして機能する半導体層35は、絶縁層53中に形成された読出し電極36に電気的に接続される。読出し電極36は、絶縁層53及び半導体基板50を貫通する配線61、62、63及び64に接続することで、半導体基板50の表面(下面)側にまで電気的に引き出されている。なお、図8には示されていないが、配線64は、図6に示す浮遊拡散領域FD1に電気的に接続されている。
 カソードとして機能する半導体層35の下面側には、絶縁層53を挟んで蓄積電極37が併設される。図8には示されていないが、蓄積電極37は、画素駆動線LD1における転送制御線に接続されており、上述したように、露光時には、光電変換部PD1に発生した電荷を蓄積電極37の近傍の半導体層35に集めるための電圧が印加され、読出し時には、蓄積電極37の近傍の半導体層35に集められた電荷を読出し電極36を介して流出させるための電圧が印加される。
 読出し電極36及び蓄積電極37は、透明電極33と同様に、透明な導電膜であってよい。透明電極33並びに読出し電極36及び蓄積電極37には、例えば、酸化インジウムスズ(ITO)や酸化亜鉛(IZO)などの透明導電膜が用いられてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る導電膜であれば、種々の導電膜が使用されてよい。
 また、半導体層35には、例えば、IGZOなどの透明な半導体層が用いられてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る半導体層であれば、種々の半導体層が使用されてよい。
 さらに、絶縁層53は、例えば、シリコン酸化膜(SiO)やシリコン窒化膜(SiN)などの絶縁膜が使用されてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る絶縁膜であれば、種々の絶縁膜が使用されてよい。
 アノードとして機能する透明電極33の上面側には、封止膜32を挟んでカラーフィルタ31が設けられる。封止膜32は、例えば、窒化シリコン(SiN)などの絶縁材料で構成され、透明電極33からアルミニウム(Al)やチタニウム(Ti)などの原子が拡散することを防止するために、これらの原子を含み得る。
 カラーフィルタ31の配列については後述において説明するが、例えば、1つのRGB画素10に対しては、特定の波長成分の光を選択的に透過させるカラーフィルタ31が設けられる。ただし、色情報を取得するRGB画素10の代わりに輝度情報を取得するモノクロ画素を設ける場合には、カラーフィルタ31が省略されてもよい。
 (IR画素20)
 IR画素20の光電変換部PD2は、例えば、半導体基板50におけるpウェル領域42に形成されたp型半導体領域43と、p型半導体領域43の中央付近に形成されたn型半導体領域44とを備える。n型半導体領域44は、例えば、光電変換により発生した電荷(電子)を蓄積する電荷蓄積領域として機能し、p型半導体領域43は、光電変換により発生した電荷をn型半導体領域44内に集めるための電位勾配を形成する領域として機能する。
 光電変換部PD2の光入射面側には、例えば、IR光を選択的に透過させるIRフィルタ41が配置される。IRフィルタ41は、例えば、半導体基板50の裏面側に設けられた絶縁層53内に配置されてよい。IRフィルタ41を光電変換部PD2の光入射面に配置することで、光電変換部PD2への可視光の入射を抑制することが可能となるため、可視光に対するIR光のS/N比を改善することができる。それにより、IR光のより正確な検出結果を得ることが可能となる。
 半導体基板50の光入射面には、入射光(本例ではIR光)の反射を抑制するために、例えば、微細な凹凸構造が設けられている。この凹凸構造は、いわゆるモスアイ構造と称される構造であってもよいし、モスアイ構造とはサイズやピッチが異なる凹凸構造であってもよい。
 半導体基板50の表面(紙面中下面)側、すなわち、素子形成面側には、転送トランジスタ21として機能する縦型トランジスタ45が設けられる。縦型トランジスタ45のゲート電極は、半導体基板50の表面からn型半導体領域44にまで達しており、層間絶縁膜56に形成された配線65及び66(画素駆動線LD2の転送制御線の一部)を介して垂直駆動回路102に接続されている。
 縦型トランジスタ45を介して流出した電荷は、浮遊拡散領域FD2に蓄積される。浮遊拡散領域FD2は、層間絶縁膜56に形成された不図示の配線を介して、リセットトランジスタ22のソース及び増幅トランジスタ23のゲートに接続される。なお、浮遊拡散領域FD2、リセットトランジスタ22、増幅トランジスタ23及び選択トランジスタ24は、半導体基板50の素子形成面に設けられてもよいし、半導体基板50とは異なる半導体基板に設けられてもよい。
 なお、本説明では、入射光に対して上流に位置するRGB画素10がRGBの画像信号を生成し、下流に位置するIR画素20がIR光に基づく画像信号を生成する場合を例示したが、このような構成に限定されない。例えば、上流側の画素(RGB画素10に相当)で緑色に相当する波長成分の光に基づく画像信号を生成し、下流側の画素(IR画素20に相当)で赤色に相当する波長成分の光に基づく画像信号及び青色に相当する波長成分の光に基づく画像信号を生成するように構成されてもよい。その場合、光電変換膜34に緑色に相当する波長成分を選択的に吸収する材料が用いられるとともに、IRフィルタ41の代わりに、赤色に相当する波長成分を選択的に透過させるカラーフィルタ及び青色に相当する波長成分を選択的に透過させるカラーフィルタが行列状に配列され得る。さらにこの構成では、カラーフィルタ31を省略することも可能である。このように構成することで、カラー画像を構成するRGB三原色(CMY三原色等であってもよい)それぞれの波長成分を検出する画素の受光面積を拡大することが可能となるため、量子効率の増加によるS/N比の向上を達成することが可能となる。
 (画素分離構造)
 半導体基板50には、複数の単位画素110の間を電気的に分離する画素分離部54が設けられており、この画素分離部54で区画された各領域内に、光電変換部PD2が設けられる。例えば、半導体基板50の裏面(図中上面)側からイメージセンサ100を見た場合、画素分離部54は、例えば、複数の単位画素110の間に介在する格子形状を有しており、各光電変換部PD2は、この画素分離部54で区画された各領域内に形成されている。
 画素分離部54には、例えば、タングステン(W)やアルミニウム(Al)などの光を反射する反射膜が用いられてもよい。それにより、光電変換部PD2内に進入した入射光を画素分離部54で反射させることが可能となるため、光電変換部PD2内での入射光の光路長を長くすることが可能となる。加えて、画素分離部54を光反射構造とすることで、隣接画素への光の漏れ込みを低減することが可能となるため、画質や測距精度等をより向上させることも可能となる。なお、画素分離部54を光反射構造とする構成は、反射膜を用いる構成に限定されず、例えば、画素分離部54に半導体基板50とは異なる屈折率の材料を用いることでも実現することができる。
 半導体基板50と画素分離部54との間には、例えば、固定電荷膜55が設けられる。固定電荷膜55は、例えば、半導体基板50との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜55が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板138との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。
 固定電荷膜55は、例えば、ハフニウム酸化膜(HfO膜)で形成することができる。また、固定電荷膜55は、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。
 なお、図8には、画素分離部54が半導体基板50の表面から裏面にまで達する、いわゆるFTI(Full Trench Isolation)構造を有する場合が例示されているが、これに限定されず、例えば、画素分離部54が半導体基板50の裏面又は表面から半導体基板50の中腹付近まで形成された、いわゆるDTI(Deep Trench Isolation)構造など、種々の素子分離構造を採用することが可能である。
 (瞳補正)
 カラーフィルタ31の上面上には、シリコン酸化膜やシリコン窒化膜などによる平坦化膜52が設けられる。平坦化膜52の上面上は、例えば、CMP(Chemical Mechanical Polishing)により平坦化され、この平坦化された上面上には、単位画素110ごとのオンチップレンズ51が設けられる。各単位画素110のオンチップレンズ51は、入射光を光電変換部PD1及びPD2に集めるような曲率を備えている。なお、各単位画素110におけるオンチップレンズ51、カラーフィルタ31、IRフィルタ41、光電変換部PD2の位置関係は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい(瞳補正)。
 また、図8に示す構造において、斜めに入射した光が隣接画素へ漏れ込むことを防止するための遮光膜が設けられてもよい。遮光膜は、半導体基板50の内部に設けられた画素分離部54の上方(入射光の光路における上流側)に位置し得る。ただし、瞳補正をする場合、遮光膜の位置は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい。このような遮光膜は、例えば、封止膜32内や平坦化膜52内に設けられてよい。また、遮光膜の材料には、例えば、アルミニウム(Al)やタングステン(W)などの遮光材料が用いられてよい。
 1.7 各層の材料
 一実施形態において、光電変換膜34の材料に有機系半導体を用いる場合、光電変換膜34の層構造は、以下のような構造とすることが可能である。ただし、積層構造の場合、その積層順は適宜入れ替えることが可能である。
(1)p型有機半導体の単層構造
(2)n型有機半導体の単層構造
(3-1)p型有機半導体層/n型有機半導体層の積層構造
(3-2)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)/n型有機半導体層の積層構造
(3-3)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(3-4)n型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(4)p型有機半導体とp型有機半導体との混合層(バルクヘテロ構造)
 ここで、p型有機半導体としては、ナフタレン誘導体、アントラセン誘導体、フェナントレン誘導体、ピレン誘導体、ペリレン誘導体、テトラセン誘導体、ペンタセン誘導体、キナクリドン誘導体、チオフェン誘導体、チエノチオフェン誘導体、ベンゾチオフェン誘導体、ベンゾチエノベンゾチオフェン誘導体、トリアリルアミン誘導体、カルバゾール誘導体、ペリレン誘導体、ピセン誘導体、クリセン誘導体、フルオランテン誘導体、フタロシアニン誘導体、サブフタロシアニン誘導体、サブポルフィラジン誘導体、複素環化合物を配位子とする金属錯体、ポリチオフェン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を挙げることができる。
 n型有機半導体としては、フラーレン及びフラーレン誘導体〈例えば、C60や、C70,C74等のフラーレン(高次フラーレン、内包フラーレン等)又はフラーレン誘導体(例えば、フラーレンフッ化物やPCBMフラーレン化合物、フラーレン多量体等)〉、p型有機半導体よりもHOMO及びLUMOが大きい(深い)有機半導体、透明な無機金属酸化物を挙げることができる。
 n型有機半導体として、具体的には、窒素原子、酸素原子、硫黄原子を含有する複素環化合物、例えば、ピリジン誘導体、ピラジン誘導体、ピリミジン誘導体、トリアジン誘導体、キノリン誘導体、キノキサリン誘導体、イソキノリン誘導体、アクリジン誘導体、フェナジン誘導体、フェナントロリン誘導体、テトラゾール誘導体、ピラゾール誘導体、イミダゾール誘導体、チアゾール誘導体、オキサゾール誘導体、イミダゾール誘導体、ベンズイミダゾール誘導体、ベンゾトリアゾール誘導体、ベンズオキサゾール誘導体、ベンズオキサゾール誘導体、カルバゾール誘導体、ベンゾフラン誘導体、ジベンゾフラン誘導体、サブポルフィラジン誘導体、ポリフェニレンビニレン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を分子骨格の一部に有する有機分子、有機金属錯体やサブフタロシアニン誘導体を挙げることができる。
 フラーレン誘導体に含まれる基等として、ハロゲン原子;直鎖、分岐若しくは環状のアルキル基若しくはフェニル基;直鎖若しくは縮環した芳香族化合物を有する基;ハロゲン化物を有する基;パーシャルフルオロアルキル基;パーフルオロアルキル基;シリルアルキル基;シリルアルコキシ基;アリールシリル基;アリールスルファニル基;アルキルスルファニル基;アリールスルホニル基;アルキルスルホニル基;アリールスルフィド基;アルキルスルフィド基;アミノ基;アルキルアミノ基;アリールアミノ基;ヒドロキシ基;アルコキシ基;アシルアミノ基;アシルオキシ基;カルボニル基;カルボキシ基;カルボキソアミド基;カルボアルコキシ基;アシル基;スルホニル基;シアノ基;ニトロ基;カルコゲン化物を有する基;ホスフィン基;ホスホン基;これらの誘導体を挙げることができる。
 以上のような有機系材料から構成された光電変換膜34の膜厚としては、次の値に限定されるものではないが、例えば、1×10-8m(メートル)乃至5×10-7m、好ましくは、2.5×10-8m乃至3×10-7m、より好ましくは、2.5×10-8m乃至2×10-7m、一層好ましくは、1×10-7m乃至1.8×10-7mを例示することができる。尚、有機半導体は、p型、n型と分類されることが多いが、p型とは正孔を輸送し易いという意味であり、n型とは電子を輸送し易いという意味であり、無機半導体のように熱励起の多数キャリアとして正孔又は電子を有しているという解釈に限定されるものではない。
 緑色の波長の光を光電変換する光電変換膜34を構成する材料としては、例えば、ローダミン系色素、メラシアニン系色素、キナクリドン誘導体、サブフタロシアニン系色素(サブフタロシアニン誘導体)等を挙げることができる。
 また、青色の光を光電変換する光電変換膜34を構成する材料としては、例えば、クマリン酸色素、トリス-8-ヒドリキシキノリアルミニウム(Alq3)、メラシアニン系色素等を挙げることができる。
 さらに、赤色の光を光電変換する光電変換膜34を構成する材料としては、例えば、フタロシアニン系色素、サブフタロシアニン系色素(サブフタロシアニン誘導体)を挙げることができる。
 さらにまた、光電変換膜34としては、紫外域から赤色域にかけて略全ての可視光に対して感光するパンクロマチックな感光性有機光電変換膜を用いることも可能である。
 一方、半導体層35を構成する材料には、バンドギャップの値が大きく(例えば、3.0eV(エレクトロンボルト)以上のバンドギャップの値)、しかも、光電変換膜34を構成する材料よりも高い移動度を有する材料が用いられることが好ましい。具体的には、IGZO等の酸化物半導体材料、遷移金属ダイカルコゲナイド、シリコンカーバイド、ダイヤモンド、グラフェン、カーボンナノチューブ、縮合多環炭化水素化合物や縮合複素環化合物等の有機半導体材料等を挙げることができる。
 或いは、光電変換膜34で発生する電荷が電子である場合、半導体層35を構成する材料には、光電変換膜34を構成する材料のイオン化ポテンシャルよりも大きなイオン化ポテンシャルを有する材料を用いることができる。一方、電荷が正孔である場合、半導体層35を構成する材料には、光電変換膜34を構成する材料の電子親和力よりも小さな電子親和力を有する材料を用いることができる。
 なお、半導体層35を構成する材料における不純物濃度は、1×1018cm-3以下であることが好ましい。また、光電変換性能と移動度性能とを満たすことが可能であれば、光電変換膜34と半導体層35とを同じ材料で構成することも可能である。
 さらに、透明電極33、読出し電極36、半導体層35及び蓄積電極37それぞれの材料には、透明材料が用いられることが望ましい。具体的には、Al-Nd(アルミニウム及びネオジウムの合金)又はASC(アルミニウム、サマリウム及び銅の合金)から成る材料を用いることができる。
 また、透明導電材料のバンドギャップエネルギーは、2.5eV以上、好ましくは、3.1eV以上であることが望ましい。
 一方、透明電極33、読出し電極36及び蓄積電極37を透明電極とする場合には、それらを構成する透明導電材料としては、導電性のある金属酸化物を挙げることができる。
 具体的には、酸化インジウム、インジウム-錫酸化物(ITO(Indium Tin Oxide)、SnドープのIn、結晶性ITO及びアモルファスITOを含む)、酸化亜鉛にドーパントとしてインジウムを添加したインジウム-亜鉛酸化物(IZO(Indium Zinc Oxide))、酸化ガリウムにドーパントとしてインジウムを添加したインジウム-ガリウム酸化物(IGO)、酸化亜鉛にドーパントとしてインジウムとガリウムを添加したインジウム-ガリウム-亜鉛酸化物(IGZO(In-GaZnO))、酸化亜鉛にドーパントとしてインジウムと錫を添加したインジウム-錫-亜鉛酸化物(ITZO)、IFO(FドープのIn)、酸化錫(SnO)、ATO(SbドープのSnO)、FTO(FドープのSnO)、酸化亜鉛(他元素をドープしたZnOを含む)、酸化亜鉛にドーパントとしてアルミニウムを添加したアルミニウム-亜鉛酸化物(AZO)、酸化亜鉛にドーパントとしてガリウムを添加したガリウム-亜鉛酸化物(GZO)、酸化チタン(TiO)、酸化チタンにドーパントとしてニオブを添加したニオブ-チタン酸化物(TNO)、酸化アンチモン、スピネル型酸化物、YbFe構造を有する酸化物を例示することができる。
 或いは、ガリウム酸化物、チタン酸化物、ニオブ酸化物、ニッケル酸化物等を母層とする透明電極を挙げることもできる。
 さらに、透明電極の厚さとしては、2×10-8m乃至2×10-7m、好ましくは、3×10-8m乃至1×10-7mを挙げることができる。
 1.8 単位画素の変形例
 上述では、1つの単位画素が1つのRGB画素10と1つのIR画素20とを備える場合を例示したが、このような構成に限定されない。すなわち、各単位画素110は、N個(Nは1以上の整数)のRGB画素10とM個(Mは1以上の整数)のIR画素20とを備えていてもよい。その際、N個のRGB画素10は、画素回路の一部を共有してもよく、同様に、M個のIR画素20は、画素回路の一部を共有してもよい。
 1.8.1 単位画素の構成例
 図9は、本実施形態の変形例に係る単位画素の概略構成例を示す模式図である。図9に示すように、単位画素110Aは、2行2列に配列した4つのRGB画素10に対して1つのIR画素20が、光の入射方向に配置された構造を備える。すなわち、本変形例では、4つのRGB画素10に対して1つのIR画素20が、単位画素110Aの配列方向(平面方向)に対して垂直方向に位置されており、入射光の光路における上流側に位置する4つのRGB画素10を透過した光が、これら4つのRGB画素10の下流側に位置する1つのIR画素20に入射するように構成されている。したがって、本変形例では、4つのRGB画素10で構成されたベイヤー配列の単位配列とIR画素20との入射光の光軸が一致又は略一致している。
 1.8.2 単位画素の回路構成例
 図10は、本実施形態の変形例に係る単位画素の概略構成例を示す回路図である。図10に示すように、単位画素110Aは、複数のRGB画素10-1~10-N(図10では、Nは4)と、1つのIR画素20とを備える。このように、1つの単位画素110Aが複数のRGB画素10を備える場合、複数のRGB画素10で1つの画素回路(リセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14)を共有することが可能である(画素共有)。そこで、本変形例では、複数のRGB画素10-1~10-Nが、リセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14よりなる画素回路を共有する。すなわち、本変形例では、共通の浮遊拡散領域FD1に複数の光電変換部PD1及び転送ゲート11が接続されている。
 1.8.3 単位画素の断面構造例
 図11は、本実施形態の変形例に係るイメージセンサの断面構造例を示す断面図である。なお、本説明では、図8と同様に、各単位画素110Aが2行2列に配列した4つのRGB画素10と、1つのIR画素20とから構成されている場合を例に挙げる。また、以下の説明では、図8と同様に、単位画素110Aにおける光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。さらに、以下の説明において、図8を用いて説明したイメージセンサ100の断面構造と同様の構造については、それらを引用することで、重複する説明を省略する。
 図11に示すように、本変形例では、図8に例示した断面構造と同様の断面構造において、オンチップレンズ51と、カラーフィルタ31と、蓄積電極37とが、2行2列の4つ(ただし、図11では4つのうちの2つが示されている)に分割され、それにより、4つのRGB画素10が構成されている。なお、各単位画素210における4つのRGB画素10は、ベイヤー配列の基本配列を構成してよい。
 1.9 量子効率の向上
 つづいて、上記のような基本構成を備える単位画素110(又は単位画素110A。以下同じ)において、量子効率を高める構成について、いくつか例を挙げて説明する。なお、以下では、明確化のため、光電変換部が有機光電変換膜で構成された画素(本例では、RGB画素10)に着目し、光電変換部が半導体で構成された画素(本例では、IR画素20)の図示及びその説明を省略する。また、説明の簡略化のため、RGB画素10の断面構造において、カラーフィルタ31より上層の構成、並びに、読出し電極36より下層の構成については、図示並びにその説明を省略する。さらに、以下の説明では、RGB画素10を単に画素10とも称する。さらにまた、以下の説明において、浮遊拡散領域FD1に電気的に接続する読出し電極36を浮遊拡散領域FD1の一部として説明する。さらにまた、以下の説明では、光電変換膜34が光電変換により発生する電荷が負の電荷(すなわち、電子)である場合を例示する。ただし、光電変換膜34が光電変換により発生する電荷は、正の電荷(すなわち、正孔)であってもよい。さらにまた、各例で説明した構造及び効果は、特に言及されていない場合、他の例に対しても同様であってよい。
 1.9.1 第1例
 図12は、本実施形態の第1例に係る画素の断面構造を示す垂直断面図である。図13は、図12におけるA-A断面を示す水平断面図である。なお、ここでの垂直とは、半導体基板50の素子形成面に対して垂直であることを意味し、水平とは、素子形成面に対して水平であることを意味する。
 図12及び図13に示すように、第1例に係る画素10では、光電変換膜34の直下に位置する半導体層35の一部が、光電変換膜34とは反対側に突出して読出し電極36に接続される。以下の説明では、この突出した部分を半導体配線60という。
 半導体配線60における半導体層35側には、中央が開口された蓄積電極37が半導体配線60を囲むように配置される。蓄積電極37と半導体配線60との間は、絶縁層53が介在することで、電気的に分離される。
 また、半導体配線60における読出し電極36側には、転送ゲート11が配置される。転送ゲート11のゲート電極は、蓄積電極37と同様に、中央が開口された形状を有し、半導体配線60を囲むように配置される。転送ゲート11のゲート電極と半導体配線60との間は、絶縁層53が介在することで、電気的に分離されている。なお、以下の説明では、簡略化のため、転送ゲート11のゲート電極を単に転送ゲート11と称する場合がある。
 なお、単位画素110が図11に例示したような画素回路の一部を共有する画素共有の構成を備える場合、半導体配線60に対して配置される蓄積電極37及び転送ゲート11は、画素10ごとに分割されていてもよい。
 このような構造において、例えば、光電変換部PD1において発生する電荷が電子である場合、露光期間中、蓄積電極37には、この蓄積電極37近傍の半導体層35における電位を下げる駆動信号(制御電圧ともいう)が垂直駆動回路102から印加される。一方、例えば、光電変換部PD1において発生する電荷が正孔である場合、露光期間中、蓄積電極37には、この蓄積電極37近傍の半導体層35における電位を上げる駆動信号が垂直駆動回路102から印加される。したがって、光電変換膜34で発生して半導体層35に進入した電荷58は、半導体層35における蓄積電極37近傍の領域に溜まる。その際、転送ゲート11をオフ状態として、電荷が蓄積された領域と転送ゲート11との間の半導体配線60に電位障壁を形成しておくことで、蓄積された電荷が読出し電極36側へ漏れ出ることを抑制することができる。それにより、量子効率を向上させることが可能となる。なお、以下の説明では、光電変換部PD1及びPD2が光電変換により発生させる電荷が電子である場合を例示するが、これに限定されず、正孔である場合にも、電位制御の方向を反転させることで、本開示に係る技術を同様に適用することが可能である。
 また、第1例では、各画素10の蓄積電極(ASE)37の周囲を囲むように、シールド電極(SLD)57が配置される。シールド電極57は、画素駆動線LDの1つである不図示の配線を介して垂直駆動回路102に接続される。垂直駆動回路102は、各画素10を個別に駆動する場合、シールド電極57に駆動信号を印加することで、隣接する画素10の間に位置する半導体層35に電位障壁を形成する。それにより、ある画素10の光電変換膜34で発生して半導体層35に進入した電荷が隣接の画素10へ流出することが抑制されるため、画素10の量子効率をより向上させることが可能となる。
 なお、図13では、半導体配線60の水平断面並びに蓄積電極37及び転送ゲート11の開口形状が円形である場合を例示したが、例えば、図14や図15に示すように、四角形や正八角形などの多角形や楕円等の様々な形状に変更されてよい。これは、後述する他の例についても同様である。
 1.9.2 第2例
 図16は、本実施形態の第2例に係る画素の断面構造を示す垂直断面図である。図16に示すように、第2例に係る画素10は、上述において図12を用いて説明した第1例に係る画素10と同様の断面構造において、転送ゲート11が蓄積電極37の内側に配置された構造を備える。すなわち、第2例では、蓄積電極37の開口が拡径され、蓄積電極37と同一平面に転送ゲート11が配置されている。
 このような構造によれば、半導体配線60の長さを短くすることが可能となるため、イメージセンサ100の低背化、強いては小型化が可能となる。
 1.9.3 第3例
 図17は、本実施形態の第3例に係る画素の断面構造を示す垂直断面図である。図17に示すように、第3例に係る画素10は、上述において図12を用いて説明した第1例に係る画素10と同様の断面構造において、半導体配線60が、読出し電極36に近づくにつれて細くなるテーパー形状を有する。
 このような構造によれば、半導体層35側の半導体配線60の径が広くなるため、半導体層35に蓄積された電荷の読出し電極36側への転送をスムーズに行うことが可能となる。
 また、読出し電極36側の半導体配線60の径が狭くなるため、読出し電極36との接触面積が小さくなり、それにより、読出し電極36の縮小が可能となる。その結果、読出し電極36よりも下層へ伝搬する光の量を増加させることが可能となるため、例えば、画素10の下層にIR画素20の光電変換部PD2を配した場合のIR画素20の量子効率をより高めることが可能となる。
 1.9.4 第4例
 図18は、本実施形態の第4例に係る画素の断面構造を示す垂直断面図である。図18に示すように、第4例に係る画素10は、上述において図12を用いて説明した第1例に係る画素10と同様の断面構造において、隣接する画素10間で読出し電極36(及び浮遊拡散領域FD)が共有された構造を備える。
 このように、読出し電極36及び浮遊拡散領域FDが共有化され、転送ゲート11を用いて各画素10から浮遊拡散領域FDへの電荷の転送が制御可能な構造によれば、画素10ごとの読出しと、複数の画素10からの同時読出しとを切り替えることが可能となる。
 1.9.5 第5例
 図19は、本実施形態の第5例に係る画素の断面構造を示す垂直断面図である。図20は、図19におけるB-B断面を示す水平断面図である。なお、図19では、説明の都合上、カラーフィルタ31より上層の構成が示されている。
 図19及び図20に示すように、第5例に係る画素10は、上述において図12を用いて説明した第1例に係る画素10と同様の断面構造において、複数(本例では2つ)の画素10に対して1つのオンチップレンズ51が設けられた構造を備える。
 このような構造によれば、1つのオンチップレンズ51を共有する画素10間で像面位相差情報を取得することが可能となるため、イメージセンサ100を制御するシステム制御部1050において像面位相差情報に基づいたオートフォーカスなどの制御を実行することが可能となる。
 1.9.6 第6例
 第6例では、図7に例示したグローバルシャッタ方式の読出し駆動が可能な画素10について説明する。図21は、本実施形態の第6例に係る画素の断面構造を示す垂直断面図である。図21に示すように、第6例に係る画素10は、上述において図12を用いて説明した第1例に係る画素10と同様の断面構造において、転送ゲート11と読出し電極36との間に、メモリMEMを構成するメモリ電極16と転送トランジスタ15とが順に配置された構造を備える。
 転送トランジスタ15は、半導体配線60における最も読出し電極36に近い側に配置される。転送トランジスタ15のゲート電極は、蓄積電極37と同様に、中央が開口された形状を有し、半導体配線60を囲むように配置される。転送トランジスタ15のゲート電極と半導体配線60との間は、絶縁層53が介在することで、電気的に分離されている。なお、以下の説明では、簡略化のため、転送トランジスタ15のゲート電極を単に転送トランジスタ15と称する場合がある。
 メモリ電極16は、転送ゲート11と転送トランジスタ15との間に配置される。また、メモリ電極16は、蓄積電極37と同様に、中央が開口された形状を有し、半導体配線60を囲むように配置される。
 このような構造によれば、半導体層35から転送ゲート11を介して転送された電荷を、半導体配線60におけるメモリ電極16近傍の領域に一時保持することが可能となる。それにより、グローバルシャッタ方式の読出し駆動が可能となる。
 1.9.7 第7例
 第7例では、第6例で説明したグローバルシャッタ方式の読出し駆動が可能な画素10における配線例について説明する。図22は、本実施形態の第7例に係る画素の断面構造を示す垂直断面図である。図23は、図22におけるC-C断面を示す水平断面図である。
 グローバルシャッタ方式の読出し駆動の場合、全ての画素10における転送ゲート11が同時に駆動される。そのため、図22及び図23に示すように、画素アレイ部101における全ての画素10の転送ゲート11は、配線71により結合されていてもよい。同様に、画素アレイ部101における全ての画素10のメモリ電極16も、配線72により結合されていてもよい。なお、画素アレイ部101における全ての画素10の蓄積電極37も、配線73を介して相互に結合されていてもよい。
 1.9.8 第8例
 第8例では、グローバルシャッタ方式の読出し駆動が可能な画素10の他の断面構造例について説明する。図24は、本実施形態の第8例に係る画素の断面構造を示す垂直断面図である。
 図24に示すように、第8例に係る画素10は、上述において図21を用いて説明した第6例に係る画素10と同様の断面構造において、半導体層35が第1半導体層35Aと第2半導体層35Bとの2層に分かれた構造を有する。第1半導体層35Aと第2半導体層35Bとの間には、絶縁層53が介在する。半導体配線60は、第1半導体層35Aから第2半導体層35Bを貫通して読出し電極36まで達している。
 蓄積電極37、転送ゲート11及びシールド電極57は、第6例と同様に、第1半導体層35Aと第2半導体層35Bとの間の絶縁層53に配置される。一方、メモリ電極16及び転送トランジスタ15は、第2半導体層35Bと読出し電極36との間の絶縁層53に配置される。より具体的には、メモリ電極16は、第2半導体層35Bと読出し電極36との間の半導体配線60における第2半導体層35B側に配置され、転送トランジスタ15のゲート電極は、第2半導体層35Bと読出し電極36との間の半導体配線60における読出し電極36側に配置される。
 また、第8例では、第2半導体層35Bにおけるメモリ電極16の近傍の領域に保持された電荷が隣接する画素10へ流出することを抑制するために、隣接する画素10のメモリ電極16間に、シールド電極57と同様のシールド電極57Bが設けられる。シールド電極57Bは、画素駆動線LDの1つである不図示の配線を介して垂直駆動回路102に接続される。垂直駆動回路102は、各画素10を個別に駆動する場合、シールド電極57に駆動信号を印加することで、隣接する画素10の間に位置する第2半導体層35Bに電位障壁を形成する。それにより、ある画素10のメモリMEMに保持された電荷が隣接の画素10のメモリMEMへ流出することが抑制されるため、画素10の量子効率をより向上させることが可能となる。
 1.9.9 第9例
 第9例では、グローバルシャッタ方式の駆動例を説明する。なお、本例では、第6例において図21を用いて説明した画素10の駆動例を説明するが、これに限定されず、グローバルシャッタ方式の駆動(以下、グローバルシャッタ駆動という)が可能な他の例に対しても同様に適用することが可能である。
 図25は、本実施形態の第9例に係る画素の断面構造を示す垂直断面図である。図25に示すように、第9例に係るグローバルシャッタ駆動では、隣接する2つの画素10a及び10bのうち、一方の画素10が露光動作を実行している期間、他方の画素10では露光動作が実行されない。なお、2つの画素10a及び10bは、それぞれ上述した画素10と同様の構成であってよい。
 具体的には、例えば、画素10bが露光動作を実行中、この画素10bの蓄積電極37がオン状態とされ、画素10aの蓄積電極37がオフ状態とされる。また、これら2つの画素10a及び10bの間に位置するシールド電極57は、オフ状態とされる。さらに、画素10aの転送ゲート11及び転送トランジスタ15、並びに、画素10bの転送ゲート11、メモリ電極16及び転送トランジスタ15はオフ状態とされ、画素10aのメモリ電極16はオン状態とされる。なお、蓄積電極37、シールド電極57及びメモリ電極16がオン状態とは、垂直駆動回路102から各電極に駆動信号が供給されている状態をいい、オフ状態とは、垂直駆動回路102から駆動信号が供給されていない状態をいう。
 このような状態では、画素10a及び10bそれぞれの光電変換部PD1に相当する光電変換膜34に発生した電荷58が画素10bの蓄積電極37に引き寄せられ、それにより、光電変換膜34に発生した電荷58が画素10bにおける蓄積電極37近傍の半導体層35に溜まる。なお、画素10bにおける蓄積電極37近傍の半導体層35から溢れ出した電荷58の流出先は、画素10bの読出し電極36に接続された浮遊拡散領域FDであってよい。
 一方、画素10aでは、前フレームで蓄積電極37近傍の半導体層35に蓄積された電荷59がメモリMEMに保持されている。メモリMEMに蓄積されている電荷59は、画素10bに対する露光中に並行して実行される画素10aに対する読出し動作により、順次読み出され、画素信号の生成に使用される。
 以上のような動作を実行することで、半導体層35内の蓄積電極37による蓄積領域から溢れ出した電荷がメモリMEMに流入することによる寄生受光感度の低下を抑制することが可能となる。
 1.9.10 第10例
 第10例は、第9例で例示したグローバルシャッタ駆動を実現するための画素10の変形例について説明する。図26は、本実施形態の第10例に係る画素の断面構造を示す垂直断面図である。上述した第9例では、グローバルシャッタ駆動を実行中、ペアを形成する2つの画素10a及び10bの間に位置するシールド電極57がオフ状態とされた。それに対し、第10例では、図26に例示するように、ペアを形成する2つの画素10a及び10bの間のシールド電極57が省略されている。それにより、シールド電極57を駆動するための構成を省略できるため、シールド電極57及びシールド電極57を駆動するための画素駆動線LDの省略による小型化や、グローバルシャッタ駆動時の消費電力の低減などの効果が得られる。
 1.9.11 第11例
 第11例は、第9例で例示したグローバルシャッタ駆動を実現するための画素10の他の変形例について説明する。図27は、本実施形態の第11例に係る画素の断面構造を示す垂直断面図である。図27に示すように、第11例では、ペアを形成する2つの画素10a及び10bの読出し電極36及び浮遊拡散領域FDが共通化される。このように、ペアを形成する2つの画素10a及び10bで読出し電極36及び浮遊拡散領域FDが共有する場合でも、第9例で説明した駆動により、グローバルシャッタ駆動を実現することができる。
 1.9.12 第12例
 図28は、本実施形態の第12例に係る画素の断面構造例を示す垂直断面図である。図28に示すように、上述した及び後述する各例における半導体層35(第8例で説明した第1半導体層35A及び第2半導体層35Bを含む)は、第1層35aと第2層35bとの2層で構成されていてもよい。第2層35bは、例えば、半導体層35における絶縁層53と接触する面に設けられる。
 第2層35bは、絶縁層53と第1層35aとの間に形成される界面トラップ準位を低減する目的で設けられた膜であってよい。また、第1層35a及び第2層35bそれぞれを構成する材料には、例えば、上述した半導体層35と同様の材料が用いられてよい。ただし、第1層35aと第2層35bとは、例えば、組成等の相違により異なる性質を備えていてもよい。
 このように、絶縁層53と第1層35aとの間に、界面トラップ準位を低減するための第2層35bを設けることで、絶縁層53と第1層35aとの間に形成される界面トラップ準位が低減されるため、フレーム間で発生する残像を低減することが可能となる。
 1.9.13 第13例
 第13例では、上述した又は後述する各例におけるカラーフィルタ31の位置について、いくつか例を挙げる。上述した又は後述する各例において、カラーフィルタ31は、図29に例示するように、光電変換膜34よりも光の入射面側(オンチップレンズ51側)に配置されてもよいし、図30に例示するように、光電変換膜34よりも光の入射面と反対側(不図示の回路チップ122側)に配置されてもよい。カラーフィルタ31を光電変換膜34よりも光の入射面と反対側に配置する場合には、図30に例示するように、カラーフィルタ31は、例えば、絶縁層53内に配置されてもよい。
 1.9.14 第14例
 上述した各例では、画素10間での電荷の漏れ出し(ブルーミング)を防止するために、画素10間にシールド電極57(及びシールド電極57B)が配置された構成を例示した。これに対し、第14例では、シールド電極57(及びシールド電極57B)の代わりに、画素10間に電荷と同じ極性を持つ固定電荷膜を配置することで、画素10間での電荷の漏れ出し(ブルーミング)を防止する構成について説明する。なお、以下では、第1例で説明した画素10をベースとした場合を説明するが、ベースとなる画素10は第1例に係る画素10に限定されず、他の例に係る画素10であってもよい。固定電荷膜の材料としては、固定電荷膜55と同様に、ハフニウム酸化膜(HfO膜)や、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。
 図31は、本実施形態の第14例に係る画素の断面構造を示す垂直断面図である。図32は、図31におけるD-D断面を示す水平断面図である。図31及び図32に示すように、第14例に係る画素10では、隣接する画素10間にシールド電荷膜67が配置されている。シールド電荷膜67は、光電変換膜34で発生する電荷と同じ極性を持つ固定電荷膜で構成されていてよい。第14例では、シールド電荷膜67は、蓄積電極37が配置された面と同じ面に配置される。なお、シールド電荷膜67は、蓄積電極37の側面に接触してもよいし、蓄積電極37の側面から離間してもよい。
 このような構造によっても、ある画素10の光電変換膜34で発生して半導体層35に進入した電荷が隣接の画素10へ流出することが抑制されるため、画素10の量子効率をより向上させることが可能となる。
 また、本例によれば、シールド電極57を駆動するための構成を省略できるため、シールド電極57及びシールド電極57を駆動するための画素駆動線LDの省略による小型化が可能となる。さらに、第14例では、蓄積電極37をシールド電荷膜67から離間する必要がないため、蓄積電極37を拡大することが可能となる。それにより、蓄積電極37近傍の半導体層35により効率的に電荷を集めることが可能となるため、量子効率のさらなる向上が期待できる。
 以下の例では、シールド電荷膜67の位置の変形例について説明する。
 1.9.15 第15例
 図33は、本実施形態の第15例に係る画素の断面構造を示す垂直断面図である。図33に示すように、シールド電荷膜67は、隣接する画素10間の境界部分であって、絶縁層53における蓄積電極37の上面が配置された面と半導体層35(半導体配線60以外)の下面との間に配置されてもよい。その際、シールド電荷膜67における開口周辺の領域は、垂直方向において蓄積電極37の外周部分と重畳してもよい。
 1.9.16 第16例
 図34は、本実施形態の第16例に係る画素の断面構造を示す垂直断面図である。図34に示すように、シールド電荷膜67は、隣接する画素10間の境界部分であって、半導体層35の下層部分、すなわち半導体層35における絶縁層53と接する領域に配置されてもよい。その際、シールド電荷膜67における開口周辺の領域は、垂直方向において蓄積電極37の外周部分と重畳してもよい。
 1.9.17 第17例
 図35は、本実施形態の第17例に係る画素の断面構造を示す垂直断面図である。図35に示すように、シールド電荷膜67は、隣接する画素10間の境界部分に、この部分の半導体層35を置き換えるようにして配置されてもよい。その際、シールド電荷膜67における開口周辺の領域は、垂直方向において蓄積電極37の外周部分と重畳してもよい。
 1.9.18 第18例
 図36は、本実施形態の第18例に係る画素の断面構造を示す垂直断面図である。図36に示すように、シールド電荷膜67は、隣接する画素10間の境界部分であって、光電変換膜34の下層部分、すなわち光電変換膜34における半導体層35と接する領域に配置されてもよい。その際、シールド電荷膜67における開口周辺の領域は、垂直方向において蓄積電極37の外周部分と重畳してもよい。
 1.9.19 第19例
 図37は、本実施形態の第19例に係る画素の断面構造を示す垂直断面図である。図37に示すように、シールド電荷膜67は、隣接する画素10間の境界部分に、この部分の光電変換膜34を置き換えるようにして配置されてもよい。その際、シールド電荷膜67における開口周辺の領域は、垂直方向において蓄積電極37の外周部分と重畳してもよい。
 1.9.20 第20例
 図38及び図39は、本実施形態の第20例に係る画素の断面構造を示す垂直断面図である。図38及び図39に示すように、シールド電荷膜67は、隣接する画素10間の境界部分であって、絶縁層53における蓄積電極37の下面よりも下側(読出し電極36側)に配置されてもよい。その際、シールド電荷膜67における開口周辺の領域は、垂直方向において蓄積電極37の外周部分と重畳してもよい。また、シールド電荷膜67における開口周辺の領域と蓄積電極37の外周部分とは、図38に示すように、接触してもよいし、図39に示すように、垂直方向に離間してもよい。
 1.10 画素駆動例
 続いて、上述した画素10の駆動方法について、いくつか例を挙げて説明する。
 1.10.1 第1駆動例
 まず、グローバルシャッタ駆動のためのメモリMEMを有しない画素10の駆動例について説明する。本説明では、上述において図12を用いて説明した第1例に係る画素10の駆動方法を例示するが、第1例に限定されず、他の例に係る画素10に対しても、同様の駆動方法を適用することが可能である。
 図40は、第1駆動例を説明するにあたって引用する画素の断面構造例を示す垂直断面図である。図40に例示する画素10の断面構造は、上述において図12を用いて説明した第1例に係る画素10の断面構造と同様であってよい。また、図41~図43は、図40におけるE-E面に沿った駆動ステップごとのポテンシャルを示すバンド図である。なお、図41~図43において、縦軸はポテンシャルを示し、横軸はE-E面に沿った位置を示す。また、図41~図43及び後述する駆動例では、転送ゲート11によって電位が制御される半導体配線60の領域(ゲート領域ともいう)を‘TG’と示し、蓄積電極37によって電位が制御される半導体層35の領域(蓄積領域ともいう)を‘ASE’と示し、シールド電極57によって電位が制御される半導体層35の領域(シールド領域ともいう)を‘SLD’と示す。
 図40に示す構造において、画素10の露光期間中(露光ステップ)、図41に示すように、転送ゲート11はオフ状態(OFF)とされ、蓄積電極37はオン状態(ON)とされる。それにより、蓄積領域ASEの電位が下げられるとともに、ゲート領域TGに高い電位障壁が形成される。その結果、光電変換膜34で発生して半導体層35に進入した電荷58が蓄積領域ASEに溜まる。その際、シールド電極57をオフ状態としておくことで、シールド領域SLDを介した隣接画素への電荷58の漏れ出しを抑制することができる。なお、シールド電極57がオフ状態である際のシールド領域SLDの電位は、転送ゲート11がオフ状態である際のゲート領域TGの電位よりも高いことが望ましい。
 次に、露光ステップで蓄積領域ASEに蓄積された電荷58を浮遊拡散領域FDへ転送する期間中(転送ステップ)、図42に示すように、蓄積電極37がオフ状態とされる。蓄積電極37がオフ状態である際の蓄積領域ASEの電位は、転送ゲート11がオフ状態である際のゲート領域TGの電位よりも高く、シールド電極57がオフ状態である際のシールド領域SLDの電位よりも低い電位に設定されてよい。それにより、蓄積領域ASEに蓄積された電荷58を、ゲート領域TGを介して浮遊拡散領域FDへ流出させることが可能となる。なお、この駆動例では、転送ゲート11がオフ状態を維持するため、電荷転送時の制御を容易化することができる。
 その他、図43に示すように、転送ステップでは、転送ゲート11がオン状態とされてもよい。それにより、蓄積領域ASEから浮遊拡散領域FDへよりスムーズに電荷58を転送することが可能となる。また、蓄積電極37がオフ状態である際の蓄積領域ASEの電位を低くすることや、蓄積電極37をオン状態とする際の蓄積領域ASEの電位の変化量を小さくすることも可能となる。
 1.10.2 第2駆動例
 次に、グローバルシャッタ駆動が可能な画素10の駆動例について説明する。本説明では、上述において図21を用いて説明した第6例に係る画素10の駆動方法を例示するが、第6例に限定されず、メモリMEMを備える他の例に係る画素10に対しても、同様の駆動方法を適用することが可能である。
 図44は、第2駆動例を説明するにあたって引用する画素の断面構造例を示す垂直断面図である。図44に例示する画素10の断面構造は、上述において図21を用いて説明した第6例に係る画素10の断面構造と同様であってよい。また、図45~図48は、図44におけるF-F面に沿った駆動ステップごとのポテンシャルを示すバンド図である。なお、図45~図48において、縦軸はポテンシャルを示し、横軸はF-F面に沿った位置を示す。また、図44~図48及び後述する駆動例では、メモリ電極16によって電位が制御される半導体配線60の領域(メモリMEMに相当。メモリ領域ともいう)を‘MEM’と示し、転送トランジスタ15によって電位が制御される半導体配線60の領域(ゲート領域ともいう)を‘TX’と示す。
 図44に示す構造において、画素10の露光期間中(露光ステップ)、図45に示すように、転送ゲート11及び転送トランジスタ15はオフ状態(OFF)とされ、蓄積電極37及びメモリMEMはオン状態(ON)とされる。それにより、蓄積領域ASE及びメモリ領域MEMの電位が下げられるとともに、ゲート領域TG及びTXに高い電位障壁が形成される。その結果、光電変換膜34で発生して半導体層35に進入した電荷58が蓄積領域ASEに溜まる。その際、シールド電極57をオフ状態としておくことで、シールド領域SLDを介した隣接画素への電荷58の漏れ出しを抑制することができる。なお、シールド電極57がオフ状態である際のシールド領域SLDの電位は、転送トランジスタ15がオフ状態である際のゲート領域TXの電位よりも高いことが望ましい。
 次に、露光ステップで蓄積領域ASEに蓄積された電荷58をメモリMEMへ転送する期間中(転送ステップ)、図46に示すように、蓄積電極37がオフ状態とされる。蓄積電極37がオフ状態である際の蓄積領域ASEの電位は、転送トランジスタ15がオフ状態である際のゲート領域TXの電位よりも高く、シールド電極57がオフ状態である際のシールド領域SLDの電位よりも低い電位に設定されてよい。それにより、蓄積領域ASEに蓄積された電荷58を、ゲート領域TXを介してメモリMEMへ流出させることが可能となる。
 次に、図47に示すように、蓄積電極37を再びオン状態とすることで、光電変換膜34で発生して半導体層35に進入した電荷59を蓄積領域ASEに蓄える。
 次に、図48に示すように、蓄積電極37のオン状態を維持しつつ、メモリMEMをオフ状態とする。それにより、露光動作を継続しつつ、メモリMEMに保持された電荷59を浮遊拡散領域FDへ転送することが可能となる。
 1.10.3 第3駆動例
 続いて、第2駆動例の変形例を、第3駆動例として以下に説明する。本説明では、第2駆動例と同様に、第6例に係る画素10の駆動方法を例示するが、第6例に限定されず、メモリMEMを備える他の例に係る画素10に対しても、同様の駆動方法を適用することが可能である。また、第3駆動例を説明するにあたって引用される画素10の断面構造例は、図44に例示した画素10の断面構造と同様であってよい。
 第3駆動例において、光電変換膜34で発生した電荷を蓄積領域ASEに蓄える露光ステップは、第2駆動例において図45を用いて説明した動作と同様であってよい。
 次に、露光ステップで蓄積領域ASEに蓄積された電荷58をメモリMEMへ転送する転送ステップでは、図49に示すように、蓄積電極37がオフ状態とされるとともに、転送ゲート11がオン状態とされる。それにより、蓄積領域ASEからメモリMEMへよりスムーズに電荷58を転送することが可能となる。また、蓄積電極37がオフ状態である際の蓄積領域ASEの電位を低くすることや、蓄積電極37をオン状態とする際の蓄積領域ASEの電位の変化量を小さくすることも可能となる。
 次に、第2駆動例において図47を用いて説明した駆動と同様に、蓄積電極37を再びオン状態とすることで、光電変換膜34で発生して半導体層35に進入した電荷58を蓄積領域ASEに蓄える。なお、本駆動では、転送ゲート11がオン状態からオフ状態に切り替えられる。
 次に、図50に示すように、蓄積電極37のオン状態を維持しつつ、メモリMEMをオフ状態とするとともに、転送トランジスタ15をオン状態とする。それにより、露光動作を継続しつつ、メモリMEMに保持された電荷59を浮遊拡散領域FDへ転送することが可能となる。また、メモリMEMから浮遊拡散領域FDへよりスムーズに電荷59を転送することが可能となる。さらに、メモリMEMがオフ状態である際のメモリ領域MEMの電位を低くすることや、メモリMEMをオン状態とする際のメモリ領域MEMの電位の変化量を小さくすることも可能となる。
 1.11 まとめ
 以上のように、本実施形態によれば、蓄積電極37と読出し電極36との間の電位障壁が転送ゲート11を用いて制御される。それにより、蓄積電極37近傍の半導体層35に蓄積された電荷が読出し電極36側へ漏れ出ることを抑制することが可能となるため、量子効率を向上させることが可能となる。また、隣接する画素10間の電位障壁がシールド電極57又はシールド電荷膜67を用いて制御される。それにより、ある画素10の光電変換膜34で発生して半導体層35に進入した電荷が隣接の画素10へ流出すること(ブルーミング)が抑制されるため、画素10の量子効率をより向上させることが可能となる。
 2.断面構造のバリエーション
 ここで、上述した実施形態に係るイメージセンサ100の断面構造について、いくつかのバリエーションを説明する。なお、以下の説明において特に限定されていない構造については、上述において説明した断面構造と同様の構造であってよい。
 2.1 第1バリエーション
 図51は、第1バリエーションに係るイメージセンサの断面構造例を示す垂直断面図である。図52は、図51におけるI-I断面を示す水平断面図である。図51及び図52に示すように、イメージセンサ100は、例えば、入射光に対して上流側に配置されたRGB画素10と下流側に配置されたIR画素20とが積層された積層型の撮像素子である。上流側では、例えば、赤色光(R)を選択的に透過させるカラーフィルタ31rを備える1つのRGB画素10と、緑色光(G)を選択的に透過させるカラーフィルタ31gを備える2つのRGB画素10と、青色光(B)を選択的に透過させるカラーフィルタ31bを備える1つのRGB画素10と、の4つのRGB画素10が、ベイヤー配列における2行×2列の単位配列を構成するように配置される。画素アレイ部101では、この単位配列が繰り返し単位となり、行方向と列方向とからなるアレイ状に繰り返し配置されている。
 2行×2列で配置された4つのRGB画素10からなる単位配列において、緑色光(G)を選択的に透過させる2つのカラーフィルタ31gが対角線上に配置され、赤色光(R)および青色光(B)を選択的に透過させるカラーフィルタ31r及び31bが、直交する対角線上に1つずつ配置される。カラーフィルタ31r、31g及び31bのうちの1つが設けられた各RGB画素10の光電変換膜34は、各カラーフィルタ31に対応する色光を光電変換して電荷を発生させる。
 カラーフィルタ31を透過した光のうち、可視光領域の光(赤色光(R)、緑色光(G)および青色光(B))は、それぞれ、各カラーフィルタ31が設けられたRGB画素10の光電変換膜34で吸収され、それ以外の光、例えば、赤外光領域(例えば、700nm以上1000nm以下)の光(IR光)は、光電変換膜34を透過する。この光電変換膜34を透過したIR光は、各RGB画素10に対して下流に配置されたIR画素20の光電変換部PD1において検出される。このように、第1バリエーションに係るイメージセンサ100では、可視光画像および赤外光画像の両方を同時に生成可能となっている。
 2.2 第2バリエーション
 図53は、第2バリエーションに係るイメージセンサの断面構造例を示す垂直断面図である。図54は、図53におけるII-II断面を示す水平断面図である。上述した第1バリエーションでは、赤色光(R)、緑色光(G)および青色光(B)を選択的に透過させるカラーフィルタ31が光電変換膜34の上方(光入射側)に設けられた例を示したが、カラーフィルタ31は、例えば、図53に示したように、光電変換部PD1と光電変換部PD2との間に設けるようにしてもよい。
 第2バリエーションでは、例えば、カラーフィルタ31が、少なくとも赤色光(R)を選択的に透過させるカラーフィルタ31rと、少なくとも青色光(B)を選択的に透過させるカラーフィルタ31bとが互いに対角線上に配置された構成を有している。入射光に対して上流側に位置する光電変換膜34は、例えば緑色光に対応する波長を選択的に吸収するように構成されている。これにより、上流側の光電変換部PD1及びカラーフィルタ31r及び31bの下方にそれぞれ配置された下流側の光電変換部PD2において、RGB三原色に対応する信号を取得することが可能となる。第2バリエーションでは、一般的なベイヤー配列を有する撮像素子よりもRGB三原色それぞれの光電変換部PD1及びPD2の受光面積を拡大することができるため、S/N比を向上させることが可能となる。
 3.撮像装置の構成例
 図55は、本開示を適用した電子機器としての撮像装置の一実施の形態の構成例を示すブロック図である。
 図55の撮像装置2000は、ビデオカメラやデジタルスチルカメラ等である。撮像装置2000は、レンズ群2001、固体撮像装置2002、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007、および電源部2008からなる。DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007、および電源部2008は、バスライン2009を介して相互に接続されている。
 レンズ群2001は、被写体からの入射光(像光)を取り込んで固体撮像装置2002の撮像面上に結像する。固体撮像装置2002は、上述した実施形態に係るイメージセンサ100であってよい。固体撮像装置2002は、レンズ群2001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号としてDSP回路2003に供給する。
 DSP回路2003は、固体撮像装置2002から供給される画素信号に対して所定の画像処理を行い、画像処理後の画像信号をフレーム単位でフレームメモリ2004に供給し、一時的に記憶させる。
 表示部2005は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなり、フレームメモリ2004に一時的に記憶されたフレーム単位の画素信号に基づいて、画像を表示する。
 記録部2006は、DVD(Digital Versatile Disk)、フラッシュメモリ等からなり、フレームメモリ2004に一時的に記憶されたフレーム単位の画素信号を読み出し、記録する。
 操作部2007は、ユーザによる操作の下に、撮像装置2000が持つ様々な機能について操作指令を発する。電源部2008は、電源を、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、および操作部2007に対して適宜供給する。
 本技術を適用する電子機器は、画像取込部(光電変換部)にイメージセンサを用いる装置であればよく、撮像装置2000のほか、撮像機能を有する携帯端末装置、画像読取部にイメージセンサを用いる複写機などがある。
 4.移動体への応用例
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図56は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図56に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図56の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図57は、撮像部12031の設置位置の例を示す図である。
 図57では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図57には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有してもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。図57に例示する撮像部12101、12102、12103、12104、12105等として、車両12100に搭載されてよい。撮像部12101、12102、12103、12104、12105等に本開示に係る技術を適用することにより、撮像部12031の感度を向上させることが可能となるため、より鮮明な画像をドライバ等に表示できるだけでなく、撮像部12031で取得された画像を用いた各種処理の精度を向上させることも可能となる。
 5.内視鏡手術システムへの応用例
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図58は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図58では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図59は、図58に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等)に適用され得る。これらの構成に本開示に係る技術を適用することにより、術者に対してより鮮明な画像を表示することが可能になるなどの効果を得ることができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 行列状に配列する複数の画素を備え、
 前記画素それぞれは、
  第1半導体層と、
  前記第1半導体層の第1面側に配置された光電変換部と、
  前記第1半導体層における前記第1面と反対側の第2面側に近接配置された蓄積電極と、
  前記第1半導体層の前記第2面から延出する配線と、
  前記配線を介して前記第1半導体層に接続された浮遊拡散領域と、
  前記配線に近接配置された第1ゲート電極と、
 を備える固体撮像装置。
(2)
 前記蓄積電極は、前記第1ゲート電極よりも前記第1半導体層に近接して配置される
 前記(1)に記載の固体撮像装置。
(3)
 前記蓄積電極及び前記第1ゲート電極は、同一平面に配置される
 前記(1)に記載の固体撮像装置。
(4)
 前記複数の画素のうち隣接する画素は、共通の前記浮遊拡散領域に接続される
 前記(1)~(3)の何れか1つに記載の固体撮像装置。
(5)
 前記画素それぞれは、
  前記第1ゲート電極よりも前記浮遊拡散領域に近い位置で前記配線に近接配置された第2ゲート電極と、
  前記第1ゲート電極と前記第2ゲート電極との間の位置で前記配線に近接配置されたメモリ電極と、
 をさらに備える前記(1)~(4)の何れか1つに記載の固体撮像装置。
(6)
 前記第1ゲート電極は、前記複数の画素間で結線され、
 前記メモリ電極は、前記複数の画素間で結線される
 前記(5)に記載の固体撮像装置。
(7)
 前記画素それぞれは、前記第1半導体層と前記浮遊拡散領域との間に位置する第2半導体層をさらに備え、
 前記配線は、
  前記第1半導体層から延出して前記第2半導体層に接続する第1配線と、
  前記第2半導体層から延出して前記浮遊拡散領域に接続する第2配線と、
 を備え、
 前記第1ゲート電極は、前記第1配線に近接配置され、
 前記メモリ電極は、前記第2半導体層に近接配置され、
 前記第2ゲート電極は、前記第2配線に近接配置される
 前記(5)又は(6)に記載の固体撮像装置。
(8)
 前記第1ゲート電極は、前記配線の側面を囲む位置に配置される
 前記(1)~(7)の何れか1つに記載の固体撮像装置。
(9)
 前記蓄積電極は、前記配線の側面を囲む位置に配置される
 前記(1)~(8)の何れか1つに記載の固体撮像装置。
(10)
 前記配線の断面は、円形または多角形である
 前記(1)~(9)の何れか1つに記載の固体撮像装置。
(11)
 前記配線は、前記第1半導体層から前記浮遊拡散領域にかけて縮径するテーパー形状を備える
 前記(1)~(10)の何れか1つに記載の固体撮像装置。
(12)
 前記光電変換部に対して前記第1半導体層と反対側に配置された複数のオンチップレンズを備え、
 前記複数のオンチップレンズのうちの少なくとも1つは、前記複数の画素のうちの隣接する少なくとも2つの画素を跨がるように配置される
 前記(1)~(11)の何れか1つに記載の固体撮像装置。
(13)
 前記画素それぞれは、前記光電変換部における光の入射面側に配置されたカラーフィルタをさらに備える
 前記(1)~(12)の何れか1つに記載の固体撮像装置。
(14)
 前記画素それぞれは、前記第1半導体層を挟んで前記光電変換部と反対側に配置されたカラーフィルタをさらに備える
 前記(1)~(12)の何れか1つに記載の固体撮像装置。
(15)
 前記光電変換部は、有機膜である
 前記(1)~(14)の何れか1つに記載の固体撮像装置。
(16)
 前記第1半導体層は、
  前記光電変換部に接触する第1層と、
  前記第1層を挟んで前記光電変換部と反対側に位置する第2層とを備える
 前記(1)~(15)の何れか1つに記載の固体撮像装置。
(17)
 前記画素それぞれは、隣接する画素との境界に配置されたシールド電極をさらに備える
 前記(1)~(16)の何れか1つに記載の固体撮像装置。
(18)
 前記画素それぞれは、隣接する画素との境界に配置された固定電荷膜をさらに備える
 前記(1)~(16)の何れか1つに記載の固体撮像装置。
(19)
 前記固定電荷膜は、前記光電変換部が光電変換により発生する電荷と同じ極性を備える
 前記(18)に記載の固体撮像装置。
(20)
 前記(1)~(19)の何れか1つに記載の固体撮像装置と、
 前記固体撮像装置に入射光の像を結像するレンズと、
 前記固体撮像装置から出力された信号に対して所定の処理を実行する処理回路と、
 を備える電子機器。
 1 電子機器
 10、10-1~10-N、10a、10b RGB画素(画素)
 11 転送ゲート
 12、22 リセットトランジスタ
 13、23 増幅トランジスタ
 14、24 選択トランジスタ
 15、21 転送トランジスタ
 16 メモリ電極
 20 IR画素
 25 排出トランジスタ
 31、31r、31g、31b カラーフィルタ
 32 封止膜
 33 透明電極
 34 光電変換膜
 35 半導体層
 35A 第1半導体層
 35B 第2半導体層
 35a 第1層
 35b 第2層
 36 読出し電極
 37 蓄積電極
 41 IRフィルタ
 42 pウェル領域
 43 p型半導体領域
 44 n型半導体領域
 45 縦型トランジスタ
 50 半導体基板
 51 オンチップレンズ
 52 平坦化膜
 53 絶縁層
 54画素分離部
 55 固定電荷膜
 56 層間絶縁膜
 57、57B シールド電極
 58、59 電荷
 60 半導体配線
 61~66、71、72、73 配線
 67 シールド電荷膜
 100 イメージセンサ
 101 画素アレイ部
 102 垂直駆動回路
 103 信号処理回路
 103a AC変換回路
 104 水平駆動回路
 105 システム制御回路
 108 データ処理部
 109 データ格納部
 110、110A 単位画素
 121 受光チップ
 122 回路チップ
 901 被写体
 1010 レーザ光源
 1011 光源駆動部
 1012 VCSEL
 1021 センサ制御部
 1022 受光部
 1030 照射レンズ
 1040 撮像レンズ
 1050 システム制御部
 1100 アプリケーションプロセッサ
 ASE 蓄積領域
 LD、LD1、LD2 画素駆動線
 MEM メモリ(メモリ領域)
 PD1、PD2 光電変換部
 SLD シールド領域
 TG、TX ゲート領域
 VSL、VSL1、VSL2 垂直信号線

Claims (20)

  1.  行列状に配列する複数の画素を備え、
     前記画素それぞれは、
      第1半導体層と、
      前記第1半導体層の第1面側に配置された光電変換部と、
      前記第1半導体層における前記第1面と反対側の第2面側に近接配置された蓄積電極と、
      前記第1半導体層の前記第2面から延出する配線と、
      前記配線を介して前記第1半導体層に接続された浮遊拡散領域と、
      前記配線に近接配置された第1ゲート電極と、
     を備える固体撮像装置。
  2.  前記蓄積電極は、前記第1ゲート電極よりも前記第1半導体層に近接して配置される
     請求項1に記載の固体撮像装置。
  3.  前記蓄積電極及び前記第1ゲート電極は、同一平面に配置される
     請求項1に記載の固体撮像装置。
  4.  前記複数の画素のうち隣接する画素は、共通の前記浮遊拡散領域に接続される
     請求項1に記載の固体撮像装置。
  5.  前記画素それぞれは、
      前記第1ゲート電極よりも前記浮遊拡散領域に近い位置で前記配線に近接配置された第2ゲート電極と、
      前記第1ゲート電極と前記第2ゲート電極との間の位置で前記配線に近接配置されたメモリ電極と、
     をさらに備える請求項1に記載の固体撮像装置。
  6.  前記第1ゲート電極は、前記複数の画素間で結線され、
     前記メモリ電極は、前記複数の画素間で結線される
     請求項5に記載の固体撮像装置。
  7.  前記画素それぞれは、前記第1半導体層と前記浮遊拡散領域との間に位置する第2半導体層をさらに備え、
     前記配線は、
      前記第1半導体層から延出して前記第2半導体層に接続する第1配線と、
      前記第2半導体層から延出して前記浮遊拡散領域に接続する第2配線と、
     を備え、
     前記第1ゲート電極は、前記第1配線に近接配置され、
     前記メモリ電極は、前記第2半導体層に近接配置され、
     前記第2ゲート電極は、前記第2配線に近接配置される
     請求項5に記載の固体撮像装置。
  8.  前記第1ゲート電極は、前記配線の側面を囲む位置に配置される
     請求項1に記載の固体撮像装置。
  9.  前記蓄積電極は、前記配線の側面を囲む位置に配置される
     請求項1に記載の固体撮像装置。
  10.  前記配線の断面は、円形または多角形である
     請求項1に記載の固体撮像装置。
  11.  前記配線は、前記第1半導体層から前記浮遊拡散領域にかけて縮径するテーパー形状を備える
     請求項1に記載の固体撮像装置。
  12.  前記光電変換部に対して前記第1半導体層と反対側に配置された複数のオンチップレンズを備え、
     前記複数のオンチップレンズのうちの少なくとも1つは、前記複数の画素のうちの隣接する少なくとも2つの画素を跨がるように配置される
     請求項1に記載の固体撮像装置。
  13.  前記画素それぞれは、前記光電変換部における光の入射面側に配置されたカラーフィルタをさらに備える
     請求項1に記載の固体撮像装置。
  14.  前記画素それぞれは、前記第1半導体層を挟んで前記光電変換部と反対側に配置されたカラーフィルタをさらに備える
     請求項1に記載の固体撮像装置。
  15.  前記光電変換部は、有機膜である
     請求項1に記載の固体撮像装置。
  16.  前記第1半導体層は、
      前記光電変換部に接触する第1層と、
      前記第1層を挟んで前記光電変換部と反対側に位置する第2層とを備える
     請求項1に記載の固体撮像装置。
  17.  前記画素それぞれは、隣接する画素との境界に配置されたシールド電極をさらに備える
     請求項1に記載の固体撮像装置。
  18.  前記画素それぞれは、隣接する画素との境界に配置された固定電荷膜をさらに備える
     請求項1に記載の固体撮像装置。
  19.  前記固定電荷膜は、前記光電変換部が光電変換により発生する電荷と同じ極性を備える
     請求項18に記載の固体撮像装置。
  20.  請求項1に記載の固体撮像装置と、
     前記固体撮像装置に入射光の像を結像するレンズと、
     前記固体撮像装置から出力された信号に対して所定の処理を実行する処理回路と、
     を備える電子機器。
PCT/JP2021/033897 2020-09-25 2021-09-15 固体撮像装置及び電子機器 WO2022065153A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022551917A JPWO2022065153A1 (ja) 2020-09-25 2021-09-15
CN202180064056.1A CN116325163A (zh) 2020-09-25 2021-09-15 固态成像装置和电子设备
US18/043,969 US20230403871A1 (en) 2020-09-25 2021-09-15 Solid-state imaging device and electronic apparatus
EP21872283.3A EP4220721A4 (en) 2020-09-25 2021-09-15 SOLID STATE IMAGING APPARATUS AND ELECTRONIC DEVICE
KR1020237008143A KR20230073185A (ko) 2020-09-25 2021-09-15 고체 촬상 장치 및 전자 기기

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-161366 2020-09-25
JP2020161366 2020-09-25

Publications (1)

Publication Number Publication Date
WO2022065153A1 true WO2022065153A1 (ja) 2022-03-31

Family

ID=80845400

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033897 WO2022065153A1 (ja) 2020-09-25 2021-09-15 固体撮像装置及び電子機器

Country Status (7)

Country Link
US (1) US20230403871A1 (ja)
EP (1) EP4220721A4 (ja)
JP (1) JPWO2022065153A1 (ja)
KR (1) KR20230073185A (ja)
CN (1) CN116325163A (ja)
TW (1) TW202232743A (ja)
WO (1) WO2022065153A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023248618A1 (ja) * 2022-06-20 2023-12-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI826139B (zh) * 2022-11-22 2023-12-11 力晶積成電子製造股份有限公司 背照式影像感測器及其製造方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063156A (ja) 2014-09-19 2016-04-25 株式会社東芝 撮像素子及び固体撮像装置
JP2017037952A (ja) * 2015-08-10 2017-02-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子
WO2017126326A1 (ja) * 2016-01-20 2017-07-27 ソニー株式会社 固体撮像装置およびその駆動方法、並びに電子機器
JP2017157816A (ja) 2016-03-01 2017-09-07 ソニー株式会社 撮像素子、積層型撮像素子及び固体撮像装置、並びに、固体撮像装置の駆動方法
WO2018047517A1 (ja) * 2016-09-12 2018-03-15 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および固体撮像装置
WO2019044103A1 (ja) * 2017-08-31 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 撮像素子、積層型撮像素子及び固体撮像装置
WO2019058994A1 (ja) * 2017-09-20 2019-03-28 ソニー株式会社 光電変換素子および撮像装置
WO2019124136A1 (ja) * 2017-12-20 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 光電変換素子および固体撮像装置
WO2019151049A1 (ja) * 2018-01-31 2019-08-08 ソニー株式会社 光電変換素子、固体撮像装置及び電子装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063156A (ja) 2014-09-19 2016-04-25 株式会社東芝 撮像素子及び固体撮像装置
JP2017037952A (ja) * 2015-08-10 2017-02-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子
WO2017126326A1 (ja) * 2016-01-20 2017-07-27 ソニー株式会社 固体撮像装置およびその駆動方法、並びに電子機器
JP2017157816A (ja) 2016-03-01 2017-09-07 ソニー株式会社 撮像素子、積層型撮像素子及び固体撮像装置、並びに、固体撮像装置の駆動方法
WO2018047517A1 (ja) * 2016-09-12 2018-03-15 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および固体撮像装置
WO2019044103A1 (ja) * 2017-08-31 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 撮像素子、積層型撮像素子及び固体撮像装置
WO2019058994A1 (ja) * 2017-09-20 2019-03-28 ソニー株式会社 光電変換素子および撮像装置
WO2019124136A1 (ja) * 2017-12-20 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 光電変換素子および固体撮像装置
WO2019151049A1 (ja) * 2018-01-31 2019-08-08 ソニー株式会社 光電変換素子、固体撮像装置及び電子装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4220721A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023248618A1 (ja) * 2022-06-20 2023-12-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Also Published As

Publication number Publication date
CN116325163A (zh) 2023-06-23
EP4220721A4 (en) 2024-03-20
KR20230073185A (ko) 2023-05-25
EP4220721A1 (en) 2023-08-02
JPWO2022065153A1 (ja) 2022-03-31
US20230403871A1 (en) 2023-12-14
TW202232743A (zh) 2022-08-16

Similar Documents

Publication Publication Date Title
US11792541B2 (en) Solid-state imaging device and method of controlling solid-state imaging device
KR102651629B1 (ko) 광전변환 소자 및 고체 촬상 장치
JP7486417B2 (ja) 固体撮像素子および固体撮像装置
WO2022065153A1 (ja) 固体撮像装置及び電子機器
WO2020017305A1 (ja) 撮像素子および撮像装置
WO2022131090A1 (ja) 光検出装置、光検出システム、電子機器および移動体
US20230027447A1 (en) Photoelectric conversion element and imaging device
WO2022065186A1 (ja) 固体撮像装置及び電子機器
WO2023248618A1 (ja) 固体撮像装置
WO2023223801A1 (ja) 光電変換素子および光検出装置ならびに電子機器
WO2023100725A1 (ja) 光検出装置、電子機器及び光検出システム
WO2023181919A1 (ja) 撮像素子および撮像素子の製造方法ならびに光検出装置
US20240030251A1 (en) Solid-state imaging element and electronic device
WO2023153308A1 (ja) 光電変換素子および光検出装置
WO2024106013A1 (ja) 固体撮像装置
WO2023037622A1 (ja) 撮像素子および撮像装置
WO2022131033A1 (ja) 光電変換素子、光検出装置、光検出システム、電子機器および移動体
WO2023176551A1 (ja) 光電変換素子および光検出装置
WO2024070293A1 (ja) 光電変換素子および光検出装置
WO2024106235A1 (ja) 光検出装置および光検出装置の製造方法ならびに電子機器
JP2024072541A (ja) 固体撮像装置
CN118120058A (zh) 光电检测装置、电子设备和光电检测系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872283

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551917

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021872283

Country of ref document: EP

Effective date: 20230425