WO2019181456A1 - 固体撮像素子および固体撮像装置 - Google Patents

固体撮像素子および固体撮像装置 Download PDF

Info

Publication number
WO2019181456A1
WO2019181456A1 PCT/JP2019/008348 JP2019008348W WO2019181456A1 WO 2019181456 A1 WO2019181456 A1 WO 2019181456A1 JP 2019008348 W JP2019008348 W JP 2019008348W WO 2019181456 A1 WO2019181456 A1 WO 2019181456A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
electrode
solid
state imaging
layer
Prior art date
Application number
PCT/JP2019/008348
Other languages
English (en)
French (fr)
Inventor
晋太郎 平田
秀晃 富樫
有希央 兼田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to KR1020207022360A priority Critical patent/KR20200132845A/ko
Priority to DE112019001418.8T priority patent/DE112019001418T5/de
Priority to CN201980010675.5A priority patent/CN111656525A/zh
Priority to US16/979,992 priority patent/US11552268B2/en
Priority to JP2020508140A priority patent/JP7486417B2/ja
Publication of WO2019181456A1 publication Critical patent/WO2019181456A1/ja
Priority to US18/081,889 priority patent/US11910624B2/en
Priority to JP2023049727A priority patent/JP2023076561A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/30Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation comprising bulk heterojunctions, e.g. interpenetrating networks of donor and acceptor material domains
    • H10K30/353Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation comprising bulk heterojunctions, e.g. interpenetrating networks of donor and acceptor material domains comprising blocking layers, e.g. exciton blocking layers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/20Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation comprising organic-organic junctions, e.g. donor-acceptor junctions
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/80Constructional details
    • H10K30/81Electrodes
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/80Constructional details
    • H10K30/84Layers having high charge carrier mobility
    • H10K30/85Layers having high electron mobility, e.g. electron-transporting layers or hole-blocking layers
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy
    • Y02E10/549Organic PV cells

Definitions

  • the present disclosure relates to a solid-state imaging device and a solid-state imaging device using, for example, an organic photoelectric conversion material.
  • Solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors are used in solid-state imaging devices.
  • the solid-state imaging device is provided with, for example, a photoelectric conversion layer containing an organic photoelectric conversion material (see, for example, Patent Document 1).
  • a first solid-state imaging device includes a photoelectric conversion layer, a first electrode and a second electrode facing each other with the photoelectric conversion layer interposed therebetween, and between the first electrode and the photoelectric conversion layer.
  • a semiconductor layer provided between the storage layer and the photoelectric conversion layer, an insulating film provided between the storage electrode and the semiconductor layer, and a gap between the semiconductor layer and the photoelectric conversion layer. And a provided barrier layer.
  • a first solid-state imaging device includes the first solid-state imaging element according to the embodiment of the present disclosure.
  • signal charges generated in the photoelectric conversion layer are accumulated in the semiconductor layer and then read out to the first electrode.
  • the barrier layer is provided between the semiconductor layer and the photoelectric conversion layer, signal charges accumulated in the semiconductor layer are unlikely to return to the photoelectric conversion layer.
  • the barrier layer functions as a potential or physical barrier during signal charge transfer.
  • a second solid-state imaging device includes a photoelectric conversion layer, a first electrode and a second electrode facing each other with the photoelectric conversion layer interposed therebetween, and between the first electrode and the photoelectric conversion layer.
  • a second solid-state imaging device includes the second solid-state imaging element according to the embodiment of the present disclosure.
  • signal charges generated in the photoelectric conversion layer are accumulated in the semiconductor layer and then read out to the first electrode.
  • the potential barrier is provided at the bonding surface between the semiconductor layer and the photoelectric conversion layer, the signal charges accumulated in the semiconductor layer are unlikely to return to the photoelectric conversion layer.
  • the barrier layer is provided between the semiconductor layer and the photoelectric conversion layer, and the embodiment of the present disclosure
  • the second solid-state imaging device and the solid-state imaging device since the potential barrier is provided at the junction surface between the semiconductor layer and the photoelectric conversion layer, the occurrence of transfer failure of the signal charge accumulated in the semiconductor layer is suppressed. be able to. Therefore, it is possible to improve element characteristics.
  • FIG. 2 is a schematic diagram illustrating a planar configuration of a first electrode and a storage electrode illustrated in FIG. 1. It is a cross-sectional schematic diagram showing the other example of the semiconductor layer shown in FIG. It is a figure (1) for demonstrating the energy of the barrier layer shown in FIG. It is a figure (2) for demonstrating the energy of the barrier layer shown in FIG. It is a cross-sectional schematic diagram showing the other example of the photoelectric converting layer shown in FIG. It is a cross-sectional schematic diagram showing the other example of the semiconductor layer and photoelectric converting layer which were shown in FIG. FIG.
  • FIG. 2 is an equivalent circuit diagram of the solid-state imaging device shown in FIG. 1. It is a schematic diagram showing arrangement
  • FIG. 10 is a schematic cross-sectional view illustrating a process following FIG. 9. It is a cross-sectional schematic diagram showing the process of following FIG.
  • FIG. 12 is a schematic cross-sectional view illustrating a process following FIG. 11. It is a cross-sectional schematic diagram showing the process of following FIG. It is a cross-sectional schematic diagram showing the process following FIG.
  • FIG. 6 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Comparative Example 1.
  • FIG. 6 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Comparative Example 2.
  • FIG. 10 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Modification 1.
  • FIG. 10 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Modification 2.
  • FIG. 10 It is a cross-sectional schematic diagram showing the other example of the solid-state image sensor shown in FIG. 10 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Modification 3.
  • FIG. 10 It is a cross-sectional schematic diagram showing the other example of the solid-state image sensor shown in FIG. 10 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Modification 4.
  • FIG. FIG. 25 is a schematic diagram illustrating a planar configuration of a first electrode, a storage electrode, and a transfer electrode illustrated in FIG. 24.
  • 10 is a schematic cross-sectional view illustrating a schematic configuration of a solid-state imaging element according to Modification Example 5.
  • FIG. 27 is a schematic diagram illustrating a planar configuration of a first electrode, a storage electrode, and a discharge electrode illustrated in FIG. 26.
  • 10 is a cross-sectional schematic diagram illustrating a schematic configuration of a solid-state imaging element according to Modification 6.
  • FIG. 10 is a cross-sectional schematic diagram illustrating a schematic configuration of a solid-state imaging element according to Modification 7.
  • FIG. 31 is a schematic diagram for explaining a potential barrier formed by the bonding surface shown in FIG. 30. It is a block diagram showing the structure of the solid-state imaging device containing the solid-state image sensor shown in FIG.
  • FIG. 1 It is a functional block diagram showing an example of the electronic device (camera) using the image pick-up element shown in FIG. It is a block diagram which shows an example of a schematic structure of an in-vivo information acquisition system. It is a figure which shows an example of a schematic structure of an endoscopic surgery system. It is a block diagram which shows an example of a function structure of a camera head and CCU. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • First embodiment an example of a solid-state imaging device having a barrier layer between a semiconductor layer and a photoelectric conversion layer
  • Modification 1 Example in which multilayer wiring is provided on the first surface of the semiconductor substrate
  • Modification 2 example having one photodiode portion in a semiconductor substrate
  • Modification 3 example in which the photodiode portion is not provided in the semiconductor substrate
  • Modification 4 example in which a transfer electrode is provided between the first electrode and the storage electrode
  • Modification 5 (example having a discharge electrode separated from the first electrode) 7).
  • Modification 6 (example in which a shielding electrode is provided between adjacent storage electrodes) 8).
  • Modification 7 (example having a light-shielding film facing the first electrode) 9.
  • Second Embodiment Solid-state imaging device in which a potential barrier is provided on the bonding surface between a semiconductor layer and a photoelectric conversion layer) 10.
  • Application example 1 (example of solid-state imaging device) 11.
  • Application Example 2 (Example of electronic equipment) 12
  • Application example 3 (application example to in-vivo information acquisition system) 13.
  • Application example 4 (application example to endoscopic surgery system) 14
  • Application example 5 (application example to a moving body)
  • FIG. 1 schematically illustrates a cross-sectional configuration of the solid-state imaging device (solid-state imaging device 10) according to the first embodiment of the present disclosure.
  • the solid-state imaging device 10 is a pixel (unit pixel P) in a solid-state imaging device (for example, the solid-state imaging device 1 in FIG. 32) such as a CMOS image sensor used in an electronic apparatus such as a digital still camera or a video camera. It constitutes.
  • the solid-state imaging device 10 is, for example, a so-called vertical spectroscopic type in which one organic photoelectric conversion unit 20 and two inorganic photoelectric conversion units 32B and 32R are stacked in the vertical direction.
  • the organic photoelectric conversion unit 20 is provided on the first surface 30 ⁇ / b> A (back surface) side of the semiconductor substrate 30.
  • the semiconductor substrate 30 has a second surface 30B (front surface) facing the first surface 30A.
  • light is incident from the first surface 30A side (light incident side S1), and a multilayer wiring (wiring layer side S2) is provided on the second surface 30B side.
  • the inorganic photoelectric conversion portions 32B and 32R are embedded in the semiconductor substrate 30 and stacked in the thickness direction of the semiconductor substrate 30.
  • the organic photoelectric conversion unit 20 includes a photoelectric conversion layer 25 formed using an organic photoelectric conversion material between a pair of electrodes (first electrode 21A and second electrode 26) arranged to face each other.
  • the photoelectric conversion layer 25 includes a p-type semiconductor and an n-type semiconductor, and has a bulk heterojunction structure in the layer.
  • the bulk heterojunction structure is a p / n junction surface formed by mixing a p-type semiconductor and an n-type semiconductor.
  • the organic photoelectric conversion unit 20 and the inorganic photoelectric conversion units 32B and 32R selectively detect light in different wavelength ranges and perform photoelectric conversion. Specifically, the organic photoelectric conversion unit 20 acquires a green (G) color signal. In the inorganic photoelectric conversion units 32B and 32R, blue (B) and red (R) color signals are acquired based on the difference in absorption coefficient. Thereby, in the solid-state imaging device 10A, it is possible to acquire a plurality of types of color signals in one pixel without using a color filter.
  • the second surface 30B of the semiconductor substrate 30 includes, for example, a floating diffusion (floating diffusion layer) FD1 (region 36B in the semiconductor substrate 30), FD2 (region 37C in the semiconductor substrate 30), FD3 (region in the semiconductor substrate 30). 38C), transfer transistors Tr2 and Tr3, an amplifier transistor (modulation element) AMP, a reset transistor RST, a selection transistor SEL, and a multilayer wiring 40 are provided.
  • the multilayer wiring 40 has a configuration in which, for example, wiring layers 41, 42, and 43 are laminated in an insulating layer 44.
  • a protective layer 51 is provided on the organic photoelectric conversion unit 20 (light incident side S1). Above the protective layer 51, an optical member such as a flattening layer (not shown) and an on-chip lens 52 is disposed.
  • a through electrode 34 is provided between the first surface 30A and the second surface 30B of the semiconductor substrate 30.
  • the organic photoelectric conversion unit 20 is connected to the gate Gamp of the amplifier transistor AMP and one source / drain region 36B of the reset transistor RST (reset transistor Tr1rst) that also serves as the floating diffusion FD1 through the through electrode 34.
  • RST reset transistor Tr1rst
  • the lower end of the through electrode 34 is connected to a connection portion 41A in the wiring layer 41, and the connection portion 41A and the gate Gamp of the amplifier transistor AMP are connected via a lower first contact 45.
  • the connection portion 41A and the floating diffusion FD1 (region 36B) are connected via, for example, the lower second contact 46.
  • the upper end of the through electrode 34 is connected to the first electrode 21A via, for example, the connection wiring 39A and the upper first contact 29A.
  • the through electrode 34 is provided for each organic photoelectric conversion unit 20 in each of the solid-state imaging device 10, for example.
  • the through electrode 34 has a function as a connector between the organic photoelectric conversion unit 20 and the gate Gamp of the amplifier transistor AMP and the floating diffusion FD1, and also has a transmission path for charges (here, electrons) generated in the organic photoelectric conversion unit 20. It will be.
  • the through electrode 34 is made of a metal material such as aluminum, tungsten, titanium, cobalt, hafnium, and tantalum.
  • the through electrode 34 may be made of a doped silicon material such as PDAS (Phosphorus Doped Amorphous Silicon).
  • the reset gate Grst of the reset transistor RST is arranged. Thereby, the charge accumulated in the floating diffusion FD1 can be reset by the reset transistor RST.
  • the organic photoelectric conversion unit 20 In the solid-state imaging device 10 of the present embodiment, light incident on the organic photoelectric conversion unit 20 from the second electrode 26 side is absorbed by the photoelectric conversion layer 25.
  • the excitons generated thereby move to the interface between the electron donor and the electron acceptor constituting the photoelectric conversion layer 25, and exciton separation, that is, dissociation into electrons and holes.
  • One charge (for example, electrons) generated here is stored in the semiconductor layer 23 facing the storage electrode 21B, and the other charge (for example, holes) is discharged to the second electrode 26.
  • the organic photoelectric conversion unit 20 absorbs green light corresponding to a part or all of a selective wavelength range (for example, 450 nm or more and 650 nm or less) and generates an electron-hole pair. It is.
  • the organic photoelectric conversion unit 20 includes a first electrode 21A, a storage electrode 21B, an insulating layer 22, a semiconductor layer 23, a barrier layer 24, and a photoelectric conversion layer in order from a position close to the first surface 30A of the semiconductor substrate 30. 25 and the second electrode 26.
  • An opening 22H is provided in the insulating layer 22, and the first electrode 21A is electrically connected to the semiconductor layer 23 through the opening 22H.
  • An insulating layer 22 is interposed between the storage electrode 21 ⁇ / b> B and the semiconductor layer 23.
  • FIG. 2 shows a planar configuration of the first electrode 21A and the storage electrode 21B.
  • Each of the first electrode 21 ⁇ / b> A and the storage electrode 21 ⁇ / b> B has, for example, a quadrangular planar shape and is spaced apart from each other.
  • the area of the storage electrode 21B is larger than the area of the first electrode 21A.
  • one pixel (pixel P) includes one first electrode 21A and one storage electrode 21B.
  • the first electrode 21A is for transferring charges (electrons here) generated in the photoelectric conversion layer 25 to the floating diffusion FD1, and functions as a readout electrode.
  • the first electrode 21A is connected to the floating diffusion FD1 through, for example, an upper first contact 29A, a connection wiring 39A, a through electrode 34, a connection portion 41A, and a lower second contact 46.
  • the storage electrode 21 ⁇ / b> B facing the photoelectric conversion layer 25 with the semiconductor layer 23 in between is for storing signal charges (for example, electrons) in the semiconductor layer 23 among the charges generated in the photoelectric conversion layer 25. is there.
  • the storage electrode 21 ⁇ / b> B is provided in a region facing the light receiving surfaces of the inorganic photoelectric conversion units 32 ⁇ / b> B and 32 ⁇ / b> R formed in the semiconductor substrate 30.
  • the storage electrode 21B is electrically connected to a drive circuit (not shown) through, for example, the upper second contact 29B and the connection wiring 39B. By making the area of the storage electrode 21B larger than the area of the first electrode 21A, a large amount of charge is stored.
  • the first electrode 21A and the storage electrode 21B are made of, for example, a light-transmitting conductive film, and made of, for example, ITO (indium tin oxide).
  • ITO indium tin oxide
  • a tin oxide (SnO 2 ) -based material to which a dopant is added, or a zinc oxide-based material obtained by adding a dopant to aluminum zinc oxide (ZnO) May be used.
  • the zinc oxide-based material include aluminum zinc oxide (AZO) to which aluminum (Al) is added as a dopant, gallium zinc oxide (GZO) to which gallium (Ga) is added, and indium zinc oxide to which indium (In) is added. (IZO).
  • CuI, InSbO 4 , ZnMgO, CuInO 2 , MgIN 2 O 4 , CdO, ZnSnO 3, or the like may be used.
  • the first electrode 21A may be made of a light-shielding conductive material. Specifically, the first electrode 21A is made of aluminum (Al), tungsten (W), titanium (Ti), molybdenum (Mo), tantalum (Ta), copper (Cu), cobalt (Co), nickel (Ni). Such a metal film, an alloy film thereof, or a film containing silicon or oxygen in these metal films may be used.
  • the insulating layer 22 is for electrically separating the storage electrode 21B and the semiconductor layer 23, and is provided, for example, on the interlayer insulating layer 27s so as to cover the first electrode 21A and the storage electrode 21B. .
  • the insulating layer 22 is, for example, a single layer film made of one of silicon oxide, TEOS (Tetra Ethyl Ortho Silicate) silicon nitride, silicon oxynitride (SiON), or a laminated layer made of two or more of these. It is comprised by the film
  • the thickness of the insulating layer 22 is, for example, 3 nm to 500 nm.
  • the semiconductor layer 23 provided between the first electrode 21A or the insulating layer 22 and the photoelectric conversion layer 25 is configured using a material having a higher charge mobility and a larger band gap than the photoelectric conversion layer 25. It is preferable.
  • the band gap of the constituent material of the semiconductor layer 23 is preferably 3.0 eV or more.
  • oxide semiconductor materials such as IGZO and organic semiconductor materials.
  • the organic semiconductor material include transition metal dichalcogenides, silicon carbide, diamond, graphene, carbon nanotubes, condensed polycyclic hydrocarbon compounds, and condensed heterocyclic compounds.
  • the semiconductor layer 23 may be configured by a single film or may be configured by stacking a plurality of films.
  • the thickness of the semiconductor layer 23 is, for example, 10 nm to 500 nm, preferably 30 nm to 150 nm, and more preferably 50 nm to 100 nm.
  • the impurity concentration of the constituent material of the semiconductor layer 23 is preferably 1 ⁇ 10 18 cm ⁇ 3 or less.
  • the semiconductor layer 23 is provided in common to the plurality of solid-state imaging devices 10 (FIG. 1).
  • the semiconductor layer 23 may be provided separately for each element (pixel).
  • an element isolation layer (element isolation layer 20 i) is disposed between the semiconductor layers 23 of the adjacent solid-state imaging elements 10.
  • a barrier layer 24 is provided between the semiconductor layer 23 and the photoelectric conversion layer 25.
  • the barrier layer 24 functions as a potential or physical barrier when signal charges move. Although details will be described later, this makes it difficult for the signal charges accumulated in the semiconductor layer 23 to return to the photoelectric conversion layer 25, thereby suppressing the occurrence of transfer defects.
  • the barrier layer 24 controls the movement of electric charge between the semiconductor layer 23 and the photoelectric conversion layer 25, and functions as an energy barrier for electric charge movement.
  • FIG. 4A schematically shows the electron affinity of the constituent material of the barrier layer 24.
  • the electron affinity (electron affinity EA2) of the constituent material of the barrier layer 24 is the electron affinity (electron affinity EA1) of the constituent material of the photoelectric conversion layer 25 and the electron affinity (electron affinity EA1) of the constituent material of the semiconductor layer 23. It is smaller than the electron affinity EA3).
  • the electron affinity EA3 of the constituent material of the semiconductor layer 23 may be the same as the electron affinity EA1 of the constituent material of the photoelectric conversion layer 25 or is smaller than the electron affinity EA1. May be. That is, the freedom degree of the constituent material of the semiconductor layer 23 and the photoelectric converting layer 25 can be raised.
  • FIG. 4B schematically shows the ionization potential of the constituent material of the barrier layer 24.
  • the ionization potential (ionization potential IP2) of the constituent material of the barrier layer 24 is the ionization potential (ionization potential IP1) of the constituent material of the photoelectric conversion layer 25 and the ionization potential of the constituent material of the semiconductor layer 23. It is larger than (ionization potential IP3).
  • the barrier layer 24 is made of, for example, silicon oxide (SiO), silicon nitride (SiN), or silicon oxynitride (SiON), and has a thickness of 0.1 nm to 50 nm, preferably 1 nm to 10 nm.
  • the barrier layer 24 may be made of an organic material having an electron injection blocking function.
  • the barrier layer 24 may be made of an organic material having a hole injection blocking function.
  • the barrier layer 24 is provided in common to the plurality of solid-state imaging devices 10 (FIG. 1).
  • the photoelectric conversion layer 25 provided between the barrier layer 24 and the second electrode 26 converts light energy into electric energy.
  • the photoelectric conversion layer 25 includes, for example, two or more organic semiconductor materials (p-type semiconductor material or n-type semiconductor material) that function as a p-type semiconductor or an n-type semiconductor, respectively.
  • the photoelectric conversion layer 25 has a junction surface (p / n junction surface) between the p-type semiconductor material and the n-type semiconductor material in the layer.
  • a p-type semiconductor functions relatively as an electron donor (donor), and an n-type semiconductor functions relatively as an electron acceptor.
  • the photoelectric conversion layer 25 provides a field where excitons generated when light is absorbed are separated into electrons and holes.
  • the photoelectric conversion layer 25 has an interface between the electron donor and the electron acceptor (p / At the n junction surface), excitons are separated into electrons and holes.
  • the photoelectric conversion layer 25 includes, in addition to the p-type semiconductor material and the n-type semiconductor material, an organic semiconductor material, that is, a so-called pigment material that photoelectrically converts light in a predetermined wavelength range and transmits light in other wavelength ranges. It may be configured.
  • the photoelectric conversion layer 25 is formed using three types of organic semiconductor materials, that is, a p-type semiconductor material, an n-type semiconductor material, and a dye material, the p-type semiconductor material and the n-type semiconductor material have a visible region (for example, 450 nm). It is preferable that the material has a light transmission property at ⁇ 800 nm.
  • the thickness of the photoelectric conversion layer 25 is, for example, 50 nm to 500 nm.
  • the photoelectric conversion layer 25 is provided in common to the plurality of solid-state imaging devices 10 (FIG. 1).
  • the photoelectric conversion layer 25 may be provided separately for each element (pixel).
  • the protective layer 51 is disposed between the photoelectric conversion layers 25 of the adjacent solid-state imaging devices 10.
  • the semiconductor layer 23 may be provided in common for the plurality of solid-state imaging elements 10, and the barrier layer 24 and the photoelectric conversion layer 25 may be provided separately for each element (FIG. 5).
  • the semiconductor layer 23, the barrier layer 24, and the photoelectric conversion layer 25 may be provided separately for each element (FIG. 6).
  • the photoelectric conversion layer 25 includes, for example, a p-type semiconductor, an n-type semiconductor, and a dye material.
  • p-type semiconductors include thiophene derivatives, benzothienobenzothiophene derivatives, ferrocene derivatives, paraphenylene vinylene derivatives, carbazole derivatives, pyrrole derivatives, aniline derivatives, diamine derivatives, phthalocyanine derivatives, subphthalocyanine derivatives, hydrazone derivatives, naphthalene derivatives, Anthracene derivative, phenanthrene derivative, pyrene derivative, perylene derivative, tetracene derivative, pentacene derivative, quinacridone derivative, thienothiophene derivative, benzothiophene derivative, triallylamine derivative, perylene derivative, picene derivative, chrysene derivative, fluoranthene derivative, subporphyrazine derivative, Metal complexes, polythiophene derivatives, polybenz
  • Examples of the n-type semiconductor contained in the photoelectric conversion layer 25 include fullerene or fullerene derivatives.
  • This fullerene is, for example, a higher-order fullerene or an endohedral fullerene. Higher fullerenes are, for example, C 60, C 70 and C 74 and the like.
  • Examples of fullerene derivatives include fullerene fluoride, PCBM ([6,6] -Phenyl-C61-Butyric Acid Methyl Ester) fullerene compounds, fullerene multimers, and the like.
  • Fullerene derivatives include halogen atoms, alkyl groups, phenyl groups, functional groups having aromatic compounds, functional groups having halides, partial fluoroalkyl groups, perfluoroalkyl groups, silylalkyl groups, silylalkoxy groups, arylsilyls.
  • arylsulfanyl group alkylsulfanyl group, arylsulfonyl group, alkylsulfonyl group, arylsulfide group, alkylsulfide group, amino group, alkylamino group, arylamino group, hydroxy group, alkoxy group, acylamino group, acyloxy group, carbonyl A group, a carboxy group, a carboxyamide group, a carboalkoxy group, an acyl group, a sulfonyl group, a cyano group, a nitro group, a group having a chalcogenide, a phosphine group or a phosphone group may be contained.
  • the alkyl group may be linear or branched.
  • a cyclic alkyl group may be contained in the fullerene derivative.
  • the aromatic compound may have a plurality of cyclic structures.
  • the plurality of cyclic structures may be bonded by a single bond or may have a condensed ring structure.
  • the n-type semiconductor included in the photoelectric conversion layer 25 is, for example, an oxazole derivative, an oxadiazole derivative, a triazole derivative, an organic molecule having a heterocyclic compound as part of the molecular skeleton, an organometallic complex, a subphthalocyanine derivative, or the like. Also good.
  • the heterocyclic compound contains a nitrogen atom, an oxygen atom or a sulfur atom.
  • Heterocyclic compounds include, for example, pyridine derivatives, pyrazine derivatives, pyrimidine derivatives, triazine derivatives, quinoline derivatives, quinoxaline derivatives, isoquinoline derivatives, acridine derivatives, phenazine derivatives, phenanthroline derivatives, tetrazole derivatives, pyrazole derivatives, imidazole derivatives, thiazole derivatives, imidazoles Derivatives, benzimidazole derivatives, benzotriazole derivatives, benzoxazole derivatives, carbazole derivatives, benzofuran derivatives, dibenzofuran derivatives, subporphyrazine derivatives, polyphenylene vinylene derivatives, polybenzothiadiazole derivatives, and polyfluorene derivatives. These materials have relatively high mobility and are easy to design for electron transport.
  • Examples of the dye material contained in the photoelectric conversion layer 25 include phthalocyanine derivatives, subphthalocyanine derivatives, quinacridone derivatives, naphthalocyanine derivatives, squarylium derivatives, and the like.
  • the photoelectric conversion layer 25 may contain a rhodamine dye, a melocyanine dye, a coumaric acid dye, tris-8-hydroxyquinolinium (Alq3), or the like.
  • the photoelectric conversion layer 25 may include a plurality of materials or may have a stacked structure.
  • the photoelectric conversion layer 25 may include a material that does not directly contribute to photoelectric conversion.
  • the photoelectric conversion layer 25 and the first electrode 21A there are other layers between the photoelectric conversion layer 25 and the first electrode 21A (specifically, between the semiconductor layer 23 and the insulating layer 22) and between the photoelectric conversion layer 25 and the second electrode 26. It may be provided. Specifically, for example, in order from the first electrode 21A side, an undercoat film, a hole transport layer, an electron blocking film, a photoelectric conversion layer 25, a hole blocking film, a buffer film, an electron transport layer, a work function adjusting film, and the like May be laminated.
  • the second electrode 26 faces the first electrode 21A and the storage electrode 21B with the semiconductor layer 23, the barrier layer 24, and the photoelectric conversion layer 25 in between.
  • the second electrode 26 is composed of a light-transmitting conductive film, like the first electrode 21A and the storage electrode 21B.
  • the second electrode 26 may be separated for each pixel or may be formed as a common electrode for each pixel.
  • the thickness of the second electrode 26 is, for example, 10 nm to 200 nm.
  • the interlayer insulating layer 27s provided between the insulating layer 22 and the first surface 30A of the semiconductor substrate 30 is, for example, a single layer film made of one of silicon oxide, silicon nitride, silicon oxynitride (SiON), and the like. Or, it is constituted by a laminated film composed of two or more of these.
  • a dielectric layer 27 y is provided between the interlayer insulating layer 27 s and the first surface 30 A of the semiconductor substrate 30.
  • the material of the dielectric layer 27y is not particularly limited, and is formed of, for example, a silicon oxide film, TEOS, a silicon nitride film, a silicon oxynitride film, or the like.
  • a fixed charge layer 27 k is provided between the dielectric layer 27 y and the first surface 30 A of the semiconductor substrate 30.
  • the fixed charge layer 27k may be a film having a positive fixed charge or a film having a negative fixed charge.
  • Examples of the material of the film having a negative fixed charge include hafnium oxide, aluminum oxide, zirconium oxide, tantalum oxide, and titanium oxide.
  • lanthanum oxide praseodymium oxide, cerium oxide, neodymium oxide, promethium oxide, samarium oxide, europium oxide, gadolinium oxide, terbium oxide, dysprosium oxide, holmium oxide, thulium oxide, ytterbium oxide, lutetium oxide, oxide
  • An yttrium, aluminum nitride film, hafnium oxynitride film, aluminum oxynitride film, or the like may be used.
  • the fixed charge layer 27k may have a configuration in which two or more kinds of films are stacked. Thereby, for example, in the case of a film having a negative fixed charge, the function as the hole accumulation layer can be further enhanced.
  • a protective layer 51 is provided so as to cover the second electrode 26.
  • the protective layer 51 is made of a light-transmitting material.
  • the protective layer 51 is a single-layer film made of any of silicon oxide, silicon nitride, silicon oxynitride, or the like, or a laminate made of two or more of them. It is comprised by the film
  • the thickness of the protective layer 51 is, for example, 100 nm to 30000 nm.
  • An on-chip lens 52 is provided on the protective layer 51.
  • the on-chip lens 52 is provided, for example, in a region facing the storage electrode 21B, and incident light is focused on the photoelectric conversion layer 25 in a portion facing the storage electrode 21B.
  • the solid-state imaging device 10 may be provided with a bonding pad (not shown).
  • the semiconductor substrate 30 is composed of, for example, an n-type silicon (Si) substrate and has a p-well 31 in a predetermined region.
  • the transfer transistors Tr2 and Tr3, the amplifier transistor AMP, the reset transistor RST, the selection transistor SEL, and the like described above are provided on the second surface 30B of the p-well 31, the transfer transistors Tr2 and Tr3, the amplifier transistor AMP, the reset transistor RST, the selection transistor SEL, and the like described above are provided.
  • a peripheral circuit (not shown) including a logic circuit or the like is provided in the peripheral portion of the semiconductor substrate 30.
  • FIG. 7 is an equivalent circuit diagram of the solid-state imaging device 10, and FIG. 8 shows the arrangement of each transistor together with the first electrode 21A and the storage electrode 21B.
  • the configuration of the semiconductor substrate 30 will be described with reference to FIGS.
  • the reset transistor RST reset transistor Tr1rst resets the charge transferred from the organic photoelectric conversion unit 20 to the floating diffusion FD1, and is configured by, for example, a MOS transistor.
  • the reset transistor Tr1rst includes a reset gate Grst, a channel formation region 36A, and source / drain regions 36B and 36C.
  • the reset gate Grst is connected to the reset line RST1, and one source / drain region 36B of the reset transistor Tr1rst also serves as the floating diffusion FD1.
  • the other source / drain region 36C constituting the reset transistor Tr1rst is connected to the power supply VDD.
  • the amplifier transistor AMP is a modulation element that modulates the amount of charge generated in the organic photoelectric conversion unit 20 into a voltage, and is composed of, for example, a MOS transistor.
  • the amplifier transistor AMP includes a gate Gamp, a channel formation region 35A, and source / drain regions 35B and 35C.
  • the gate Gamp is connected to the first electrode 21A and one source / drain region 36B (floating diffusion FD1) of the reset transistor Tr1rst through the lower first contact 45, the connecting portion 41A, the lower second contact 46, the through electrode 34, and the like. It is connected.
  • one source / drain region 35B shares a region with the other source / drain region 36C constituting the reset transistor Tr1rst and is connected to the power supply VDD.
  • the selection transistor SEL selection transistor TR1sel
  • the selection transistor SEL includes a gate Gsel, a channel formation region 34A, and source / drain regions 34B and 34C.
  • the gate Gsel is connected to the selection line SEL1.
  • One source / drain region 34B shares a region with the other source / drain region 35C constituting the amplifier transistor AMP, and the other source / drain region 34C is a signal line (data output line) VSL1. It is connected to the.
  • the inorganic photoelectric conversion units 32 ⁇ / b> B and 32 ⁇ / b> R each have a pn junction in a predetermined region of the semiconductor substrate 30.
  • the inorganic photoelectric conversion units 32B and 32R are capable of spectrally separating light in the vertical direction by utilizing the fact that the wavelength of light absorbed in accordance with the incident depth of light in the silicon substrate is different.
  • the inorganic photoelectric conversion unit 32B selectively detects blue light and accumulates signal charges corresponding to blue, and is installed at a depth at which blue light can be efficiently photoelectrically converted.
  • the inorganic photoelectric conversion unit 32R selectively detects red light and accumulates signal charges corresponding to red, and is installed at a depth at which red light can be efficiently photoelectrically converted.
  • blue (B) is a color corresponding to a wavelength range of 450 nm to 495 nm
  • red (R) is a color corresponding to a wavelength range of 620 nm to 750 nm, for example.
  • Each of the inorganic photoelectric conversion units 32B and 32R only needs to be able to detect light in a part or all of the wavelength ranges.
  • the inorganic photoelectric conversion unit 32B includes, for example, a p + region that becomes a hole accumulation layer and an n region that becomes an electron accumulation layer.
  • the inorganic photoelectric conversion unit 32R includes, for example, a p + region serving as a hole accumulation layer and an n region serving as an electron accumulation layer (having a pnp stacked structure).
  • the n region of the inorganic photoelectric conversion unit 32B is connected to the vertical transfer transistor Tr2.
  • the p + region of the inorganic photoelectric conversion unit 32B is bent along the transfer transistor Tr2, and is connected to the p + region of the inorganic photoelectric conversion unit 32R.
  • the transfer transistor Tr2 (transfer transistor TR2trs) is for transferring the signal charges (here, electrons) corresponding to blue generated and accumulated in the inorganic photoelectric conversion unit 32B to the floating diffusion FD2. Since the inorganic photoelectric conversion unit 32B is formed at a deep position from the second surface 30B of the semiconductor substrate 30, the transfer transistor TR2trs of the inorganic photoelectric conversion unit 32B is preferably formed of a vertical transistor. The transfer transistor TR2trs is connected to the transfer gate line TG2. Further, a floating diffusion FD2 is provided in a region 37C in the vicinity of the gate Gtrs2 of the transfer transistor TR2trs. The charges accumulated in the inorganic photoelectric conversion unit 32B are read out to the floating diffusion FD2 through a transfer channel formed along the gate Gtrs2.
  • the transfer transistor Tr3 transfers the signal charge (here, electrons) generated in the inorganic photoelectric conversion unit 32R and corresponding to the accumulated red color to the floating diffusion FD3. It is configured.
  • the transfer transistor TR3trs is connected to the transfer gate line TG3. Further, a floating diffusion FD3 is provided in a region 38C in the vicinity of the gate Gtrs3 of the transfer transistor TR3trs.
  • the charge accumulated in the inorganic photoelectric conversion unit 32R is read out to the floating diffusion FD3 through a transfer channel formed along the gate Gtrs3.
  • a reset transistor TR2rst On the second surface 30B side of the semiconductor substrate 30, a reset transistor TR2rst, an amplifier transistor TR2amp, and a selection transistor TR2sel that constitute a control unit of the inorganic photoelectric conversion unit 32B are further provided. Further, a reset transistor TR3rst, an amplifier transistor TR3amp, and a selection transistor TR3sel that constitute a control unit of the inorganic photoelectric conversion unit 32R are provided.
  • the reset transistor TR2rst includes a gate, a channel formation region, and a source / drain region.
  • the gate of the reset transistor TR2rst is connected to the reset line RST2, and one source / drain region of the reset transistor TR2rst is connected to the power supply VDD.
  • the other source / drain region of the reset transistor TR2rst also serves as the floating diffusion FD2.
  • the amplifier transistor TR2amp includes a gate, a channel formation region, and a source / drain region.
  • the gate is connected to the other source / drain region (floating diffusion FD2) of the reset transistor TR2rst. Further, one source / drain region constituting the amplifier transistor TR2amp shares a region with one source / drain region constituting the reset transistor TR2rst, and is connected to the power supply VDD.
  • the selection transistor TR2sel includes a gate, a channel formation region, and a source / drain region.
  • the gate is connected to the selection line SEL2.
  • One source / drain region constituting the selection transistor TR2sel shares a region with the other source / drain region constituting the amplifier transistor TR2amp.
  • the other source / drain region constituting the selection transistor TR2sel is connected to a signal line (data output line) VSL2.
  • the reset transistor TR3rst includes a gate, a channel formation region, and a source / drain region.
  • the gate of the reset transistor TR3rst is connected to the reset line RST3, and one source / drain region constituting the reset transistor TR3rst is connected to the power supply VDD.
  • the other source / drain region constituting the reset transistor TR3rst also serves as the floating diffusion FD3.
  • the amplifier transistor TR3amp is composed of a gate, a channel formation region, and a source / drain region.
  • the gate is connected to the other source / drain region (floating diffusion FD3) constituting the reset transistor TR3rst.
  • one source / drain region constituting the amplifier transistor TR3amp shares a region with one source / drain region constituting the reset transistor TR3rst, and is connected to the power supply VDD.
  • the selection transistor TR3sel is composed of a gate, a channel formation region, and a source / drain region.
  • the gate is connected to the selection line SEL3. Further, one source / drain region constituting the selection transistor TR3sel shares a region with the other source / drain region constituting the amplifier transistor TR3amp.
  • the other source / drain region constituting the selection transistor TR3sel is connected to a signal line (data output line) VSL3.
  • the reset lines RST1, RST2, RST3, the selection lines SEL1, SEL2, SEL3, and the transfer gate lines TG2, TG3 are each connected to a vertical drive circuit 112 that constitutes a drive circuit.
  • the signal lines (data output lines) VSL1, VSL2, and VSL3 are connected to a column signal processing circuit 113 that constitutes a drive circuit.
  • the lower first contact 45, the lower second contact 46, the upper first contact 29A, and the upper second contact 29B are doped silicon materials such as PDAS (Phosphorus Doped Amorphous Silicon), or aluminum (Al), tungsten, for example. It is made of a metal material such as (W), titanium (Ti), cobalt (Co), hafnium (Hf), and tantalum (Ta).
  • PDAS Phosphorus Doped Amorphous Silicon
  • Al aluminum
  • tungsten for example. It is made of a metal material such as (W), titanium (Ti), cobalt (Co), hafnium (Hf), and tantalum (Ta).
  • the solid-state imaging device 10 can be manufactured, for example, as follows (FIGS. 9 to 14).
  • a p-well 31 is formed as a first conductivity type well in a semiconductor substrate 30, and a second conductivity type (for example, n-type) inorganic is formed in the p well 31.
  • Photoelectric converters 32B and 32R are formed.
  • a p + region is formed in the vicinity of the first surface 30 ⁇ / b> A of the semiconductor substrate 30.
  • n + regions to be the floating diffusions FD1 to FD3 are formed on the second surface 30B of the semiconductor substrate 30, and then the gate insulating layer 33, the transfer transistor Tr2, the transfer transistor Tr3, and the selection A gate wiring layer 47 including the gates of the transistor SEL, the amplifier transistor AMP, and the reset transistor RST is formed.
  • the transfer transistor Tr2, the transfer transistor Tr3, the selection transistor SEL, the amplifier transistor AMP, and the reset transistor RST are formed.
  • the wiring layers 41 to 43 (multilayer wiring 40) including the lower first contact 45, the lower second contact 46, and the connecting portion 41A and the insulating layer 44 are formed on the second surface 30B of the semiconductor substrate 30.
  • an SOI (Silicon On Insulator) substrate in which a semiconductor substrate 30, a buried oxide film (not shown), and a holding substrate (not shown) are stacked is used.
  • the buried oxide film and the holding substrate are bonded to the first surface 30 ⁇ / b> A of the semiconductor substrate 30. After ion implantation, annealing is performed.
  • a support substrate (not shown) or another semiconductor substrate is joined to the second surface 30B side (multilayer wiring 40 side) of the semiconductor substrate 30 and turned upside down.
  • the semiconductor substrate 30 is separated from the buried oxide film of the SOI substrate and the holding substrate, and the first surface 30A of the semiconductor substrate 30 is exposed.
  • the above steps can be performed by techniques used in a normal CMOS process, such as ion implantation and CVD (Chemical Vapor Deposition).
  • the semiconductor substrate 30 is processed from the first surface 30A side by dry etching, for example, to form, for example, an annular opening 34H.
  • the depth of the opening 34H penetrates from the first surface 30A to the second surface 30B of the semiconductor substrate 30 and reaches, for example, the connection portion 41A.
  • a negative fixed charge layer 27k is formed on the first surface 30A of the semiconductor substrate 30 and the side surfaces of the opening 34H. Two or more types of films may be stacked as the negative fixed charge layer 27k. Thereby, the function as a hole accumulation layer can be further enhanced.
  • the dielectric layer 27y is formed.
  • the upper first contact 29A is formed on the connection wirings 39A and 39B by using a photolithography method and a CMP (Chemical-Mechanical-Polishing) method.
  • an interlayer insulating layer 27s made of, for example, a SiO film in which the upper second contact 29B is embedded is formed.
  • a photoresist PR is applied to a predetermined position of the conductive film 21y. Form. Thereafter, the etching and the photoresist PR are removed, whereby the first electrode 21A and the storage electrode 21B are formed as shown in FIG.
  • an SiO film is formed on the interlayer insulating layer 27s, the first electrode 21A, and the storage electrode 21B, and then the SiO film is flattened using a CMP method.
  • the insulating layer 22 is formed on the interlayer insulating layer 27s, the first electrode 21A, and the storage electrode 21B.
  • the insulating layer 22 is formed using, for example, an ALD (Atomic Layer Deposition) method.
  • a photoresist PR is formed in a region facing the first electrode 21A, and the insulating layer 22 is etched using, for example, a dry etching method. Thereby, the opening 22H is formed.
  • the semiconductor layer 23, the barrier layer 24, the photoelectric conversion layer 25, and the second electrode 26 are formed in this order on the insulating layer 22 and the first electrode 21A.
  • the protective layer 51 is formed.
  • an optical member such as a planarizing layer and an on-chip lens 52 are disposed.
  • the solid-state image sensor 10 shown in FIG. 1 is completed.
  • green light is selectively detected (absorbed) by the organic photoelectric conversion unit 20 and subjected to photoelectric conversion.
  • the organic photoelectric conversion unit 20 is connected to the gate Gamp of the amplifier transistor AMP and the floating diffusion FD1 through the through electrode 34. Therefore, electrons out of the electron-hole pairs generated in the organic photoelectric conversion unit 20 are taken out from the first electrode 21A and storage electrode 21B side, and go to the second surface 30B side of the semiconductor substrate 30 through the through electrode 34. It is transferred and stored in the floating diffusion FD1. At the same time, the charge amount generated in the organic photoelectric conversion unit 20 is modulated into a voltage by the amplifier transistor AMP.
  • a reset gate Grst of the reset transistor RST is disposed next to the floating diffusion FD1. Thereby, the electric charge accumulated in the floating diffusion FD1 is reset by the reset transistor RST.
  • the organic photoelectric conversion unit 20 is connected not only to the amplifier transistor AMP but also to the floating diffusion FD1 via the through electrode 34, the charge accumulated in the floating diffusion FD1 is easily reset by the reset transistor RST. It becomes possible to do.
  • ⁇ Reset operation is performed in the latter part of the accumulation period. Specifically, the scanning unit changes the voltage of the reset signal RST from a low level to a high level at a predetermined timing. Thereby, in the unit pixel P, the reset transistor TR1rst is turned on. As a result, the voltage of the floating diffusion FD1 is set to the power supply voltage VDD, and the voltage of the floating diffusion FD1 is reset.
  • signal charge is read out.
  • the potential V2 is applied from the drive circuit to the first electrode 21A.
  • the potential V2 is V2 ⁇ V1.
  • the potential V2 may be a negative potential.
  • the barrier layer 24 functions as an insulating layer.
  • the solid-state imaging device 10 can be driven globally.
  • a predetermined potential V3 is applied from the drive circuit to the storage electrode 21B.
  • the barrier layer 24 functions as an insulating layer, and electric charges (here, electrons) generated in the photoelectric conversion layer 25 are accumulated in the photoelectric conversion layer 25 in a portion facing the storage electrode 21B (accumulation period). Holes generated in the photoelectric conversion layer 25 are discharged through the second electrode 26.
  • next transfer period (first transfer period)
  • a predetermined potential V4 is applied from the drive circuit to the storage electrode 21B.
  • the potential V4 is V3 ⁇ V4.
  • an electric field of a certain level or more is applied to the barrier layer 24, so that the signal charges accumulated in the photoelectric conversion layer 25 are transferred to the semiconductor layer 23 through the barrier layer 24 all at once (pixel P).
  • the signal charge transferred to the semiconductor layer 23 is held for a certain period in a portion of the semiconductor layer 23 facing the storage electrode 21B (memory period). Thereafter, signal charge is read out as needed.
  • the potential V4 is applied from the drive circuit to the first electrode 21A.
  • the potential V4 is V4 ⁇ V3.
  • the potential V4 may be a negative potential.
  • the barrier layer 24 functions as an insulating layer.
  • the inorganic photoelectric conversion unit 32R electrons corresponding to the incident red light are accumulated in the n region of the inorganic photoelectric conversion unit 32R, and the accumulated electrons are transferred to the floating diffusion FD3 by the transfer transistor Tr3.
  • the signal charge generated in the photoelectric conversion layer 25 is accumulated in the semiconductor layer 23 in a portion facing the accumulation electrode 21B.
  • the accumulated signal charge is transferred to the first electrode 21A and read out. That is, as with the inorganic photoelectric conversion units 32B and 32R, the organic photoelectric conversion unit 20 also stores signal charges once and then reads them out to the floating diffusion FD1. Thereby, the floating diffusion FD1 can be reset immediately before the transfer of the signal charge. Therefore, it is possible to remove noise components and improve image quality.
  • the barrier layer 24 is provided between the semiconductor layer 23 and the photoelectric conversion layer 25, occurrence of transfer failure of signal charges accumulated in the semiconductor layer 23 can be suppressed. This will be described below using a comparative example (Comparative Example 1).
  • FIG. 17 shows a schematic cross-sectional configuration of the main part of the solid-state imaging device (solid-state imaging device 100) according to Comparative Example 1.
  • the solid-state imaging device 100 is not provided with a barrier layer (the barrier layer 24 in FIG. 1), and the semiconductor layer 23 and the photoelectric conversion layer 25 are in contact with each other.
  • the signal charge accumulated in the semiconductor layer 23 is likely to return to the photoelectric conversion layer 25 having a lower mobility. Due to the reverse flow of the signal charge, a transfer failure of the signal charge occurs.
  • a barrier layer 24 is provided between the semiconductor layer 23 and the photoelectric conversion layer 25. Since the barrier layer 24 functions as an insulating layer when the potential V2 (FIG. 15) is applied to the storage electrode 21B, the movement of signal charges across the barrier layer 24 from the semiconductor layer 23 is suppressed. That is, the signal charge is unlikely to return from the semiconductor layer 23 to the photoelectric conversion layer 25. Therefore, the occurrence of a transfer failure of the signal charge accumulated in the semiconductor layer 23 can be suppressed.
  • the barrier layer 24 is provided between the semiconductor layer 23 and the photoelectric conversion layer 25, signal charges can be accumulated in the photoelectric conversion layer 25 during the global shutter driving (FIG. 16 accumulation periods).
  • the signal charges accumulated in the photoelectric conversion layer 25 are transferred to the semiconductor layer 23 all at once, and are temporarily held in the semiconductor layer 23 (memory period in FIG. 16).
  • the global shutter driving is performed without reducing the aperture ratio. Can be realized. This will be described below using a comparative example (Comparative Example 2).
  • FIG. 18 shows a schematic cross-sectional configuration of the main part of the solid-state imaging device (solid-state imaging device 101) according to Comparative Example 2. Similar to the solid-state image sensor 100, the solid-state image sensor 101 is not provided with a barrier layer (the barrier layer 24 in FIG. 1).
  • the solid-state imaging device 101 has a memory electrode (memory electrode 21M) and is configured to be capable of global shutter driving. For example, the memory electrode 21M is provided in parallel between the first electrode 21A and the storage electrode 21B. A portion of the semiconductor layer 23 facing the first electrode 21A and the memory electrode 21M is covered with a light shielding film (light shielding film 54).
  • signal charges generated in the photoelectric conversion layer 25 move to the semiconductor layer 23 and are accumulated in a portion of the semiconductor layer 23 facing the storage electrode 21B. Thereafter, this signal charge is transferred and held in the semiconductor layer 23 from the portion facing the storage electrode 21B to the portion facing the memory electrode 21M all at once in a pixel. That is, in the solid-state imaging device 101, signal charges are accumulated, transferred, and held (memory) along the surface direction of the semiconductor layer 23, and the portion of the semiconductor layer 23 facing the memory electrode 21M is shielded from light. Therefore, the aperture ratio decreases due to the provision of the global shutter function.
  • signal charges are accumulated, transferred, and held (memory) along the stacking direction of the semiconductor layer 23, the barrier layer 24, and the photoelectric conversion layer 25.
  • Global shutter driving can be realized without reducing the aperture ratio.
  • the barrier layer 24 is provided between the semiconductor layer 23 and the photoelectric conversion layer 25. Therefore, transfer of signal charges accumulated in the semiconductor layer 23 is performed. The occurrence of defects can be suppressed. Therefore, it is possible to improve element characteristics.
  • the barrier layer 24 since the barrier layer 24 is provided, signal charges are accumulated, transferred, and held (memory) along the stacking direction of the semiconductor layer 23, the barrier layer 24, and the photoelectric conversion layer 25.
  • the global shutter drive can be realized without reducing the aperture ratio.
  • FIG. 19 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10A) according to Modification 1 of the first embodiment.
  • the solid-state imaging device 10A is a front-illuminated solid-state imaging device, and light is incident on the semiconductor substrate 30 from the second surface 30B side. Except for this point, the solid-state imaging device 10 ⁇ / b> A has the same configuration and effects as the solid-state imaging device 10.
  • connection unit 41A Between the second surface 30B of the semiconductor substrate 30 and the organic photoelectric conversion unit 20 (first electrode 21A, storage electrode 21B), a connection unit 41A, a multilayer wiring 40, an interlayer insulating layer 27s, and the like are provided.
  • the first electrode 21A is connected to the connection portion 41A via an upper first contact 29A and a connection wiring 39A provided in the interlayer insulating layer 27s. That is, in the surface irradiation type solid-state imaging device 10A, the through electrode of the semiconductor substrate 30 (the through electrode 34 in FIG. 1) is not necessary.
  • FIG. 20 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10B) according to Modification 2 of the first embodiment.
  • the solid-state imaging device 10B has one inorganic photoelectric conversion unit (inorganic photoelectric conversion unit 32C) in the semiconductor substrate 30. Except for this point, the solid-state imaging device 10B has the same configuration and effects as the solid-state imaging device 10.
  • the inorganic photoelectric conversion part 32C is a part that photoelectrically converts light transmitted through the color filter layer 53 and the organic photoelectric conversion part 20.
  • the solid-state imaging device 10B may be provided with an inorganic photoelectric conversion unit 32C that detects light of different colors.
  • the solid-state imaging device 10B includes, for example, a color filter layer 53 between the organic photoelectric conversion unit 20 and the on-chip lens 52, and the color filter layer 53 is disposed at a position facing the inorganic photoelectric conversion unit 32C. ing.
  • the color filter layer 53 may be provided between the semiconductor substrate 30 and the organic photoelectric conversion unit 20 (not shown).
  • the number of inorganic photoelectric conversion units (inorganic photoelectric conversion units 32C) provided on the semiconductor substrate 30 may be one.
  • light having an arbitrary wavelength can be selectively used for each pixel.
  • the solid-state imaging device 10B may be a surface irradiation type solid-state imaging device.
  • FIG. 22 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10C) according to Modification 3 of the first embodiment.
  • the inorganic photoelectric conversion unit inorganic photoelectric conversion units 32R and 32B in FIG. 1 or the inorganic photoelectric conversion unit 32C in FIG. 20
  • the solid-state imaging device 10 ⁇ / b> C has the same configuration and effects as the solid-state imaging device 10.
  • This solid-state image sensor 10C has a color filter layer 53 as in the solid-state image sensor 10B of the second modification.
  • the color filter layer 53 may be provided between the organic photoelectric conversion unit 20 and the on-chip lens 52 (FIG. 20), or provided between the semiconductor substrate 30 and the organic photoelectric conversion unit 20. (Not shown). In such a solid-state imaging device 10C, it becomes possible to selectively use light of an arbitrary wavelength for each pixel.
  • the inorganic photoelectric conversion part is not provided in the semiconductor substrate 30, the degree of freedom in selecting the conductive material constituting the first electrode 21A and the storage electrode 21B can be improved.
  • the conductive material forming the first electrode 21A and the storage electrode 21B is not limited to a light-transmitting conductive material, and a metal material with higher versatility can be used.
  • a multilayer imaging device can be configured.
  • the solid-state imaging device 10C may be a surface irradiation type solid-state imaging device.
  • a circuit for improving the function may be provided on a portion of the semiconductor substrate 30 facing the first electrode 21A and the storage electrode 21B.
  • FIG. 24 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10D) according to Modification 4 of the first embodiment.
  • the solid-state imaging device 10D includes a transfer electrode 21C as an electrode facing the second electrode 26 with the semiconductor layer 23 therebetween, in addition to the first electrode 21A and the storage electrode 21B.
  • the transfer electrode 21 ⁇ / b> C is for controlling the movement of the signal charge in the semiconductor layer 23. Except for this point, the solid-state imaging device 10 ⁇ / b> D has the same configuration and effects as the solid-state imaging device 10.
  • FIG. 25 shows a planar configuration of the first electrode 21A, the storage electrode 21B, and the transfer electrode 21C.
  • the first electrode 21A, the storage electrode 21B, and the transfer electrode 21C are provided apart from each other.
  • the transfer electrode 21C has, for example, a rectangular planar shape, and is provided side by side with the first electrode 21A and the storage electrode 21B.
  • the transfer electrode 21C is disposed between the first electrode 21A and the storage electrode 21B.
  • the transfer electrode 62C is for improving the efficiency of transferring the signal charge accumulated in the storage electrode 21B to the first electrode 21A, and faces the semiconductor layer 23 with the insulating layer 22 in between.
  • the transfer electrode 21C is connected to, for example, a pixel drive circuit (not shown) constituting the drive circuit via the upper third contact 29C and the connection wiring 39C.
  • the first electrode 21A, the storage electrode 21B, and the transfer electrode 21C can independently apply a voltage. For example, by adjusting the potential applied to the transfer electrode 21C, the signal charge stored in the semiconductor layer 23 in the portion facing the storage electrode 21B is prevented from unintentionally moving to the first electrode 21A. Can do.
  • the transfer efficiency of the signal charges accumulated in the semiconductor layer 23 can be further improved by the transfer electrode 21C between the first electrode 21A and the storage electrode 21B.
  • the solid-state imaging device 10D may be a surface irradiation type (see FIG. 19).
  • One inorganic photoelectric conversion unit 32C may be provided in the semiconductor substrate 30 of the solid-state imaging device 10D (see FIGS. 20 and 21), or the inorganic photoelectric conversion unit is provided in the semiconductor substrate 30. There is no need (see FIGS. 22 and 23).
  • FIG. 26 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10E) according to Modification 5 of the first embodiment.
  • the solid-state imaging device 10E includes a discharge electrode 21D in addition to the first electrode 21A and the storage electrode 21B as an electrode facing the second electrode 26 with the semiconductor layer 23 therebetween. Except for this point, the solid-state imaging device 10E has the same configuration and effects as the solid-state imaging device 10.
  • FIG. 27 shows a planar configuration of the first electrode 21A, the storage electrode 21B, and the discharge electrode 21D.
  • the first electrode 21A, the storage electrode 21B, and the discharge electrode 21D are provided apart from each other.
  • the discharge electrode 21D is provided so as to surround the first electrode 21A and the storage electrode 21B.
  • the discharge electrode 21D is provided in common for the pixels, for example.
  • the discharge electrode 21D may be provided separately for each pixel (not shown).
  • the discharge electrode 21 ⁇ / b> D is provided in the opening of the insulating layer 22 and is electrically connected to the semiconductor layer 23.
  • the discharge electrode 21D is used to send a signal charge that is not sufficiently attracted by the storage electrode 21B, or a surplus signal charge (so-called overflowed signal charge) when a signal charge exceeding the transfer capability is generated to the drive circuit. Is.
  • the discharge electrode 21D is connected to, for example, a pixel drive circuit (not shown) constituting the drive circuit via the upper fourth contact 29D and the connection wiring 39D.
  • the first electrode 21A, the storage electrode 21B, and the discharge electrode 21D can independently apply a voltage.
  • the excess signal charges generated in the semiconductor layer 23 can be discharged without remaining in the semiconductor layer 23 by the discharge electrode 21 ⁇ / b> D electrically connected to the semiconductor layer 23. It becomes.
  • the solid-state imaging device 10E may be a surface irradiation type (see FIG. 19).
  • One inorganic photoelectric conversion unit 32C may be provided in the semiconductor substrate 30 of the solid-state imaging device 10E (see FIGS. 20 and 21), or the inorganic photoelectric conversion unit is provided in the semiconductor substrate 30. There is no need (see FIGS. 22 and 23).
  • the solid-state imaging device 10E may have a transfer electrode 21C together with the discharge electrode 21D (see FIG. 24).
  • FIG. 28 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10F) according to Modification 6 of the first embodiment.
  • the solid-state imaging device 10F includes a shielding electrode 21E as an electrode facing the second electrode 26 with the semiconductor layer 23 therebetween, in addition to the first electrode 21A and the storage electrode 21B. Except for this point, the solid-state imaging device 10F has the same configuration and effects as the solid-state imaging device 10.
  • the first electrode 21A, the storage electrode 21B, and the shielding electrode 21E are provided apart from each other.
  • the shield electrode 21E is provided side by side with the first electrode 21A and the storage electrode 21B, and is disposed between the adjacent storage electrodes 21B.
  • the shielding electrode 21E is for suppressing leakage of signal charges between the adjacent storage electrodes 21B, and faces the semiconductor layer 23 with the insulating layer 22 therebetween.
  • the shield electrode 21E is connected to, for example, a pixel drive circuit (not shown) constituting the drive circuit via the upper fifth contact 29E and the connection wiring 39E.
  • the first electrode 21A, the storage electrode 21B, and the shielding electrode 21E can each independently apply a voltage.
  • the leakage of signal charges between the adjacent storage electrodes 21B can be suppressed by the shielding electrode 21E provided between the adjacent storage electrodes 21B.
  • the solid-state imaging device 10F may be a surface irradiation type (see FIG. 19).
  • One inorganic photoelectric conversion unit 32C may be provided in the semiconductor substrate 30 of the solid-state imaging device 10F (see FIGS. 20 and 21), or the inorganic photoelectric conversion unit is provided in the semiconductor substrate 30. There is no need (see FIGS. 22 and 23).
  • the solid-state imaging device 10F may have a transfer electrode 21C (see FIG. 24) or a discharge electrode 21D (see FIG. 26) together with the shielding electrode 21E.
  • FIG. 29 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 10G) according to Modification 7 of the first embodiment.
  • the solid-state imaging device 10G includes a light shielding film 54 that covers the first electrode 21A with the photoelectric conversion layer 25 interposed therebetween. Except for this point, the solid-state imaging device 10G has the same configuration and effects as the solid-state imaging device 10.
  • the light shielding film 54 is provided, for example, between the second electrode 26 and the on-chip lens 52, and covers the photoelectric conversion layer 25 in a portion facing the first electrode 21A. Thereby, photoelectric conversion in a region (photoelectric conversion layer 25) close to the first electrode 21A is suppressed. Therefore, it is possible to suppress transfer of excess signal charges to the first electrode 21A.
  • the light shielding film 54 includes, for example, a metal such as tungsten (W) and aluminum (Al), and may be composed of a single metal or may be composed of an alloy.
  • the light shielding film 54 may include a constituent material of a color filter layer (for example, the color filter layer 53 in FIG. 20), or may have a laminated structure. A part of the storage electrode 21 ⁇ / b> B may be covered with the light shielding film 54.
  • the portion of the photoelectric conversion layer 25 facing the first electrode 21A is covered with the light shielding film 54, so that transfer of excess signal charges to the first electrode 21A can be suppressed.
  • the solid-state imaging device 10G may be a surface irradiation type (see FIG. 19).
  • One inorganic photoelectric conversion unit 32C may be provided in the semiconductor substrate 30 of the solid-state imaging device 10G (see FIGS. 20 and 21), or the inorganic photoelectric conversion unit is provided in the semiconductor substrate 30. There is no need (see FIGS. 22 and 23).
  • the solid-state imaging device 10G may include a transfer electrode 21C (see FIG. 24), a discharge electrode 21D (see FIG. 26), or a shielding electrode 21E (see FIG. 28). A part of the transfer electrode 21C, the discharge electrode 21D, or the shielding electrode 21E may be covered with the light shielding film 54.
  • FIG. 30 schematically illustrates a cross-sectional configuration of a main part of a solid-state imaging device (solid-state imaging device 60) according to the second embodiment of the present disclosure.
  • the joint surface (joint surface 20S) between the semiconductor layer 23 and the photoelectric conversion layer 25 functions as a potential barrier. That is, in the solid-state imaging device 60, a bonding surface 20S serving as a potential barrier is provided instead of the barrier layer (the barrier layer 24 in FIG. 1). Except for this point, the solid-state imaging device 60 has the same configuration and effects as the solid-state imaging device 10 of the first embodiment.
  • FIG. 31 shows an example of potential energy of the semiconductor layer 23 and the photoelectric conversion layer 25.
  • a potential barrier is formed on the bonding surface 20S between the semiconductor layer 23 and the photoelectric conversion layer 25.
  • a joint surface 20S is configured under the following conditions.
  • the semiconductor layer 23 When the signal charge is an electron, the semiconductor layer 23 has a potential energy of a conduction band lower than the potential of the conductor of the photoelectric conversion layer 25, and is lower than the Fermi level (vacuum order reference) of the photoelectric conversion layer 25. Has a low Fermi level.
  • the semiconductor layer 23 When the signal charge is a hole, the semiconductor layer 23 has a potential energy higher than the potential energy of the valence band of the photoelectric conversion layer 25 and has a Fermi level lower than the Fermi level of the photoelectric conversion layer 25. is doing.
  • the joint surface 20S between the semiconductor layer 23 and the photoelectric conversion layer 25 functions as a potential barrier, so that the signal accumulated in the semiconductor layer 23 is the same as in the solid-state imaging device 10.
  • the occurrence of charge transfer failure can be suppressed. Therefore, it is possible to improve element characteristics.
  • the solid-state imaging device 60 may be a surface irradiation type (see FIG. 19).
  • One inorganic photoelectric conversion unit 32C may be provided in the semiconductor substrate 30 of the solid-state imaging device 60 (see FIGS. 20 and 21), or the inorganic photoelectric conversion unit is provided in the semiconductor substrate 30. There is no need (see FIGS. 22 and 23).
  • the solid-state imaging device 60 may include a transfer electrode 21C (see FIG. 24), a discharge electrode 21D (see FIG. 26), or a shielding electrode 21E (see FIG. 28).
  • the solid-state imaging device 60 may be provided with a light shielding film 54 (see FIG. 29).
  • FIG. 32 shows a solid-state imaging device (solid-state imaging device) using the solid-state imaging device 10 (or the solid-state imaging devices 10A to 10G, 60, hereinafter collectively referred to as the solid-state imaging device 10) described in the above-described embodiments and the like for each pixel.
  • the solid-state imaging device 1 is a CMOS image sensor, and has a pixel unit 1a as an imaging area on a semiconductor substrate 30, and, for example, a row scanning unit 131 and a horizontal selection unit 133 in a peripheral region of the pixel unit 1a.
  • the peripheral circuit unit 130 includes a column scanning unit 134 and a system control unit 132.
  • the pixel unit 1a includes, for example, a plurality of pixels P (solid-state imaging device 10) that are two-dimensionally arranged in a matrix.
  • a pixel drive line Lread (for example, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading a signal from the pixel P.
  • One end of the pixel drive line Lread is connected to an output end corresponding to each row of the row scanning unit 131.
  • the row scanning unit 131 includes a shift register, an address decoder, and the like, and is a pixel driving unit that drives each pixel P in the element region R1 in units of rows, for example.
  • a signal output from each pixel P in the pixel row selected and scanned by the row scanning unit 131 is supplied to the horizontal selection unit 133 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 133 is configured by an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 134 includes a shift register, an address decoder, and the like, and drives the horizontal selection switches in the horizontal selection unit 133 in order while scanning. By the selective scanning by the column scanning unit 134, the signal of each pixel transmitted through each of the vertical signal lines Lsig is sequentially output to the horizontal signal line 135 and is input to the signal processing unit (not shown) through the horizontal signal line 135.
  • the signal processing unit not shown
  • the system control unit 132 receives a clock supplied from the outside, data for instructing an operation mode, and the like, and outputs data such as internal information of the image sensor 4.
  • the system control unit 132 further includes a timing generator that generates various timing signals.
  • the row scanning unit 131, the horizontal selection unit 133, the column scanning unit 134, and the like are based on the various timing signals generated by the timing generator. Drive control is performed.
  • the solid-state imaging device 1 can be applied to all types of electronic devices having an imaging function, such as a camera system such as a digital still camera and a video camera, and a mobile phone having an imaging function.
  • FIG. 33 shows a schematic configuration of the electronic device 2 (camera) as an example.
  • the electronic device 2 is, for example, a video camera capable of taking a still image or a moving image, and includes a solid-state imaging device 1, an optical system (optical lens) 310, a shutter device 311, the solid-state imaging device 1 and the shutter device 311.
  • a driving unit 313 for driving and a signal processing unit 312 are included.
  • the optical system 310 guides image light (incident light) from the subject to the image sensor 4.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls the light irradiation period and the light shielding period for the solid-state imaging device 1.
  • the drive unit 313 controls the transfer operation of the solid-state imaging device 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various types of signal processing on the signal output from the solid-state imaging device 1.
  • the video signal Dout after the signal processing is stored in a storage medium such as a memory, or is output to a monitor or the like.
  • ⁇ Application example 3> ⁇ Application example to in-vivo information acquisition system>
  • the technology (present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 34 is a block diagram illustrating an example of a schematic configuration of a patient in-vivo information acquisition system using a capsule endoscope to which the technology (present technology) according to the present disclosure can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach and the intestine by peristaltic motion or the like until it is spontaneously discharged from the patient.
  • Images (hereinafter also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to the external control device 10200 outside the body.
  • the external control device 10200 comprehensively controls the operation of the in-vivo information acquisition system 10001. Further, the external control device 10200 receives information about the in-vivo image transmitted from the capsule endoscope 10100 and, based on the received information about the in-vivo image, displays the in-vivo image on the display device (not shown). The image data for displaying is generated.
  • an in-vivo image obtained by imaging the inside of the patient's body can be obtained at any time in this manner until the capsule endoscope 10100 is swallowed and discharged.
  • the capsule endoscope 10100 includes a capsule-type casing 10101.
  • a light source unit 10111 In the casing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power supply unit 10115, and a power supply unit 10116 and the control unit 10117 are stored.
  • the light source unit 10111 includes a light source such as an LED (light-emitting diode), and irradiates the imaging field of the imaging unit 10112 with light.
  • a light source such as an LED (light-emitting diode)
  • the image capturing unit 10112 includes an image sensor and an optical system including a plurality of lenses provided in front of the image sensor. Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor. In the imaging unit 10112, in the imaging element, the observation light incident thereon is photoelectrically converted, and an image signal corresponding to the observation light is generated. The image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various types of signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the radio communication unit 10114 with the image signal subjected to signal processing as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal that has been subjected to signal processing by the image processing unit 10113, and transmits the image signal to the external control apparatus 10200 via the antenna 10114A.
  • the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A.
  • the wireless communication unit 10114 provides a control signal received from the external control device 10200 to the control unit 10117.
  • the power feeding unit 10115 includes a power receiving antenna coil, a power regeneration circuit that regenerates power from a current generated in the antenna coil, a booster circuit, and the like. In the power feeding unit 10115, electric power is generated using a so-called non-contact charging principle.
  • the power supply unit 10116 is composed of a secondary battery, and stores the electric power generated by the power supply unit 10115.
  • FIG. 34 in order to avoid complication of the drawing, illustration of an arrow or the like indicating a power supply destination from the power supply unit 10116 is omitted, but the power stored in the power supply unit 10116 is stored in the light source unit 10111.
  • the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the control unit 10117 can be used for driving them.
  • the control unit 10117 includes a processor such as a CPU, and a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115. Control accordingly.
  • a processor such as a CPU
  • the external control device 10200 is configured by a processor such as a CPU or GPU, or a microcomputer or a control board in which a processor and a storage element such as a memory are mounted.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • the capsule endoscope 10100 for example, the light irradiation condition for the observation target in the light source unit 10111 can be changed by a control signal from the external control device 10200.
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 10112
  • a control signal from the external control device 10200 can be changed by a control signal from the external control device 10200.
  • the contents of processing in the image processing unit 10113 and the conditions (for example, the transmission interval, the number of transmission images, etc.) by which the wireless communication unit 10114 transmits an image signal may be changed by a control signal from the external control device 10200. .
  • the external control device 10200 performs various image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaic processing), image quality enhancement processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various signal processing such as electronic zoom processing can be performed.
  • the external control device 10200 controls driving of the display device to display an in-vivo image captured based on the generated image data.
  • the external control device 10200 may cause the generated image data to be recorded on a recording device (not shown) or may be printed out on a printing device (not shown).
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. Thereby, detection accuracy improves.
  • ⁇ Application example 4> ⁇ Application example to endoscopic surgery system>
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 35 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology (present technology) according to the present disclosure can be applied.
  • FIG. 35 shows a state in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000.
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as an insufflation tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. And a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid mirror having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible lens barrel. Good.
  • An opening into which the objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. Irradiation is performed toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: “Camera Control Unit”) 11201 as RAW data.
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various kinds of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example.
  • image processing for example, development processing (demosaic processing
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 includes a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the drive of the energy treatment instrument 11112 for tissue ablation, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 passes gas into the body cavity via the insufflation tube 11111.
  • the recorder 11207 is an apparatus capable of recording various types of information related to surgery.
  • the printer 11208 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies the irradiation light when imaging the surgical site to the endoscope 11100 can be configured from a white light source configured by, for example, an LED, a laser light source, or a combination thereof.
  • a white light source configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • laser light from each of the RGB laser light sources is irradiated on the observation target in a time-sharing manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing, thereby corresponding to each RGB. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the drive of the image sensor of the camera head 11102 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • a so-called narrow-band light observation (Narrow Band Imaging) is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 36 is a block diagram showing an example of the functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other by a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. Observation light taken from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 can be provided corresponding to each imaging element.
  • the imaging unit 11402 is not necessarily provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • a so-called AE (Auto-Exposure) function, AF (Auto-Focus) function, and AWB (Auto-White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various types of control related to imaging of the surgical site by the endoscope 11100 and display of a captured image obtained by imaging of the surgical site. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a picked-up image showing the surgical part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 11112, and the like by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may display various types of surgery support information superimposed on the image of the surgical unit using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 11131, thereby reducing the burden on the operator 11131 and allowing the operator 11131 to proceed with surgery reliably.
  • the transmission cable 11400 for connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400.
  • communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). You may implement
  • FIG. 37 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an out-of-vehicle information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, or vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 38 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 38 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104. Such pedestrian recognition is, for example, whether or not the user is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that there is a pedestrian in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed.
  • voice image output part 12052 may control the display part 12062 so that the icon etc. which show a pedestrian may be displayed on a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the solid-state imaging device 1 in FIG. 32 can be applied to the imaging unit 12031.
  • the solid-state imaging device 10 or the like is configured by stacking the organic photoelectric conversion unit 20 that detects green light and the inorganic photoelectric conversion units 32B and 32R that detect blue light and red light, respectively.
  • the present disclosure is not limited to such a structure. That is, red light or blue light may be detected in the organic photoelectric conversion unit, or green light may be detected in the inorganic photoelectric conversion unit.
  • the number and ratio of these organic photoelectric conversion units and inorganic photoelectric conversion units are not limited, and two or more organic photoelectric conversion units may be provided.
  • a red photoelectric conversion unit and a green photoelectric unit each including an organic semiconductor material that can selectively absorb light in a predetermined wavelength range through an insulating layer on a substrate.
  • the same effects as those of the above-described embodiment and the like can be obtained also in the vertical direction spectral solid-state imaging device in which the conversion unit and the blue photoelectric conversion unit are stacked in this order.
  • the present technology can provide the same effects as those of the above-described embodiment and the like even in a solid-state imaging device in which an organic photoelectric conversion unit and an inorganic photoelectric conversion unit are arranged in parallel along the substrate surface.
  • the configuration of the solid-state imaging device of the present disclosure is not limited to the combinations shown in the above embodiments and the like.
  • the solid-state imaging device may include a transfer electrode 21C, a discharge electrode 21D, and a shielding electrode 21E.
  • the storage electrode 21B may be divided into two or more than three.
  • solid-state imaging device and the solid-state imaging device according to the present disclosure need not include all the components described in the above-described embodiments and the like, and may include other layers.
  • the present disclosure may be configured as follows. (1) A photoelectric conversion layer; A first electrode and a second electrode facing each other with the photoelectric conversion layer interposed therebetween; A semiconductor layer provided between the first electrode and the photoelectric conversion layer; A storage electrode facing the photoelectric conversion layer with the semiconductor layer in between; An insulating film provided between the storage electrode and the semiconductor layer; A solid-state imaging device comprising: a barrier layer provided between the semiconductor layer and the photoelectric conversion layer.
  • a photoelectric conversion layer A first electrode and a second electrode facing each other with the photoelectric conversion layer interposed therebetween; A semiconductor layer provided between the first electrode and the photoelectric conversion layer and having a potential barrier on a joint surface with the photoelectric conversion layer; A storage electrode facing the photoelectric conversion layer with the semiconductor layer in between; An insulating film provided between the storage electrode and the semiconductor layer; A solid-state imaging device.
  • the photoelectric conversion layer includes an organic semiconductor material, The solid-state imaging device according to (1) or (2), wherein the semiconductor layer includes a semiconductor material having a mobility higher than that of the organic semiconductor material.
  • the solid-state imaging device according to (1), wherein the first electrode, the semiconductor layer, the barrier layer, the photoelectric conversion layer, and the second electrode are provided in this order on the first surface of the semiconductor substrate. .
  • the solid-state imaging device according to any one of (1) to (3), including a multilayer wiring provided between the second surface of the semiconductor substrate and the first electrode.
  • (6) Furthermore, it has an inorganic photoelectric conversion part provided in the said semiconductor substrate.
  • the solid-state image sensor as described in said (4) or (5).
  • the semiconductor device according to any one of (1) to (6), further including a transfer electrode that is provided to face the semiconductor layer with the insulating film interposed therebetween and controls movement of signal charges in the semiconductor layer.
  • Solid-state image sensor The solid-state imaging device according to any one of (1) to (7), further including a discharge electrode that is provided apart from the first electrode and is electrically connected to the semiconductor layer.
  • the solid-state imaging device according to any one of (1) to (8), further including a light-shielding film that covers the first electrode with the photoelectric conversion layer interposed therebetween.
  • the barrier layer includes silicon oxide, silicon nitride, silicon oxynitride, or an organic material.
  • the solid-state imaging device is A photoelectric conversion layer; A first electrode and a second electrode facing each other with the photoelectric conversion layer interposed therebetween; A semiconductor layer provided between the first electrode and the photoelectric conversion layer; A storage electrode facing the photoelectric conversion layer with the semiconductor layer in between; An insulating film provided between the storage electrode and the semiconductor layer; A solid-state imaging device including a barrier layer provided between the semiconductor layer and the photoelectric conversion layer.
  • the solid-state imaging device is A photoelectric conversion layer; A first electrode and a second electrode facing each other with the photoelectric conversion layer interposed therebetween; A semiconductor layer provided between the first electrode and the photoelectric conversion layer and having a potential barrier on a joint surface with the photoelectric conversion layer; A storage electrode facing the photoelectric conversion layer with the semiconductor layer in between; A solid-state imaging device including an insulating film provided between the storage electrode and the semiconductor layer. (13) Furthermore, it has a shielding electrode facing the semiconductor layer with the insulating film in between, The solid-state imaging device according to (11) or (12), wherein the shielding electrode is disposed between the adjacent storage electrodes.
  • a plurality of pixels provided with the solid-state image sensor The solid-state imaging device according to any one of (11) to (13), wherein the semiconductor layer is provided separately for each pixel.
  • a plurality of pixels provided with the solid-state image sensor The solid-state imaging device according to any one of (11) to (14), wherein the photoelectric conversion layer is provided separately for each pixel.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

光電変換層と、前記光電変換層を間にして対向する第1電極および第2電極と、前記第1電極と前記光電変換層との間に設けられた半導体層と、前記半導体層を間にして前記光電変換層に対向する蓄積電極と、前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、前記半導体層と前記光電変換層との間に設けられた障壁層とを備えた固体撮像素子。

Description

固体撮像素子および固体撮像装置
 本開示は、例えば有機光電変換材料を用いた固体撮像素子および固体撮像装置に関する。
 CCD(Charge Coupled Device)イメージセンサおよびCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子が、固体撮像装置に用いられている。固体撮像素子には、例えば、有機光電変換材料を含む光電変換層が設けられている(例えば、特許文献1参照)。
特開2016-63165号公報
 このような固体撮像素子および固体撮像装置では、例えば、信号電荷の転送不良等の発生を抑え、素子特性を向上させることが望まれている。
 したがって、素子特性を向上させることが可能な固体撮像素子および固体撮像装置を提供することが望ましい。
 本開示の一実施の形態に係る第1の固体撮像素子は、光電変換層と、光電変換層を間にして対向する第1電極および第2電極と、第1電極と光電変換層との間に設けられた半導体層と、半導体層を間にして光電変換層に対向する蓄積電極と、蓄積電極と半導体層との間に設けられた絶縁膜と、半導体層と光電変換層との間に設けられた障壁層とを備えたものである。
 本開示の一実施の形態に係る第1の固体撮像装置は、上記本開示の一実施の形態に係る第1の固体撮像素子を備えたものである。
 本開示の一実施の形態に係る第1の固体撮像素子および固体撮像装置では、光電変換層で発生した信号電荷が半導体層に蓄積された後、第1電極に読み出される。ここで、半導体層と光電変換層との間に障壁層が設けられているので、半導体層に蓄積された信号電荷は、光電変換層に戻りにくくなる。障壁層は、信号電荷の移動の際に、電位的または物理的な障壁として機能する。
 本開示の一実施の形態に係る第2の固体撮像素子は、光電変換層と、光電変換層を間にして対向する第1電極および第2電極と、第1電極と光電変換層との間に設けられ、光電変換層との接合面に電位障壁を有する半導体層と、半導体層を間にして光電変換層に対向する蓄積電極と、蓄積電極と半導体層との間に設けられた絶縁膜とを備えたものである。
 本開示の一実施の形態に係る第2の固体撮像装置は、上記本開示の一実施の形態に係る第2の固体撮像素子を備えたものである。
 本開示の一実施の形態に係る第2の固体撮像素子および固体撮像装置では、光電変換層で発生した信号電荷が半導体層に蓄積された後、第1電極に読み出される。ここで、半導体層と光電変換層との接合面に電位障壁が設けられているので、半導体層に蓄積された信号電荷は、光電変換層に戻りにくくなる。
 本開示の一実施の形態に係る第1の固体撮像素子および固体撮像装置によれば、半導体層と光電変換層との間に障壁層を設けるようにし、また、本開示の一実施の形態に係る第2の固体撮像素子および固体撮像装置によれば、半導体層と光電変換層との接合面に電位障壁を設けるようにしたので、半導体層に蓄積された信号電荷の転送不良の発生を抑えることができる。よって、素子特性を向上させることが可能となる。
 尚、上記内容は本開示の一例である。本開示の効果は、上述したものに限らず、他の異なる効果であってもよいし、更に他の効果を含んでいてもよい。
本開示の第1の実施の形態に係る固体撮像素子の概略構成を表す断面模式図である。 図1に示した第1電極および蓄積電極の平面構成を表す模式図である。 図1に示した半導体層の他の例を表す断面模式図である。 図1に示した障壁層のエネルギーについて説明するための図(1)である。 図1に示した障壁層のエネルギーについて説明するための図(2)である。 図1に示した光電変換層の他の例を表す断面模式図である。 図1に示した半導体層および光電変換層の他の例を表す断面模式図である。 図1に示した固体撮像素子の等価回路図である。 図1に示した固体撮像素子の第1電極,蓄積電極および各種トランジスタの配置を表す模式図である。 図1に示した固体撮像素子の製造方法の一工程を表す断面模式図である。 図9に続く工程を表す断面模式図である。 図10に続く工程を表す断面模式図である。 図11に続く工程を表す断面模式図である。 図12に続く工程を表す断面模式図である。 図13に続く工程を表す断面模式図である。 図1に示した固体撮像素子の動作について説明するための模式図である。 図1に示した固体撮像素子のグローバルシャッタ駆動について説明するための模式図である。 比較例1に係る固体撮像素子の概略構成を表す断面模式図である。 比較例2に係る固体撮像素子の概略構成を表す断面模式図である。 変形例1に係る固体撮像素子の概略構成を表す断面模式図である。 変形例2に係る固体撮像素子の概略構成を表す断面模式図である。 図20に示した固体撮像素子の他の例を表す断面模式図である。 変形例3に係る固体撮像素子の概略構成を表す断面模式図である。 図22に示した固体撮像素子の他の例を表す断面模式図である。 変形例4に係る固体撮像素子の概略構成を表す断面模式図である。 図24に示した第1電極、蓄積電極および転送電極の平面構成を表す模式図である。 変形例5に係る固体撮像素子の概略構成を表す断面模式図である。 図26に示した第1電極、蓄積電極および排出電極の平面構成を表す模式図である。 変形例6に係る固体撮像素子の概略構成を表す断面模式図である。 変形例7に係る固体撮像素子の概略構成を表す断面模式図である。 本開示の第2の実施の形態に係る固体撮像素子の概略構成を表す断面模式図である。 図30に示した接合面によって形成される電位障壁について説明するための模式図である。 図1等に示した固体撮像素子を含む固体撮像装置の構成を表すブロック図である。 図32に示した撮像素子を用いた電子機器(カメラ)の一例を表す機能ブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示における実施形態について、図面を参照して詳細に説明する。なお、説明する順序は、下記の通りである。
1.第1の実施の形態(半導体層と光電変換層との間に障壁層を有する固体撮像素子の例)
2.変形例1(半導体基板の第1面に多層配線を設けた例)
3.変形例2(半導体基板内に1つのフォトダイオード部を有する例)
4.変形例3(半導体基板内にフォトダイオード部を有しない例)
5.変形例4(第1電極と蓄積電極との間に転送電極を有する例)
6.変形例5(第1電極と分離された排出電極を有する例)
7.変形例6(隣り合う蓄積電極の間に遮蔽電極を有する例)
8.変形例7(第1電極に対向する遮光膜を有する例)
9.第2の実施の形態(半導体層と光電変換層との接合面に電位障壁が設けられた固体撮像素子)
10.適用例1(固体撮像装置の例)
11.適用例2(電子機器の例)
12.適用例3(体内情報取得システムへの応用例)
13.適用例4(内視鏡手術システムへの応用例)
14.適用例5(移動体への応用例)
<1.第1の実施の形態>
 図1は、本開示の第1の実施の形態の固体撮像素子(固体撮像素子10)の断面構成を模式的に表したものである。この固体撮像素子10は、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等の固体撮像装置(例えば、図32の固体撮像装置1)において1つの画素(単位画素P)を構成するものである。
(1-1.固体撮像素子の構成)
 固体撮像素子10は、例えば、1つの有機光電変換部20と、2つの無機光電変換部32B,32Rとが縦方向に積層された、いわゆる縦方向分光型のものである。有機光電変換部20は、半導体基板30の第1面30A(裏面)側に設けられている。半導体基板30は、第1面30Aに対向する第2面30B(表面)を有している。固体撮像素子10では、第1面30A側から光が入射し(光入射側S1)、第2面30B側に多層配線(配線層側S2)が設けられている。
 無機光電変換部32B,32Rは、半導体基板30内に埋め込み形成されており、半導体基板30の厚み方向に積層されている。有機光電変換部20は、対向配置された一対の電極(第1電極21Aおよび第2電極26)の間に、有機光電変換材料を用いて形成された光電変換層25を有している。この光電変換層25は、p型半導体およびn型半導体を含んで構成され、層内にバルクヘテロ接合構造を有する。バルクヘテロ接合構造は、p型半導体およびn型半導体が混ざり合うことで形成されたp/n接合面である。
 有機光電変換部20と、無機光電変換部32B,32Rとは、互いに異なる波長域の光を選択的に検出して光電変換を行うものである。具体的には、有機光電変換部20では、緑(G)の色信号を取得する。無機光電変換部32B,32Rでは、吸収係数の違いにより、それぞれ、青(B)および赤(R)の色信号を取得する。これにより、固体撮像素子10Aでは、カラーフィルタを用いることなく一つの画素において複数種類の色信号を取得可能となっている。
 なお、本実施の形態では、光電変換によって生じる電子および正孔の対(電子-正孔対)のうち、電子を信号電荷として読み出す場合について説明する。また、図中において、「p」「n」に付した「+(プラス)」は、p型またはn型の不純物濃度が高いことを表し、「++」はp型またはn型の不純物濃度が「+」よりも更に高いことを表している。
 半導体基板30の第2面30Bには、例えば、フローティングディフュージョン(浮遊拡散層)FD1(半導体基板30内の領域36B),FD2(半導体基板30内の領域37C),FD3(半導体基板30内の領域38C)と、転送トランジスタTr2,Tr3と、アンプトランジスタ(変調素子)AMPと、リセットトランジスタRSTと、選択トランジスタSELと、多層配線40とが設けられている。多層配線40は、例えば、配線層41,42,43が絶縁層44内に積層された構成を有している。
 半導体基板30の第1面30Aと有機光電変換部20との間には、例えば、固定電荷を有する層(固定電荷層)27kと、絶縁性を有する誘電体層27yと、層間絶縁層22sとが設けられている。有機光電変換部20の上(光入射側S1)には、保護層51が設けられている。保護層51の上方には、平坦化層(図示せず)やオンチップレンズ52等の光学部材が配設されている。
 半導体基板30の第1面30Aと第2面30Bとの間には、貫通電極34が設けられている。有機光電変換部20は、この貫通電極34を介して、アンプトランジスタAMPのゲートGampと、フローティングディフュージョンFD1を兼ねるリセットトランジスタRST(リセットトランジスタTr1rst)の一方のソース/ドレイン領域36Bに接続されている。これにより、固体撮像素子10では、半導体基板30の第1面30A側の有機光電変換部20で生じた電荷(ここでは、電子)を、貫通電極34を介して半導体基板30の第2面30B側に良好に転送し、特性を高めることが可能となっている。
 貫通電極34の下端は、配線層41内の接続部41Aに接続されており、接続部41Aと、アンプトランジスタAMPのゲートGampとは、下部第1コンタクト45を介して接続されている。接続部41Aと、フローティングディフュージョンFD1(領域36B)とは、例えば、下部第2コンタクト46を介して接続されている。貫通電極34の上端は、例えば、接続配線39Aおよび上部第1コンタクト29Aを介して第1電極21Aに接続されている。
 貫通電極34は、例えば、固体撮像素子10の各々に、有機光電変換部20ごとに設けられている。貫通電極34は、有機光電変換部20とアンプトランジスタAMPのゲートGampおよびフローティングディフュージョンFD1とのコネクタとしての機能を有すると共に、有機光電変換部20において生じた電荷(ここでは、電子)の伝送経路となるものである。貫通電極34は、例えば、アルミニウム,タングステン,チタン,コバルト,ハフニウムおよびタンタル等の金属材料により構成されている。貫通電極34は、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料により構成されていてもよい。
 フローティングディフュージョンFD1(リセットトランジスタRSTの一方のソース/ドレイン領域36B)の隣にはリセットトランジスタRSTのリセットゲートGrstが配置されている。これにより、フローティングディフュージョンFD1に蓄積された電荷を、リセットトランジスタRSTによりリセットすることが可能となる。
 本実施の形態の固体撮像素子10では、第2電極26側から有機光電変換部20に入射した光は、光電変換層25で吸収される。これによって生じた励起子は、光電変換層25を構成する電子供与体と電子受容体との界面に移動し、励起子分離、即ち、電子と正孔とに解離する。ここで発生した一方の電荷(例えば電子)は、蓄積電極21Bに対向する半導体層23内に蓄積され、他方の電荷(例えば正孔)は、第2電極26に排出される。
 以下、各部の構成や材料等について説明する。
 有機光電変換部20は、選択的な波長域(例えば、450nm以上650nm以下)の一部または全部の波長域に対応する緑色光を吸収して、電子-正孔対を発生させる有機光電変換素子である。この有機光電変換部20は、半導体基板30の第1面30Aに近い位置から順に、第1電極21Aおよび蓄積電極21Bと、絶縁層22と、半導体層23と、障壁層24と、光電変換層25と、第2電極26とを有している。絶縁層22には、開口22Hが設けられ、この開口22Hにより、半導体層23に第1電極21Aが電気的に接続されている。蓄積電極21Bと半導体層23との間には、絶縁層22が介在している。
 図2は、第1電極21Aおよび蓄積電極21Bの平面構成を表している。第1電極21Aおよび蓄積電極21Bは各々、例えば、四角形の平面形状を有しており、互いに離間して配置されている。例えば、蓄積電極21Bの面積の方が、第1電極21Aの面積よりも大きくなっている。一つの画素(画素P)には、例えば、1つの第1電極21Aと、1つの蓄積電極21Bとが設けられている。第1電極21Aは、光電変換層25内で発生した電荷(ここでは、電子)をフローティングディフュージョンFD1に転送するためのものであり、読み出し電極として機能する。この第1電極21Aは、例えば、上部第1コンタクト29A、接続配線39A、貫通電極34、接続部41Aおよび下部第2コンタクト46を介してフローティングディフュージョンFD1に接続されている。
 半導体層23を間にして光電変換層25に対向する蓄積電極21Bは、光電変換層25内で発生した電荷のうち、信号電荷(例えば、電子)を半導体層23内に蓄積するためのものである。蓄積電極21Bは、半導体基板30内に形成された無機光電変換部32B,32Rの受光面と正対して、これらの受光面を覆う領域に設けられている。蓄積電極21Bは、例えば、上部第2コンタクト29Bおよび接続配線39Bを介して駆動回路(図示せず)に電気的に接続されている。蓄積電極21Bの面積を、第1電極21Aの面積よりも大きくすることにより、多くの電荷が蓄積される。
 第1電極21Aおよび蓄積電極21Bは、例えば、光透過性を有する導電膜により構成され、例えば、ITO(インジウム錫酸化物)により構成されている。但し、下部電極21の構成材料としては、このITOの他にも、ドーパントを添加した酸化スズ(SnO2)系材料、あるいはアルミニウム亜鉛酸化物(ZnO)にドーパントを添加してなる酸化亜鉛系材料を用いてもよい。酸化亜鉛系材料としては、例えば、ドーパントとしてアルミニウム(Al)を添加したアルミニウム亜鉛酸化物(AZO)、ガリウム(Ga)添加のガリウム亜鉛酸化物(GZO)、インジウム(In)添加のインジウム亜鉛酸化物(IZO)が挙げられる。また、この他にも、CuI、InSbO4、ZnMgO、CuInO2、MgIN24、CdO、ZnSnO3等を用いてもよい。
 第1電極21Aは、遮光性を有する導電性材料により構成するようにしてもよい。具体的には、第1電極21Aを、アルミニウム(Al)、タングステン(W)、チタン(Ti)、モリブデン(Mo)、タンタル(Ta)、銅(Cu)、コバルト(Co)、ニッケル(Ni)等の金属膜、または、これらの合金膜、あるいは、これらの金属膜にシリコン、あるいは、酸素を含有させた膜等により構成するようにしてもよい。
 絶縁層22は、蓄積電極21Bと半導体層23とを電気的に分離するためのものであり、第1電極21Aおよび蓄積電極21Bを覆うように、例えば、層間絶縁層27s上に設けられている。この絶縁層22に設けられた開口22Hにより、第1電極21Aが絶縁層22から露出され、半導体層23に接している。絶縁層22は、例えば、酸化シリコン、TEOS(Tetra Ethyl Ortho Silicate)窒化シリコンおよび酸窒化シリコン(SiON)等のうちの1種よりなる単層膜か、あるいはこれらのうちの2種以上よりなる積層膜により構成されている。絶縁層22の厚みは、例えば、3nm~500nmである。
 第1電極21Aまたは絶縁層22と光電変換層25との間に設けられた半導体層23は、光電変換層25よりも電荷の移動度が高く、且つ、バンドギャップが大きな材料を用いて構成されていることが好ましい。例えば、半導体層23の構成材料のバンドギャップは、3.0eV以上であることが好ましい。このような材料としては、例えば、IGZO等の酸化物半導体材料および有機半導体材料等が挙げられる。有機半導体材料としては、例えば、遷移金属ダイカルコゲナイド、シリコンカーバイド、ダイヤモンド、グラフェン、カーボンナノチューブ、縮合多環炭化水素化合物および縮合複素環化合物等が挙げられる。半導体層23は、単膜により構成するようにしてもよく、あるいは複数の膜を積層して構成するようにしてもよい。半導体層23の厚みは、例えば10nm~500nmであり、好ましくは30nm~150nm、より好ましくは50nm~100nmである。このような半導体層23を光電変換層25の下層に設けることにより、電荷蓄積時における電荷の再結合を防止することができ、転送効率を向上させることが可能となる。
 半導体層23の構成材料の不純物濃度は、1×1018cm-3以下であることが好ましい。半導体層23は、例えば、複数の固体撮像素子10に共通して設けられている(図1)。
 図3に示したように、素子(画素)毎に半導体層23を分離して設けるようにしてもよい。このとき、隣り合う固体撮像素子10の半導体層23の間には、素子分離層(素子分離層20i)が配置される。
 本実施の形態では、この半導体層23と光電変換層25との間に障壁層24が設けられている。障壁層24は、信号電荷の移動の際に、電位的または物理的な障壁として機能するものである。詳細は後述するが、これにより、半導体層23に蓄積された信号電荷が、光電変換層25に戻りにくくなるので、転送不良の発生が抑えられる。障壁層24は、半導体層23と光電変換層25との間の電荷の移動を制御するものであり、電荷移動のエネルギー障壁として機能するようになっている。
 図4Aは、障壁層24の構成材料の電子親和力を模式的に表している。信号電荷が電子であるとき、障壁層24の構成材料の電子親和力(電子親和力EA2)は、光電変換層25の構成材料の電子親和力(電子親和力EA1)および半導体層23の構成材料の電子親和力(電子親和力EA3)よりも小さくなっている。障壁層24を設けることにより、半導体層23の構成材料の電子親和力EA3は、光電変換層25の構成材料の電子親和力EA1と同じになっていてもよく、あるいは、電子親和力EA1よりも小さくなっていてもよい。即ち、半導体層23および光電変換層25の構成材料の自由度を高めることができる。
 図4Bは、障壁層24の構成材料のイオン化ポテンシャルを模式的に表している。信号電荷が正孔であるとき、障壁層24の構成材料のイオン化ポテンシャル(イオン化ポテンシャルIP2)は、光電変換層25の構成材料のイオン化ポテンシャル(イオン化ポテンシャルIP1)および半導体層23の構成材料のイオン化ポテンシャル(イオン化ポテンシャルIP3)よりも大きくなっている。
 障壁層24は、例えば、酸化シリコン(SiO),窒化シリコン(SiN)または酸窒化シリコン(SiON)により構成されており、その厚みは0.1nm~50nm、好ましくは1nm~10nmである。信号電荷が電子であるとき、障壁層24が、電子注入ブロック機能を有する有機材料により構成されていてもよい。信号電荷が正孔であるとき、障壁層24が、正孔注入ブロック機能を有する有機材料により構成されていてもよい。障壁層24は、例えば、複数の固体撮像素子10に共通して設けられている(図1)。
 障壁層24と第2電極26との間に設けられた光電変換層25は、光エネルギーを電気エネルギーに変換するものである。光電変換層25は、例えば、それぞれp型半導体またはn型半導体として機能する有機半導体材料(p型半導体材料またはn型半導体材料)を2種以上含んで構成されている。光電変換層25は、層内に、このp型半導体材料とn型半導体材料との接合面(p/n接合面)を有する。p型半導体は、相対的に電子供与体(ドナー)として機能するものであり、n型半導体は、相対的に電子受容体(アクセプタ)として機能するものである。光電変換層25は、光を吸収した際に生じる励起子が電子と正孔とに分離する場を提供するものであり、具体的には、電子供与体と電子受容体との界面(p/n接合面)において、励起子が電子と正孔とに分離する。
 光電変換層25は、p型半導体材料およびn型半導体材料の他に、所定の波長域の光を光電変換する一方、他の波長域の光を透過させる有機半導体材料、いわゆる色素材料を含んで構成されていてもよい。光電変換層25をp型半導体材料、n型半導体材料および色素材料の3種類の有機半導体材料を用いて形成する場合には、p型半導体材料およびn型半導体材料は、可視領域(例えば、450nm~800nm)において光透過性を有する材料であることが好ましい。光電変換層25の厚みは、例えば、50nm~500nmである。光電変換層25は、例えば、複数の固体撮像素子10に共通して設けられている(図1)。
 図5,図6に示したように、素子(画素)毎に光電変換層25を分離して設けるようにしてもよい。このとき、隣り合う固体撮像素子10の光電変換層25の間には、保護層51が配置される。半導体層23を複数の固体撮像素子10に共通して設け、障壁層24および光電変換層25を素子毎に分離して設けるようにしてもよい(図5)。半導体層23、障壁層24および光電変換層25を素子毎に分離して設けるようにしてもよい(図6)。
 光電変換層25は、例えば、p型半導体、n型半導体および色素材料を含んでいる。p型半導体としては、例えば、チオフェン誘導体、ベンゾチエノベンゾチオフェン誘導体、フェロセン誘導体、パラフェニレンビニレン誘導体、カルバゾール誘導体、ピロール誘導体、アニリン誘導体、ジアミン誘導体、フタロシアニン誘導体、サブフタロシアニン誘導体、ヒドラゾン誘導体、ナフタレン誘導体、アントラセン誘導体、フェナントレン誘導体、ピレン誘導体、ペリレン誘導体、テトラセン誘導体、ペンタセン誘導体、キナクリドン誘導体、チエノチオフェン誘導体、ベンゾチオフェン誘導体、トリアリルアミン誘導体、ペリレン誘導体、ピセン誘導体、クリセン誘導体、フルオランテン誘導体、サブポルフィラジン誘導体、複素環化合物を配位子とする金属錯体、ポリチオフェン誘導体、ポリベンゾチアジアゾール誘導体およびポリフルオレン誘導体等が挙げられる。これらの材料は、比較的移動度が高く、正孔輸送性の設計をし易い。
 光電変換層25に含まれるn型半導体としては、例えば、フラーレンまたはフラーレン誘導体が挙げられる。このフラーレンは、例えば、高次フラーレンおよび内包フラーレン等である。高次フラーレンは、例えば、C60、C70およびC74等である。フラーレン誘導体は、例えば、フラーレンフッ化物、PCBM([6,6]-Phenyl-C61-Butyric Acid Methyl Ester)フラーレン化合物およびフラーレン多量体等である。フラーレン誘導体には、ハロゲン原子、アルキル基、フェニル基、芳香族化合物を有する官能基、ハロゲン化物を有する官能基、パーシャルフルオロアルキル基、パーフルオロアルキル基、シリルアルキル基、シリルアルコシキ基、アリールシリル基、アリールスルファニル基、アルキルスルファニル基、アリールスルホニル基、アルキルスルホニル基、アリールスルフィド基、アルキルスルフィド基、アミノ基、アルキルアミノ基、アリールアミノ基、ヒドロキシ基、アルコキシ基、アシルアミノ基、アシルオキシ基、カルボニル基、カルボキシ基、カルボキシアミド基、カルボアルコシキ基、アシル基、スルホニル基、シアノ基、ニトロ基、カルコゲン化物を有する基、ホスフィン基またはホスホン基等が含まれていてもよい。アルキル基は直鎖状であっても、分岐していてもよい。環状のアルキル基がフラーレン誘導体に含まれていてもよい。芳香族化合物は、複数の環状構造体を有していてもよい。複数の環状構造体は、単結合で結合されていてもよく、あるいは縮環構造を有していてもよい。
 光電変換層25に含まれるn型半導体は、例えば、オキサゾール誘導体、オキサジアゾール誘導体、トリアゾール誘導体、複素環化合物を分子骨格の一部に有する有機分子、有機金属錯体またはサブフタロシアニン誘導体等であってもよい。複素環化合物は、窒素原子、酸素原子または硫黄原子を含んでいる。複素環化合物は、例えば、ピリジン誘導体、ピラジン誘導体、ピリミジン誘導体、トリアジン誘導体、キノリン誘導体、キノキサリン誘導体、イソキノリン誘導体、アクリジン誘導体、フェナジン誘導体、フェナントロリン誘導体、テトラゾール誘導体、ピラゾール誘導体、イミダゾール誘導体、チアゾール誘導体、イミダゾール誘導体、ベンズイミダゾール誘導体、ベンゾトリアゾール誘導体、ベンズオキサゾール誘導体、カルバゾール誘導体、ベンゾフラン誘導体、ジベンゾフラン誘導体、サブポルフィラジン誘導体、ポリフェニレンビニレン誘導体、ポリベンゾチアジアゾール誘導体およびポリフルオレン誘導体等である。これらの材料は、比較的移動度が高く、電子輸送性の設計をし易い。
 光電変換層25に含まれる色素材料としては、例えば、フタロシアニン誘導体、サブフタロシアニン誘導体、キナクリドン誘導体、ナフタロシアニン誘導体およびスクアリリウム誘導体等が挙げられる。光電変換層25には、ローダミン系色素、メラシアニン系色素、クマリン酸色素またはトリス―8-ヒドリキシキノリアルミニウム(Alq3)等がふくまれていてもよい。光電変換層25は、複数の材料を含んでいてもよく、あるいは、積層構造を有していてもよい。光電変換層25が、直接光電変換に寄与しない材料を含んでいてもよい。
 光電変換層25と第1電極21Aとの間(具体的には、半導体層23と絶縁層22との間)、および光電変換層25と第2電極26との間には、他の層が設けられていてもよい。具体的には、例えば、第1電極21A側から順に、下引き膜、正孔輸送層、電子ブロッキング膜 、光電変換層25、正孔ブロッキング膜、バッファ膜、電子輸送層および仕事関数調整膜等が積層されていてもよい。
 第2電極26は、半導体層23、障壁層24および光電変換層25を間にして、第1電極21Aおよび蓄積電極21Bに対向している。この第2電極26は、第1電極21A,蓄積電極21Bと同様に光透過性を有する導電膜により構成されている。固体撮像素子10を1つの画素として用いた固体撮像装置1では、第2電極26は画素毎に分離されていてもよいし、各画素に共通の電極として形成されていてもよい。第2電極26の厚みは、例えば、10nm~200nmである。
 絶縁層22と半導体基板30の第1面30Aとの間に設けられた層間絶縁層27sは、例えば、酸化シリコン、窒化シリコンおよび酸窒化シリコン(SiON)等のうちの1種よりなる単層膜か、あるいはこれらのうちの2種以上よりなる積層膜により構成されている。
 層間絶縁層27sと半導体基板30の第1面30Aとの間に、誘電体層27yが設けられている。この誘電体層27yの材料は特に限定されないが、例えば、シリコン酸化膜、TEOS、シリコン窒化膜、シリコン酸窒化膜等によって形成されている。
 誘電体層27yと半導体基板30の第1面30Aとの間に、固定電荷層27kが設けられている。この固定電荷層27kは、正の固定電荷を有する膜でもよいし、負の固定電荷を有する膜でもよい。負の固定電荷を有する膜の材料としては、酸化ハフニウム、酸化アルミニウム、酸化ジルコニウム、酸化タンタル、酸化チタン等が挙げられる。また上記以外の材料としては酸化ランタン、酸化プラセオジム、酸化セリウム、酸化ネオジム、酸化プロメチウム、酸化サマリウム、酸化ユウロピウム、酸化ガドリニウム、酸化テルビウム、酸化ジスプロシウム、酸化ホルミウム、酸化ツリウム、酸化イッテルビウム、酸化ルテチウム、酸化イットリウム、窒化アルミニウム膜、酸窒化ハフニウム膜または酸窒化アルミニウム膜等を用いてもよい。
 固定電荷層27kは、2種類以上の膜を積層した構成を有していてもよい。それにより、例えば負の固定電荷を有する膜の場合には正孔蓄積層としての機能をさらに高めることが可能である。
 第2電極26を覆うように保護層51が設けられている。この保護層51は、光透過性を有する材料により構成され、例えば、酸化シリコン、窒化シリコンおよび酸窒化シリコン等のうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜により構成されている。この保護層51の厚みは、例えば、100nm~30000nmである。
 保護層51上にオンチップレンズ52が設けられている。このオンチップレンズ52は、例えば、蓄積電極21Bに対向する領域に設けられており、蓄積電極21Bに対向する部分の光電変換層25に入射光が集光されるようになっている。固体撮像素子10にはボンディングパッド(図示せず)が設けられていてもよい。
 半導体基板30は、例えば、n型のシリコン(Si)基板により構成され、所定領域にpウェル31を有している。pウェル31の第2面30Bには、上述した転送トランジスタTr2,Tr3と、アンプトランジスタAMPと、リセットトランジスタRSTと、選択トランジスタSEL等が設けられている。また、半導体基板30の周辺部には、ロジック回路等からなる周辺回路(図示せず)が設けられている。
 図7は、固体撮像素子10の等価回路図であり、図8は、第1電極21A,蓄積電極21Bとともに、各トランジスタの配置を表すものである。図1とともに、図7,8を用いて半導体基板30の構成を説明する。
 リセットトランジスタRST(リセットトランジスタTr1rst)は、有機光電変換部20からフローティングディフュージョンFD1に転送された電荷をリセットするものであり、例えばMOSトランジスタにより構成されている。具体的には、リセットトランジスタTr1rstは、リセットゲートGrstと、チャネル形成領域36Aと、ソース/ドレイン領域36B,36Cとから構成されている。リセットゲートGrstは、リセット線RST1に接続され、リセットトランジスタTr1rstの一方のソース/ドレイン領域36Bは、フローティングディフュージョンFD1を兼ねている。リセットトランジスタTr1rstを構成する他方のソース/ドレイン領域36Cは、電源VDDに接続されている。
 アンプトランジスタAMPは、有機光電変換部20で生じた電荷量を電圧に変調する変調素子であり、例えばMOSトランジスタにより構成されている。具体的には、アンプトランジスタAMPは、ゲートGampと、チャネル形成領域35Aと、ソース/ドレイン領域35B,35Cとから構成されている。ゲートGampは、下部第1コンタクト45、接続部41A、下部第2コンタクト46および貫通電極34等を介して、第1電極21AおよびリセットトランジスタTr1rstの一方のソース/ドレイン領域36B(フローティングディフュージョンFD1)に接続されている。また、一方のソース/ドレイン領域35Bは、リセットトランジスタTr1rstを構成する他方のソース/ドレイン領域36Cと、領域を共有しており、電源VDDに接続されている。
 選択トランジスタSEL(選択トランジスタTR1sel)は、ゲートGselと、チャネル形成領域34Aと、ソース/ドレイン領域34B,34Cとから構成されている。ゲートGselは、選択線SEL1に接続されている。また、一方のソース/ドレイン領域34Bは、アンプトランジスタAMPを構成する他方のソース/ドレイン領域35Cと、領域を共有しており、他方のソース/ドレイン領域34Cは、信号線(データ出力線)VSL1に接続されている。
 無機光電変換部32B,32Rは、それぞれ、半導体基板30の所定領域にpn接合を有する。無機光電変換部32B,32Rは、シリコン基板において光の入射深さに応じて吸収される光の波長が異なることを利用して縦方向に光を分光することを可能としたものである。無機光電変換部32Bは、青色光を選択的に検出して青色に対応する信号電荷を蓄積させるものであり、青色光を効率的に光電変換可能な深さに設置されている。無機光電変換部32Rは、赤色光を選択的に検出して赤色に対応する信号電荷を蓄積させるものであり、赤色光を効率的に光電変換可能な深さに設置されている。なお、青(B)は、例えば450nm~495nmの波長域、赤(R)は、例えば620nm~750nmの波長域にそれぞれ対応する色である。無機光電変換部32B,32Rはそれぞれ、各波長域のうちの一部または全部の波長域の光を検出可能となっていればよい。
 無機光電変換部32Bは、例えば、正孔蓄積層となるp+領域と、電子蓄積層となるn領域とを含んで構成されている。無機光電変換部32Rは、例えば、正孔蓄積層となるp+領域と、電子蓄積層となるn領域とを有する(p-n-pの積層構造を有する)。無機光電変換部32Bのn領域は、縦型の転送トランジスタTr2に接続されている。無機光電変換部32Bのp+領域は、転送トランジスタTr2に沿って屈曲し、無機光電変換部32Rのp+領域につながっている。
 転送トランジスタTr2(転送トランジスタTR2trs)は、無機光電変換部32Bにおいて発生し、蓄積された、青色に対応する信号電荷(ここでは、電子)を、フローティングディフュージョンFD2に転送するためのものである。無機光電変換部32Bは半導体基板30の第2面30Bから深い位置に形成されているので、無機光電変換部32Bの転送トランジスタTR2trsは縦型のトランジスタにより構成されていることが好ましい。また、転送トランジスタTR2trsは、転送ゲート線TG2に接続されている。更に、転送トランジスタTR2trsのゲートGtrs2の近傍の領域37Cには、フローティングディフュージョンFD2が設けられている。無機光電変換部32Bに蓄積された電荷は、ゲートGtrs2に沿って形成される転送チャネルを介してフローティングディフュージョンFD2に読み出される。
 転送トランジスタTr3(転送トランジスタTR3trs)は、無機光電変換部32Rにおいて発生し、蓄積された赤色に対応する信号電荷(ここでは、電子)を、フローティングディフュージョンFD3に転送するものであり、例えばMOSトランジスタにより構成されている。また、転送トランジスタTR3trsは、転送ゲート線TG3に接続されている。更に、転送トランジスタTR3trsのゲートGtrs3の近傍の領域38Cには、フローティングディフュージョンFD3が設けられている。無機光電変換部32Rに蓄積された電荷は、ゲートGtrs3に沿って形成される転送チャネルを介してフローティングディフュージョンFD3に読み出される。
 半導体基板30の第2面30B側には、さらに、無機光電変換部32Bの制御部を構成するリセットトランジスタTR2rstと、アンプトランジスタTR2ampと、選択トランジスタTR2selが設けられている。また、無機光電変換部32Rの制御部を構成するリセットトランジスタTR3rstと、アンプトランジスタTR3ampおよび選択トランジスタTR3selが設けられている。
 リセットトランジスタTR2rstは、ゲート、チャネル形成領域およびソース/ドレイン領域から構成されている。リセットトランジスタTR2rstのゲートはリセット線RST2に接続され、リセットトランジスタTR2rstの一方のソース/ドレイン領域は電源VDDに接続されている。リセットトランジスタTR2rstの他方のソース/ドレイン領域は、フローティングディフュージョンFD2を兼ねている。
 アンプトランジスタTR2ampは、ゲート、チャネル形成領域およびソース/ドレイン領域から構成されている。ゲートは、リセットトランジスタTR2rstの他方のソース/ドレイン領域(フローティングディフュージョンFD2)に接続されている。また、アンプトランジスタTR2ampを構成する一方のソース/ドレイン領域は、リセットトランジスタTR2rstを構成する一方のソース/ドレイン領域と領域を共有しており、電源VDDに接続されている。
 選択トランジスタTR2selは、ゲート、チャネル形成領域およびソース/ドレイン領域から構成されている。ゲートは、選択線SEL2に接続されている。また、選択トランジスタTR2selを構成する一方のソース/ドレイン領域は、アンプトランジスタTR2ampを構成する他方のソース/ドレイン領域と領域を共有している。選択トランジスタTR2selを構成する他方のソース/ドレイン領域は、信号線(データ出力線)VSL2に接続されている。
 リセットトランジスタTR3rstは、ゲート、チャネル形成領域およびソース/ドレイン領域から構成されている。リセットトランジスタTR3rstのゲートはリセット線RST3に接続され、リセットトランジスタTR3rstを構成する一方のソース/ドレイン領域は電源VDDに接続されている。リセットトランジスタTR3rstを構成する他方のソース/ドレイン領域は、フローティングディフュージョンFD3を兼ねている。
 アンプトランジスタTR3ampは、ゲート、チャネル形成領域およびソース/ドレイン領域から構成されている。ゲートは、リセットトランジスタTR3rstを構成する他方のソース/ドレイン領域(フローティングディフュージョンFD3)に接続されている。また、アンプトランジスタTR3ampを構成する一方のソース/ドレイン領域は、リセットトランジスタTR3rstを構成する一方のソース/ドレイン領域と、領域を共有しており、電源VDDに接続されている。
 選択トランジスタTR3selは、ゲート、チャネル形成領域およびソース/ドレイン領域から構成されている。ゲートは、選択線SEL3に接続されている。また、選択トランジスタTR3selを構成する一方のソース/ドレイン領域は、アンプトランジスタTR3ampを構成する他方のソース/ドレイン領域と、領域を共有している。選択トランジスタTR3selを構成する他方のソース/ドレイン領域は、信号線(データ出力線)VSL3に接続されている。
 リセット線RST1,RST2,RST3、選択線SEL1,SEL2,SEL3、転送ゲート線TG2,TG3は、それぞれ、駆動回路を構成する垂直駆動回路112に接続されている。信号線(データ出力線)VSL1,VSL2,VSL3は、駆動回路を構成するカラム信号処理回路113に接続されている。
 下部第1コンタクト45、下部第2コンタクト46、上部第1コンタクト29Aおよび上部第2コンタクト29Bは、例えば、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料、または、アルミニウム(Al)、タングステン(W)、チタン(Ti)、コバルト(Co)、ハフニウム(Hf)、タンタル(Ta)等の金属材料により構成されている。
(1-2.固体撮像素子の製造方法)
 固体撮像素子10は、例えば、次のようにして製造することができる(図9~図14)。
 まず、図9に示したように、半導体基板30内に、第1の導電型のウェルとして例えばpウェル31を形成し、このpウェル31内に第2の導電型(例えばn型)の無機光電変換部32B,32Rを形成する。半導体基板30の第1面30A近傍にはp+領域を形成する。
 半導体基板30の第2面30Bには、同じく図9に示したように、例えばフローティングディフュージョンFD1~FD3となるn+領域を形成したのち、ゲート絶縁層33と、転送トランジスタTr2、転送トランジスタTr3、選択トランジスタSEL、アンプトランジスタAMPおよびリセットトランジスタRSTの各ゲートを含むゲート配線層47とを形成する。これにより、転送トランジスタTr2、転送トランジスタTr3、選択トランジスタSEL、アンプトランジスタAMPおよびリセットトランジスタRSTを形成する。更に、半導体基板30の第2面30B上に、下部第1コンタクト45、下部第2コンタクト46および接続部41Aを含む配線層41~43(多層配線40)および絶縁層44を形成する。
 半導体基板30の基体としては、例えば、半導体基板30と、埋込み酸化膜(図示せず)と、保持基板(図示せず)とを積層したSOI(Silicon on Insulator)基板を用いる。埋込み酸化膜および保持基板は、図9には図示しないが、半導体基板30の第1面30Aに接合されている。イオン注入後、アニール処理を行う。
 次いで、半導体基板30の第2面30B側(多層配線40側)に支持基板(図示せず)または他の半導体基体等を接合して、上下反転する。続いて、半導体基板30をSOI基板の埋込み酸化膜および保持基板から分離し、半導体基板30の第1面30Aを露出させる。以上の工程は、イオン注入およびCVD(Chemical Vapor Deposition)等、通常のCMOSプロセスで使用されている技術にて行うことが可能である。
 次いで、図10に示したように、例えばドライエッチングにより半導体基板30を第1面30A側から加工し、例えば環状の開口34Hを形成する。開口34Hの深さは、図10に示したように、半導体基板30の第1面30Aから第2面30Bまで貫通すると共に、例えば、接続部41Aまで達するものである。
 続いて、半導体基板30の第1面30Aおよび開口34Hの側面に、例えば負の固定電荷層27kを形成する。負の固定電荷層27kとして、2種類以上の膜を積層してもよい。それにより、正孔蓄積層としての機能をより高めることが可能となる。負の固定電荷層27kを形成したのち、誘電体層27yを形成する。次に、誘電体層27y上の所定の位置に接続配線39A,39Bを形成したのち、フォトリソグラフィ法およびCMP(Chemical Mechanical Polishing)法を用いて、接続配線39A,39B上に上部第1コンタクト29Aおよび上部第2コンタクト29Bが埋め込まれた、例えばSiO膜からなる層間絶縁層27sを形成する。
 続いて、図11に示したように、上部第1コンタクト29A、上部第2コンタクト29Bおよび層間絶縁層27s上に導電膜21yを成膜したのち、導電膜21yの所定の位置にフォトレジストPRを形成する。その後、エッチングおよびフォトレジストPRを除去することで、図12に示したように、第1電極21Aおよび蓄積電極21Bが形成される。
 次いで、層間絶縁層27s、第1電極21Aおよび蓄積電極21B上に、例えばSiO膜を成膜したのち、CMP法を用いてSiO膜を平坦化する。続いて、層間絶縁層27s、第1電極21Aおよび蓄積電極21B上に絶縁層22を成膜する。絶縁層22は、例えばALD(Atomic Layer Deposition)法を用いて成膜する。
 次に、図13に示したように、第1電極21Aに対向する領域にフォトレジストPRを形成し、例えばドライエッチング法を用いて絶縁層22をエッチングする。これにより、開口22Hが形成される。
 続いて、図14に示したように、絶縁層22および第1電極21A上に、半導体層23、障壁層24、光電変換層25および第2電極26をこの順に形成する。次いで、保護層51を形成する。その後、平坦化層等の光学部材およびオンチップレンズ52を配設する。以上により、図1に示した固体撮像素子10が完成する。
(1-3.固体撮像素子の動作)
 固体撮像素子10では、有機光電変換部20に、オンチップレンズ52を介して光が入射すると、その光は、有機光電変換部20、無機光電変換部32B,32Rの順に通過し、その通過過程において緑、青、赤の色光毎に光電変換される。以下、各色の信号取得動作について説明する。
(有機光電変換部20による緑色信号の取得)
 固体撮像素子10へ入射した光のうち、まず、緑色光が、有機光電変換部20において選択的に検出(吸収)され、光電変換される。
 有機光電変換部20は、貫通電極34を介して、アンプトランジスタAMPのゲートGampとフローティングディフュージョンFD1とに接続されている。よって、有機光電変換部20で発生した電子-正孔対のうちの電子が、第1電極21A,蓄積電極21B側から取り出され、貫通電極34を介して半導体基板30の第2面30B側へ転送され、フローティングディフュージョンFD1に蓄積される。これと同時に、アンプトランジスタAMPにより、有機光電変換部20で生じた電荷量が電圧に変調される。
 また、フローティングディフュージョンFD1の隣には、リセットトランジスタRSTのリセットゲートGrstが配置されている。これにより、フローティングディフュージョンFD1に蓄積された電荷は、リセットトランジスタRSTによりリセットされる。
 ここでは、有機光電変換部20が、貫通電極34を介して、アンプトランジスタAMPだけでなくフローティングディフュージョンFD1にも接続されているので、フローティングディフュージョンFD1に蓄積された電荷をリセットトランジスタRSTにより容易にリセットすることが可能となる。
 これに対して、貫通電極34とフローティングディフュージョンFD1とが接続されていない場合には、フローティングディフュージョンFD1に蓄積された電荷をリセットすることが困難となり、大きな電圧をかけて第2電極26側へ引き抜くことになる。そのため、光電変換層25がダメージを受けるおそれがある。また、短時間でのリセットを可能とする構造は暗時ノイズの増大を招き、トレードオフとなるため、この構造は困難である。
 図15を用いて、第1電極21A,蓄積電極21Bによる信号電荷の蓄積および転送について説明する。
 固体撮像素子10では、蓄積電極21Bに印加する電位を変化させることにより、電荷の蓄積および転送がなされる。蓄積期間においては、駆動回路から蓄積電極21Bに正の電位V1が印加される。これにより、障壁層24に一定以上の電界が印加されるので、光電変換層25で発生した電荷(ここでは、電子)が、光電変換層25から障壁層24を介して半導体層23に移動し、蓄積電極21Bに対向する部分の半導体層23に蓄積される(蓄積期間)。光電変換層25で発生した正孔は、第2電極26を介して排出される。
 蓄積期間の後期には、リセット動作がなされる。具体的には、走査部が、所定のタイミングでリセット信号RSTの電圧を低レベルから高レベルに変化させる。これにより、単位画素Pでは、リセットトランジスタTR1rstがオン状態になり、その結果、フローティングディフュージョンFD1の電圧が電源電圧VDDに設定され、フローティングディフュージョンFD1の電圧がリセットされる。
 リセット動作の完了後、信号電荷の読み出しが行われる。この信号電荷の読み出しの際には、駆動回路から第1電極21Aに電位V2が印加される。電位V2は、V2<V1である。電位V2は負の電位であってもよい。ここで、障壁層24は、絶縁層として機能する。第1電極21Aに電位V2を印加することにより、半導体層23の蓄積電極21Bに対向する部分に蓄積されていた信号電荷(ここでは、電子)は、第1電極21Aを介してフローティングディフュージョンFD1へと読み出される。即ち、半導体層23に蓄積された信号電荷が制御部に読み出される(転送期間)。
 また、図16に示したように、固体撮像素子10では、グローバルシャッタ駆動も可能である。
 まず、蓄積期間においては、駆動回路から蓄積電極21Bに所定の電位V3が印加される。ここで、障壁層24は絶縁層として機能し、光電変換層25で発生した電荷(ここでは、電子)は、蓄積電極21Bに対向する部分の光電変換層25に蓄積される(蓄積期間)。光電変換層25で発生した正孔は、第2電極26を介して排出される。
 次の転送期間(第1転送期間)では、駆動回路から蓄積電極21Bに所定の電位V4が印加される。電位V4は、V3<V4である。これにより、障壁層24に一定以上の電界が印加されるので、光電変換層25に蓄積されていた信号電荷が、全画素(画素P)一斉に、障壁層24を介して半導体層23に転送される(第1転送期間)。
 半導体層23に転送された信号電荷は、半導体層23の蓄積電極21Bに対向する部分に一定期間保持される(メモリ期間)。その後、随時信号電荷の読み出しが行われる。この信号電荷の読み出しの際には、駆動回路から第1電極21Aに電位V4が印加される。電位V4は、V4<V3である。電位V4は負の電位であってもよい。ここで、障壁層24は、絶縁層として機能する。第1電極21Aに電位V4を印加することにより、半導体層23の蓄積電極21Bに対向する部分に保持されていた信号電荷(ここでは、電子)は、第1電極21Aを介してフローティングディフュージョンFD1へと読み出される(第2転送期間)。
(無機光電変換部32B,32Rによる青色信号,赤色信号の取得)
 有機光電変換部20を透過した光のうち、青色光は無機光電変換部32B、赤色光は無機光電変換部32Rにおいて、それぞれ順に吸収され、光電変換される。無機光電変換部32Bでは、入射した青色光に対応した電子が無機光電変換部32Bのn領域に蓄積され、蓄積された電子は、転送トランジスタTr2によりフローティングディフュージョンFD2へと転送される。同様に、無機光電変換部32Rでは、入射した赤色光に対応した電子が無機光電変換部32Rのn領域に蓄積され、蓄積された電子は、転送トランジスタTr3によりフローティングディフュージョンFD3へと転送される。
(1-3.作用・効果)
 本実施の形態では、光電変換層25内に生成された信号電荷は、蓄積電極21Bに対向する部分の半導体層23に蓄積される。この蓄積された信号電荷が、第1電極21Aに転送されて読み出される。即ち、有機光電変換部20も、無機光電変換部32B,32Rと同様に、信号電荷が一旦、蓄積された後に、フローティングディフュージョンFD1へと読み出される。これにより、信号電荷の転送直前にフローティングディフュージョンFD1をリセットすることができる。したがって、ノイズ成分を除去し、撮像画質を向上させることができる。
 また、本実施の形態では、半導体層23と光電変換層25との間に障壁層24が設けられているので、半導体層23に蓄積された信号電荷の転送不良の発生が抑えられる。以下、これについて比較例(比較例1)を用いて説明する。
 図17は、比較例1に係る固体撮像素子(固体撮像素子100)の要部の模式的な断面構成を表している。この固体撮像素子100には、障壁層(図1の障壁層24)が設けられておらず、半導体層23と光電変換層25とが接している。このような固体撮像素子100では、半導体層23に蓄積された信号電荷が、より移動度の小さい光電変換層25に戻りやすい。このような信号電荷の逆流に起因して、信号電荷の転送不良が発生する。
 これに対し、本実施の形態では、半導体層23と光電変換層25と間に障壁層24が設けられている。この障壁層24は、蓄積電極21Bに電位V2(図15)が印加されると、絶縁層として機能するので、半導体層23から障壁層24を跨いだ信号電荷の移動が抑えられる。即ち、信号電荷は半導体層23から光電変換層25に戻りにくくなる。よって、半導体層23に蓄積された信号電荷の転送不良の発生が抑えられる。
 更に、本実施の形態では、半導体層23と光電変換層25との間に障壁層24が設けられているので、グローバルシャッタ駆動時に、光電変換層25に信号電荷を蓄積することができる(図16の蓄積期間)。この光電変換層25に蓄積された信号電荷は、全画素一斉に、半導体層23に転送され、一旦、半導体層23に保持される(図16のメモリ期間)。このように、半導体層23、障壁層24および光電変換層25の積層方向に沿って、信号電荷の蓄積、転送および保持(メモリ)がなされるので、開口率を低下させることなく、グローバルシャッタ駆動を実現することができる。以下、これについて比較例(比較例2)を用いて説明する。
 図18は、比較例2に係る固体撮像素子(固体撮像素子101)の要部の模式的な断面構成を表している。この固体撮像素子101には、固体撮像素子100と同様に、障壁層(図1の障壁層24)が設けられていない。固体撮像素子101は、メモリ電極(メモリ電極21M)を有しており、グローバルシャッタ駆動が可能に構成されている。メモリ電極21Mは、例えば、第1電極21Aと蓄積電極21Bとの間に、これらに並んで設けられている。第1電極21Aおよびメモリ電極21Mに対向する部分の半導体層23は、遮光膜(遮光膜54)で覆われている。
 この固体撮像素子101では、光電変換層25で発生した信号電荷が半導体層23に移動し、半導体層23の蓄積電極21Bに対向する部分に蓄積される。この後、この信号電荷は全画素一斉に、蓄積電極21Bに対向する部分から、メモリ電極21Mに対向する部分へと半導体層23内で転送され、保持される。即ち、固体撮像素子101では、半導体層23の面方向に沿って、信号電荷の蓄積、転送および保持(メモリ)がなされ、メモリ電極21Mに対向する部分の半導体層23は遮光される。したがって、グローバルシャッタ機能を備えることに起因して、開口率が低下する。
 これに対し、本実施の形態では、上述のように、半導体層23、障壁層24および光電変換層25の積層方向に沿って、信号電荷の蓄積、転送および保持(メモリ)がなされるので、開口率を低下させることなく、グローバルシャッタ駆動を実現することができる。
 以上説明したように、本実施の形態の固体撮像素子10では、半導体層23と光電変換層25との間に障壁層24を設けるようにしたので、半導体層23に蓄積された信号電荷の転送不良の発生を抑えることができる。よって、素子特性を向上させることが可能となる。
 また、本実施の形態では、障壁層24を設けることにより、半導体層23、障壁層24および光電変換層25の積層方向に沿って、信号電荷の蓄積、転送および保持(メモリ)がなされるので、開口率を低下させることなく、グローバルシャッタ駆動を実現することができる。
 以下、上記第1実施の形態の変形例および他の実施の形態について説明するが、上記第1の実施の形態と同様の構成要素については同一の符号を付し、適宜その説明を省略する。
<2.変形例1>
 図19は、上記第1の実施の形態の変形例1に係る固体撮像素子(固体撮像素子10A)の要部の断面構成を模式的に表したものである。この固体撮像素子10Aは、表面照射型の固体撮像素子であり、半導体基板30には、第2面30B側から光が入射するようになっている。この点を除き、固体撮像素子10Aは固体撮像素子10と同様の構成および効果を有している。
 半導体基板30の第2面30Bと有機光電変換部20(第1電極21A,蓄積電極21B)との間には、接続部41A、多層配線40および層間絶縁層27s等が設けられている。第1電極21Aは、層間絶縁層27sに設けられた上部第1コンタクト29Aおよび接続配線39Aを介して接続部41Aに接続されている。即ち、この表面照射型の固体撮像素子10Aでは、半導体基板30の貫通電極(図1の貫通電極34)が不要となる。
<3.変形例2>
 図20は、上記第1の実施の形態の変形例2に係る固体撮像素子(固体撮像素子10B)の要部の断面構成を模式的に表したものである。この固体撮像素子10Bは、半導体基板30内に1つの無機光電変換部(無機光電変換部32C)を有するものである。この点を除き、固体撮像素子10Bは固体撮像素子10と同様の構成および効果を有している。
 無機光電変換部32Cは、カラーフィルタ層53および有機光電変換部20を透過した光を光電変換する部分である。固体撮像素子10Bには、互いに異なる色の光を検出する無機光電変換部32Cが設けられていてもよい。固体撮像素子10Bは、例えば、有機光電変換部20とオンチップレンズ52との間にカラーフィルタ層53を有しており、カラーフィルタ層53は、無機光電変換部32Cに対向する位置に配置されている。カラーフィルタ層53は、半導体基板30と有機光電変換部20との間に設けられていてもよい(図示せず)。
 このように、半導体基板30に設けられた無機光電変換部(無機光電変換部32C)が1つであってもよい。固体撮像素子10Bでは、画素毎に任意の波長の光を選択的に利用することが可能となる。
 図21に示したように、固体撮像素子10Bは、表面照射型の固体撮像素子であってもよい。
<4.変形例3>
 図22は、上記第1の実施の形態の変形例3に係る固体撮像素子(固体撮像素子10C)の要部の断面構成を模式的に表したものである。この固体撮像素子10Cでは、半導体基板30内に無機光電変換部(図1の無機光電変換部32R,32Bまたは図20の無機光電変換部32C)が設けられていない。この点を除き、固体撮像素子10Cは固体撮像素子10と同様の構成および効果を有している。
 この固体撮像素子10Cは、上記変形例2の固体撮像素子10Bと同様にカラーフィルタ層53を有している。このカラーフィルタ層53は、有機光電変換部20とオンチップレンズ52との間に設けられていてもよく(図20)、あるいは、半導体基板30と有機光電変換部20との間に設けられていてもよい(図示せず)。このような固体撮像素子10Cでは、画素毎に任意の波長の光を選択的に利用することが可能となる。
 また、半導体基板30内に無機光電変換部が設けられていないので、第1電極21A,蓄積電極21Bを構成する導電材料の選択の自由度を向上させることができる。具体的には、第1電極21A,蓄積電極21Bを構成する導電材料は、光透過性の導電材料に限定されず、より汎用性の高い金属材料を用いることが可能となる。
 更に、裏面照射型の固体撮像素子10Cでは、半導体基板30を用いることにより、積層型撮像素子を構成することができる。
 図23に示したように、固体撮像素子10Cは、表面照射型の固体撮像素子であってもよい。この固体撮像素子10Cでは、第1電極21A,蓄積電極21Bに対向する部分の半導体基板30に、機能向上のための回路を設けるようにしてもよい。
<5.変形例4>
 図24は、上記第1の実施の形態の変形例4に係る固体撮像素子(固体撮像素子10D)の要部の断面構成を模式的に表したものである。この固体撮像素子10Dは、半導体層23を間にして第2電極26に対向する電極として、第1電極21A,蓄積電極21Bに加えて、転送電極21Cを有している。この転送電極21Cは、半導体層23での信号電荷の移動を制御するためのものである。この点を除き、固体撮像素子10Dは固体撮像素子10と同様の構成および効果を有している。
 図25は、第1電極21A、蓄積電極21Bおよび転送電極21Cの平面構成を表している。第1電極21A、蓄積電極21Bおよび転送電極21Cは、互いに離間して設けられている。転送電極21Cは、例えば、四角形の平面形状を有しており、第1電極21Aおよび蓄積電極21Bに並んで設けられている。転送電極21Cは、第1電極21Aと蓄積電極21Bとの間に配置されている。
 この転送電極62Cは、蓄積電極21Bで蓄積された信号電荷の第1電極21Aへの転送の効率を向上させるためのものであり、絶縁層22を間にして半導体層23に対向している。この転送電極21Cは、例えば、上部第3コンタクト29Cおよび接続配線39Cを介して駆動回路を構成する画素駆動回路(図示せず)に接続されている。第1電極21A、蓄積電極21Bおよび転送電極21Cは、各々独立して電圧を印加することが可能となっている。例えば、転送電極21Cに印加する電位を調整することにより、蓄積電極21Bに対向する部分の半導体層23に蓄積された信号電荷が、意図せずに、第1電極21Aに移動するのを防ぐことができる。
 このように、固体撮像素子10Dでは、第1電極21Aと蓄積電極21Bとの間の転送電極21Cにより、半導体層23に蓄積された信号電荷の転送効率をより向上させることが可能となる。
 固体撮像素子10Dは、表面照射型であってもよい(図19参照)。固体撮像素子10Dの半導体基板30内には、1つの無機光電変換部32Cが設けられていてもよく(図20,図21参照)、あるいは、半導体基板30内に無機光電変換部が設けられていなくてもよい(図22,図23参照)。
<6.変形例5>
 図26は、上記第1の実施の形態の変形例5に係る固体撮像素子(固体撮像素子10E)の要部の断面構成を模式的に表したものである。この固体撮像素子10Eは、半導体層23を間にして第2電極26に対向する電極として、第1電極21A,蓄積電極21Bに加えて、排出電極21Dを有している。この点を除き、固体撮像素子10Eは固体撮像素子10と同様の構成および効果を有している。
 図27は、第1電極21A、蓄積電極21Bおよび排出電極21Dの平面構成を表している。第1電極21A、蓄積電極21Bおよび排出電極21Dは、互いに離間して設けられている。排出電極21Dは、例えば、第1電極21Aおよび蓄積電極21Bを囲むように設けられている。この排出電極21Dは、例えば画素に共通に設けられている。排出電極21Dは、画素毎に分離して設けられていてもよい(図示せず)。
 排出電極21Dは、絶縁層22の開口に設けられ、半導体層23に電気的に接続されている。この排出電極21Dは、蓄積電極21Bによる引きつけが十分ではない信号電荷あるいは、転送能力以上の信号電荷が発生した場合に余った信号電荷(所謂、オーバーフローした信号電荷)を駆動回路に送出するためのものである。排出電極21Dは、例えば、上部第4コンタクト29Dおよび接続配線39Dを介して駆動回路を構成する画素駆動回路(図示せず)に接続されている。第1電極21A、蓄積電極21Bおよび排出電極21Dは、各々独立して電圧を印加することが可能となっている。
 このように、固体撮像素子10Eでは、半導体層23に電気的に接続された排出電極21Dにより、半導体層23中に生じた余分な信号電荷を、半導体層23中に残さず排出することが可能となる。
 固体撮像素子10Eは、表面照射型であってもよい(図19参照)。固体撮像素子10Eの半導体基板30内には、1つの無機光電変換部32Cが設けられていてもよく(図20,図21参照)、あるいは、半導体基板30内に無機光電変換部が設けられていなくてもよい(図22,図23参照)。固体撮像素子10Eは、排出電極21Dとともに転送電極21Cを有していてもよい(図24参照)。
<7.変形例6>
 図28は、上記第1の実施の形態の変形例6に係る固体撮像素子(固体撮像素子10F)の要部の断面構成を模式的に表したものである。この固体撮像素子10Fは、半導体層23を間にして第2電極26に対向する電極として、第1電極21A,蓄積電極21Bに加えて、遮蔽電極21Eを有している。この点を除き、固体撮像素子10Fは固体撮像素子10と同様の構成および効果を有している。
 第1電極21A、蓄積電極21Bおよび遮蔽電極21Eは、互いに離間して設けられている。遮蔽電極21Eは、第1電極21Aおよび蓄積電極21Bに並んで設けられ、隣り合う蓄積電極21Bの間に配置されている。この遮蔽電極21Eは、隣り合う蓄積電極21Bの間の信号電荷の漏れ(リーク)を抑えるためのものであり、絶縁層22を間にして半導体層23に対向している。遮蔽電極21Eは、例えば、上部第5コンタクト29Eおよび接続配線39Eを介して駆動回路を構成する画素駆動回路(図示せず)に接続されている。第1電極21A、蓄積電極21Bおよび遮蔽電極21Eは、各々独立して電圧を印加することが可能となっている。
 このように、固体撮像素子10Fでは、隣り合う蓄積電極21Bの間に設けられた遮蔽電極21Eにより、隣り合う蓄積電極21Bの間の信号電荷の漏れを抑えることが可能となる。
 固体撮像素子10Fは、表面照射型であってもよい(図19参照)。固体撮像素子10Fの半導体基板30内には、1つの無機光電変換部32Cが設けられていてもよく(図20,図21参照)、あるいは、半導体基板30内に無機光電変換部が設けられていなくてもよい(図22,図23参照)。固体撮像素子10Fは、遮蔽電極21Eとともに転送電極21C(図24参照)または排出電極21D(図26参照)を有していてもよい。
<8.変形例7>
 図29は、上記第1の実施の形態の変形例7に係る固体撮像素子(固体撮像素子10G)の要部の断面構成を模式的に表したものである。この固体撮像素子10Gは、光電変換層25を間にして、第1電極21Aを覆う遮光膜54を有している。この点を除き、固体撮像素子10Gは固体撮像素子10と同様の構成および効果を有している。
 遮光膜54は、例えば、第2電極26とオンチップレンズ52との間に設けられ、第1電極21Aに対向する部分の光電変換層25を覆っている。これにより、第1電極21Aに近い領域(光電変換層25)での光電変換が抑えられる。したがって、余分な信号電荷が第1電極21Aに転送されるのを抑えることができる。この遮光膜54は、例えば、タングステン(W)およびアルミニウム(Al)等の金属を含んでおり、単体の金属により構成されていてもよく、あるいは、合金により構成されていてもよい。遮光膜54は、カラーフィルタ層(例えば、図20のカラーフィルタ層53)の構成材料を含んでいてもよく、積層構造を有していてもよい。蓄積電極21Bの一部が遮光膜54で覆われていてもよい。
 このように、固体撮像素子10Gでは、第1電極21Aに対向する部分の光電変換層25が遮光膜54に覆われているので、第1電極21Aへの余分な信号電荷の転送が抑えられる。
 固体撮像素子10Gは、表面照射型であってもよい(図19参照)。固体撮像素子10Gの半導体基板30内には、1つの無機光電変換部32Cが設けられていてもよく(図20,図21参照)、あるいは、半導体基板30内に無機光電変換部が設けられていなくてもよい(図22,図23参照)。固体撮像素子10Gは、転送電極21C(図24参照)、排出電極21D(図26参照)または遮蔽電極21E(図28参照)を有していてもよい。転送電極21C、排出電極21Dまたは遮蔽電極21Eの一部が遮光膜54で覆われていてもよい。
<9.第2の実施の形態>
 図30は、本開示の第2の実施の形態の固体撮像素子(固体撮像素子60)の要部の断面構成を模式的に表したものである。この固体撮像素子60では、半導体層23と光電変換層25との間の接合面(接合面20S)が電位障壁として機能するようになっている。即ち、固体撮像素子60では、障壁層(図1の障壁層24)に代えて、電位障壁となる接合面20Sが設けられている。この点を除き、固体撮像素子60は、上記第1の実施の形態の固体撮像素子10と同様の構成および効果を有している。
 図31は、半導体層23および光電変換層25のポテンシャルエネルギーの一例を表している。このように半導体層23と光電変換層25との接合面20Sに電位障壁が形成される。例えば、以下のような条件下で、このような接合面20Sが構成される。
 信号電荷が電子であるとき、半導体層23は、光電変換層25の伝導体のポテンシャルよりも低い伝導帯のポテンシャルエネルギーを有し、かつ、光電変換層25のフェルミレベル(真空順位基準)よりも低いフェルミレベルを有している。信号電荷が正孔であるとき、半導体層23は、光電変換層25の価電子帯のポテンシャルエネルギーよりも高いポテンシャルエネルギーを有し、かつ、光電変換層25のフェルミレベルよりも低いフェルミレベルを有している。
 このように、固体撮像素子60では、半導体層23と光電変換層25との間の接合面20Sが電位障壁として機能するので、上記固体撮像素子10と同様に、半導体層23に蓄積された信号電荷の転送不良の発生を抑えることができる。よって、素子特性を向上させることが可能となる。
 また、接合面20Sにより、半導体層23および光電変換層25の積層方向に沿って、信号電荷の蓄積、転送および保持(メモリ)がなされるので、開口率を低下させることなく、グローバルシャッタ駆動を実現することができる。
 固体撮像素子60は、表面照射型であってもよい(図19参照)。固体撮像素子60の半導体基板30内には、1つの無機光電変換部32Cが設けられていてもよく(図20,図21参照)、あるいは、半導体基板30内に無機光電変換部が設けられていなくてもよい(図22,図23参照)。固体撮像素子60は、転送電極21C(図24参照)、排出電極21D(図26参照)または遮蔽電極21E(図28参照)を有していてもよい。固体撮像素子60には、遮光膜54が設けられていてもよい(図29参照)。
<適用例1>
 図32は、上記実施の形態等において説明した固体撮像素子10(または、固体撮像素子10A~10G,60。以下、まとめて固体撮像素子10という))を各画素に用いた固体撮像装置(固体撮像装置1)の全体構成を表したものである。この固体撮像装置1は、CMOSイメージセンサであり、半導体基板30上に、撮像エリアとしての画素部1aを有すると共に、この画素部1aの周辺領域に、例えば、行走査部131、水平選択部133、列走査部134およびシステム制御部132からなる周辺回路部130を有している。
 画素部1aは、例えば行列状に2次元配置された複数の画素P(固体撮像素子10)を有している。画素Pには、例えば画素行ごとに画素駆動線Lread(例えば、行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素Pからの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部131の各行に対応した出力端に接続されている。
 行走査部131は、シフトレジスタやアドレスデコーダ等によって構成され、素子領域R1の各画素Pを、例えば行単位で駆動する画素駆動部である。行走査部131によって選択走査された画素行の各画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部133に供給される。水平選択部133は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部134は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部133の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部134による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線135に出力され、当該水平信号線135を通して図示しない信号処理部等へ入力される。
 システム制御部132は、外部から与えられるクロックや、動作モードを指令するデータなどを受け取り、また、撮像素子4の内部情報などのデータを出力するものである。システム制御部132はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部131、水平選択部133および列走査部134などの駆動制御を行う。
<適用例2>
 上記固体撮像装置1は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図33に、その一例として、電子機器2(カメラ)の概略構成を示す。この電子機器2は、例えば、静止画または動画を撮影可能なビデオカメラであり、固体撮像装置1と、光学系(光学レンズ)310と、シャッタ装置311と、固体撮像装置1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像素子4へ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、固体撮像装置1への光照射期間および遮光期間を制御するものである。駆動部313は、固体撮像装置1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、固体撮像装置1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリなどの記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
<適用例3>
<体内情報取得システムへの応用例>
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図34は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図34では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
<適用例4>
<内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図35は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図35では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図36は、図35に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<適用例5>
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図37は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図37に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図13の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図38は、撮像部12031の設置位置の例を示す図である。
 図38では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図38には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図32の固体撮像装置1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 以上、実施の形態等例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態等では、固体撮像素子10等として、緑色光を検出する有機光電変換部20と、青色光,赤色光をそれぞれ検出する無機光電変換部32B,32Rとを積層させた構成としたが、本開示内容はこのような構造に限定されるものではない。即ち、有機光電変換部において赤色光あるいは青色光を検出するようにしてもよいし、無機光電変換部において緑色光を検出するようにしてもよい。
 また、これらの有機光電変換部および無機光電変換部の数やその比率も限定されるものではなく、2以上の有機光電変換部を設けてもよい。例えば、本技術は、基板上に、絶縁層を介して、それぞれ所定の波長域の光を選択的に吸収することが可能な有機半導体材料を含んで構成された、赤色光電変換部、緑色光電変換部および青色光電変換部がこの順に積層された縦方向分光型の固体撮像素子においても上記実施の形態等と同様の効果が得られる。また、本技術は、有機光電変換部および無機光電変換部を基板面に沿って並列させた固体撮像素子においても上記実施の形態等と同様の効果が得られる。
 更に、本開示の固体撮像素子の構成は、上記実施の形態等で示した組み合わせに限定されるものではない。例えば、固体撮像素子が、転送電極21C、排出電極21Dおよび遮蔽電極21Eを有していてもよい。また、蓄積電極21Bを2つあるいは3つ以上に分割形成してもよい。
 加えて、本開示の固体撮像素子および固体撮像装置では、上記実施の形態等で説明した各構成要素を全て備えている必要はなく、また逆に他の層を備えていてもよい。
 上記実施の形態等において説明した効果は一例であり、他の効果であってもよいし、更に他の効果を含んでいてもよい。
 尚、本開示は、以下のような構成であってもよい。
(1)
 光電変換層と、
 前記光電変換層を間にして対向する第1電極および第2電極と、
 前記第1電極と前記光電変換層との間に設けられた半導体層と、
 前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
 前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、
 前記半導体層と前記光電変換層との間に設けられた障壁層と
 を備えた固体撮像素子。
(2)
 光電変換層と、
 前記光電変換層を間にして対向する第1電極および第2電極と、
 前記第1電極と前記光電変換層との間に設けられ、前記光電変換層との接合面に電位障壁を有する半導体層と、
 前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
 前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、
 を備えた固体撮像素子。
(3)
 前記光電変換層は、有機半導体材料を含み、
 前記半導体層は、前記有機半導体材料の移動度よりも高い移動度を有する半導体材料を含む
 前記(1)または(2)に記載の固体撮像素子。
(4)
 更に、対向する第1面および第2面を有する半導体基板を有し、
 前記半導体基板の前記第1面上に、前記第1電極、前記半導体層、前記障壁層、前記光電変換層および前記第2電極がこの順に設けられている
 前記(1)に記載の固体撮像素子。
(5)
 更に、対向する第1面および第2面を有する半導体基板と、
 前記半導体基板の前記第2面と前記第1電極との間に設けられた多層配線とを含む
 前記(1)ないし(3)のいずれか1つに記載の固体撮像素子。
(6)
 更に、前記半導体基板内に設けられた無機光電変換部を有する
 前記(4)または(5)に記載の固体撮像素子。
(7)
 更に、前記絶縁膜を間にして前記半導体層に対向して設けられ、前記半導体層での信号電荷の移動を制御する転送電極を有する
 前記(1)ないし(6)のいずれか1つに記載の固体撮像素子。
(8)
 更に、前記第1電極と離間して設けられ、前記半導体層に電気的に接続された排出電極を有する
 前記(1)ないし(7)のいずれか1つに記載の固体撮像素子。
(9)
 更に、前記光電変換層を間にして前記第1電極を覆う遮光膜を有する
 前記(1)ないし(8)のいずれか1つに記載の固体撮像素子。
(10)
 前記障壁層は、酸化シリコン,窒化シリコン,酸窒化シリコンまたは有機材料を含む
 前記(1)に記載の固体撮像素子。
(11)
 複数の固体撮像素子を備え、
 前記固体撮像素子は、
 光電変換層と、
 前記光電変換層を間にして対向する第1電極および第2電極と、
 前記第1電極と前記光電変換層との間に設けられた半導体層と、
 前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
 前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、
 前記半導体層と前記光電変換層との間に設けられた障壁層とを含む
 固体撮像装置。
(12)
 複数の固体撮像素子を備え、
 前記固体撮像素子は、
 光電変換層と、
 前記光電変換層を間にして対向する第1電極および第2電極と、
 前記第1電極と前記光電変換層との間に設けられ、前記光電変換層との接合面に電位障壁を有する半導体層と、
 前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
 前記蓄積電極と前記半導体層との間に設けられた絶縁膜とを含む
 固体撮像装置。
(13)
 更に、前記絶縁膜を間にして前記半導体層に対向する遮蔽電極を有し、
 前記遮蔽電極は、隣り合う前記蓄積電極の間に配置されている
 前記(11)または(12)に記載の固体撮像装置。
(14)
 前記固体撮像素子が設けられた画素を複数有し、
 前記画素毎に、前記半導体層が分離して設けられている
 前記(11)ないし(13)のうちいずれか1つに記載の固体撮像装置。
(15)
 前記固体撮像素子が設けられた画素を複数有し、
 前記画素毎に、前記光電変換層が分離して設けられている
 前記(11)ないし(14)のうちいずれか1つに記載の固体撮像装置。
 本出願は、日本国特許庁において2018年3月19日に出願された日本特許出願番号第2018-50808号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (15)

  1.  光電変換層と、
     前記光電変換層を間にして対向する第1電極および第2電極と、
     前記第1電極と前記光電変換層との間に設けられた半導体層と、
     前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
     前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、
     前記半導体層と前記光電変換層との間に設けられた障壁層と
     を備えた固体撮像素子。
  2.  光電変換層と、
     前記光電変換層を間にして対向する第1電極および第2電極と、
     前記第1電極と前記光電変換層との間に設けられ、前記光電変換層との接合面に電位障壁を有する半導体層と、
     前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
     前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、
     を備えた固体撮像素子。
  3.  前記光電変換層は、有機半導体材料を含み、
     前記半導体層は、前記有機半導体材料の移動度よりも高い移動度を有する半導体材料を含む
     請求項1に記載の固体撮像素子。
  4.  更に、対向する第1面および第2面を有する半導体基板を有し、
     前記半導体基板の前記第1面上に、前記第1電極、前記半導体層、前記障壁層、前記光電変換層および前記第2電極がこの順に設けられている
     請求項1に記載の固体撮像素子。
  5.  更に、対向する第1面および第2面を有する半導体基板と、
     前記半導体基板の前記第2面と前記第1電極との間に設けられた多層配線とを含む
     請求項1に記載の固体撮像素子。
  6.  更に、前記半導体基板内に設けられた無機光電変換部を有する
     請求項4に記載の固体撮像素子。
  7.  更に、前記絶縁膜を間にして前記半導体層に対向して設けられ、前記半導体層での信号電荷の移動を制御する転送電極を有する
     請求項1に記載の固体撮像素子。
  8.  更に、前記第1電極と離間して設けられ、前記半導体層に電気的に接続された排出電極を有する
     請求項1に記載の固体撮像素子。
  9.  更に、前記光電変換層を間にして前記第1電極を覆う遮光膜を有する
     請求項1に記載の固体撮像素子。
  10.  前記障壁層は、酸化シリコン,窒化シリコン,酸窒化シリコンまたは有機材料を含む
     請求項1に記載の固体撮像素子。
  11.  複数の固体撮像素子を備え、
     前記固体撮像素子は、
     光電変換層と、
     前記光電変換層を間にして対向する第1電極および第2電極と、
     前記第1電極と前記光電変換層との間に設けられた半導体層と、
     前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
     前記蓄積電極と前記半導体層との間に設けられた絶縁膜と、
     前記半導体層と前記光電変換層との間に設けられた障壁層とを含む
     固体撮像装置。
  12.  複数の固体撮像素子を備え、
     前記固体撮像素子は、
     光電変換層と、
     前記光電変換層を間にして対向する第1電極および第2電極と、
     前記第1電極と前記光電変換層との間に設けられ、前記光電変換層との接合面に電位障壁を有する半導体層と、
     前記半導体層を間にして前記光電変換層に対向する蓄積電極と、
     前記蓄積電極と前記半導体層との間に設けられた絶縁膜とを含む
     固体撮像装置。
  13.  更に、前記絶縁膜を間にして前記半導体層に対向する遮蔽電極を有し、
     前記遮蔽電極は、隣り合う前記蓄積電極の間に配置されている
     請求項11に記載の固体撮像装置。
  14.  前記固体撮像素子が設けられた画素を複数有し、
     前記画素毎に、前記半導体層が分離して設けられている
     請求項11に記載の固体撮像装置。
  15.  前記固体撮像素子が設けられた画素を複数有し、
     前記画素毎に、前記光電変換層が分離して設けられている
     請求項11に記載の固体撮像装置。
PCT/JP2019/008348 2018-03-19 2019-03-04 固体撮像素子および固体撮像装置 WO2019181456A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020207022360A KR20200132845A (ko) 2018-03-19 2019-03-04 고체 촬상 소자 및 고체 촬상 장치
DE112019001418.8T DE112019001418T5 (de) 2018-03-19 2019-03-04 Festkörper-bildgebungselement und festkörper-bildgebungsvorrichtung
CN201980010675.5A CN111656525A (zh) 2018-03-19 2019-03-04 固态成像元件和固态成像装置
US16/979,992 US11552268B2 (en) 2018-03-19 2019-03-04 Solid-state imaging element and solid-state imaging device
JP2020508140A JP7486417B2 (ja) 2018-03-19 2019-03-04 固体撮像素子および固体撮像装置
US18/081,889 US11910624B2 (en) 2018-03-19 2022-12-15 Solid-state imaging element and solid-state imaging device
JP2023049727A JP2023076561A (ja) 2018-03-19 2023-03-27 固体撮像素子および固体撮像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018050808 2018-03-19
JP2018-050808 2018-03-19

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/979,992 A-371-Of-International US11552268B2 (en) 2018-03-19 2019-03-04 Solid-state imaging element and solid-state imaging device
US18/081,889 Continuation US11910624B2 (en) 2018-03-19 2022-12-15 Solid-state imaging element and solid-state imaging device

Publications (1)

Publication Number Publication Date
WO2019181456A1 true WO2019181456A1 (ja) 2019-09-26

Family

ID=67986146

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/008348 WO2019181456A1 (ja) 2018-03-19 2019-03-04 固体撮像素子および固体撮像装置

Country Status (6)

Country Link
US (2) US11552268B2 (ja)
JP (2) JP7486417B2 (ja)
KR (1) KR20200132845A (ja)
CN (1) CN111656525A (ja)
DE (1) DE112019001418T5 (ja)
WO (1) WO2019181456A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224567A1 (ja) * 2021-04-20 2022-10-27 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出システム、電子機器および移動体
WO2023067969A1 (ja) * 2021-10-20 2023-04-27 ソニーセミコンダクタソリューションズ株式会社 光検出装置およびその製造方法、電子機器ならびに移動体
WO2023153106A1 (ja) * 2022-02-14 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び固体撮像装置の製造方法
WO2024106235A1 (ja) * 2022-11-15 2024-05-23 ソニーセミコンダクタソリューションズ株式会社 光検出装置および光検出装置の製造方法ならびに電子機器

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020217783A1 (ja) * 2019-04-25 2020-10-29
KR20220110182A (ko) * 2019-11-29 2022-08-05 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 장치 및 전자 기기
CN112436026A (zh) * 2020-12-06 2021-03-02 联合微电子中心有限责任公司 减少背照式图像传感器暗电流的方法及其传感器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160037098A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Image Sensors Including Semiconductor Channel Patterns
JP2016063165A (ja) * 2014-09-19 2016-04-25 株式会社東芝 撮像素子及び固体撮像装置
JP2016167563A (ja) * 2015-03-10 2016-09-15 株式会社東芝 半導体装置、および撮像装置
JP2017055085A (ja) * 2015-09-11 2017-03-16 株式会社東芝 固体撮像装置
JP2017157816A (ja) * 2016-03-01 2017-09-07 ソニー株式会社 撮像素子、積層型撮像素子及び固体撮像装置、並びに、固体撮像装置の駆動方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013080902A (ja) 2011-09-21 2013-05-02 Fujifilm Corp 固体撮像素子
JP6079502B2 (ja) * 2013-08-19 2017-02-15 ソニー株式会社 固体撮像素子および電子機器
JP2015170620A (ja) * 2014-03-04 2015-09-28 株式会社東芝 固体撮像装置
US10038033B2 (en) * 2015-12-29 2018-07-31 Industrial Technology Research Institute Image sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160037098A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Image Sensors Including Semiconductor Channel Patterns
JP2016063165A (ja) * 2014-09-19 2016-04-25 株式会社東芝 撮像素子及び固体撮像装置
JP2016167563A (ja) * 2015-03-10 2016-09-15 株式会社東芝 半導体装置、および撮像装置
JP2017055085A (ja) * 2015-09-11 2017-03-16 株式会社東芝 固体撮像装置
JP2017157816A (ja) * 2016-03-01 2017-09-07 ソニー株式会社 撮像素子、積層型撮像素子及び固体撮像装置、並びに、固体撮像装置の駆動方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224567A1 (ja) * 2021-04-20 2022-10-27 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出システム、電子機器および移動体
WO2023067969A1 (ja) * 2021-10-20 2023-04-27 ソニーセミコンダクタソリューションズ株式会社 光検出装置およびその製造方法、電子機器ならびに移動体
WO2023153106A1 (ja) * 2022-02-14 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び固体撮像装置の製造方法
WO2024106235A1 (ja) * 2022-11-15 2024-05-23 ソニーセミコンダクタソリューションズ株式会社 光検出装置および光検出装置の製造方法ならびに電子機器

Also Published As

Publication number Publication date
JPWO2019181456A1 (ja) 2021-03-18
US11910624B2 (en) 2024-02-20
CN111656525A (zh) 2020-09-11
US20230119970A1 (en) 2023-04-20
DE112019001418T5 (de) 2020-12-24
US11552268B2 (en) 2023-01-10
US20210020857A1 (en) 2021-01-21
JP7486417B2 (ja) 2024-05-17
JP2023076561A (ja) 2023-06-01
KR20200132845A (ko) 2020-11-25

Similar Documents

Publication Publication Date Title
WO2019181456A1 (ja) 固体撮像素子および固体撮像装置
US11792541B2 (en) Solid-state imaging device and method of controlling solid-state imaging device
US11469262B2 (en) Photoelectric converter and solid-state imaging device
JP7372243B2 (ja) 撮像素子および撮像装置
JP7242655B2 (ja) 撮像素子の駆動方法
JP2019057704A (ja) 光電変換素子および撮像装置
CN113302761A (zh) 摄像元件和摄像装置
WO2019150988A1 (ja) 光電変換素子および撮像装置
TW202232743A (zh) 固態攝像裝置及電子機器
JP2024045201A (ja) 固体撮像素子
WO2020017305A1 (ja) 撮像素子および撮像装置
WO2021153628A1 (ja) 撮像素子および撮像素子の製造方法
WO2019203013A1 (ja) 光電変換素子および撮像装置
US20220415969A1 (en) Solid-state imaging device and method of manufacturing solid-state imaging device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19771769

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020508140

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19771769

Country of ref document: EP

Kind code of ref document: A1