WO2020137282A1 - 撮像素子および電子機器 - Google Patents

撮像素子および電子機器 Download PDF

Info

Publication number
WO2020137282A1
WO2020137282A1 PCT/JP2019/045725 JP2019045725W WO2020137282A1 WO 2020137282 A1 WO2020137282 A1 WO 2020137282A1 JP 2019045725 W JP2019045725 W JP 2019045725W WO 2020137282 A1 WO2020137282 A1 WO 2020137282A1
Authority
WO
WIPO (PCT)
Prior art keywords
electrode
layer
photoelectric conversion
unit
image
Prior art date
Application number
PCT/JP2019/045725
Other languages
English (en)
French (fr)
Inventor
千種 山根
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN201980073728.8A priority Critical patent/CN112997312A/zh
Priority to US17/309,790 priority patent/US20220109017A1/en
Priority to JP2020562933A priority patent/JPWO2020137282A1/ja
Publication of WO2020137282A1 publication Critical patent/WO2020137282A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • H01L27/1465Infrared imagers of the hybrid type
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14694The active layers comprising only AIIIBV compounds, e.g. GaAs, InP
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14687Wafer level processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration

Definitions

  • the present disclosure relates to, for example, an image sensor used for an infrared sensor and the like, and an electronic device including the same.
  • electrodes located on the light incident side are generally formed using a transparent conductive material such as ITO (see, for example, Patent Document 1).
  • ITO when ITO is used as an electrode material in an infrared sensor, ITO has a problem that the sensitivity decreases because it absorbs at a wavelength in the near-infrared region or higher, for example.
  • An imaging device includes a first electrode including an oxide semiconductor material having an amorphous state, a second electrode arranged to face the first electrode, and a first electrode and a second electrode. And a photoelectric conversion part containing a compound semiconductor material.
  • An electronic device includes the image sensor according to the embodiment of the present disclosure.
  • FIG. 3 is a schematic cross-sectional view illustrating an example of a schematic configuration of an image sensor according to an embodiment of the present disclosure.
  • FIG. 9 is a schematic cross-sectional view showing another example of the configuration of the first electrode of the image pickup element shown in FIG. 1.
  • FIG. 6 is a schematic cross-sectional view for explaining a step of the method for manufacturing the image sensor shown in FIG. 1. It is a cross-sectional schematic diagram showing the process of following FIG. 3A. It is a cross-sectional schematic diagram showing the process of following FIG. 3B. It is a cross-sectional schematic diagram showing the process of following FIG. 4A. It is a cross-sectional schematic diagram showing the process of following FIG. 4B.
  • FIG. 16 is a schematic cross-sectional view illustrating an example of a schematic configuration of an image sensor according to a modified example of the present disclosure. It is a block diagram showing the structure of an image sensor. It is a schematic diagram showing the structural example of a laminated image sensor.
  • FIG. 11 is a functional block diagram showing an example of an electronic device (camera) using the solid-state imaging device shown in FIG. 10. It is a block diagram showing an example of a schematic structure of an in-vivo information acquisition system. It is a figure which shows an example of a schematic structure of an endoscopic surgery system. It is a block diagram showing an example of functional composition of a camera head and CCU. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • Embodiment an example of an image sensor having an amorphous electrode on the light incident side
  • Configuration of image sensor 1-2 Method of manufacturing image sensor 1-3.
  • Operation of image sensor 1-4 Actions and effects 2.
  • Modification (example with color filter and on-chip lens) 3.
  • Application example
  • FIG. 1 schematically illustrates a cross-sectional configuration of an image sensor (image sensor 1) according to an embodiment of the present disclosure.
  • the image sensor 1 is applied to, for example, an infrared sensor using a compound semiconductor material such as a III-V semiconductor, and is, for example, a visible region (for example, 380 nm or more and less than 780 nm) to a short infrared region (for example, 780 nm or more).
  • Light having a wavelength of less than 2400 nm has a photoelectric conversion function.
  • the image pickup device 1 is provided with, for example, a plurality of light receiving unit regions (pixels P) arranged two-dimensionally.
  • FIG. 1 shows a sectional configuration of a portion corresponding to three pixels P.
  • the image sensor 1 has a laminated structure of an element substrate 10 and a circuit board 20.
  • One surface of the element substrate 10 is a light incident surface (light incident surface S1), and the surface opposite to the light incident surface S1 (the other surface) is a joint surface with the circuit board 20 (joint surface S2).
  • the interlayer insulating film 18 (18B, 18A), the second contact layer 12, the photoelectric conversion layer 13, the first contact layer 14, and the first electrode 15 are laminated in this order from the circuit board 20 side,
  • the second contact layer 12, the photoelectric conversion layer 13, and the first contact layer 14 configure a photoelectric conversion unit 10S common to the plurality of pixels P.
  • the first electrode 15 provided on the light incident surface S1 side of the photoelectric conversion unit 10S has a configuration formed using an oxide semiconductor material having an amorphous state.
  • the element substrate 10 has the interlayer insulating films 18B and 18A, the second contact layer 12, the photoelectric conversion layer 13, the first contact layer 14, and the first electrode 15 in this order from the position close to the circuit board 20. doing.
  • a wiring layer 10W including the second electrode 11 is provided on the interlayer insulating film 18.
  • the surface of the photoelectric conversion unit 10S facing the wiring layer 10W and the end surface (side surface) are covered with an insulating film 16.
  • the circuit board 20 includes a wiring layer 20W that is in contact with the bonding surface S2 of the element substrate 10 and a support substrate 21 that faces the element substrate 10 with the wiring layer 20W in between.
  • a pixel region 100A which is a light receiving region, is provided in the central portion of the element substrate 10, for example, and the photoelectric conversion unit 10S is arranged in this pixel region 100A.
  • the area where the photoelectric conversion unit 10S is provided is the pixel area 100A.
  • a peripheral region 100B that surrounds the pixel region 100A is provided outside the pixel region 100A.
  • a buried layer 17 is provided together with the insulating film 16.
  • the photoelectric conversion section 10S has a configuration in which a second contact layer 12, a photoelectric conversion layer 13, and a first contact layer 14 that include a compound semiconductor material such as a III-V group semiconductor are stacked in this order.
  • the second contact layer 12, the photoelectric conversion layer 13, and the first contact layer 14 have, for example, substantially the same planar shape.
  • the first electrode 15 is provided on the light incident surface S1 side of the photoelectric conversion unit 10S
  • the second electrode 11 is provided on the opposite side to the light incident surface S1.
  • the signal charge photoelectrically converted by the photoelectric conversion unit 10S moves via the wiring layer 10W including the second electrode 11 and is read by the circuit board 20. The configuration of each unit will be described below.
  • the wiring layer 10W has, for example, the second electrode 11 and the contact electrodes 18EA and 18EB in the interlayer insulating film 18 (18A and 18B).
  • the second electrode 11 is an electrode (anode) to which a voltage for reading out signal charges (holes or electrons; hereinafter, the signal charge is described as holes) is generated in the photoelectric conversion layer 13 is supplied. Yes, each pixel P is provided in the pixel region 100A.
  • the second electrode 11 is provided in the connection hole of the interlayer insulating film 18A and the insulating film 16 and is in contact with the second contact layer 12 of the photoelectric conversion unit 10S.
  • the adjacent second electrodes 11 are electrically separated by the interlayer insulating film 18A and the insulating film 16.
  • the second electrode 11 is, for example, titanium (Ti), tungsten (W), titanium nitride (TiN), platinum (Pt), gold (Au), germanium (Ge), palladium (Pd), zinc (Zn), nickel. It is made of any one of (Ni) and aluminum (Al), or an alloy containing at least one of them.
  • the second electrode 11 may be a single film of such a constituent material, or a laminated film in which two or more kinds are combined.
  • the second electrode 11 is composed of a laminated film (Ti/W) of titanium and tungsten.
  • the interlayer insulating film 18 (18A, 18B) is provided over the pixel region 100A and the peripheral region 100B and has a joint surface S2 with the circuit board 20.
  • the joint surface S2 in the pixel region 100A and the joint surface in the peripheral region 100B form the same plane.
  • the interlayer insulating films 18A and 18B have a laminated structure.
  • the interlayer insulating film 18A is arranged on the second contact layer 12 side, and the interlayer insulating film 18B is arranged on the circuit board 20 side.
  • the interlayer insulating films 18A and 18B are made of, for example, an inorganic insulating material.
  • the inorganic insulating material examples include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and hafnium oxide (HfO 2 ).
  • the interlayer insulating films 18A and 18B may be formed by using different inorganic insulating materials or may be formed by using the same inorganic insulating material.
  • the contact electrode 18EA is for electrically connecting the second electrode 11 and the circuit board 20, and is provided for each pixel P in the pixel region 100A.
  • the adjacent contact electrodes 18EA are electrically separated by the interlayer insulating film 18.
  • the contact electrode 18EB is arranged in the peripheral region 100B, and is for electrically connecting the first electrode 15 and the wiring (wiring 22CB described later) of the circuit board 20.
  • the peripheral region 100B is provided with, for example, a through electrode penetrating the buried layer 17 and the interlayer insulating film 18, and the contact electrode 18EB passes through the through electrode and, for example, the first electrode 15 is formed. Is electrically connected to.
  • the contact electrode 18EB is formed in the same process as the contact electrode 18EA, for example.
  • the contact electrodes 18EA and 18EB are made of, for example, copper (Cu) pads and are exposed at the joint surface S2.
  • the second contact layer 12 is provided in common to all the pixels P, for example, and is arranged between the insulating film 16 and the photoelectric conversion layer 13.
  • the second contact layer 12 is for electrically separating adjacent pixels P, and the second contact layer 12 is provided with a plurality of diffusion regions 12A, for example.
  • a compound semiconductor material having a band gap larger than that of the compound semiconductor material forming the photoelectric conversion layer 13 for the second contact layer 12 it is possible to suppress dark current.
  • n-type InP indium phosphide
  • the diffusion regions 12A provided in the second contact layer 12 are arranged apart from each other.
  • the diffusion region 12A is arranged for each pixel P, and the second electrode 11 is connected to each diffusion region 12A.
  • the diffusion region 12A is for reading out the signal charges generated in the photoelectric conversion layer 13 for each pixel P, and contains, for example, a p-type impurity. Examples of p-type impurities include Zn (zinc). In this way, the pn junction interface is formed between the diffusion region 12A and the second contact layer 12 other than the diffusion region 12A, and the adjacent pixels P are electrically separated.
  • the diffusion region 12A is provided, for example, in the thickness direction of the second contact layer 12, and is also provided in a part of the photoelectric conversion layer 13 in the thickness direction.
  • the photoelectric conversion layer 13 between the second electrode 11 and the first electrode 15, more specifically, the photoelectric conversion layer 13 between the second contact layer 12 and the first contact layer 14 is commonly used in all pixels P, for example. It is provided.
  • the photoelectric conversion layer 13 absorbs light having a predetermined wavelength to generate a signal charge, and is made of, for example, a compound semiconductor material such as an i-type group III-V semiconductor. Examples of the compound semiconductor material forming the photoelectric conversion layer 13 include InGaAs (indium gallium arsenide), InAsSb (indium arsenide antimony), InAs (indium arsenide), InSb (indium antimony), and HgCdTe (mercury cadmium tellurium). Can be mentioned.
  • the photoelectric conversion layer 13 may be made of Ge (germanium). In the photoelectric conversion layer 13, for example, light having a wavelength in the visible region to the short infrared region is photoelectrically converted.
  • the first contact layer 14 is provided in common to all the pixels P, for example.
  • the first contact layer 14 is provided between the photoelectric conversion layer 13 and the first electrode 15 and is in contact with them.
  • the first contact layer 14 is a region in which charges discharged from the first electrode 15 move, and is made of, for example, a compound semiconductor containing an n-type impurity.
  • n-type InP indium phosphide
  • the thickness of the first contact layer 14 is, for example, 20 nm or more and 1000 nm or less.
  • the first electrode 15 is provided, for example, as a common electrode for the plurality of pixels P on the first contact layer 14 (light incident side) so as to be in contact with the first contact layer 14.
  • the first electrode 15 is for discharging charges, which are not used as signal charges, of the charges generated in the photoelectric conversion layer 13 (cathode). For example, when holes are read out from the second electrode 11 as signal charges, for example, electrons can be discharged through the first electrode 15.
  • the first electrode 15 is formed of, for example, a conductive film that can transmit incident light having a wavelength of 1700 nm or less.
  • the first electrode 15 is formed using an oxide semiconductor material having an amorphous state.
  • the amorphous state is a substance state including an amorphous state.
  • the first electrode 15 may include a state other than an amorphous state, such as a crystalline state, as long as the effect of the present embodiment is not impaired.
  • the oxide semiconductor material include ITO (Indium Tin Oxide).
  • the details of the first electrode 15 will be described later, but for example, in a nitrogen (N 2 ) gas atmosphere, for example, 200° C. or more It can be formed by annealing at a temperature of 50° C. or lower.
  • the thickness of the first electrode 15 is, for example, 1 nm or more and 50 nm or less, and preferably 1 nm or more and 30 nm or less.
  • the first electrode 15 may be formed as a laminated film of an electrode layer 15A (first electrode layer) and an electrode layer 15B (second electrode layer) as shown in FIG. 2, for example.
  • the electrode layer 15A can be formed by using, for example, ITO having an amorphous state as described above.
  • the thickness of the electrode layer 15A is, for example, 1 nm or more and 50 nm or less, and preferably 1 nm or more and 30 nm or less.
  • titanium oxide, IZO (indium oxide/zinc oxide), IGZO, or the like can be used.
  • the electrode layer 15B may have an absorption rate in the infrared region of less than 15%, for example. Within the above range, the electrode layer 15B does not necessarily have to be in an amorphous state and may be in a crystalline state like a general electrode.
  • the protective film 31 covers the first electrode 15 from the light incident surface S1 side to the pixel region 100A and the peripheral region 100B.
  • the protective film 31 is, for example, silicon oxide (SiO x), silicon nitride (Si x N y), can be used silicon carbide (SiC) and silicon oxynitride (SiON) or the like.
  • the passivation film 32 is provided on the protective film 31, for example, and covers the pixel region 100A and the peripheral region 100B.
  • the passivation film 32 may have an antireflection function.
  • silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and tantalum oxide (Ta 2 O 3 ) can be used.
  • the insulating film 16 is provided between the second contact layer 12 and the wiring layer 10W, covers the bottom surface and the end surface of the second contact layer 12, the end surface of the photoelectric conversion layer 13 and the end surface of the first contact layer 14, and It is in contact with one electrode 15.
  • the insulating film 16 is configured to include an oxide such as silicon oxide (SiO 2 ) or aluminum oxide (Al 2 O 3 ).
  • the insulating film 16 may be configured as a laminated structure including a plurality of films.
  • the insulating film 16 may be made of a silicon (Si)-based insulating material such as silicon oxynitride (SiON), carbon-containing silicon oxide (SiOC), silicon nitride (SiN), and silicon carbide (SiC).
  • the embedded layer 17 is for filling the step between the temporary substrate (the temporary substrate 43 of FIG. 3B described later) and the photoelectric conversion unit 10S in the manufacturing process of the image pickup device 1. Although details will be described later, in the present embodiment, since the buried layer 17 is formed, the occurrence of defects in the manufacturing process due to the step between the photoelectric conversion unit 10S and the temporary substrate 43 can be suppressed.
  • the embedded layer 17 is provided between the wiring layer 10W and the protective film 31 and has, for example, a thickness equal to or greater than the thickness of the photoelectric conversion unit 10S.
  • the buried layer 17 is provided so as to surround the photoelectric conversion unit 10S, a region (peripheral region 100B) around the photoelectric conversion unit 10S is formed.
  • the bonding surface S2 with the circuit board 20 can be provided in the peripheral region 100B. If the bonding surface S2 is formed in the peripheral region 100B, the thickness of the embedded layer 17 may be reduced, but the embedded layer 17 covers the photoelectric conversion section 10S in the thickness direction, and the entire end surface of the photoelectric conversion section 10S is covered. Is preferably covered with the buried layer 17. Since the embedded layer 17 covers the entire end surface of the photoelectric conversion unit 10S with the insulating film 16 interposed therebetween, it is possible to effectively suppress the infiltration of water into the photoelectric conversion unit 10S.
  • the surface of the buried layer 17 on the bonding surface S2 side is flattened, and the wiring layer 10W is provided on the surface of the flattened buried layer 17 in the peripheral region 100B.
  • an inorganic insulating material such as silicon oxide (SiO 2 ), silicon nitride (SiN), silicon oxynitride (SiON), carbon-containing silicon oxide (SiOC), and silicon carbide (SiC) is used.
  • the support substrate 21 is for supporting the wiring layer 20W, and is made of, for example, silicon (Si).
  • the wiring layer 20W has, for example, contact electrodes 22EA and 22EB, a pixel circuit 22CA, and a wiring 22CB in the interlayer insulating film 22 (22A and 22B).
  • the interlayer insulating films 22A and 22B are made of, for example, an inorganic insulating material. Examples of the inorganic insulating material include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and hafnium oxide (HfO 2 ).
  • the interlayer insulating films 22A and 22B may be formed using different inorganic insulating materials, or may be formed using the same inorganic insulating material.
  • the contact electrode 22EA is provided, for example, in the pixel region 100A, is for electrically connecting the second electrode 11 and the pixel circuit 22CA, and is in contact with the contact electrode 18EA at the joint surface S2 of the element substrate 10. Adjacent contact electrodes 22EA are electrically separated by interlayer insulating films 22A and 22B.
  • the contact electrode 22EB is provided, for example, in the peripheral region 100B and is for electrically connecting the first electrode 15 and the wiring 22CB of the circuit board 20, and is in contact with the contact electrode 18EB at the joint surface S2 of the element substrate 10. ing.
  • the contact electrode 22EB is formed, for example, in the same step as the contact electrode 22EA.
  • the contact electrodes 22EA and 22EB are made of, for example, copper (Cu) pads, and are exposed on the surface of the circuit board 20 facing the element substrate 10. That is, for example, CuCu bonding is performed between the contact electrode 18EA and the contact electrode 22EA and between the contact electrode 18EB and the contact electrode 22EB.
  • Cu copper
  • the pixel circuit 22CA is provided for each pixel P in the pixel area 100A, for example, and is connected to the contact electrode 22EA.
  • This pixel circuit 22CA constitutes an ROIC.
  • the wiring 22CB is provided, for example, in the peripheral region 100B, is connected to the contact electrode 22EB, and is connected to, for example, a predetermined potential. Accordingly, one of the charges (for example, holes) generated in the photoelectric conversion layer 13 is read out from the second electrode 11 to the pixel circuit 22CA via the contact electrodes 18EA and 22EA. The other of the charges (electrons, for example) generated in the photoelectric conversion layer 13 is discharged from the first electrode 15 to a predetermined potential via the through electrode (not shown) and the contact electrodes 18EB and 22EB. ing.
  • the image sensor 1 can be manufactured, for example, as follows. 3A to 7B show the manufacturing process of the image sensor 1 in process order.
  • the layer 45A is formed by epitaxial growth in this order.
  • the diameter of the growth substrate 41 is, for example, 6 inches or less.
  • a second contact layer 12 made of n-type InP, a photoelectric conversion layer 13 made of i-type or n-type InGaAs, and a first contact layer 14 made of n-type InP are formed in this order. To do.
  • the cap layer 45 is for preventing direct contact between the photoelectric conversion unit 10S and the adhesive layer B for bonding the photoelectric conversion unit 10S to the temporary substrate 43. If the process proceeds while the adhesive layer B is in contact with the photoelectric conversion unit 10S, the characteristics of the photoelectric conversion unit 10S may be deteriorated due to energy irradiation such as film formation, impurity diffusion, or annealing. Particularly, in the photoelectric conversion unit 10S, when the first contact layer 14 arranged at a position close to the adhesive layer B contains phosphorus (P), there is a possibility that the phosphorus may be removed by energy irradiation.
  • P phosphorus
  • the adhesive layer B is modified by the energy irradiation and the photoelectric conversion unit 10S is peeled off from the temporary substrate 43.
  • the cap layer 45 may be a semiconductor material that can be epitaxially grown on the photoelectric conversion unit 10S (more specifically, the first contact layer 14), and for example, InGaAs or InAsSb can be used.
  • an annealing process is performed.
  • This annealing step is for preparing for rapid energy irradiation in the subsequent step of forming the diffusion region 12A.
  • the heating time and heating temperature in this annealing step are preferably longer or higher than the heating time and heating temperature in the step of forming diffusion region 12A. Alternatively, the temperature may be higher and the temperature may be longer.
  • an adhesive layer B containing, for example, silicon oxide (SiO 2 ) is formed on the cap layer 45A, and an annealing process is performed. Only one of the annealing process after forming the cap layer 45A and the annealing process after forming the adhesive layer B may be performed.
  • the growth substrate 41 is bonded to the large-diameter temporary substrate 43 with the adhesive layer B interposed therebetween.
  • the cap layer 45A is interposed between the adhesive layer B and the first contact layer 14.
  • TEOS tetraethoxysilane
  • SiO 2 silicon oxide
  • the temporary substrate 43 for example, a silicon (Si) substrate having a larger diameter than the growth substrate 41 is used. The diameter of the temporary substrate 43 is, for example, 8 inches to 12 inches.
  • the small-diameter growth substrate 41 By bonding the small-diameter growth substrate 41 to the large-diameter temporary substrate 43, it becomes possible to use various devices for a large-diameter substrate when forming the element substrate 10.
  • the circuit board 20 and the element substrate 10 are bonded to each other by CuCu bonding, and the pixel P can be miniaturized.
  • the growth substrate 41 may be bonded to the temporary substrate 43 by plasma activation bonding, room temperature bonding, bonding using an adhesive (adhesive bonding), or the like.
  • the wafer-shaped photoelectric conversion unit 10S is bonded to the temporary substrate 43.
  • the photoelectric conversion unit 10S is not limited to the wafer shape, and may be fragmented into a chip shape.
  • the growth substrate 41 on which the photoelectric conversion unit 10S is formed is bonded to the temporary substrate 43, the growth substrate 41 is removed as shown in FIG. 4A.
  • the growth substrate 41 can be removed by mechanical grinding, CMP (Chemical Mechanical Polishing), wet etching, dry etching, or the like.
  • the positional deviation of the photoelectric conversion unit 10S with respect to the temporary substrate 43 is corrected.
  • the positional shift of the photoelectric conversion unit 10S is corrected by using, for example, photolithography and etching.
  • a resist (resist PR) is formed on the photoelectric conversion unit 10S, and the photoelectric conversion unit 10S is appropriately etched.
  • the etching dry etching, wet etching, or the like can be used. Thereby, the unnecessary portion of the photoelectric conversion unit 10S is removed, and the photoelectric conversion unit 10S can be left only in the defined region (pixel region 100A) of the temporary substrate 43.
  • the positional deviation of the photoelectric conversion unit 10S with respect to the temporary substrate 43 it is possible to suppress the occurrence of misalignment in a later process and easily form the image sensor 1 having a desired structure. Become.
  • the insulating film 16 is formed on the entire surface of the temporary substrate 43 as shown in FIG. 5A. Then, the diffusion region 12A is formed for each pixel P in the photoelectric conversion unit 10S. Thereby, element isolation is performed.
  • the insulating film 16 is used as a hard mask. Specifically, after forming a mask having a predetermined shape on the second contact layer 12, the opening 16H is formed in the insulating film 16 by etching. After that, the resist is stripped off, and the p-type impurities are vapor-phase diffused using the insulating film 16 as a hard mask.
  • the diffusion region 12A is formed in the selective region.
  • the diffusion region 12A may be formed by ion implantation or the like using a resist mask.
  • the diffusion region 12A is formed in the photoelectric conversion unit 10S provided on the large-diameter temporary substrate 43, the pixel P can be miniaturized.
  • an insulating material is formed on the entire surface of the temporary substrate 43, and then planarized by, for example, CMP.
  • the buried layer 17 that is flush with the upper surface (the surface farthest from the temporary substrate 43) of the photoelectric conversion unit 10S is formed around the photoelectric conversion unit 10S (peripheral region 100B).
  • the diffusion region 12A and the burying layer 17 may be formed in the reverse order, and the diffusion region 12A and the burying layer 17 may be formed after the misalignment of the photoelectric conversion unit 10S with respect to the temporary substrate 43 is corrected. You may form in this order.
  • the wiring layer 10W including the second electrode 11 is formed on the photoelectric conversion unit 10S.
  • an insulating material is formed on the entire surfaces of the photoelectric conversion unit 10S and the buried layer 17, and then an opening is formed.
  • a CVD (Chemical Vapor Deposition) method, a PVD (Physical Vapor Deposition) method, an ALD (Atomic Layer Deposition) method, a vapor deposition method, or the like is used to form, for example, a stacked film of titanium (Ti)/tungsten (W) in this opening.
  • this laminated film is formed by patterning using photolithography and etching.
  • the second electrode 11 is formed.
  • an insulating material is further formed so as to cover the second electrode 11, and then planarized by, for example, CMP to form the interlayer insulating film 18A.
  • an insulating material is formed on the interlayer insulating film 18A and planarized by, for example, CMP to form the interlayer insulating film 18B, as shown in FIG. 6A, on the photoelectric conversion unit 10S (pixel region 100A) and Openings 18H1 and 18H2 are formed in regions (peripheral regions 100B) other than on the photoelectric conversion unit 10S, respectively.
  • the opening 18H1 formed on the photoelectric conversion unit 10S exposes a part of the second electrode 11 on the bottom surface thereof.
  • the surface of the copper film is polished by, for example, the CMP method to form a contact electrode.
  • 18EA and 18EB are formed.
  • the wiring layer 10W having the second electrode 11 and the contact electrodes 18EA and 18EB is formed.
  • the wiring layer 10W is formed on the large-diameter temporary substrate 43, various devices for a large-diameter substrate can be used.
  • the cap layer 45A is interposed between the adhesive layer B and the first contact layer 14 in the steps of removing the growth substrate 41, forming the diffusion region 12A, forming the wiring layer 10W, etc., the photoelectric conversion section is formed. It is possible to suppress the characteristic deterioration of 10S and the occurrence of film peeling.
  • the circuit board 20 After forming the wiring layer 10W, as shown in FIG. 6B, the circuit board 20 is attached to the temporary substrate 43 with the wiring layer 10W interposed therebetween. At this time, the wiring layer 20W is formed on the circuit board 20 in advance.
  • the wiring layer 20W of the circuit board 20 has pad-structured contact electrodes 22EA and 22EB.
  • the contact electrodes 22EA and 22EB of the wiring layer 20W and wirings are formed.
  • the contact electrodes 18EA and 18EB of the layer 10W are CuCu-bonded.
  • the joint surface S2 in which the contact electrode 18EA and the contact electrode 22EA are joined is formed, and in the peripheral region 100B, the joint surface S2 in which the contact electrode 18EB and the contact electrode 22EB are joined is formed. It is formed.
  • the peripheral region 100B of the element substrate 10 is also joined to the circuit board 20.
  • the temporary substrate 43, the adhesive layer B, and the cap layer 45 are removed in this order to expose the first contact layer 14.
  • the temporary substrate 43 can be removed by using, for example, mechanical grinding, wet etching, dry etching, or the like.
  • the adhesive layer B and the cap layer 45 can be removed by, for example, wet etching.
  • wet etching of the adhesive layer B for example, HF (Hydrogen Fluoride) or BHF (Buffered Hydrogen Fluoride) can be used.
  • a mixed solution of an acid and an oxidizing agent can be used.
  • the acid for example, HF, hydrochloric acid (HCl), phosphoric acid (H 3 PO 4 ) or the like can be used, and as the oxidizing agent, for example, hydrogen peroxide water or ozone water can be used.
  • the adhesive layer B and the cap layer 45 can be removed by dry etching, they are preferably removed by wet etching.
  • the area where the adhesive layer B and the cap layer 45 are removed is smaller than the area of the photoelectric conversion unit 10S in plan view, for example.
  • the periphery of the photoelectric conversion unit 10S on the light incident surface S1 side (the surface opposite to the surface facing the circuit board 20), more specifically, the cap layer 45 and the adhesive layer on the end of the first contact layer 14. B remains.
  • the first electrode 15 is formed on the exposed first contact layer 14 as shown in FIG. 7B.
  • an ITO film is formed by using sputtering, and the film is formed to have a thickness of 10 nm, for example, and then annealed at 360° C. in a nitrogen (N 2 ) gas atmosphere.
  • N 2 nitrogen
  • the ITO film remains in the amorphous state, and the first electrode 15 is formed.
  • a gas containing nitrogen (N 2 ) may be used, and in addition to the nitrogen (N 2 ) gas, for example, argon (Ar) and helium (He) and those are contained. Nitrogen, oxygen containing nitrogen, or the like may be used.
  • the protective film 31 and the passivation film 32 are formed in this order on the first electrode 15 and the buried layer 17. As a result, the image sensor 1 shown in FIG. 1 is completed.
  • ITO has a low absorptance in the infrared and visible regions. Therefore, InP having a good absorptivity in the near infrared region is used in a general infrared sensor, but the absorptivity is increased in the visible region. There was a problem that ended up.
  • ITO which is a general transparent electrode material
  • the first electrode 15 arranged on the light incident surface S1 side of the photoelectric conversion unit 10S including a compound semiconductor material is made of an oxide semiconductor material having an amorphous state.
  • the first electrode 15 made of an oxide semiconductor material having an amorphous state can be formed, for example, by annealing in a nitrogen (N 2 ) gas atmosphere.
  • FIG. 8 shows the change in the wavelength absorption characteristic depending on the film thickness of the ITO film.
  • the ITO film having a film thickness of 10 nm showed stable optical characteristics with an absorptance of 2% or less even in the near infrared region having a wavelength of 800 nm or more.
  • the ITO film annealed in a nitrogen (N 2 ) atmosphere maintained a low resistance state.
  • the first electrode 15 and the second electrode 11 that are arranged to face each other with the photoelectric conversion unit 10S containing the compound semiconductor material interposed therebetween the first electrode 15 that is arranged on the light incident surface S1 side. was formed using an oxide semiconductor material having an amorphous state. This reduces absorption of light including the infrared region by the first electrode 15. Therefore, light can be efficiently incident on the photoelectric conversion unit 10S, and stable optical characteristics can be obtained. Therefore, it becomes possible to provide the image sensor 1 having excellent sensitivity.
  • ITO which is a general transparent electrode material
  • FIG. 9 schematically illustrates a cross-sectional configuration of an image sensor (image sensor 2) according to a modified example of the present disclosure.
  • the image sensor 2 is applied to an infrared sensor or the like using a compound semiconductor material such as a III-V semiconductor as in the case of the image sensor 1 in the above-described embodiment, and has, for example, a visible region (for example, 380 nm or more). It has a photoelectric conversion function for light having a wavelength in the range of from less than 780 nm) to the near infrared region (for example, 780 nm or more and less than 2400 nm).
  • the image sensor 2 of the present modification has, for example, a color filter having a color filter of red (33R), green (33G), and blue (33B) on each pixel P arranged in the pixel area 100A on the light incident surface side.
  • the difference from the above embodiment is that the (CF) layer 33 and the on-chip lens 34 are provided in this order.
  • FIG. 10 illustrates an element structure and a functional configuration of the image pickup device 1 (or the image pickup device 2) described in the above-described embodiments and the like.
  • the image pickup device 1 is, for example, an infrared image sensor, and includes, for example, a pixel region 100A provided in the image pickup device 1 and a circuit unit 130 that drives the pixel region 100A.
  • the circuit unit 130 has, for example, a row scanning unit 131, a horizontal selection unit 133, a column scanning unit 134, and a system control unit 132.
  • the pixel region 100A has a plurality of pixels P (imaging element 1) arranged two-dimensionally in a matrix, for example.
  • a pixel drive line Lread (for example, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading a signal from the pixel P.
  • One end of the pixel drive line Lread is connected to the output end corresponding to each row of the row scanning unit 131.
  • the row scanning unit 131 is a pixel driving unit that includes a shift register, an address decoder, and the like, and drives each pixel P in the pixel region 100A, for example, in units of rows.
  • the signal output from each pixel P of the pixel row selectively scanned by the row scanning unit 131 is supplied to the horizontal selection unit 133 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 133 is configured by an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 134 is composed of a shift register, an address decoder, etc., and sequentially drives each horizontal selection switch of the horizontal selection unit 133 while scanning. By the selective scanning by the column scanning unit 134, the signal of each pixel transmitted through each of the vertical signal lines Lsig is sequentially output to the horizontal signal line 135, and input to the signal processing unit or the like (not shown) through the horizontal signal line 135. It
  • an element substrate 10 having a pixel region 100A and a circuit substrate 20 having a circuit portion 130 are laminated.
  • the configuration is not limited to such a configuration, and the circuit unit 130 may be formed on the same substrate as the pixel region 100A, or may be provided on the external control IC. Further, the circuit unit 130 may be formed on another substrate connected by a cable or the like.
  • the system control unit 132 receives a clock given from the outside, data for instructing an operation mode, and outputs data such as internal information of the image pickup device 1.
  • the system control unit 132 further includes a timing generator that generates various timing signals, and the row scanning unit 131, the horizontal selection unit 133, the column scanning unit 134, and the like based on the various timing signals generated by the timing generator. Drive control is performed.
  • FIG. 12 shows a schematic configuration of the electronic device 3 (camera) as an example.
  • the electronic device 3 is, for example, a camera capable of shooting a still image or a moving image, and includes an image sensor 1, an optical system (optical lens) 310, a shutter device 311, and a drive unit that drives the image sensor 1 and the shutter device 311. 313 and a signal processing unit 312.
  • the optical system 310 guides image light (incident light) from a subject to the image sensor 1.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls a light irradiation period and a light shielding period for the image sensor 1.
  • the drive unit 313 controls the transfer operation of the image sensor 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various kinds of signal processing on the signal output from the image sensor 1.
  • the video signal Dout after the signal processing is stored in a storage medium such as a memory or is output to a monitor or the like.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 13 is a block diagram showing an example of a schematic configuration of a patient internal information acquisition system using a capsule endoscope to which the technology according to the present disclosure (this technology) can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by a patient at the time of inspection.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach or intestine by peristaltic movement or the like while being naturally discharged from the patient, and inside the organ.
  • Images (hereinafter, also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information regarding the in-vivo images is sequentially wirelessly transmitted to the external control device 10200 outside the body.
  • the external control device 10200 centrally controls the operation of the in-vivo information acquisition system 10001. Further, the external control device 10200 receives information about the in-vivo image transmitted from the capsule endoscope 10100, and displays the in-vivo image on a display device (not shown) based on the received information about the in-vivo image. Image data for displaying is generated.
  • the in-vivo information acquisition system 10001 can obtain an in-vivo image of the inside of the patient's body from time to time when the capsule endoscope 10100 is swallowed and discharged.
  • the capsule endoscope 10100 has a capsule-type housing 10101, and in the housing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power feeding unit 10115, and a power supply unit. 10116 and the control part 10117 are stored.
  • the light source unit 10111 includes a light source such as an LED (light emitting diode), and irradiates the imaging visual field of the imaging unit 10112 with light.
  • a light source such as an LED (light emitting diode)
  • the image pickup unit 10112 is composed of an image pickup element and an optical system including a plurality of lenses provided in the preceding stage of the image pickup element. Reflected light (hereinafter, referred to as observation light) of the light applied to the body tissue as the observation target is condensed by the optical system and is incident on the imaging device. In the image pickup unit 10112, the image pickup device photoelectrically converts the observation light incident thereon to generate an image signal corresponding to the observation light. The image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is configured by a processor such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the image signal subjected to the signal processing to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs a predetermined process such as a modulation process on the image signal subjected to the signal processing by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Further, the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A. The wireless communication unit 10114 provides the control signal received from the external control device 10200 to the control unit 10117.
  • a predetermined process such as a modulation process
  • the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A.
  • the wireless communication unit 10114 provides the control signal received from the external control device 10200 to the control unit 10117.
  • the power supply unit 10115 includes an antenna coil for receiving power, a power regeneration circuit that regenerates power from current generated in the antenna coil, a booster circuit, and the like.
  • the power supply unit 10115 generates electric power by using the so-called non-contact charging principle.
  • the power supply unit 10116 is composed of a secondary battery and stores the electric power generated by the power supply unit 10115.
  • the arrows and the like indicating the destinations of the electric power supplied from the power supply unit 10116 are omitted, but the electric power stored in the power supply unit 10116 is the light source unit 10111.
  • the control unit 10117 is configured by a processor such as a CPU, and controls the driving of the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115 from the external control device 10200. Control as appropriate.
  • the external control device 10200 is configured by a processor such as a CPU and a GPU, or a microcomputer or a control board in which a processor and a memory element such as a memory are mounted together.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • a light irradiation condition for the observation target in the light source unit 10111 can be changed by a control signal from the external control device 10200.
  • the imaging condition for example, the frame rate in the imaging unit 10112, the exposure value, etc.
  • the control signal from the external control device 10200 may change the content of the processing in the image processing unit 10113 and the condition (for example, the transmission interval, the number of transmission images, etc.) at which the wireless communication unit 10114 transmits the image signal. ..
  • the external control device 10200 performs various kinds of image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing include development processing (demosaic processing), high image quality processing (band emphasis processing, super-resolution processing, NR (Noise reduction) processing and/or camera shake correction processing, etc.), and/or enlargement processing ( Various signal processing such as electronic zoom processing) can be performed.
  • the external control device 10200 controls driving of the display device to display the in-vivo image captured based on the generated image data.
  • the external control device 10200 may record the generated image data in a recording device (not shown) or may print it out by a printing device (not shown).
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. This improves the detection accuracy.
  • Application example 4 ⁇ Application example to endoscopic surgery system>
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 14 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (the present technology) can be applied.
  • FIG. 14 illustrates a situation in which an operator (doctor) 11131 is operating on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as a pneumoperitoneum tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 into which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid endoscope having the rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening is provided at the tip of the lens barrel 11101 in which an objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. It is irradiated toward the observation target in the body cavity of the patient 11132 via the lens.
  • the endoscope 11100 may be a direct-viewing endoscope, or may be a perspective or side-viewing endoscope.
  • An optical system and an image pickup device are provided inside the camera head 11102, and reflected light (observation light) from an observation target is condensed on the image pickup device by the optical system.
  • the observation light is photoelectrically converted by the imaging element, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to a camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and integrally controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives the image signal from the camera head 11102, and performs various image processing such as development processing (demosaic processing) on the image signal for displaying an image based on the image signal.
  • image processing such as development processing (demosaic processing)
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various kinds of information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for cauterization of tissue, incision, sealing of blood vessel, or the like.
  • the pneumoperitoneum device 11206 is used to inflate the body cavity of the patient 11132 through the pneumoperitoneum tube 11111 in order to inflate the body cavity of the patient 11132 for the purpose of securing the visual field by the endoscope 11100 and the working space of the operator.
  • the recorder 11207 is a device capable of recording various information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies irradiation light to the endoscope 11100 when imaging a surgical site can be configured by, for example, an LED, a laser light source, or a white light source configured by a combination thereof.
  • a white light source is formed by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy, so that the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated on the observation target in a time division manner, and the drive of the image pickup device of the camera head 11102 is controlled in synchronization with the irradiation timing so as to correspond to each of the RGB. It is also possible to take the captured image in a time division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the intensity of the light to acquire an image in a time-division manner and combining the images, a high dynamic image without so-called blackout and blown-out highlights is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of the absorption of light in body tissues, by irradiating a narrow band of light as compared with the irradiation light (that is, white light) during normal observation, the mucosal surface layer
  • the so-called narrow band imaging is performed in which a predetermined tissue such as blood vessels is imaged with high contrast.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating the excitation light may be performed.
  • the light source device 11203 can be configured to be capable of supplying narrowband light and/or excitation light compatible with such special light observation.
  • FIG. 15 is a block diagram showing an example of the functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at the connecting portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the number of image pickup elements forming the image pickup section 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB are generated by the respective image pickup elements, and a color image may be obtained by combining them.
  • the image capturing unit 11402 may be configured to include a pair of image capturing elements for respectively acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display.
  • the 3D display enables the operator 11131 to more accurately understand the depth of the living tissue in the operation site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Accordingly, the magnification and focus of the image captured by the image capturing unit 11402 can be adjusted appropriately.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405.
  • the control signal includes, for example, information that specifies the frame rate of the captured image, information that specifies the exposure value at the time of capturing, and/or information that specifies the magnification and focus of the captured image. Contains information about the condition.
  • the image capturing conditions such as the frame rate, the exposure value, the magnification, and the focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are installed in the endoscope 11100.
  • AE Auto Exposure
  • AF Auto Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives the image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various kinds of image processing on the image signal that is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls regarding imaging of a surgical site or the like by the endoscope 11100 and display of a captured image obtained by imaging the surgical site or the like. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image of the surgical site or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects a surgical instrument such as forceps, a specific living body part, bleeding, and a mist when the energy treatment instrument 11112 is used by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgery support information on the image of the operation unit. By displaying the surgery support information in a superimposed manner and presenting it to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can surely proceed with the surgery.
  • the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 among the configurations described above.
  • the detection accuracy is improved.
  • the endoscopic surgery system has been described as an example, but the technology according to the present disclosure may be applied to, for example, a microscopic surgery system or the like.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is applicable to any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). It may be realized as a device mounted on the body.
  • FIG. 16 is a block diagram showing a schematic configuration example of a vehicle control system which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, a voice image output unit 12052, and an in-vehicle network I/F (interface) 120 are provided as a functional configuration of the integrated control unit 12050.
  • a microcomputer 12051 a voice image output unit 12052, and an in-vehicle network I/F (interface) 120 are provided. 53 is shown.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjusting and a control device such as a braking device for generating a braking force of the vehicle.
  • the body system control unit 12020 controls operations of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • radio waves or signals of various switches transmitted from a portable device that substitutes for a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle door lock device, the power window device, the lamp, and the like.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the image capturing unit 12031 to capture an image of the vehicle exterior and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected with, for example, a driver state detection unit 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether or not the driver is asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes functions of ADAS (Advanced Driver Assistance System) including avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, a vehicle collision warning, or a vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, or the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, thereby It is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information on the outside of the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the voice image output unit 12052 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to an occupant of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an onboard display and a head-up display, for example.
  • FIG. 17 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the image capturing unit 12031 includes image capturing units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior.
  • the image capturing unit 12101 provided on the front nose and the image capturing unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the image capturing unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield inside the vehicle is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like.
  • FIG. 17 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in a rear bumper or a back door is shown.
  • a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image capturing units 12101 to 12104 may be a stereo camera including a plurality of image capturing elements, or may be an image capturing element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100). By determining, the closest three-dimensional object on the traveling path of the vehicle 12100, which is traveling in the substantially same direction as the vehicle 12100 at a predetermined speed (for example, 0 km/h or more), can be extracted as the preceding vehicle. it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation of the driver.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 uses the distance information obtained from the imaging units 12101 to 12104 to convert three-dimensional object data regarding a three-dimensional object to other three-dimensional objects such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified, extracted, and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 outputs the audio through the audio speaker 12061 and the display unit 12062. A driver can be assisted for avoiding a collision by outputting an alarm to the driver and performing forced deceleration or avoidance steering through the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the images captured by the imaging units 12101 to 12104. To recognize such a pedestrian, for example, a procedure of extracting a feature point in an image captured by the image capturing units 12101 to 12104 as an infrared camera, and a pattern matching process on a series of feature points indicating an outline of an object are performed to determine whether the pedestrian is a pedestrian. It is performed by the procedure of determining.
  • the audio image output unit 12052 causes the recognized pedestrian to have a rectangular contour line for emphasis.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon indicating a pedestrian or the like at a desired position.
  • the layer configuration of the image sensor 1 described in the above embodiment is an example, and may further include other layers.
  • the material and thickness of each layer are also examples, and are not limited to the above.
  • the photoelectric conversion unit 10S includes the photoelectric conversion layer 13.
  • the second contact layer 12 and the first contact layer 14 may not be provided, for example.
  • the photoelectric conversion unit 10S may further include another layer.
  • the signal charge is a hole
  • the signal charge may be an electron
  • the diffusion region may include n-type impurities.
  • the present disclosure may have the following configurations.
  • the first electrode is made of an oxide semiconductor material having an amorphous state.
  • the first electrode reduces absorption of wavelengths in the infrared region and below. Therefore, it becomes possible to provide an image sensor having excellent sensitivity.
  • An image pickup device which is provided between the first electrode and the second electrode and includes a photoelectric conversion unit containing a compound semiconductor material.
  • the second electrode layer contains at least one of titanium oxide, indium oxide/zinc oxide (IZO), and IGZO.
  • the photoelectric conversion unit is provided on the opposite side of the photoelectric conversion layer, the first contact layer provided between the photoelectric conversion layer and the first electrode, and the first contact layer of the photoelectric conversion layer.
  • the second contact layer has a first-conductivity-type region provided in regions respectively facing the plurality of pixels, and a second-conductivity-type region around the first-conductivity-type region.
  • the photoelectric conversion layer, the first contact layer, and the second contact layer that exercise the photoelectric conversion section are configured to include a III-V group semiconductor material.
  • the photoelectric conversion layer is composed of InGaAs, The image sensor according to (11) above, wherein the first contact layer and the second contact layer are made of InP or InGaAs.
  • the first contact layer is provided on the light incident surface side of the photoelectric conversion layer and has one conductivity type
  • the second contact layer is provided on the side of the photoelectric conversion layer opposite to the light incident surface, and has another conductivity type region in each pixel in one conductivity type layer, (11) Alternatively, the image sensor according to (12).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の一実施形態の撮像素子は、アモルファス状態を有する酸化物半導体材料を含む第1電極と、第1電極と対向配置された第2電極と、第1電極と第2電極との間に設けられると共に、化合物半導体材料を含む光電変換部とを備える。

Description

撮像素子および電子機器
 本開示は、例えば、赤外線センサ等に用いられる撮像素子およびこれを備えた電子機器に関する。
 可視領域の波長を光電変換する撮像素子では、光入射側に位置する電極は、一般にITO等の透明導電材料を用いて形成されている(例えば、特許文献1参照)。
特開2017-157816号公報
 ところが、赤外線センサにおいて電極材料としてITOを用いた場合、ITOは、例えば近赤外領域以上の波長に吸収を示すため、感度が低下するという問題がある。
 感度を向上させることが可能な撮像素子および電子機器を提供することが望ましい。
 本開示の一実施形態の撮像素子は、アモルファス状態を有する酸化物半導体材料を含む第1電極と、第1電極と対向配置された第2電極と、第1電極と第2電極との間に設けられると共に、化合物半導体材料を含む光電変換部とを備えたものである。
 本開示の一実施形態の電子機器は、上記本開示の一実施形態の撮像素子を備えたものである。
 本開示の一実施形態の撮像素子および一実施形態の電子機器では、化合物半導体材料を含む光電変換部を間に対向配置される第1電極および第2電極のうち、第1電極を、アモルファス状態を有する酸化物半導体材料を用いて形成するようにした。これにより、第1電極による近赤外領域以下の波長の吸収が低減する。
本開示の実施の形態に係る撮像素子の概略構成の一例を表す断面模式図である。 図1に示した撮像素子の第1電極の構成の他の例を表す断面模式図である。 図1に示した撮像素子の製造方法の一工程を説明するための断面模式図である。 図3Aに続く工程を表す断面模式図である。 図3Bに続く工程を表す断面模式図である。 図4Aに続く工程を表す断面模式図である。 図4Bに続く工程を表す断面模式図である。 図5Aに続く工程を表す断面模式図である。 図5Bに続く工程を表す断面模式図である。 図6Aに続く工程を表す断面模式図である。 図6Bに続く工程を表す断面模式図である。 図7Aに続く工程を表す断面模式図である。 ITO膜の膜厚による波長の吸収特性を表す図である。 本開示の変形例に係る撮像素子の概略構成の一例を表す断面模式図である。 撮像素子の構成を表すブロック図である。 積層型の撮像素子の構成例を表す模式図である。 図10に示した固体撮像装置を用いた電子機器(カメラ)の一例を表す機能ブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示における実施の形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比等についても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
 1.実施の形態(光入射側にアモルファス状態の電極を有する撮像素子の例)
   1-1.撮像素子の構成
   1-2.撮像素子の製造方法
   1-3.撮像素子の動作
   1-4.作用・効果
 2.変形例(カラーフィルタおよびオンチップレンズを有する例)
 3.適用例
<1.実施の形態>
 図1は、本開示の一実施の形態に係る撮像素子(撮像素子1)の断面構成を模式的に表したものである。撮像素子1は、例えばIII-V族半導体等の化合物半導体材料を用いた赤外線センサ等に適用されるものであり、例えば、可視領域(例えば380nm以上780nm未満)~短赤外領域(例えば780nm以上2400nm未満)の波長の光に、光電変換機能を有するものである。この撮像素子1には、例えば2次元配置された複数の受光単位領域(画素P)が設けられている。図1には、3つの画素Pに相当する部分の断面構成について示している。
(1-1.撮像素子の構成)
 撮像素子1は、素子基板10および回路基板20の積層構造を有している。素子基板10の一方の面は光入射面(光入射面S1)であり、光入射面S1と反対の面(他方の面)が、回路基板20との接合面(接合面S2)である。素子基板10は、回路基板20側から、層間絶縁膜18(18B,18A)、第2コンタクト層12、光電変換層13、第1コンタクト層14および第1電極15がこの順に積層されており、例えば、第2コンタクト層12、光電変換層13および第1コンタクト層14が、複数の画素Pに対して共通の光電変換部10Sを構成している。本実施の形態では、光電変換部10Sの光入射面S1側に設けられた第1電極15が、アモルファス状態を有する酸化物半導体材料を用いて形成された構成を有する。
 素子基板10は、上記のように、回路基板20に近い位置から、層間絶縁膜18B,18A、第2コンタクト層12、光電変換層13、第1コンタクト層14および第1電極15をこの順に有している。層間絶縁膜18には、第2電極11を含む配線層10Wが設けられている。光電変換部10Sの配線層10Wとの対向面および端面(側面)は、絶縁膜16により覆われている。回路基板20は、素子基板10の接合面S2に接する配線層20Wと、この配線層20Wを間にして素子基板10に対向する支持基板21とを有している。
 素子基板10には、例えば中央部に受光領域である画素領域100Aが設けられており、この画素領域100Aに光電変換部10Sが配置されている。換言すると、光電変換部10Sが設けられた領域が画素領域100Aである。画素領域100Aの外側には、画素領域100Aを囲む周辺領域100Bが設けられている。素子基板10の周辺領域100Bには、絶縁膜16と共に、埋込層17が設けられている。光電変換部10Sは、例えばIII-V族半導体等の化合物半導体材料を含む、第2コンタクト層12、光電変換層13および第1コンタクト層14がこの順に積層された構成を有する。第2コンタクト層12、光電変換層13および第1コンタクト層14は、例えば、略同一の平面形状を有する。光電変換部10Sの光入射面S1側には、上記のように、第1電極15が設けられており、光入射面S1とは反対側に第2電極11が設けられている。光電変換部10Sで光電変換された信号電荷は、第2電極11を含む配線層10Wを介して移動し、回路基板20で読み出される。以下、各部の構成について説明する。
 配線層10Wは、例えば層間絶縁膜18(18A,18B)中に、第2電極11およびコンタクト電極18EA,18EBを有している。
 第2電極11は、光電変換層13で発生した信号電荷(正孔または電子、以下便宜上、信号電荷が正孔であるとして説明する。)を読み出すための電圧が供給される電極(アノード)であり、画素領域100Aに画素P毎に設けられている。第2電極11は、層間絶縁膜18Aおよび絶縁膜16の接続孔内に設けられ、光電変換部10Sの第2コンタクト層12に接している。隣り合う第2電極11は、層間絶縁膜18Aおよび絶縁膜16により電気的に分離している。
 第2電極11は、例えば、チタン(Ti),タングステン(W),窒化チタン(TiN),白金(Pt),金(Au),ゲルマニウム(Ge),パラジウム(Pd),亜鉛(Zn),ニッケル(Ni)およびアルミニウム(Al)のうちのいずれかの単体、またはそれらのうちの少なくとも1種を含む合金により構成されている。第2電極11は、このような構成材料の単膜であってもよく、あるいは、2種以上を組み合わせた積層膜であってもよい。例えば、第2電極11は、チタンおよびタングステンの積層膜(Ti/W)により構成されている。
 層間絶縁膜18(18A,18B)は、画素領域100Aおよび周辺領域100Bにわたって設けられ、回路基板20との接合面S2を有している。画素領域100Aにおける接合面S2と、周辺領域100Bにおける接合面とは、同一平面を形成している。層間絶縁膜18A,18Bは、積層構造を有し、例えば、層間絶縁膜18Aは第2コンタクト層12側に配置され、層間絶縁膜18Bは回路基板20側に配置されている。層間絶縁膜18A,18Bは、例えば、無機絶縁材料により構成されている。無機絶縁材料としては、例えば、窒化シリコン(SiN),酸化アルミニウム(Al23),酸化ケイ素(SiO2)および酸化ハフニウム(HfO2)等が挙げられる。層間絶縁膜18A,18Bは、互いに異なる無機絶縁材料を用いて形成してもよいし、同一の無機絶縁材料を用いて形成するようにしてもよい。
 コンタクト電極18EAは、第2電極11と回路基板20とを電気的に接続するためのものであり、画素領域100Aに画素P毎に設けられている。隣り合うコンタクト電極18EAは、層間絶縁膜18により電気的に分離されている。
 コンタクト電極18EBは、周辺領域100Bに配置されており、第1電極15と回路基板20の配線(後述の配線22CB)とを電気的に接続するためのものである。周辺領域100Bには、図示していないが、例えば埋込層17および層間絶縁膜18を貫通する貫通電極が設けられており、コンタクト電極18EBは、この貫通電極を介して、例えば第1電極15と電気的に接続されている。コンタクト電極18EBは、例えば、コンタクト電極18EAと同一工程で形成されている。コンタクト電極18EA,18EBは、例えば銅(Cu)パッドにより構成されており、接合面S2に露出している。
 第2コンタクト層12は、例えば、全ての画素Pに共通して設けられ、絶縁膜16と光電変換層13との間に配置されている。第2コンタクト層12は、隣り合う画素Pを電気的に分離するためのものであり、第2コンタクト層12には、例えば複数の拡散領域12Aが設けられている。第2コンタクト層12に、光電変換層13を構成する化合物半導体材料のバンドギャップよりも大きなバンドギャップの化合物半導体材料を用いることにより、暗電流を抑えることも可能となる。第2コンタクト層12には、例えばn型のInP(インジウムリン)を用いることができる。
 第2コンタクト層12に設けられた拡散領域12Aは、互いに離間して配置されている。拡散領域12Aは、画素P毎に配置され、それぞれの拡散領域12Aには第2電極11が接続されている。拡散領域12Aは、光電変換層13で発生した信号電荷を画素P毎に読み出すためのものであり、例えば、p型不純物を含んでいる。p型不純物としては、例えばZn(亜鉛)等が挙げられる。このように、拡散領域12Aと、拡散領域12A以外の第2コンタクト層12との間にpn接合界面が形成され、隣り合う画素Pが電気的に分離されるようになっている。拡散領域12Aは、例えば第2コンタクト層12の厚み方向に設けられ、光電変換層13の厚み方向の一部にも設けられている。
 第2電極11と第1電極15との間、より具体的には、第2コンタクト層12と第1コンタクト層14との間の光電変換層13は、例えば、全ての画素Pに共通して設けられている。光電変換層13は、所定の波長の光を吸収して、信号電荷を発生させるものであり、例えば、i型のIII-V族半導体等の化合物半導体材料により構成されている。光電変換層13を構成する化合物半導体材料としては、例えば、InGaAs(インジウムガリウム砒素),InAsSb(インジウム砒素アンチモン),InAs(インジウム砒素),InSb(インジムアンチモン)およびHgCdTe(水銀カドミウムテルル)等が挙げられる。Ge(ゲルマニウム)により光電変換層13を構成するようにしてもよい。光電変換層13では、例えば、可視領域から短赤外領域の波長の光の光電変換がなされるようになっている。
 第1コンタクト層14は、例えば、全ての画素Pに共通して設けられている。第1コンタクト層14は、光電変換層13と第1電極15との間に設けられ、これらに接している。第1コンタクト層14は、第1電極15から排出される電荷が移動する領域であり、例えば、n型の不純物を含む化合物半導体により構成されている。第1コンタクト層14には、例えば、n型のInP(インジウムリン)を用いることができる。第1コンタクト層14の厚みは、例えば20nm以上1000nm以下である。
 第1電極15は、例えば、複数の画素Pに対する共通の電極として、第1コンタクト層14上(光入射側)に、第1コンタクト層14に接するように設けられている。第1電極15は、光電変換層13で発生した電荷のうち、信号電荷として用いられない電荷を排出するためのものである(カソード)。例えば、正孔が信号電荷として第2電極11から読み出される場合には、第1電極15を通じて、例えば電子を排出することができる。
 第1電極15は、例えば、波長1700nm以下の入射光を透過可能な導電膜により構成されている。本実施の形態では、第1電極15は、アモルファス状態を有する酸化物半導体材料を用いて形成されている。ここで、アモルファス状態とは、非結晶な状態を含有する物質状態である。なお、第1電極15は、本実施の形態における効果を妨げない範囲で、例えば結晶状態等のアモルファス状態以外の状態が含まれていてもよい。酸化物半導体材料としては、例えば、ITO(Indium Tin Oxide)が挙げられる。第1電極15は、詳細は後述するが、例えば、窒素(N2)ガス雰囲気下において、例えば200℃以上4
50℃以下の温度でアニール処理することで形成することができる。第1電極15の厚みは、例えば1nm以上50nm以下であり、好ましくは、1nm以上30nm以下である。
 また、第1電極15は、例えば図2に示したように、電極層15A(第1の電極層)および電極層15B(第2の電極層)の積層膜として形成してもよい。このとき、電極層15Aは、上述したように、アモルファス状態を有する、例えばITOを用いて形成することができる。電極層15Aの厚みは、例えば1nm以上50nm以下であり、好ましくは、1nm以上30nm以下である。電極層15Bには、例えば,酸化チタン、IZO(酸化インジウム・酸化亜鉛)およびIGZO等を用いることができる。なお、電極層15Bは、例えば、赤外領域における吸収率が、例えば15%未満であればよい。上記範囲内であれば、電極層15Bは、必ずしもアモルファス状態である必要はなく、一般的な電極と同様に、結晶状態であってもよい。
 保護膜31は、第1電極15を光入射面S1側から画素領域100Aおよび周辺領域100Bを覆っている。保護膜31には、例えば酸化ケイ素(SiOx),窒化ケイ素(Sixy),炭化ケイ素(SiC)および酸窒化ケイ素(SiON)等を用いることができる。
 パッシベーション膜32は、例えば保護膜31上に設けられ、画素領域100Aおよび周辺領域100Bを覆っている。パッシベーション膜32は、反射防止機能を有していてもよい。パッシベーション膜32には、例えば窒化シリコン(SiN),酸化アルミニウム(Al23),酸化ケイ素(SiO2)および酸化タンタル(Ta23)等を用いるこ
とができる。
 絶縁膜16は、第2コンタクト層12と配線層10Wとの間に設けられるとともに、第2コンタクト層12の底面および端面、光電変換層13の端面および第1コンタクト層14の端面を覆い、第1電極15に接している。絶縁膜16は、例えば、酸化シリコン(SiO2)または酸化アルミニウム(Al23)等の酸化物を含んで構成されている。絶縁膜16は、複数の膜からなる積層構造として構成するようにしてもよい。絶縁膜16は、例えば酸窒化シリコン(SiON)、炭素含有酸化シリコン(SiOC)、窒化シリコン(SiN)およびシリコンカーバイド(SiC)等のシリコン(Si)系絶縁材料により構成するようにしてもよい。
 埋込層17は、撮像素子1の製造工程で、仮基板(後述の図3Bの仮基板43)と光電変換部10Sとの段差を埋めるためのものである。詳細は後述するが、本実施の形態では、この埋込層17を形成するので、光電変換部10Sと仮基板43との段差に起因した製造工程の不具合の発生が抑えられる。
 埋込層17は、配線層10Wと保護膜31との間に設けられ、例えば、光電変換部10Sの厚み以上の厚みを有している。ここでは、この埋込層17が光電変換部10Sを囲んで設けられているので、光電変換部10Sの周囲の領域(周辺領域100B)が形成される。これにより、この周辺領域100Bに回路基板20との接合面S2を設けることができるようになっている。周辺領域100Bに接合面S2が形成されていれば、埋込層17の厚みを小さくしてもよいが、埋込層17が光電変換部10Sを厚み方向にわたって覆い、光電変換部10Sの端面全面が埋込層17に覆われていることが好ましい。埋込層17が、絶縁膜16を介して光電変換部10Sの端面全面を覆うことにより、光電変換部10Sへの水分の浸入を効果的に抑えることができる。
 接合面S2側の埋込層17の面は平坦化されており、周辺領域100Bでは、この平坦化された埋込層17の面に配線層10Wが設けられている。埋込層17には、例えば、酸化シリコン(SiO2),窒化シリコン(SiN),酸窒化シリコン(SiON),炭素
含有酸化シリコン(SiOC)およびシリコンカーバイド(SiC)等の無機絶縁材料を用いることができる。
 支持基板21は、配線層20Wを支持するためのものであり、例えば、シリコン(Si)により構成されている。配線層20Wは、例えば、層間絶縁膜22(22A,22B)中に、コンタクト電極22EA,22EB、画素回路22CAおよび配線22CBを有している。層間絶縁膜22A,22Bは、例えば、無機絶縁材料により構成されている。無機絶縁材料としては、例えば、窒化シリコン(SiN),酸化アルミニウム(Al23),酸化ケイ素(SiO2)および酸化ハフニウム(HfO2)等が挙げられる。層間絶縁膜22A,22Bは、互いに異なる無機絶縁材料を用いて形成してもよいし、同一の無機絶縁材料を用いて形成するようにしてもよい。
 コンタクト電極22EAは、例えば画素領域100Aに設けられ、第2電極11と画素回路22CAとを電気的に接続するためのものであり、素子基板10の接合面S2でコンタクト電極18EAに接している。隣り合うコンタクト電極22EAは、層間絶縁膜22A,22Bにより電気的に分離されている。
 コンタクト電極22EBは、例えば周辺領域100Bに設けられ、第1電極15と回路基板20の配線22CBとを電気的に接続するためのものであり、素子基板10の接合面S2でコンタクト電極18EBに接している。コンタクト電極22EBは、例えば、コンタクト電極22EAと同一工程で形成されている。
 コンタクト電極22EA,22EBは、例えば銅(Cu)パッドにより構成されており、回路基板20の素子基板10との対向面に露出されている。即ち、コンタクト電極18EAとコンタクト電極22EAとの間、および、コンタクト電極18EBとコンタクト電極22EBとの間で例えばCuCu接合がなされている。
 画素回路22CAは、例えば画素領域100Aにおいて画素P毎に設けられ、コンタクト電極22EAに接続されている。この画素回路22CAが、ROICを構成している。配線22CBは、例えば周辺領域100Bに設けられ、コンタクト電極22EBに接続されると共に、例えば所定の電位に接続されている。これにより、光電変換層13で発生した電荷の一方(例えば、正孔)は、第2電極11から、コンタクト電極18EA,22EAを介して画素回路22CAに読み出されるようになっている。光電変換層13で発生した電荷の他方(例えば、電子)は、第1電極15から、貫通電極(図示せず)およびコンタクト電極18EB,22EBを介して、所定の電位に排出されるようになっている。
(1-2.撮像素子の製造方法)
 撮像素子1は、例えば次のようにして製造することができる。図3A~図7Bは、撮像素子1の製造工程を工程順に表したものである。
 まず、図3Aに示したように、成長基板41上に、例えば、n型のInPからなるバッファ層44B、i型のInGaAsからなるストッパ層44S、光電変換部10Sおよびi型のInGaAsからなるキャップ層45Aをこの順にエピタキシャル成長により形成する。成長基板41の口径は、例えば、6インチ以下である。光電変換部10Sとしては、例えば、n型のInPからなる第2コンタクト層12、i型またはn型のInGaAsからなる光電変換層13およびn型のInPからなる第1コンタクト層14をこの順に形成する。
 キャップ層45は、光電変換部10Sと、光電変換部10Sを仮基板43に接合するための接着層Bとが直に接することを防ぐためのものである。光電変換部10Sに接着層Bが接したまま、工程を進めると、例えば成膜、不純物拡散またはアニール等のエネルギー照射により、光電変換部10Sの特性が低下するおそれがある。特に、光電変換部10Sのうち、接着層Bに近い位置に配置される第1コンタクト層14がリン(P)を含むとき、エネルギー照射により、リンが抜けてしまうおそれがある。あるいは、エネルギー照射により、接着層Bが変性して、仮基板43から光電変換部10Sが剥がれてしまう虞もある。光電変換部10Sと接着層B32との間にキャップ層45を形成しておくことにより、このような特性低下および膜剥がれ等の発生を抑えることができる。キャップ層45は、光電変換部10S(より具体的には、第1コンタクト層14)上にエピタキシャル成長可能な半導体材料であればよく、例えばInGaAsまたはInAsSb等を用いることができる。
 光電変換部10S上にキャップ層45Aを形成した後、アニール工程を行う。このアニール工程は、後の拡散領域12Aを形成する工程での急激なエネルギー照射に備えるためのものである。このアニール工程の加熱時間および加熱温度は、拡散領域12Aを形成する工程の加熱時間および加熱温度よりも、より長時間または高温であることが好ましい。あるいは、より長時間且つ高温であってもよい。その後、キャップ層45A上に、例えば酸化シリコン(SiO2)を含む接着層Bを成膜し、アニール工程を行う。キャップ層45A形成後のアニール工程と、接着層B形成後のアニール工程とは、どちらか一方のみであってもよい。
 続いて、図3Bに示したように、接着層Bを間にして、成長基板41を大口径の仮基板43に接合する。このとき、接着層Bと第1コンタクト層14との間にキャップ層45Aが介在する。接着層Bには、例えばテトラエトキシシラン(TEOS)および酸化シリコン(SiO2)等を用いることができる。仮基板43には、例えば、成長基板41よりも
大きな口径のシリコン(Si)基板を用いる。仮基板43の口径は、例えば8インチ~12インチである。小口径の成長基板41を大口径の仮基板43に接合させることにより、素子基板10を形成する際に大口径の基板用の種々の装置を用いることが可能となる。これにより、例えば、回路基板20と素子基板10との接合をCuCu接合にし、画素Pを微細化することができる。仮基板43への成長基板41の接合は、プラズマ活性化接合、常温接合または接着剤を使用した接合(接着剤接合)等により行うようにしてもよい。このように、例えばウェハ状の光電変換部10Sを仮基板43に接合する。なお、光電変換部10Sは、ウェハ状に限らず、チップ状に断片化されていてもよい。
 光電変換部10Sを形成した成長基板41を仮基板43に接合した後、図4Aに示したように、成長基板41を除去する。成長基板41の除去は、機械研削、CMP(Chemical Mechanical Polishing:化学機械研磨)、ウェットエッチングまたはドライエッチング
等により行うことができる。
 続いて、図4Bに示したように、光電変換部10Sの仮基板43に対する位置ずれを補正する。具体的には、例えばフォトリソグラフィおよびエッチングを用いて光電変換部10Sの位置ずれを補正する。光電変換部10S上に、レジスト(レジストPR)を形成し、適宜光電変換部10Sのエッチングを行う。エッチングは、ドライエッチングまたはウェットエッチング等を用いることができる。これにより、光電変換部10Sの不要部分が除去され、仮基板43の規定された領域(画素領域100A)のみに光電変換部10Sを残すことができる。このように、光電変換部10Sの仮基板43に対する位置ずれを補正することで、後の工程での合わせずれの発生を抑えて、所望の構造の撮像素子1を容易に形成することが可能となる。
 光電変換部10Sの仮基板43に対する位置ずれを補正した後、図5Aに示したように、仮基板43の全面に絶縁膜16を成膜する。続いて、光電変換部10Sに、画素P毎に拡散領域12Aを形成する。これにより、素子分離がなされる。拡散領域12Aの形成には、例えば、絶縁膜16をハードマスクとして用いる。具体的には、第2コンタクト層12上に所定の形状のマスクを形成した後、エッチングにより絶縁膜16に開口16Hを形成する。その後、レジスト剥離を行い、絶縁膜16をハードマスクとしてp型不純物の気相拡散を行う。これにより選択的な領域に拡散領域12Aが形成される。拡散領域12Aは、レジストマスクを用いてイオンインプラテーション等により形成するようにしてもよい。ここでは、大口径の仮基板43上に設けられた光電変換部10Sに拡散領域12Aを形成するので、画素Pを微細化することが可能となる。
 光電変換部10Sに拡散領域12Aを形成したのち、図5Bに示したように、仮基板43の全面に絶縁材料を成膜した後、例えばCMPにより平坦化する。これにより、光電変換部10Sの周囲(周辺領域100B)に、光電変換部10Sの上面(仮基板43から最も離れた面)と同一平面を構成する埋込層17が形成される。なお、拡散領域12Aと埋込層17とは、逆の順序で形成するようにしてもよく、光電変換部10Sの仮基板43に対する位置ずれを補正した後に、拡散領域12Aおよび埋込層17をこの順に形成してもよい。
 続いて、光電変換部10S上に、第2電極11を含む配線層10Wを形成する。まず、光電変換部10Sおよび埋込層17の全面に絶縁材料を成膜した後、開口を形成する。この開口に、CVD(Chemical Vapor Deposition)法、PVD(Physical Vapor Deposition)法、ALD(Atomic Layer Deposition)法または蒸着法等により、例えば、チタン(Ti)/タングステン(W)の積層膜を成膜した後、この積層膜をフォトリソグラフィおよびエッチングを用いてパターニングすることにより形成する。これにより、第2電極11が形成される。この後、第2電極11を覆うように絶縁材料をさらに成膜した後、例えばCMPにより平坦化して層間絶縁膜18Aを形成する。
 次に、層間絶縁膜18A上に絶縁材料を成膜し、例えばCMPにより平坦化して層間絶縁膜18Bを形成した後、図6Aに示したように、光電変換部10S上(画素領域100A)および光電変換部10S上以外の領域(周辺領域100B)に、それぞれ、開口18H1および開口18H2を形成する。なお、光電変換部10S上に形成する開口18H1は、その底面において第2電極11の一部が露出される。この層間絶縁膜18Bの開口18H1,18H2に、蒸着法、PVD法またはメッキ法等により銅(Cu)膜を成膜した後、例えばCMP法を用いて銅膜の表面を研磨することによりコンタクト電極18EA,18EBを形成する。これにより、第2電極11、コンタクト電極18EA,18EBを有する配線層10Wが形成される。ここでは、大口径の仮基板43上に配線層10Wを形成するので、大口径の基板用の種々の装置を用いることが可能となる。また、成長基板41の除去、拡散領域12Aの形成および配線層10Wの形成等の工程で、接着層Bと第1コンタクト層14との間にキャップ層45Aが介在しているので、光電変換部10Sの特性低下および膜剥がれ等の発生を抑えることができる。
 配線層10Wを形成した後、図6Bに示したように、配線層10Wを間にして、仮基板43に回路基板20を貼り合わせる。このとき、回路基板20には、予め配線層20Wを形成しておく。回路基板20の配線層20Wは、パッド構造のコンタクト電極22EA,22EBを有しており、回路基板20を仮基板43に貼り合わせる際には、例えば、配線層20Wのコンタクト電極22EA,22EBと配線層10Wのコンタクト電極18EA,18EBとがCuCu接合される。より具体的には、画素領域100Aでは、コンタクト電極18EAとコンタクト電極22EAとが接合された接合面S2が形成され、周辺領域100Bではコンタクト電極18EBとコンタクト電極22EBとが接合された接合面S2が形成される。ここでは、素子基板10の周辺領域100Bも、回路基板20に接合される。
 次に、図7Aに示したように、仮基板43、接着層Bおよびキャップ層45をこの順に除去して、第1コンタクト層14を露出させる。仮基板43は、例えば、機械研削,ウェットエッチングまたはドライエッチング等を用いることにより除去することができる。接着層Bおよびキャップ層45は、例えばウェットエッチングにより除去することができる。接着層Bのウェットエッチングには、例えばHF(Hydrogen Fluoride)またはBHF(Buffered Hydrogen Fluoride)等を用いることができる。キャップ層45のウェットエッチングには、例えば、酸および酸化剤の混合液を用いることができる。酸としては、例えば、HF,塩酸(HCl)またはリン酸(H3PO4)等を用いることができ、酸化剤としては、例えば、過酸化水素水またはオゾン水等を用いることができる。接着層Bおよびキャップ層45をドライエッチングにより除去することも可能であるが、ウェットエッチングにより除去することが好ましい。
 なお、接着層Bおよびキャップ層45を除去する領域は、例えば、平面視で光電変換部10Sの面積よりも小さくする。これにより、光電変換部10Sの光入射面S1側(回路基板20との対向面と反対面)の周縁、より具体的には、第1コンタクト層14の端部上にキャップ層45および接着層Bが残存する。
 キャップ層45を除去した後、図7Bに示したように、露出された第1コンタクト層14上に第1電極15を形成する。第1電極15は、例えば、スパッタリングを用いてITO膜を形成し、例えば厚さ10nmで成膜したのち、窒素(N2)ガス雰囲気下において
、例えば360℃でアニール処理する。これにより、ITO膜はアモルファス状態を維持することとなり、第1電極15が形成される。なお、第1電極15のアニール処理では、窒素(N2)を含有するガスを用いればよく、窒素(N2)ガスの他、例えば、アルゴン(Ar)およびヘリウム(He)やそれらを含有する窒素、窒素を含有する酸素など、用いるようにしてもよい。
 第1電極15を形成した後、第1電極15および埋込層17上に保護膜31およびパッシベーション膜32をこの順に成膜する。これにより、図1に示した撮像素子1が完成する。
(1-3.撮像素子の動作)
 撮像素子1では、パッシベーション膜32、保護膜31、第1電極15および第1コンタクト層14を介して、光電変換層13へ光(例えば可視領域および赤外領域の波長の光)が入射すると、この光が光電変換層13において吸収される。これにより、光電変換層13では正孔および電子の対が発生する(光電変換される)。このとき、例えば第2電極11に所定の電圧が印加されると、光電変換層13に電位勾配が生じ、発生した電荷のうち一方の電荷(例えば正孔)が、信号電荷として拡散領域12Aに移動し、拡散領域12Aから第2電極11へ収集される。この信号電荷が、コンタクト電極18EA,22EAを通じて画素回路22CAに移動し、画素P毎に読み出される。
(1-4.作用・効果)
 近年、赤外線センサの受光素子(撮像素子)として、光電変換層に、例えば、InGaAs等の化合物半導体を用いた半導体素子が開発されている。赤外線センサでは、赤外領域以下の波長範囲において安定した光学特性が求められるが、その1つとして、赤外領域以下の波長範囲における吸収率が2.5%以下であることが求められている。ところが、赤外線センサの電極としてITOを用いた場合、約800nmから吸収率が上昇し、近赤外領域の波長(例えば、1700nm)において約4%と高い吸収率を示す。ITOは、赤外、可視領域でも吸収率が低く、このため、一般的な赤外線センサでは、近赤外領域における吸収率が良好なInPが使用されているが、可視領域では吸収率が上がってしまう課題があった。
 しかしながら、量産化を目的とした場合、電極には、一般的な透明電極材料であるITOを用いることが望ましい。このため、赤外領域以下の波長範囲におけるITO電極の吸収を抑え、赤外領域以下の波長に対して優れた感度を有する赤外センサの開発が求められている。
 これに対して、本実施の形態の撮像素子1では、化合物半導体材料を含む光電変換部10Sの光入射面S1側に配置される第1電極15を、アモルファス状態を有する酸化物半導体材料を用いて形成するようにした。アモルファス状態を有する酸化物半導体材料からなる第1電極15は、例えば窒素(N2)ガス雰囲気下においてアニールすることで形成
することができる。
 図8は、ITO膜の膜厚による波長の吸収特性の変化を表したものである。窒素(N2)雰囲気下において200℃10分間アニールした膜厚50nmのITO膜では、波長800nm以上から吸収率が増加したのに対して、窒素(N2)雰囲気下において320℃5分間アニールした膜厚10nmのITO膜では、波長800nm以上の近赤外領域においても吸収率が2%以下と、安定した光学特性を示した。また、ここには示していないが、窒素(N2)雰囲気下においてアニール処理したITO膜は低抵抗状態を維持していた
 以上により、本実施の形態では、化合物半導体材料を含む光電変換部10Sを間に対向配置される第1電極15および第2電極11のうち、光入射面S1側に配置される第1電極15を、アモルファス状態を有する酸化物半導体材料を用いて形成するようにした。これにより、第1電極15による赤外領域を含む光の吸収が低減する。よって、光電変換部10Sへ効率よく光を入射させることが可能となり、安定した光学特性が得られるようになる。よって、優れた感度を有する撮像素子1を提供することが可能となる。
 また、本実施の形態では、第1電極15に一般的な透明電極材料であるITOを用いることが可能となるため、コストを低減することが可能となり、量産化を実現することが可能となる。
 次に、本開示の変形例について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜その説明を省略する。
<2.変形例>
 図9は、本開示の変形例に係る撮像素子(撮像素子2)の断面構成を模式的に表したものである。撮像素子2は、上記実施の形態における撮像素子1と同様に、例えばIII-V族半導体等の化合物半導体材料を用いた赤外線センサ等に適用されるものであり、例えば、可視領域(例えば380nm以上780nm未満)~近赤外領域(例えば780nm以上2400nm未満)の波長の光に、光電変換機能を有するものである。本変形例の撮像素子2は、光入射面側の画素領域100Aに配置された各画素P上に、例えば、赤色(33R),緑色(33G),青色(33B)のカラーフィルタを有するカラーフィルタ(CF)層33およびオンチップレンズ34がこの順に設けられている点が上記実施の形態とは異なる。
 本変形例のように、光入射面S1側にCF33およびオンチップレンズ34を設けた撮像素子2においても、上記実施の形態と同様の効果を得ることができる。
<3.適用例>
(適用例1)
 図10は、上記実施の形態等において説明した撮像素子1(または、撮像素子2)の素子構造および機能構成を表したものである。撮像素子1は、例えば赤外線イメージセンサであり、例えば撮像素子1に設けられた画素領域100Aと、この画素領域100Aを駆動する回路部130とを有している。回路部130は、例えば行走査部131、水平選択部133、列走査部134およびシステム制御部132を有している。
 画素領域100Aは、例えば行列状に2次元配置された複数の画素P(撮像素子1)を有している。画素Pには、例えば画素行ごとに画素駆動線Lread(例えば、行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素Pからの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部131の各行に対応した出力端に接続されている。
 行走査部131は、シフトレジスタやアドレスデコーダ等によって構成され、画素領域100Aの各画素Pを、例えば行単位で駆動する画素駆動部である。行走査部131によって選択走査された画素行の各画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部133に供給される。水平選択部133は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部134は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部133の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部134による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線135に出力され、当該水平信号線135を通して図示しない信号処理部等へ入力される。
 この撮像素子1では、図11に示したように、例えば、画素領域100Aを有する素子基板10と、回路部130を有する回路基板20とが積層されている。但し、このような構成に限定されず、回路部130は、画素領域100Aと同一の基板上に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、回路部130は、ケーブル等により接続された他の基板に形成されていてもよい。
 システム制御部132は、外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像素子1の内部情報等のデータを出力するものである。システム制御部132はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部131、水平選択部133および列走査部134等の駆動制御を行う。
(適用例2)
 上述の撮像素子1は、例えば赤外領域を撮像可能なカメラ等、様々なタイプの電子機器に適用することができる。図12に、その一例として、電子機器3(カメラ)の概略構成を示す。この電子機器3は、例えば静止画または動画を撮影可能なカメラであり、撮像素子1と、光学系(光学レンズ)310と、シャッタ装置311と、撮像素子1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像素子1へ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、撮像素子1への光照射期間および遮光期間を制御するものである。駆動部313は、撮像素子1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、撮像素子1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリ等の記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
(適用例3)
<体内情報取得システムへの応用例>
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図13は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図13では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ
補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
(適用例4)
<内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図14は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図14では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開孔部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統
括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を
照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織に
その試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図15は、図14に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するため
の1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(適用例5)
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)120
53が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、実施の形態および変形例ならびに適用例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態において説明した撮像素子1の層構成は一例であり、さらに他の層を備えていてもよい。また、各層の材料や厚みも一例であって、上述のものに限定されるものではない。例えば、上記実施の形態では、第2コンタクト層12、光電変換層13および第1コンタクト層14により光電変換部10Sを構成する場合について説明したが、光電変換部10Sは光電変換層13を含んでいればよく、例えば、第2コンタクト層12および第1コンタクト層14を設けなくてもよい。あるいは、光電変換部10Sがさらに他の層を含んでいてもよい。
 更に、上記実施の形態等では、便宜上、信号電荷が正孔である場合について説明したが、信号電荷は電子であってもよい。例えば、拡散領域がn型の不純物を含んでいてもよい。
 また、上記実施の形態等において説明した効果は一例であり、他の効果であってもよいし、更に他の効果を含んでいてもよい。
 なお、本開示は、以下のような構成であってもよい。以下の構成の本技術によれば、化合物半導体材料を含む光電変換部を間に対向配置される第1電極および第2電極のうち、第1電極を、アモルファス状態を有する酸化物半導体材料を用いて形成するようにしたので、第1電極による赤外領域以下の波長の吸収が低減する。よって、優れた感度を有する撮像素子を提供することが可能となる。
(1)
 アモルファス状態を有する酸化物半導体材料を含む第1電極と、
 前記第1電極と対向配置された第2電極と、
 前記第1電極と前記第2電極との間に設けられると共に、化合物半導体材料を含む光電変換部と
 を備えた撮像素子。
(2)
 前記酸化物半導体材料は酸化インジウムスズ(ITO)である、前記(1)に記載の撮像素子。
(3)
 前記第1電極は、前記光電変換部の光入射面側に配置されている、前記(1)または(2)に記載の撮像素子。
(4)
 前記第1電極は、前記酸化物半導体材料からなる第1の電極層を含み、前記第1の電極層の膜厚は1nm以上50nm以下である、前記(1)乃至(3)のうちのいずれかに記載の撮像素子。
(5)
 前記第1電極は、前記第1の電極層上に前記第1の電極層とは材料の異なる第2の電極層がさらに積層されている、前記(4)に記載の撮像素子。
(6)
 前記第2の電極層は、酸化チタン、酸化インジウム・酸化亜鉛(IZO)およびIGZOのうちの少なくとも1種を含む、前記(5)に記載の撮像素子。
(7)
 複数の画素をさらに有し、
 前記第1電極は、前記複数の画素に対する共通層として設けられている、前記(1)乃至(6)のうちのいずれかに記載の撮像素子。
(8)
 前記光電変換部は、光電変換層と、前記光電変換層と前記第1電極との間に設けられた第1のコンタクト層と、前記光電変換層の前記第1のコンタクト層とは反対側に設けられた第2のコンタクト層とを有する、前記(7)に記載の撮像素子。
(9)
 前記第2のコンタクト層は、前記複数の画素にそれぞれ対向する領域に設けられた第1導電型領域と、前記第1導電型領域の周囲に第2導電型領域とを有する、前記(8)に記載の撮像素子。
(10)
 前記光電変換層は、少なくとも赤外領域の波長を吸収して電荷を発生する、前記(8)または(9)に記載の撮像素子。
(11)
 前記光電変換部を行使する前記光電変換層、前記第1のコンタクト層および前記第2のコンタクト層は、III-V族半導体材料を含んで構成されている、前記(8)乃至(10)のうちのいずれかに記載の撮像素子。
(12)
 前記光電変換層は、InGaAsから構成され、
 前記第1のコンタクト層および前記第2のコンタクト層は、InPまたはInGaAsから構成されている、前記(11)に記載の撮像素子。
(13)
 前記第1のコンタクト層は、前記光電変換層の光入射面側に設けられると共に一の導電型を有し、
 前記第2のコンタクト層は、前記光電変換層の前記光入射面とは反対側に設けられると共に、一の導電型の層内に他の導電型領域を前記画素毎に有する、前記(11)または(12)に記載の撮像素子。
(14)
 アモルファス状態を有する酸化物半導体材料を含む第1電極と、
 前記第1電極と対向配置された第2電極と、
 前記第1電極と前記第2電極との間に設けられると共に、化合物半導体材料を含む光電変換部とを備えた
 撮像素子を有する電子機器。
 本出願は、日本国特許庁において2018年12月28日に出願された日本特許出願番号2018-247892号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (14)

  1.  アモルファス状態を有する酸化物半導体材料を含む第1電極と、
     前記第1電極と対向配置された第2電極と、
     前記第1電極と前記第2電極との間に設けられると共に、化合物半導体材料を含む光電変換部と
     を備えた撮像素子。
  2.  前記酸化物半導体材料は酸化インジウムスズ(ITO)である、請求項1に記載の撮像素子。
  3.  前記第1電極は、前記光電変換部の光入射面側に配置されている、請求項1に記載の撮像素子。
  4.  前記第1電極は、前記酸化物半導体材料からなる第1の電極層を含み、前記第1の電極層の膜厚は1nm以上50nm以下である、請求項1に記載の撮像素子。
  5.  前記第1電極は、前記第1の電極層上に前記第1の電極層とは材料の異なる第2の電極層がさらに積層されている、請求項4に記載の撮像素子。
  6.  前記第2の電極層は、酸化チタン、酸化インジウム・酸化亜鉛(IZO)およびIGZOのうちの少なくとも1種を含む、請求項5に記載の撮像素子。
  7.  複数の画素をさらに有し、
     前記第1電極は、前記複数の画素に対する共通層として設けられている、請求項1に記載の撮像素子。
  8.  前記光電変換部は、光電変換層と、前記光電変換層と前記第1電極との間に設けられた第1のコンタクト層と、前記光電変換層の前記第1のコンタクト層とは反対側に設けられた第2のコンタクト層とを有する、請求項7に記載の撮像素子。
  9.  前記第2のコンタクト層は、前記複数の画素にそれぞれ対向する領域に設けられた第1導電型領域と、前記第1導電型領域の周囲に第2導電型領域とを有する、請求項8に記載の撮像素子。
  10.  前記光電変換層は、少なくとも赤外領域の波長を吸収して電荷を発生する、請求項8に記載の撮像素子。
  11.  前記光電変換部を行使する前記光電変換層、前記第1のコンタクト層および前記第2のコンタクト層は、III-V族半導体材料を含んで構成されている、請求項8に記載の撮像素子。
  12.  前記光電変換層は、InGaAsから構成され、
     前記第1のコンタクト層および前記第2のコンタクト層は、InPまたはInGaAsから構成されている、請求項11に記載の撮像素子。
  13.  前記第1のコンタクト層は、前記光電変換層の光入射面側に設けられると共に一の導電型を有し、
     前記第2のコンタクト層は、前記光電変換層の前記光入射面とは反対側に設けられると共に、一の導電型の層内に他の導電型領域を前記画素毎に有する、請求項11に記載の撮像素子。
  14.  アモルファス状態を有する酸化物半導体材料を含む第1電極と、
     前記第1電極と対向配置された第2電極と、
     前記第1電極と前記第2電極との間に設けられると共に、化合物半導体材料を含む光電変換部とを備えた
     撮像素子を有する電子機器。
PCT/JP2019/045725 2018-12-28 2019-11-22 撮像素子および電子機器 WO2020137282A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980073728.8A CN112997312A (zh) 2018-12-28 2019-11-22 摄像装置和电子设备
US17/309,790 US20220109017A1 (en) 2018-12-28 2019-11-22 Imaging device and electronic apparatus
JP2020562933A JPWO2020137282A1 (ja) 2018-12-28 2019-11-22 撮像素子および電子機器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-247892 2018-12-28
JP2018247892 2018-12-28

Publications (1)

Publication Number Publication Date
WO2020137282A1 true WO2020137282A1 (ja) 2020-07-02

Family

ID=71125760

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/045725 WO2020137282A1 (ja) 2018-12-28 2019-11-22 撮像素子および電子機器

Country Status (5)

Country Link
US (1) US20220109017A1 (ja)
JP (1) JPWO2020137282A1 (ja)
CN (1) CN112997312A (ja)
TW (1) TW202036881A (ja)
WO (1) WO2020137282A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335826B2 (en) 2020-06-30 2022-05-17 Epistar Corporation Semiconductor photo-detecting device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251174A (ja) * 2008-04-03 2009-10-29 Mitsubishi Electric Corp Tft基板及びそれを用いた液晶表示装置並びにそれらの製造方法
JP2011228630A (ja) * 2010-03-31 2011-11-10 Fujifilm Corp 撮像素子及びその製造方法
JP2017028078A (ja) * 2015-07-22 2017-02-02 ソニー株式会社 撮像装置及びその製造方法
JP2017175102A (ja) * 2016-03-16 2017-09-28 ソニー株式会社 光電変換素子及びその製造方法並びに撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251174A (ja) * 2008-04-03 2009-10-29 Mitsubishi Electric Corp Tft基板及びそれを用いた液晶表示装置並びにそれらの製造方法
JP2011228630A (ja) * 2010-03-31 2011-11-10 Fujifilm Corp 撮像素子及びその製造方法
JP2017028078A (ja) * 2015-07-22 2017-02-02 ソニー株式会社 撮像装置及びその製造方法
JP2017175102A (ja) * 2016-03-16 2017-09-28 ソニー株式会社 光電変換素子及びその製造方法並びに撮像装置

Also Published As

Publication number Publication date
JPWO2020137282A1 (ja) 2021-11-11
US20220109017A1 (en) 2022-04-07
TW202036881A (zh) 2020-10-01
CN112997312A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
JP7211935B2 (ja) 半導体素子およびその製造方法、並びに電子機器
JP7312115B2 (ja) 受光素子および電子機器
JP2018093126A (ja) 受光素子、撮像素子および電子機器
CN110226228B (zh) 光接收器件、光接收器件制造方法、摄像器件和电子设备
WO2020137283A1 (ja) 半導体素子
JP2017126738A (ja) 受光素子、受光素子の製造方法、撮像素子および電子機器
JP2024012345A (ja) 半導体素子およびその製造方法
WO2020137282A1 (ja) 撮像素子および電子機器
WO2017122537A1 (ja) 受光素子、受光素子の製造方法、撮像素子および電子機器
US20230022127A1 (en) Semiconductor element and electronic apparatus
US20230014646A1 (en) Semiconductor element and electronic apparatus
WO2020189179A1 (ja) 受光素子および受光素子の製造方法ならびに撮像装置
US11961863B2 (en) Imaging element, semiconductor element, and electronic apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19903519

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020562933

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19903519

Country of ref document: EP

Kind code of ref document: A1