WO2021059676A1 - 撮像装置及び電子機器 - Google Patents

撮像装置及び電子機器 Download PDF

Info

Publication number
WO2021059676A1
WO2021059676A1 PCT/JP2020/027238 JP2020027238W WO2021059676A1 WO 2021059676 A1 WO2021059676 A1 WO 2021059676A1 JP 2020027238 W JP2020027238 W JP 2020027238W WO 2021059676 A1 WO2021059676 A1 WO 2021059676A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
electrode
region
conversion layer
layer
Prior art date
Application number
PCT/JP2020/027238
Other languages
English (en)
French (fr)
Inventor
伊藤 隆
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/753,881 priority Critical patent/US20220376128A1/en
Priority to JP2021548363A priority patent/JPWO2021059676A1/ja
Publication of WO2021059676A1 publication Critical patent/WO2021059676A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/112Devices sensitive to infrared, visible or ultraviolet radiation characterised by field-effect operation, e.g. junction field-effect phototransistor
    • H01L31/113Devices sensitive to infrared, visible or ultraviolet radiation characterised by field-effect operation, e.g. junction field-effect phototransistor being of the conductor-insulator-semiconductor type, e.g. metal-insulator-semiconductor field-effect transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0232Optical elements or arrangements associated with the device
    • H01L31/02327Optical elements or arrangements associated with the device the optical elements being integrated or being directly associated to the device, e.g. back reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/02016Circuit arrangements of general character for the devices
    • H01L31/02019Circuit arrangements of general character for the devices for devices characterised by at least one potential jump barrier or surface barrier
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0224Electrodes
    • H01L31/022408Electrodes for devices characterised by at least one potential jump barrier or surface barrier
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K2102/00Constructional details relating to the organic devices covered by this subclass
    • H10K2102/301Details of OLEDs
    • H10K2102/351Thickness
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy
    • Y02E10/549Organic PV cells

Definitions

  • This disclosure relates to an imaging device and an electronic device.
  • a structure is known in which a light-shielding layer is provided on a photoelectric conversion layer on a floating diffusion (hereinafter referred to as FD) electrode so as not to generate an electric charge on the FD electrode (see, for example, FIGS. 41 to 44 of Patent Document 1). .).
  • FD floating diffusion
  • the present disclosure has been made in view of such circumstances, and an object of the present disclosure is to provide an imaging device and an electronic device capable of suppressing performance deterioration due to accumulation of electric charges.
  • the imaging apparatus includes a photoelectric conversion layer having a first surface, a second surface located on the opposite side of the first surface, and a first electrode located on the first surface side.
  • a second electrode located on the second surface side is provided.
  • the photoelectric conversion layer in at least a part of the first region is defined.
  • the first film thickness of is thinner than the second film thickness of the photoelectric conversion layer in the second region.
  • FIG. 1 is a cross-sectional view schematically showing a configuration example of the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 2 is a circuit diagram schematically showing a configuration example of the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 3 is a cross-sectional view schematically showing a configuration example of a photoelectric conversion portion and a peripheral portion of the imaging device according to the first embodiment of the present disclosure.
  • FIG. 4A is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 4B is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of steps.
  • FIG. 1 is a cross-sectional view schematically showing a configuration example of the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 2 is a circuit diagram schematically showing a configuration example of the image pickup apparatus according to the first embodiment of the present
  • FIG. 4C is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 4D is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 4E is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 4F is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 4G is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 4H is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of steps.
  • FIG. 4I is a cross-sectional view showing the manufacturing method 1 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5A is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5B is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5C is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5A is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5B is a cross-sectional view showing the manufacturing method 2 of the image
  • FIG. 5D is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5E is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 5F is a cross-sectional view showing the manufacturing method 2 of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 6 is a cross-sectional view schematically showing a configuration example of a photoelectric conversion portion and a peripheral portion of the imaging device according to the second embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view schematically showing a configuration example of a photoelectric conversion portion and a peripheral portion of the imaging device according to the third embodiment of the present disclosure.
  • FIG. 8 is a cross-sectional view schematically showing a configuration example of a photoelectric conversion portion and a peripheral portion of the imaging device according to the fourth embodiment of the present disclosure.
  • FIG. 9 is a cross-sectional view schematically showing a configuration example of a photoelectric conversion portion and a peripheral portion of the imaging device according to the fifth embodiment of the present disclosure.
  • FIG. 10 is a block diagram showing a configuration example of the image pickup apparatus according to the sixth embodiment of the present disclosure.
  • FIG. 11 is a conceptual diagram showing an example in which the technology according to the present disclosure (the present technology) is applied to an electronic device.
  • FIG. 12 is a diagram showing an example of a schematic configuration of an endoscopic surgery system.
  • FIG. 13 is a block diagram showing an example of the functional configuration of the camera head and the CCU.
  • FIG. 14 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 15 is an explanatory view showing an example of the installation positions of the vehicle exterior information detection unit and the image pickup unit.
  • the definition of the vertical direction in the following description is merely a definition for convenience of explanation, and does not limit the technical idea of the present disclosure. For example, if the object is rotated by 90 ° and observed, the top and bottom are converted to left and right and read, and if the object is rotated by 180 ° and observed, the top and bottom are reversed and read.
  • the direction may be explained by using the wording in the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the Z-axis direction is the thickness direction of the photoelectric conversion layer 15 described later.
  • the X-axis direction and the Y-axis direction are directions orthogonal to the Z-axis direction.
  • the X-axis direction, the Y-axis direction, and the Z-axis direction are orthogonal to each other.
  • the direction parallel to the X-axis direction and the Y-axis direction is also referred to as a horizontal direction.
  • FIG. 1 is a cross-sectional view schematically showing a configuration example of the image pickup apparatus 100 according to the first embodiment of the present disclosure.
  • FIG. 2 is a circuit diagram schematically showing a configuration example of the image pickup apparatus 100 according to the first embodiment of the present disclosure.
  • the image pickup device 100 according to the first embodiment is, for example, a back-illuminated laminated solid-state image pickup device.
  • the image pickup device 100 includes, for example, a green image sensor having sensitivity to green light, a blue image sensor having sensitivity to blue light, and a red image sensor having sensitivity to red light.
  • the red image sensor and the blue image sensor are provided in the semiconductor substrate 70.
  • the blue image sensor is located closer to the light incident side than the red image sensor.
  • the green image sensor is provided above the blue image sensor.
  • One pixel is composed of a green image sensor, a blue image sensor, and a red image sensor. No color filter is provided.
  • the green imaging element includes a photoelectric conversion unit PD 1 in which a first electrode 11, a photoelectric conversion layer 15, and a second electrode 16 are laminated.
  • the photoelectric conversion unit PD 1 further includes a third electrode 12 arranged apart from the first electrode 11 and facing the photoelectric conversion layer 15 via an insulating layer 82.
  • the third electrode 12 is an electrode for accumulating electric charges.
  • the photoelectric conversion unit PD1 is arranged above the semiconductor substrate 70.
  • the first electrode 11 and the third electrode 12 are formed on the interlayer insulating film 81 so as to be separated from each other.
  • the interlayer insulating film 81 and the third electrode 12 are covered with an insulating layer 82.
  • the insulating layer 82 is an example of the “second insulating layer” of the present disclosure.
  • a photoelectric conversion layer 15 is formed on the insulating layer 82, and a second electrode 16 is formed on the photoelectric conversion layer 15.
  • the third electrode 12 overlaps with the photoelectric conversion layer 15.
  • An insulating layer 83 is formed on the entire surface including the second electrode 16.
  • An on-chip microlens 90 is provided on the insulating layer 83.
  • the first electrode 11, the second electrode 16, and the third electrode 12 are each composed of a translucent conductive film.
  • ITO indium tin oxide
  • the translucent conductive film is exemplified as the translucent conductive film.
  • the photoelectric conversion layer 15 is composed of a layer containing an organic photoelectric conversion material having at least sensitivity to green.
  • organic photoelectric conversion material having sensitivity to green include rhodamine-based pigments, melanicin-based pigments, quinacridone derivatives, subphthalocyanine-based pigments (subphthalocyanine derivatives), and the like.
  • the photoelectric conversion layer 15 may be made of an inorganic material.
  • the inorganic material hereinafter, inorganic photoelectric conversion material
  • the photoelectric conversion layer 15 include crystalline silicon, amorphous silicon, microcrystalline silicon, crystalline selenium, amorphous selenium, and calcoparite compounds CIGS (CuInGaSe) and CIS (CIS).
  • CuInSe 2 CuInSe 2 ), CuInS 2 , CuAlS 2 , CuAlSe 2 , CuGaS 2 , CuGaSe 2 , AgAlS 2 , AgAlSe 2 , AgInS 2 , AgInSe 2 , or III-V group compounds GaAs, InP, AlGaAs, InGaP, Al InGaAsP, and further, compound semiconductors such as CdSe, CdS, In 2 Se 3 , In 2 S 3 , Bi 2 Se 3 , Bi 2 S 3 , ZnSe, ZnS, PbSe, and PbS can be mentioned. In addition, quantum dots made of these materials can also be used in the photoelectric conversion layer.
  • the interlayer insulating film 81 and the insulating layers 82 and 83 are made of a well-known insulating material (for example, SiO 2 or SiN).
  • the image pickup apparatus 100 further includes a control unit provided on the semiconductor substrate 70 and having a drive circuit to which the first electrode 11 is connected.
  • the light incident surface of the semiconductor substrate 70 is on the upper side, and the opposite side of the semiconductor substrate 70 is on the lower side.
  • a wiring layer 62 composed of a plurality of wirings is provided below the semiconductor substrate 70.
  • the third electrode 12 is connected to the drive circuit.
  • the third electrode 12 is connected to the drive circuit via a connection hole 66, a pad portion 64, and a wiring VOA provided in the interlayer insulating film 81.
  • the size of the third electrode 12 is larger than that of the first electrode 11.
  • An element separation region 71 and an oxide film 72 are formed on the surface (front surface) 70A side of the semiconductor substrate 70. Further, on the surface 70A side of the semiconductor substrate 70, a reset transistor TR1rst, an amplification transistor TR1amp, a selection transistor TR1sel and a first floating diffusion layer FD1 constituting a control unit of the green image sensor are provided.
  • the reset transistor TR1rst, the amplification transistor TR1amp, and the selection transistor TR1sel form a drive circuit.
  • the reset transistor TR1rst is composed of a gate portion 51, a channel forming region 51A, a drain region 51B, and a source region 51C.
  • the gate portion 51 of the reset transistor TR1rst is connected to the reset line.
  • the source region 51C of the reset transistor TR1rst also serves as the first floating diffusion layer FD1.
  • the drain region 51B is connected to the power supply VDD.
  • the first electrode 11 includes a connection hole 65 provided in the interlayer insulating film 81, a pad portion 63, a contact hole portion 61 formed in the semiconductor substrate 70 and the interlayer insulating film 76, and a wiring layer formed in the interlayer insulating film 76. It is connected to the source region 51C (first floating diffusion layer FD1) of the reset transistor TR1rst via 62.
  • the amplification transistor TR1amp is composed of a gate portion 52, a channel forming region 52A, a drain region 52B, and a source region 52C.
  • the gate portion 52 is connected to the source region 51C (first floating diffusion layer FD1) of the first electrode 11 and the reset transistor TR1rst via the wiring layer 62. Further, the drain region 52B shares an area with the drain region 51B of the reset transistor TR1rst, and is connected to the power supply VDD.
  • the selection transistor TR1sel is composed of a gate portion 53, a channel formation region 53A, a drain region 53B, and a source region 53C.
  • the gate portion 53 is connected to the selection line. Further, the drain region 53B shares an region with the source region 52C of the amplification transistor TR1amp.
  • the source region 53C is connected to the signal line (data output line) VSL1.
  • the blue image sensor includes an n-type semiconductor region 41 provided on the semiconductor substrate 70 as a photoelectric conversion layer of the photoelectric conversion unit PD 2.
  • the gate portion 45 of the transfer transistor TR2trs composed of a vertical transistor extends to the n-type semiconductor region 41 and is connected to the transfer gate line TG2.
  • a second floating diffusion layer FD2 is provided in the region 45C of the semiconductor substrate 70 near the gate portion 45 of the transfer transistor TR2trs. The electric charge accumulated in the n-type semiconductor region 41 is read out to the second floating diffusion layer FD2 via a transfer channel formed along the gate portion 45.
  • a reset transistor TR2rst In the blue image sensor, a reset transistor TR2rst, an amplification transistor TR2amp, and a selection transistor TR2sel that form a control unit of the blue image sensor are further provided on the surface 70A side of the semiconductor substrate 70.
  • the reset transistor TR2rst is composed of a gate portion, a channel forming region, a drain region, and a source region.
  • the gate portion of the reset transistor TR2rst is connected to the reset line.
  • the drain region of the reset transistor TR2rst is connected to the power supply VDD.
  • the source region of the reset transistor TR2rst also serves as the second floating diffusion layer FD2.
  • the amplification transistor TR2amp is composed of a gate portion, a channel forming region, a drain region, and a source region.
  • the gate portion of the amplification transistor TR2amp is connected to the source region (second floating diffusion layer FD2) of the reset transistor TR2rst.
  • the drain region of the amplification transistor TR2amp shares a region with the drain region of the reset transistor TR2rst, and is connected to the power supply VDD.
  • the selection transistor TR2sel is composed of a gate portion, a channel forming region, a drain region, and a source region.
  • the gate portion of the selection transistor TR2sel is connected to the selection line.
  • the drain region of the selection transistor TR2sel shares a region with the source region of the amplification transistor TR2amp.
  • the source region of the selection transistor TR2sel is connected to the signal line (data output line) VSL2.
  • the red image sensor includes an n-type semiconductor region 43 provided on the semiconductor substrate 70 as a photoelectric conversion layer of the photoelectric conversion unit PD 3.
  • the gate portion 46 of the transfer transistor TR3trs is connected to the transfer gate line TG3.
  • a third floating diffusion layer FD3 is provided in the region 46C of the semiconductor substrate 70 near the gate portion 46 of the transfer transistor TR3trs. The electric charge accumulated in the n-type semiconductor region 43 is read out to the third floating diffusion layer FD3 via the transfer channel 46A formed along the gate portion 46.
  • a reset transistor TR3rst In the red image sensor, a reset transistor TR3rst, an amplification transistor TR3amp, and a selection transistor TR3sel, which constitute a control unit of the red image sensor, are further provided on the surface 70A side of the semiconductor substrate 70.
  • the reset transistor TR3rst is composed of a gate portion, a channel forming region, a drain region, and a source region.
  • the gate portion of the reset transistor TR3rst is connected to the reset wire.
  • the drain region of the reset transistor TR3rst is connected to the power supply VDD.
  • the source region of the reset transistor TR3rst also serves as the third floating diffusion layer FD3.
  • the amplification transistor TR3amp is composed of a gate portion, a channel forming region, a drain region, and a source region.
  • the gate portion of the amplification transistor TR3amp is connected to the source region (third floating diffusion layer FD3) of the reset transistor TR3rst.
  • the drain region of the amplification transistor TR3amp shares a region with the drain region of the reset transistor TR3rst, and is connected to the power supply VDD.
  • the selection transistor TR3sel is composed of a gate portion, a channel forming region, a drain region, and a source region.
  • the gate portion of the selection transistor TR3sel is connected to the selection line.
  • the drain region of the selection transistor TR3sel shares a region with the source region of the amplification transistor TR3amp.
  • the source region of the selection transistor TR3sel is connected to the signal line (data output line) VSL3.
  • a p + layer 44 is provided between the n-type semiconductor region 43 and the surface 70A of the semiconductor substrate 70 to suppress the generation of dark current.
  • a p + layer 42 is formed between the n-type semiconductor region 41 and the n-type semiconductor region 43. A part of the side surface of the n-type semiconductor region 43 is surrounded by the p + layer 42.
  • a p + layer 73 is formed on the back surface 70B side of the semiconductor substrate 70.
  • the HfO 2 film 74 and the insulating film 75 are formed from the p + layer 73 to the inside of the contact hole portion 61. Wiring (not shown) is formed in a plurality of layers in the interlayer insulating film 76.
  • FIG. 3 is a cross-sectional view schematically showing a configuration example of the photoelectric conversion unit PD 1 and its peripheral portion of the imaging device 100 according to the first embodiment of the present disclosure.
  • the first electrode 11, the third electrode 12, and the insulating layer 82 are provided on the interlayer insulating film 81 (see FIG. 1).
  • the first electrode 11 is an electrode connected to a floating diffusion (for example, the first floating diffusion layer FD1 shown in FIG. 1) provided on the semiconductor substrate 70 (see FIG. 1).
  • the third electrode 12 is covered with an insulating layer 82. Further, the insulating layer 82 is provided with a through hole 82H. The through hole 82H is located on the first electrode 11.
  • the conductive layer 14 is provided on the insulating layer 82.
  • the conductive layer 14 has, for example, a semiconductor layer 141 and a buffer layer 142 laminated on the semiconductor layer 141.
  • the semiconductor layer 141 is a layer having a function of accumulating and transferring electric charges.
  • the semiconductor layer 141 is in contact with the first electrode 11.
  • the buffer layer 142 is in contact with the photoelectric conversion layer 15.
  • a photoelectric conversion layer 15 and an insulating layer 83 are provided on the buffer layer 142.
  • the semiconductor layer 141 is made of a semiconductor material having a large bandgap value (for example, a bandgap value of 3.0 eV or more) and having a higher mobility than the material constituting the photoelectric conversion layer 15.
  • semiconductor materials include oxide semiconductor materials such as IGZO; transition metal dichalcogenides; silicon carbide; diamonds; graphene; carbon nanotubes; and organic semiconductor materials such as condensed polycyclic hydrocarbon compounds and condensed heterocyclic compounds. it can.
  • the semiconductor layer 141 When the charge to be accumulated is an electron, the semiconductor layer 141 may be made of a material having an ionization potential larger than that of the material constituting the photoelectric conversion layer 15. Further, when the charge to be accumulated is holes, the semiconductor layer 141 may be made of a material having an electron affinity smaller than the electron affinity of the material constituting the photoelectric conversion layer 15.
  • the impurity concentration in the semiconductor layer 141 is preferably 1 ⁇ 10 18 cm -3 or less.
  • the semiconductor layer 141 may have a single-layer structure or a multi-layer structure.
  • the buffer layer 142 has at least one of a function of smoothly transferring electrons from the photoelectric conversion layer 15 to the semiconductor layer 141 and a function of blocking holes from the semiconductor layer 141.
  • the semiconductor layer 141 and the buffer layer 142 between the first electrode 11 and the photoelectric conversion layer 15 By providing the semiconductor layer 141 and the buffer layer 142 between the first electrode 11 and the photoelectric conversion layer 15, recombination at the time of charge accumulation can be prevented, and the first electrode of the charge accumulated in the photoelectric conversion layer 15 can be prevented.
  • the transfer efficiency to 11 can be increased. In addition, the generation of dark current can be suppressed.
  • the photoelectric conversion layer 15 has a first surface 15A and a second surface 15B located on the opposite side of the first surface 15A.
  • the first surface 15A is in contact with the buffer layer 142, and the second surface is in contact with the second electrode 16.
  • the region overlapping the first electrode 11 is defined as the first region R1, and the region deviating from the first electrode 11 (that is, not overlapping). Area) is R2.
  • the film thickness T1 of the photoelectric conversion layer 15 in at least a part of the first region R1 is the film thickness T2 of the photoelectric conversion layer 15 in the second region R2 (“1st film thickness” of the present disclosure). It is thinner than an example of "second film thickness”). For example, the film thickness T1 is zero.
  • the photoelectric conversion layer 15 is not provided in at least a part of the region overlapping the first electrode 11 in the Z-axis direction (above the first electrode 11 in FIG. 3). As shown in FIG. 3, a through hole 15H provided in the photoelectric conversion layer 15 is arranged above the first electrode 11.
  • the insulating layer 83 has a first insulating film 831 and a second insulating film 832 laminated on the first insulating film 831.
  • the first insulating film 831 is an example of the "first insulating layer" of the present disclosure.
  • the first insulating film 831 is arranged in the first region R1.
  • the first insulating film 831 is arranged in the through hole 15H provided in the photoelectric conversion layer 15.
  • the first insulating film 831 is in contact with the photoelectric conversion layer 15 in the horizontal direction.
  • the second electrode 16 is provided in the first region R1.
  • the second insulating film 832 covers the first insulating film 831 and the second electrode 16. Further, the second insulating film 832 is provided with a through hole 83H.
  • Wiring 17 is provided on the second insulating film 832. The wiring 17 is connected to the second electrode 16 through the through hole 83H.
  • the image pickup apparatus 100 includes various types of film forming apparatus (including CVD (Chemical Vapor Deposition) apparatus and sputtering apparatus), exposure apparatus, etching apparatus, ion implantation apparatus, heat treatment apparatus, CMP (Chemical Vapor Deposition) apparatus, bonding apparatus and the like. Manufactured using the equipment of. Hereinafter, these devices are collectively referred to as manufacturing devices.
  • the photoelectric conversion unit PD1 and its peripheral portion shown in FIG. 3 can be manufactured by the manufacturing method 1 or the manufacturing method 2 described below.
  • FIG. 4A to 4I are cross-sectional views showing the manufacturing method 1 of the image pickup apparatus 100 according to the first embodiment of the present disclosure in the order of processes.
  • the manufacturing apparatus forms the first electrode 11 and the third electrode 12 on the interlayer insulating film 81 (see FIG. 1).
  • the manufacturing apparatus forms an insulating layer 82 on the interlayer insulating film 81 in which the first electrode 11 and the third electrode 12 are formed.
  • the manufacturing apparatus locally etches the insulating layer 82 to form the through hole 82H.
  • the manufacturing apparatus forms a conductive layer (semiconductor layer before patterning) on the insulating layer 82 in which the through hole 82H is formed.
  • the manufacturing apparatus uses photolithography technology and etching technology to pattern the conductive layer into a predetermined shape. As a result, the semiconductor layer 141 is formed from the conductive layer.
  • the manufacturing apparatus forms a conductive layer (buffer layer before patterning) on the semiconductor layer 141.
  • the manufacturing apparatus uses photolithography technology and etching technology to pattern the conductive layer into a predetermined shape.
  • the buffer layer 142 is formed from the conductive layer.
  • the manufacturing apparatus forms the first insulating film 831 on the buffer layer 142.
  • the manufacturing apparatus uses photolithography technology and etching technology to pattern the first insulating film 831 into a predetermined shape.
  • the manufacturing apparatus leaves the first insulating film 831 above the first electrode 11, and removes the first insulating film 831 from the other regions.
  • the buffer layer 142 under the first insulating film 831 functions as an etching stopper for the first insulating film 831.
  • the manufacturing apparatus forms a photoelectric conversion layer 15 on the buffer layer 142.
  • the manufacturing apparatus forms the photoelectric conversion layer 15 thicker than the first insulating film 831.
  • the upper surface and the side surface of the first insulating film 831 are covered with the photoelectric conversion layer 15.
  • the manufacturing apparatus forms a second electrode 16 on the photoelectric conversion layer 15.
  • the manufacturing apparatus uses photolithography technology and etching technology to pattern the second electrode 16 and the photoelectric conversion layer 15.
  • the manufacturing apparatus forms a second insulating film 832 so as to cover the second electrode 16 and the first insulating film 831 exposed from under the second electrode 16.
  • the second insulating film 832 is laminated on the first insulating film 831 to obtain the insulating layer 83.
  • the manufacturing apparatus uses a photolithography technique and an etching technique to form a through hole 83H in the second insulating film 832.
  • the manufacturing apparatus forms a conductive layer on the second insulating film 832 in which the through hole 83H is formed.
  • the manufacturing apparatus then patterns the conductive layer using photolithography and etching techniques. As a result, the wiring 17 connected to the second electrode 16 through the through hole 83H is formed.
  • the image pickup apparatus 100 shown in FIG. 3 is completed.
  • FIG. 5A to 5F are cross-sectional views showing the manufacturing method 2 of the image pickup apparatus 100 according to the first embodiment of the present disclosure in the order of processes.
  • the steps up to the step of forming the buffer layer 142 are the same as the manufacturing method 1 described with reference to FIGS. 4A to 4I.
  • the manufacturing apparatus After the buffer layer 142 is formed, as shown in FIG. 5B, the manufacturing apparatus forms a photoelectric conversion layer 15 on the buffer layer 142. Next, as shown in FIG. 5C, the manufacturing apparatus forms a translucent second electrode 16 on the photoelectric conversion layer 15. Next, as shown in FIG. 5D, the manufacturing apparatus uses photolithography technology and etching technology to pattern the second electrode 16 and the photoelectric conversion layer 15.
  • the manufacturing apparatus forms the insulating layer 83 on the buffer layer 142 in which the photoelectric conversion layer 15 and the second electrode 16 are formed.
  • the through hole 15H is embedded by the insulating layer 83.
  • the manufacturing apparatus uses a photolithography technique and an etching technique to form a through hole 83H in the insulating layer 83.
  • the manufacturing apparatus forms a conductive layer on the insulating layer 83 in which the through hole 83H is formed, and patterns the conductive layer to form the wiring 17.
  • the image pickup apparatus 100 shown in FIG. 3 is completed.
  • the photoelectric conversion layer 15 is formed before forming the insulating layer 83.
  • the film-forming surface (base) of the photoelectric conversion layer 15 is flatter than that of the manufacturing method 1 because there is no first insulating film 831 (see FIG. 4D). Therefore, in the above-mentioned production method 2, the film formation of the photoelectric conversion layer 15 is easier than in the above-mentioned production method 1.
  • the photoelectric conversion layer 15 having the first surface 15A and the second surface 15B located on the opposite side of the first surface 15A, A first electrode 11 located on the first surface 15A side and a second electrode 16 located on the second surface 15B side are provided.
  • the region overlapping the first electrode 11 is referred to as the first region R1
  • the region deviating from the first electrode 11 is referred to as the second region R2.
  • the film thickness T1 of the photoelectric conversion layer 15 in at least a part of the first region R1 is thinner than the film thickness T2 of the photoelectric conversion layer 15 in the second region R2. For example, T1 is zero.
  • the image pickup apparatus 100 can suppress photoelectric conversion and charge accumulation above the first electrode 11 even when obliquely incident light is incident above the first electrode 11.
  • the thinner the film thickness T1 the more effectively the photoelectric conversion and charge accumulation above the first electrode 11 can be suppressed. Since the image pickup apparatus 100 can suppress the accumulation of electric charges above the first electrode 11, it is possible to suppress performance deterioration such as inhibition of GS drive, and it is possible to improve the oblique incident resistance of GS drive. Further, since the image pickup device 100 has a small inflow of electric charge from above the first electrode 11 to the first electrode 11, noise can be reduced.
  • the film thickness T2 of the photoelectric conversion layer 15 in the second region R2 can be increased regardless of the film thickness T1. As a result, even when a material having a small absorption coefficient is used for the photoelectric conversion layer 15, the film thickness T2 can be increased to increase the absorption rate.
  • FIG. 6 is a cross-sectional view schematically showing a configuration example of the photoelectric conversion unit PD 1 and its peripheral portion of the imaging device 100A according to the second embodiment of the present disclosure.
  • the second electrode 16 is provided over the entire area of the first region R1.
  • the second electrode 16 is continuously provided from the first region R1 to the second region R2.
  • the image pickup apparatus 100A can suppress photoelectric conversion and charge accumulation above the first electrode 11. Since the image pickup apparatus 100A can suppress the accumulation of electric charges above the first electrode 11, it is possible to suppress performance deterioration such as inhibition of GS drive, and it is possible to improve the oblique incident resistance of GS drive.
  • the film thickness T1 of the photoelectric conversion layer 15 in at least a part of the first region R1 is zero has been described.
  • the embodiments of the present disclosure are not limited to this.
  • the film thickness T1 may be thinner than the film thickness T2.
  • FIG. 7 is a cross-sectional view schematically showing a configuration example of the photoelectric conversion unit PD 1 and its peripheral portion of the imaging device 100B according to the third embodiment of the present disclosure.
  • the first insulating film 831 is arranged in at least a part of the first region R1. In the Z-axis direction, the first insulating film 831 is arranged between the buffer layer 142 and the photoelectric conversion layer 15.
  • the first insulating film 831 is not arranged in the second region R2.
  • the photoelectric conversion layer 15 is provided on the buffer layer 142 and covers the upper surface 831A and the side surface 831B of the first insulating film 831.
  • the film thickness T1 of the photoelectric conversion layer 15 in at least a part of the first region R1 is thinner than the film thickness T2 of the photoelectric conversion layer 15 in the second region R2.
  • the image pickup apparatus 100B can suppress photoelectric conversion and charge accumulation above the first electrode 11. Since the image pickup apparatus 100B can suppress the accumulation of electric charges above the first electrode 11, it is possible to suppress performance deterioration such as inhibition of GS drive, and it is possible to improve the oblique incident resistance of GS drive.
  • FIG. 8 is a cross-sectional view schematically showing a configuration example of the photoelectric conversion unit PD 1 and its peripheral portion of the imaging device 100C according to the fourth embodiment of the present disclosure.
  • the photoelectric conversion layer 15 is continuously provided on the buffer layer 142 from the first region R1 to the second region R2. Further, in at least a part of the first region R1, a recess 15RE is formed on the first surface 15A of the photoelectric conversion layer 15, and the first insulating film 831 is arranged in the recess 15RE. In the Z-axis direction, the first insulating film 831 is arranged between the photoelectric conversion layer 15 and the second electrode 16.
  • the photoelectric conversion layer 15 is not provided with the recess 15RE. There is no difference in size between the upper surface 831A of the first insulating film 831 and the first surface 15A of the photoelectric conversion layer 15, and they are flush with each other or substantially flush with each other.
  • the second electrode 16 is continuously provided on the first insulating film 831 and on the photoelectric conversion layer 15. As a result, the film thickness T1 of the photoelectric conversion layer 15 in at least a part of the first region R1 is thinner than the film thickness T2 of the photoelectric conversion layer 15 in the second region R2.
  • the image pickup apparatus 100C can suppress photoelectric conversion and charge accumulation above the first electrode 11. Since the image pickup apparatus 100C can suppress the accumulation of electric charges above the first electrode 11, it is possible to suppress performance deterioration such as inhibition of GS drive, and it is possible to improve the oblique incident resistance of GS drive.
  • the gate electrode of the transistor may be arranged on the interlayer insulating film 81 along with the first electrode 11 and the third electrode 12.
  • FIG. 9 is a cross-sectional view schematically showing a configuration example of the photoelectric conversion unit PD 1 and its peripheral portion of the imaging device 100D according to the fifth embodiment of the present disclosure.
  • the gate electrode 13 of the transfer transistor is arranged on the interlayer insulating film 81 along with the first electrode 11 and the third electrode 12.
  • the gate electrode 13 of the transfer transistor is arranged between the first electrode 11 and the third electrode 12.
  • a first insulating film 831 is arranged above at least a part of the gate electrode 13 of the transfer transistor instead of the photoelectric conversion layer 15.
  • the image pickup apparatus 100D can suppress photoelectric conversion and charge accumulation above the first electrode 11. Since the image pickup apparatus 100D can suppress the accumulation of electric charges above the first electrode 11, it is possible to suppress performance deterioration such as inhibition of GS drive, and it is possible to improve the oblique incident resistance of GS drive.
  • FIG. 10 is a block diagram showing a configuration example of the image pickup apparatus 200 according to the sixth embodiment of the present disclosure.
  • the image pickup device 200 shown in FIG. 10 includes an image pickup region 111 in which stacked image pickup elements 101 are arranged in a two-dimensional array, a vertical drive circuit 112 as a drive circuit (peripheral circuit) thereof, a column signal processing circuit 113, and a horizontal one. It is composed of a drive circuit 114, an output circuit 115, a drive control circuit 116, and the like.
  • the stacked image sensor 101 has the same structure as any one or more of the image pickup devices 100 to 100D described in the first to fifth embodiments, for example.
  • the vertical drive circuit 112, the column signal processing circuit 113, the horizontal drive circuit 114, the output circuit 115, and the drive control circuit 116 (hereinafter, these are collectively referred to as peripheral circuits) are composed of well-known circuits. Further, the peripheral circuit may be composed of various circuits used in a conventional CCD image pickup device or CMOS image pickup device. In FIG. 10, the reference number “101” in the stacked image sensor 101 is displayed on only one line.
  • the drive control circuit 116 generates a clock signal and a control signal that serve as a reference for the operation of the vertical drive circuit 112, the column signal processing circuit 113, and the horizontal drive circuit 114 based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock. Then, the generated clock signal and control signal are input to the vertical drive circuit 112, the column signal processing circuit 113, and the horizontal drive circuit 114.
  • the vertical drive circuit 112 is composed of, for example, a shift register, and sequentially selects and scans each stacked image sensor 101 in the image pickup region 111 in the vertical direction in row units. Then, the pixel signal (image signal) based on the current (signal) generated according to the amount of light received by each stacked image sensor 101 is sent to the column signal processing circuit 113 via the signal line (data output line) 117.
  • One signal line (data output line) 117 includes, for example, one or more of the signal lines (data output line) VSL1, VSL2, VSL3 ... Shown in FIG.
  • the column signal processing circuit 113 is arranged for each row of the stacked image sensor 101, for example.
  • the column signal processing circuit 113 uses a signal from a black reference pixel (not shown, but formed around an effective pixel region) for each image sensor to output an image signal output from the stacked image sensor 101 for one row. Performs signal processing for noise removal and signal amplification.
  • the output stage of the column signal processing circuit 113 is connected to the horizontal signal line 118 via a horizontal selection switch (not shown).
  • the horizontal drive circuit 114 is composed of, for example, a shift register.
  • the horizontal drive circuit 114 sequentially outputs each of the column signal processing circuits 113 by sequentially outputting the horizontal scanning pulses to the above-mentioned horizontal selection switch.
  • the selected column signal processing circuit 113 outputs a signal to the horizontal signal line 118.
  • the output circuit 115 performs signal processing on the signals sequentially supplied from each of the column signal processing circuits 113 via the horizontal signal line 118 and outputs the signals.
  • the present disclosure has been described by embodiments and variations, but the statements and drawings that form part of this disclosure should not be understood to limit this disclosure.
  • the second electrode 16 is continuously provided from the first surface 15A of the photoelectric conversion layer 15 to the buffer layer 142 of the first region R1 through the side surface of the photoelectric conversion layer 15. May be.
  • a light-shielding layer may be provided above the conductive layer 14 of the first region R1.
  • a light-shielding layer may be provided on the photoelectric conversion layer 15 in the first region R1.
  • the technology (the present technology) according to the present disclosure includes various embodiments and the like not described here. At least one of the various omissions, substitutions and modifications of the components may be made without departing from the gist of the embodiments and modifications described above. Further, the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
  • the technology (the present technology) according to the present disclosure includes, for example, an imaging system of a digital still camera, a digital video camera, etc. (hereinafter, collectively referred to as a camera), a mobile device such as a mobile phone having an imaging function, or an imaging function. It can be applied to various electronic devices such as other devices equipped with.
  • FIG. 11 is a conceptual diagram showing an example in which the technology according to the present disclosure (the present technology) is applied to the electronic device 300.
  • the electronic device 300 is, for example, a camera, and includes a solid-state image sensor 201, an optical lens 210, a shutter device 211, a drive circuit 212, and a signal processing circuit 213.
  • the optical lens 210 is an example of the "optical component" of the present disclosure.
  • the light transmitted through the optical lens 210 is incident on the solid-state image sensor 201.
  • the optical lens 210 forms an image light (incident light) from the subject on the image pickup surface of the solid-state image pickup device 201.
  • signal charges are accumulated in the solid-state image sensor 201 for a certain period of time.
  • the shutter device 211 controls the light irradiation period and the light blocking period of the solid-state image sensor 201.
  • the drive circuit 212 supplies a drive signal that controls the transfer operation of the solid-state image sensor 201 and the shutter operation of the shutter device 211.
  • the signal transfer of the solid-state image sensor 201 is performed by the drive signal (timing signal) supplied from the drive circuit 212.
  • the signal processing circuit 213 performs various signal processing.
  • the signal processing circuit 213 processes the signal output from the solid-state image sensor 201.
  • the video signal after signal processing is stored in a storage medium such as a memory or output to a monitor.
  • any one or more of the above-mentioned image pickup devices 100 to 100D and 200 is applied to the solid-state image pickup device 201. As a result, it is possible to obtain an electronic device 300 with improved performance.
  • the electronic device 300 is not limited to the camera.
  • the electronic device 300 may be a mobile device such as a mobile phone having an imaging function, or another device having an imaging function.
  • FIG. 12 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 12 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and the working space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 13 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication was performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the endoscope 11100, the image pickup unit 11402 of the camera head 11102, the image processing unit 11412 of the CCU 11201, and the like among the configurations described above.
  • any one or more of the above-mentioned imaging devices 100 to 100D and 200 can be applied to the imaging unit 10402.
  • a clearer surgical site image can be obtained, so that the operator can perform the operation. It becomes possible to confirm the part reliably.
  • the surgical site image can be obtained with lower latency. It becomes possible to perform the treatment with the same feeling as when the person is observing the surgical site by touch.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 14 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microprocessor 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 15 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has image pickup units 12101, 12102, 12103, 12104, 12105 as the image pickup unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 15 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microprocessor 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microprocessor 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above. Specifically, any one or more of the above-mentioned imaging devices 100 to 100D and 200 can be applied to the imaging unit 12031.
  • the technique according to the present disclosure it is possible to obtain a photographed image that is easier to see, and thus it is possible to reduce driver fatigue.
  • the present disclosure may also have the following structure.
  • a photoelectric conversion layer having a first surface and a second surface located on the opposite side of the first surface.
  • the first electrode located on the first surface side and A second electrode located on the second surface side is provided.
  • the region overlapping the first electrode is defined as the first region, and the region deviating from the first electrode is defined as the second region.
  • An imaging device in which the first film thickness of the photoelectric conversion layer in at least a part of the first region is thinner than the second film thickness of the photoelectric conversion layer in the second region.
  • the first film thickness is zero.
  • the conductive layer is The semiconductor layer in contact with the first electrode and The imaging device according to (3) above, which has a buffer layer laminated on the semiconductor layer and in contact with the photoelectric conversion layer.
  • the first insulating layer is arranged between the conductive layer and the photoelectric conversion layer.
  • the first insulating layer is pre-arranged between the photoelectric conversion layer and the second electrode.
  • the third electrode overlaps the photoelectric conversion layer in the thickness direction.
  • the imaging device according to any one of (3) to (7).
  • the image pickup device A photoelectric conversion layer having a first surface and a second surface located on the opposite side of the first surface, The first electrode located on the first surface side and A second electrode located on the second surface side is provided.
  • the region overlapping the first electrode is defined as the first region, and the region deviating from the first electrode is defined as the second region.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

電荷の蓄積による性能低下を抑制できるようにした撮像装置及び電子機器を提供する。撮像装置は、第1面と、第1面の反対側に位置する第2面とを有する光電変換層と、第1面側に位置する第1電極と、第2面側に位置する第2電極と、を備える。光電変換層の厚さ方向において、第1電極と重なる領域を第1領域とし、第1電極から外れる領域を第2領域とすると、第1領域の少なくとも一部における光電変換層の第1膜厚は、第2領域における光電変換層の第2膜厚よりも薄い。

Description

撮像装置及び電子機器
 本開示は、撮像装置及び電子機器に関する。
 フローティングディフュージョン(以下、FD)電極上の光電変換層に遮光層を設けて、FD電極上で電荷を生じさせないようにした構造が知られている(例えば、特許文献1の図41から図44参照。)。
特開2017-157816号公報
 光電変換層の表面に対して光が斜めに入射すると、遮光層で覆われているFD電極上の光電変換層にも光が斜入射して、電荷が発生し蓄積される可能性がある。光電変換層を構成する材料の吸収係数が小さい場合は、光電変換層を厚膜化して吸収率を高めることがあるが、光電変換層が厚膜化されると、斜入射光による電荷の発生は更に顕著となる。FD電極上の光電変換層に電荷が蓄積されると、GS(Global Shutter)駆動が阻害される可能性がある。
 本開示はこのような事情に鑑みてなされたもので、電荷の蓄積による性能低下を抑制できるようにした撮像装置及び電子機器を提供することを目的とする。
 本開示の一態様に係る撮像装置は、第1面と、前記第1面の反対側に位置する第2面とを有する光電変換層と、前記第1面側に位置する第1電極と、前記第2面側に位置する第2電極と、を備える。前記光電変換層の厚さ方向において、前記第1電極と重なる領域を第1領域とし、前記第1電極から外れる領域を第2領域とすると、前記第1領域の少なくとも一部における前記光電変換層の第1膜厚は、前記第2領域における前記光電変換層の第2膜厚よりも薄い。これによれば、撮像装置は、第1電極の上方における光電変換と電荷の蓄積とを抑制することができる。撮像装置は、第1電極の上方に電荷が蓄積することによる性能低下を抑制することができる。
図1は、本開示の実施形態1に係る撮像装置の構成例を模式的に示す断面図である。 図2は、本開示の実施形態1に係る撮像装置の構成例を模式的に示す回路図である。 図3は、本開示の実施形態1に係る撮像装置の光電変換部とその周辺部の構成例を模式的に示す断面図である。 図4Aは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Bは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Cは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Dは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Eは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Fは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Gは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Hは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図4Iは、本開示の実施形態1に係る撮像装置の製造方法1を工程順に示す断面図である。 図5Aは、本開示の実施形態1に係る撮像装置の製造方法2を工程順に示す断面図である。 図5Bは、本開示の実施形態1に係る撮像装置の製造方法2を工程順に示す断面図である。 図5Cは、本開示の実施形態1に係る撮像装置の製造方法2を工程順に示す断面図である。 図5Dは、本開示の実施形態1に係る撮像装置の製造方法2を工程順に示す断面図である。 図5Eは、本開示の実施形態1に係る撮像装置の製造方法2を工程順に示す断面図である。 図5Fは、本開示の実施形態1に係る撮像装置の製造方法2を工程順に示す断面図である。 図6は、本開示の実施形態2に係る撮像装置の光電変換部とその周辺部の構成例を模式的に示す断面図である。 図7は、本開示の実施形態3に係る撮像装置の光電変換部とその周辺部の構成例を模式的に示す断面図である。 図8は、本開示の実施形態4に係る撮像装置の光電変換部とその周辺部の構成例を模式的に示す断面図である。 図9は、本開示の実施形態5に係る撮像装置の光電変換部とその周辺部の構成例を模式的に示す断面図である。 図10は、本開示の実施形態6に係る撮像装置の構成例を示すブロック図である。 図11は、本開示に係る技術(本技術)を電子機器に適用した例を示す概念図である。 図12は、内視鏡手術システムの概略的な構成の一例を示す図である。 図13は、カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 図14は、車両制御システムの概略的な構成の一例を示すブロック図である。 図15は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下において、図面を参照して本開示の実施形態を説明する。以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 また、以下の説明では、X軸方向、Y軸方向及びZ軸方向の文言を用いて、方向を説明する場合がある。例えば、Z軸方向は、後述する光電変換層15の厚さ方向である。X軸方向及びY軸方向は、Z軸方向と直交する方向である。X軸方向、Y軸方向及びZ軸方向は、互いに直交する。以下の説明では、X軸方向とY軸方向とに平行な方向を水平方向ともいう。
<実施形態1>
(全体構造)
 図1は、本開示の実施形態1に係る撮像装置100の構成例を模式的に示す断面図である。図2は、本開示の実施形態1に係る撮像装置100の構成例を模式的に示す回路図である。実施形態1に係る撮像装置100は、例えば裏面照射型の積層型固体撮像装置である。撮像装置100は、例えば、緑色の光に感度を有する緑色用撮像素子と、青色の光に感度を有する青色用撮像素子と、赤色の光に感度を有する赤色用撮像素子と、を備える。
 例えば、赤色用撮像素子及び青色用撮像素子は、半導体基板70内に設けられている。青色用撮像素子の方が、赤色用撮像素子よりも光入射側に位置する。また、緑色用撮像素子は、青色用撮像素子の上方に設けられている。緑色用撮像素子、青色用撮像素子及び赤色用撮像素子によって、1画素が構成される。カラーフィルタは設けられていない。
 緑色用撮像素子は、第1電極11、光電変換層15及び第2電極16が積層されて成る光電変換部PDを備える。光電変換部PDは、更に、第1電極11と離間して配置され、且つ、絶縁層82を介して光電変換層15と対向して配置された第3電極12を備える。第3電極12は、電荷蓄積用の電極である。光電変換部PD1は、半導体基板70の上方に配置されている。
 層間絶縁膜81上に、第1電極11及び第3電極12が互いに離間して形成されている。層間絶縁膜81及び第3電極12は、絶縁層82によって覆われている。絶縁層82は、本開示の「第2絶縁層」の一例である。絶縁層82上には光電変換層15が形成され、光電変換層15上には第2電極16が形成されている。光電変換層15の厚さ方向(例えば、Z軸方向)において、第3電極12は光電変換層15と重なっている。第2電極16を含む全面には、絶縁層83が形成されている。絶縁層83上にオンチップ・マイクロ・レンズ90が設けられている。
 第1電極11、第2電極16及び第3電極12は、それぞれ透光性の導電膜で構成されている。透光性の導電膜として、ITO(酸化インジウムスズ)が例示される。
 光電変換層15は、少なくとも緑色に感度を有する有機光電変換材料を含む層で構成されている。緑色に感度を有する有機光電変換材料として、例えば、ローダミン系色素、メラシアニン系色素、キナクリドン誘導体、サブフタロシアニン系色素(サブフタロシアニン誘導体)等を挙げることができる。
 または、光電変換層15は、無機材料で構成されていてもよい。光電変換層15を構成する無機系材料(以下、無機光電変換材料)として、結晶シリコン、アモルファスシリコン、微結晶シリコン、結晶セレン、アモルファスセレン、及び、カルコパライト系化合物であるCIGS(CuInGaSe)、CIS(CuInSe)、CuInS、CuAlS、CuAlSe、CuGaS、CuGaSe、AgAlS、AgAlSe、AgInS、AgInSe、または、III-V族化合物であるGaAs、InP、AlGaAs、InGaP、AlGaInP、InGaAsP、更には、CdSe、CdS、InSe、In、BiSe、Bi、ZnSe、ZnS、PbSe、PbS等の化合物半導体を挙げることができる。加えて、これらの材料から成る量子ドットを光電変換層に使用することも可能である。
 層間絶縁膜81や絶縁層82、83は、周知の絶縁材料(例えば、SiOやSiN)で構成されている。
 撮像装置100は、半導体基板70に設けられ、第1電極11が接続された駆動回路を有する制御部を更に備える。半導体基板70における光入射面を上方とし、半導体基板70の反対側を下方とする。半導体基板70の下方には、複数の配線から成る配線層62が設けられている。
 第3電極12は駆動回路に接続されている。例えば、第3電極12は、層間絶縁膜81内に設けられた接続孔66、パッド部64及び配線VOAを介して、駆動回路に接続されている。第3電極12の大きさは第1電極11よりも大きい。
 半導体基板70の表面(おもて面)70Aの側には素子分離領域71と、酸化膜72とが形成されている。更には、半導体基板70の表面70A側には、緑色用撮像素子の制御部を構成するリセットトランジスタTR1rst、増幅トランジスタTR1amp、選択トランジスタTR1sel及び第1浮遊拡散層FD1が設けられている。リセットトランジスタTR1rst、増幅トランジスタTR1amp及び選択トランジスタTR1selは、駆動回路を構成する。
 リセットトランジスタTR1rstは、ゲート部51、チャネル形成領域51A、ドレイン領域51B及びソース領域51Cで構成されている。リセットトランジスタTR1rstのゲート部51は、リセット線に接続されている。リセットトランジスタTR1rstのソース領域51Cは、第1浮遊拡散層FD1を兼ねている。ドレイン領域51Bは、電源VDDに接続されている。
 第1電極11は、層間絶縁膜81内に設けられた接続孔65、パッド部63、半導体基板70及び層間絶縁膜76に形成されたコンタクトホール部61、層間絶縁膜76に形成された配線層62を介して、リセットトランジスタTR1rstのソース領域51C(第1浮遊拡散層FD1)に接続されている。
 増幅トランジスタTR1ampは、ゲート部52、チャネル形成領域52A、ドレイン領域52B及びソース領域52Cで構成されている。ゲート部52は配線層62を介して、第1電極11及びリセットトランジスタTR1rstのソース領域51C(第1浮遊拡散層FD1)に接続されている。また、ドレイン領域52Bは、リセットトランジスタTR1rstのドレイン領域51Bと領域を共有しており、電源VDDに接続されている。
 選択トランジスタTR1selは、ゲート部53、チャネル形成領域53A、ドレイン領域53B及びソース領域53Cで構成されている。ゲート部53は、選択線に接続されている。また、ドレイン領域53Bは、増幅トランジスタTR1ampのソース領域52Cと領域を共有している。ソース領域53Cは、信号線(データ出力線)VSL1に接続されている。
 青色用撮像素子は、半導体基板70に設けられたn型半導体領域41を、光電変換部PDの光電変換層として備える。縦型トランジスタから成る転送トランジスタTR2trsのゲート部45が、n型半導体領域41まで延びており、且つ、転送ゲート線TG2に接続されている。また、転送トランジスタTR2trsのゲート部45の近傍の半導体基板70の領域45Cには、第2浮遊拡散層FD2が設けられている。n型半導体領域41に蓄積された電荷は、ゲート部45に沿って形成される転送チャネルを介して第2浮遊拡散層FD2に読み出される。
 青色用撮像素子にあっては、更に、半導体基板70の表面70A側に、青色用撮像素子の制御部を構成するリセットトランジスタTR2rst、増幅トランジスタTR2amp及び選択トランジスタTR2selが設けられている。
 リセットトランジスタTR2rstは、ゲート部、チャネル形成領域、ドレイン領域及びソース領域で構成されている。リセットトランジスタTR2rstのゲート部は、リセット線に接続されている。リセットトランジスタTR2rstのドレイン領域は、電源VDDに接続されている。リセットトランジスタTR2rstのソース領域は、第2浮遊拡散層FD2を兼ねている。
 増幅トランジスタTR2ampは、ゲート部、チャネル形成領域、ドレイン領域及びソース領域で構成されている。増幅トランジスタTR2ampのゲート部は、リセットトランジスタTR2rstのソース領域(第2浮遊拡散層FD2)に接続されている。また、増幅トランジスタTR2ampのドレイン領域は、リセットトランジスタTR2rstのドレイン領域と領域を共有しており、電源VDDに接続されている。
 選択トランジスタTR2selは、ゲート部、チャネル形成領域、ドレイン領域及びソース領域で構成されている。選択トランジスタTR2selのゲート部は、選択線に接続されている。また、選択トランジスタTR2selのドレイン領域は、増幅トランジスタTR2ampのソース領域と領域を共有している。選択トランジスタTR2selのソース領域は、信号線(データ出力線)VSL2に接続されている。
 赤色用撮像素子は、半導体基板70に設けられたn型半導体領域43を、光電変換部PDの光電変換層として備える。転送トランジスタTR3trsのゲート部46は転送ゲート線TG3に接続されている。また、転送トランジスタTR3trsのゲート部46の近傍の半導体基板70の領域46Cには、第3浮遊拡散層FD3が設けられている。n型半導体領域43に蓄積された電荷は、ゲート部46に沿って形成される転送チャネル46Aを介して第3浮遊拡散層FD3に読み出される。
 赤色用撮像素子にあっては、更に、半導体基板70の表面70A側に、赤色用撮像素子の制御部を構成するリセットトランジスタTR3rst、増幅トランジスタTR3amp及び選択トランジスタTR3selが設けられている。
 リセットトランジスタTR3rstは、ゲート部、チャネル形成領域、ドレイン領域及びソース領域で構成されている。リセットトランジスタTR3rstのゲート部は、リセット線に接続されている。リセットトランジスタTR3rstのドレイン領域は、電源VDDに接続されている。リセットトランジスタTR3rstのソース領域は、第3浮遊拡散層FD3を兼ねている。
 増幅トランジスタTR3ampは、ゲート部、チャネル形成領域、ドレイン領域及びソース領域で構成されている。増幅トランジスタTR3ampのゲート部は、リセットトランジスタTR3rstのソース領域(第3浮遊拡散層FD3)に接続されている。また、増幅トランジスタTR3ampのドレイン領域は、リセットトランジスタTR3rstのドレイン領域と領域を共有しており、電源VDDに接続されている。
 選択トランジスタTR3selは、ゲート部、チャネル形成領域、ドレイン領域及びソース領域で構成されている。選択トランジスタTR3selのゲート部は、選択線に接続されている。また、選択トランジスタTR3selのドレイン領域は、増幅トランジスタTR3ampのソース領域と領域を共有している。選択トランジスタTR3selのソース領域は、信号線(データ出力線)VSL3に接続されている。
 n型半導体領域43と半導体基板70の表面70Aとの間にはp層44が設けられており、暗電流発生を抑制している。n型半導体領域41とn型半導体領域43との間には、p層42が形成されている。n型半導体領域43の側面の一部は、p層42によって囲まれている。半導体基板70の裏面70Bの側には、p層73が形成されている。p層73からコンタクトホール部61内にかけて、HfO膜74及び絶縁膜75が形成されている。層間絶縁膜76には、複数の層に亙り配線(図示せず)が形成されている。
(光電変換部とその周辺部の構造)
 図3は、本開示の実施形態1に係る撮像装置100の光電変換部PDとその周辺部の構成例を模式的に示す断面図である。図3において、第1電極11、第3電極12及び絶縁層82は、層間絶縁膜81(図1参照)上に設けられている。第1電極11は、半導体基板70(図1参照)に設けられたフローティングディフュージョン(例えば、図1に示した第1浮遊拡散層FD1)に接続された電極である。第3電極12は絶縁層82で覆われている。また、絶縁層82には、貫通穴82Hが設けられている。貫通穴82Hは、第1電極11上に位置する。
 図3に示すように、導電層14は、絶縁層82上に設けられている。導電層14は、例えば、半導体層141と、半導体層141に積層されたバッファ層142とを有する。半導体層141は、電荷の蓄積と転送の機能を有する層である。半導体層141は、第1電極11に接している。バッファ層142は、光電変換層15に接している。バッファ層142上に光電変換層15と、絶縁層83とが設けられている。
 半導体層141は、バンドギャップの値が大きく(例えば、3.0eV以上のバンドギャップの値)、しかも、光電変換層15を構成する材料よりも高い移動度を有する半導体材料で構成されている。このような半導体材料として、IGZO等の酸化物半導体材料;遷移金属ダイカルコゲナイド;シリコンカーバイド;ダイヤモンド;グラフェン;カーボンナノチューブ;縮合多環炭化水素化合物や縮合複素環化合物等の有機半導体材料を挙げることができる。
 半導体層141は、蓄積すべき電荷が電子である場合、光電変換層15を構成する材料のイオン化ポテンシャルよりも大きなイオン化ポテンシャルを有する材料で構成されていてもよい。また、半導体層141は、蓄積すべき電荷が正孔である場合、光電変換層15を構成する材料の電子親和力よりも小さな電子親和力を有する材料で構成されていてもよい。
 半導体層141における不純物濃度は1×1018cm-3以下であることが好ましい。半導体層141は、単層構造であってもよいし、多層構造であってもよい。
 バッファ層142は、光電変換層15から電子を円滑に半導体層141へと転送する機能と、半導体層141からのホールをブロックする機能と、の少なくとも一方を有する。
 第1電極11と光電変換層15との間に半導体層141及びバッファ層142を設けることで、電荷蓄積時の再結合を防止することができ、光電変換層15に蓄積した電荷の第1電極11への転送効率を増加させることができる。また、暗電流の生成を抑制することができる。
 光電変換層15は、第1面15Aと、第1面15Aの反対側に位置する第2面15Bとを有する。第1面15Aはバッファ層142に接し、第2面は第2電極16に接している。図3に示すように、光電変換層15の厚さ方向(例えば、Z軸方向)において、第1電極11と重なる領域を第1領域R1とし、第1電極11から外れる領域(すなわち、重ならない領域)をR2とする。第1領域R1の少なくとも一部における光電変換層15の膜厚T1(本開示の「第1膜厚」の一例)は、第2領域R2における光電変換層15の膜厚T2(本開示の「第2膜厚」の一例)よりも薄い。例えば、膜厚T1はゼロである。
 この例では、Z軸方向において第1電極11と重なる領域(図3では、第1電極11の上方)の少なくとも一部には、光電変換層15が設けられていない。図3に示すように、第1電極11の上方には、光電変換層15に設けられた貫通穴15Hが配置されている。
 絶縁層83は、第1絶縁膜831と、第1絶縁膜831に積層された第2絶縁膜832とを有する。第1絶縁膜831は、本開示の「第1絶縁層」の一例である。第1絶縁膜831は、第1領域R1に配置されている。例えば、第1絶縁膜831は、光電変換層15に設けられた貫通穴15H内にが配置されている。第1絶縁膜831は、水平方向において光電変換層15と接している。
 第2電極16は、第1領域R1に設けられている。第2絶縁膜832は、第1絶縁膜831と第2電極16とを覆っている。また、第2絶縁膜832には貫通穴83Hが設けられている。第2絶縁膜832上には配線17が設けられている。配線17は、貫通穴83Hを通して第2電極16に接続している。
(製造方法)
 撮像装置100は、成膜装置(CVD(Chemical Vapor Deposition)装置、スパッタ装置を含む)、露光装置、エッチング装置、イオン注入装置、熱処理装置、CMP(Chemical Mechanical Polishing)装置、貼り合わせ装置など、各種の装置を用いて製造される。以下、これらの装置を、製造装置と総称する。図3に示した光電変換部PD1とその周辺部は、次に説明する製造方法1、又は、製造方法2によって製造することができる。
(製造方法1)
 図4Aから図4Iは、本開示の実施形態1に係る撮像装置100の製造方法1を工程順に示す断面図である。図4Aにおいて、製造装置は、層間絶縁膜81(図1参照)上に第1電極11と第3電極12とを形成する。次に、製造装置は、第1電極11と第3電極12とが形成された層間絶縁膜81上に絶縁層82を形成する。次に、製造装置は、絶縁層82を局所的にエッチングして、貫通穴82Hを形成する。
 次に、製造装置は、貫通穴82Hが形成された絶縁層82上に、導電層(パターニング前の半導体層)を形成する。次に、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、導電層を所定形状にパターニングする。これにより、導電層から半導体層141が形成される。
 次に、製造装置は、半導体層141上に導電層(パターニング前のバッファ層)を形成する。次に、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、導電層を所定形状にパターニングする。これにより、図4Bに示すように、導電層からバッファ層142が形成される。次に、図4Cに示すように、製造装置は、バッファ層142上に第1絶縁膜831を形成する。
 次に、図4Dに示すように、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、第1絶縁膜831を所定形状にパターニングする。この工程では、製造装置は、第1電極11の上方に第1絶縁膜831を残し、それ以外の領域から第1絶縁膜831を除去する。この工程では、第1絶縁膜831下のバッファ層142が、第1絶縁膜831に対するエッチングストッパーとして機能する。
 次に、図4Eに示すように、製造装置は、バッファ層142上に光電変換層15を成膜する。この工程では、製造装置は、光電変換層15を第1絶縁膜831よりも厚く成膜する。これにより、第1絶縁膜831の上面及び側面は光電変換層15で覆われる。
 次に、図4Fに示すように、製造装置は、光電変換層15上に第2電極16を成膜する。次に、図4Gに示すように、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、第2電極16と光電変換層15とをパターニングする。
 次に、図4Hに示すように、製造装置は、第2電極16と、第2電極16下から露出した第1絶縁膜831とを覆うように第2絶縁膜832を成膜する。第1絶縁膜831上に第2絶縁膜832が積層されて、絶縁層83が得られる。
 次に、図4Iに示すように、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、第2絶縁膜832に貫通穴83Hを形成する。次に、製造装置は、貫通穴83Hが形成された第2絶縁膜832上に導電層を形成する。次に、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、導電層をパターニングする。これにより、貫通穴83Hを通して第2電極16に接続する配線17が形成される。以上の工程を経て、図3に示した撮像装置100が完成する。
 上記の製造方法1では、第1絶縁膜831によって光電変換層15は自己整合的に形成されるため、光電変換層15へのエッチングダメージが小さい。
(製造方法2)
 図5Aから図5Fは、本開示の実施形態1に係る撮像装置100の製造方法2を工程順に示す断面図である。図5Aにおいて、バッファ層142を形成する工程までは、図4Aから図4Iを参照しながら説明した製造方法1と同じである。
 バッファ層142が形成された後、図5Bに示すように、製造装置は、バッファ層142上に光電変換層15を成膜する。次に、図5Cに示すように、製造装置は、光電変換層15上に、透光性の第2電極16を成膜する。次に、図5Dに示すように、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、第2電極16と光電変換層15とをパターニングする。
 次に、図5Eに示すように、製造装置は、光電変換層15と第2電極16とが形成されたバッファ層142上に絶縁層83を形成する。絶縁層83によって貫通穴15Hは埋め込まれる。
 これ以降の工程は、製造方法1と同じである。図5Fに示すよう、製造装置は、フォトリソグラフィ技術及びエッチング技術を用いて、絶縁層83に貫通穴83Hを形成する。次に、製造装置は、貫通穴83Hが形成された絶縁層83上に導電層を形成し、導電層をパターニングして、配線17を形成する。以上の工程を経て、図3に示した撮像装置100が完成する。
 上記の製造方法2では、絶縁層83を形成する前に光電変換層15を成膜する。光電変換層15の被成膜面(下地)は、製造方法1と比べて、第1絶縁膜831(図4D参照)が無い分だけ平坦である。このため、上記の製造方法2は、上記の製造方法1と比べて、光電変換層15の成膜が容易である。
 以上説明したように、本開示の実施形態1に係る撮像装置100によれば、第1面15Aと、第1面15Aの反対側に位置する第2面15Bとを有する光電変換層15と、第1面15A側に位置する第1電極11と、第2面15B側に位置する第2電極16と、を備える。光電変換層15の厚さ方向(例えば、Z軸方向)において、第1電極11と重なる領域を第1領域R1とし、第1電極11から外れる領域を第2領域R2とする。第1領域R1の少なくとも一部における光電変換層15の膜厚T1は、第2領域R2における光電変換層15の膜厚T2よりも薄い。例えば、T1はゼロである。
 これによれば、撮像装置100は、第1電極11の上方に斜入射光が入射する場合でも、第1電極11の上方における光電変換と電荷の蓄積とを抑制することができる。膜厚T1が薄いほど、第1電極11の上方における光電変換と電荷の蓄積とを効果的に抑制することができる。撮像装置100は、第1電極11の上方における電荷の蓄積を抑制できるため、GS駆動が阻害される等の性能低下を抑制することができ、GS駆動の斜入射耐性を向上させることができる。また、撮像装置100は、第1電極11の上方から第1電極11への電荷の流入が小さいため、ノイズを低減することができる。
 また、第2領域R2における光電変換層15の膜厚T2は、膜厚T1に関係なく厚くすることが可能である。これにより、光電変換層15に吸収係数が小さい材料を使用する場合でも、膜厚T2を厚くして吸収率を高めることができる。
<実施形態2>
 実施形態1では、第1領域R1の少なくとも一部には、第2電極16が配置されていない場合を示した。しかしながら、本開示の実施形態はこれに限定されない。
 図6は、本開示の実施形態2に係る撮像装置100Aの光電変換部PDとその周辺部の構成例を模式的に示す断面図である。図6に示すように、撮像装置100Aにおいて、第2電極16は第1領域R1の全域に設けられている。第2電極16は、第1領域R1から第2領域R2にかけて連続して設けられている。
 このような構成であっても、撮像装置100Aは、第1電極11の上方における光電変換と電荷の蓄積とを抑制することができる。撮像装置100Aは、第1電極11の上方における電荷の蓄積を抑制できるため、GS駆動が阻害される等の性能低下を抑制することができ、GS駆動の斜入射耐性を向上させることができる。
<実施形態3>
 実施形態1では、第1領域R1の少なくとも一部における光電変換層15の膜厚T1はゼロである場合を説明した。しかしながら、本開示の実施形態はこれに限定されない。本開示の実施形態において、膜厚T1は膜厚T2よりも薄ければよい。
 図7は、本開示の実施形態3に係る撮像装置100Bの光電変換部PDとその周辺部の構成例を模式的に示す断面図である。図7に示すように、撮像装置100Bでは、第1領域R1の少なくとも一部に第1絶縁膜831が配置されている。Z軸方向において、第1絶縁膜831は、バッファ層142と光電変換層15との間に配置されている。
 第2領域R2には第1絶縁膜831は配置されていない。光電変換層15は、バッファ層142上に設けられており、第1絶縁膜831の上面831A及び側面831Bを覆っている。これにより、第1領域R1の少なくとも一部における光電変換層15の膜厚T1は、第2領域R2における光電変換層15の膜厚T2よりも薄くなっている。
 このような構成であっても、撮像装置100Bは、第1電極11の上方における光電変換と電荷の蓄積とを抑制することができる。撮像装置100Bは、第1電極11の上方における電荷の蓄積を抑制できるため、GS駆動が阻害される等の性能低下を抑制することができ、GS駆動の斜入射耐性を向上させることができる。
<実施形態4>
 図8は、本開示の実施形態4に係る撮像装置100Cの光電変換部PDとその周辺部の構成例を模式的に示す断面図である。図8に示すように、撮像装置100Cにおいて、光電変換層15は、第1領域R1から第2領域R2にかけて、バッファ層142上に連続して設けられている。また、第1領域R1の少なくとも一部において、光電変換層15の第1面15Aに凹部15REが形成されており、凹部15RE内に第1絶縁膜831が配置されている。Z軸方向において、第1絶縁膜831は、光電変換層15と第2電極16の間に配置されている。
 第2領域R2では、光電変換層15に凹部15REは設けられていない。第1絶縁膜831の上面831Aと光電変換層15の第1面15Aとの間に大きさ段差はなく、面一、又は、ほぼ面一となっている。第1絶縁膜831上及び光電変換層15上に第2電極16が連続して設けられている。これにより、第1領域R1の少なくとも一部における光電変換層15の膜厚T1は、第2領域R2における光電変換層15の膜厚T2よりも薄くなっている。
 このような構成であっても、撮像装置100Cは、第1電極11の上方における光電変換と電荷の蓄積とを抑制することができる。撮像装置100Cは、第1電極11の上方における電荷の蓄積を抑制できるため、GS駆動が阻害される等の性能低下を抑制することができ、GS駆動の斜入射耐性を向上させることができる。
<実施形態5>
 本開示の実施形態では、層間絶縁膜81上に第1電極11、第3電極12と並んで、トランジスタのゲート電極が配置されていてもよい。
 図9は、本開示の実施形態5に係る撮像装置100Dの光電変換部PDとその周辺部の構成例を模式的に示す断面図である。図9に示すように、撮像装置100Dでは、層間絶縁膜81上に第1電極11、第3電極12と並んで、転送トランジスタのゲート電極13が配置されている。例えば、水平方向において、第1電極11、第3電極12との間に、転送トランジスタのゲート電極13が配置されている。転送トランジスタのゲート電極13の少なくとも一部の上方には、光電変換層15ではなく、第1絶縁膜831が配置されている。
 このような構成であっても、撮像装置100Dは、第1電極11の上方における光電変換と電荷の蓄積とを抑制することができる。撮像装置100Dは、第1電極11の上方における電荷の蓄積を抑制できるため、GS駆動が阻害される等の性能低下を抑制することができ、GS駆動の斜入射耐性を向上させることができる。
<実施形態6>
 図10は、本開示の実施形態6に係る撮像装置200の構成例を示すブロック図である。図10に示す撮像装置200は、積層型撮像素子101が2次元アレイ状に配列された撮像領域111、並びに、その駆動回路(周辺回路)としての垂直駆動回路112、カラム信号処理回路113、水平駆動回路114、出力回路115及び駆動制御回路116等から構成されている。
 積層型撮像素子101は、例えば、実施形態1から5で説明した撮像装置100から100Dのいずれか1つ以上と同じ構造を有する。垂直駆動回路112、カラム信号処理回路113、水平駆動回路114、出力回路115及び駆動制御回路116(以下、これらを周辺回路と総称する。)は、周知の回路で構成されている。また、周辺回路は、従来のCCD撮像装置やCMOS撮像装置にて用いられる各種の回路で構成されていてもよい。なお、図10において、積層型撮像素子101における参照番号「101」の表示は、1行のみとした。
 駆動制御回路116は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路112、カラム信号処理回路113及び水平駆動回路114の動作の基準となるクロック信号や制御信号を生成する。そして、生成されたクロック信号や制御信号は、垂直駆動回路112、カラム信号処理回路113及び水平駆動回路114に入力される。
 垂直駆動回路112は、例えば、シフトレジスタによって構成され、撮像領域111の各積層型撮像素子101を行単位で順次垂直方向に選択走査する。そして、各積層型撮像素子101における受光量に応じて生成した電流(信号)に基づく画素信号(画像信号)は、信号線(データ出力線)117を介してカラム信号処理回路113に送られる。1つの信号線(データ出力線)117は、例えば、図2に示した信号線(データ出力線)VSL1、VSL2、VSL3…の1つ以上を含む。
 カラム信号処理回路113は、例えば、積層型撮像素子101の列毎に配置されている。カラム信号処理回路113は、1行分の積層型撮像素子101から出力される画像信号を撮像素子毎に黒基準画素(図示しないが、有効画素領域の周囲に形成される)からの信号によって、ノイズ除去や信号増幅の信号処理を行う。カラム信号処理回路113の出力段は、水平選択スイッチ(図示せず)を介して水平信号線118に接続されている。
 水平駆動回路114は、例えばシフトレジスタによって構成されている。水平駆動回路114は、水平走査パルスを上記の水平選択スイッチに順次出力することによって、カラム信号処理回路113の各々を順次選択する。選択されたカラム信号処理回路113は、水平信号線118に信号を出力する。
 出力回路115は、カラム信号処理回路113の各々から水平信号線118を介して順次供給される信号に対して、信号処理を行って出力する。
<その他の実施形態>
 上記のように、本開示は実施形態及び変形例によって記載したが、この開示の一部をなす論述及び図面は本開示を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。例えば、上記の実施形態1において、第2電極16は、光電変換層15の第1面15Aから光電変換層15の側面を通って第1領域R1のバッファ層142上まで、連続して設けられていてもよい。
 または、上記の実施形態1、2、5において、第1領域R1の導電層14の上方に遮光層が設けられていてもよい。上記の実施形態3から5において、第1領域R1の光電変換層15上に遮光層が設けられていてもよい。このような構成であれば、第1領域R1の導電層14や光電変換層15における光電変換をさらに抑制することができる。
 このように、本開示に係る技術(本技術)はここでは記載していない様々な実施形態等を含むことは勿論である。上述した実施形態及び変形例の要旨を逸脱しない範囲で、構成要素の種々の省略、置換及び変更のうち少なくとも1つを行うことができる。また、本明細書に記載された効果はあくまでも例示であって限定されるものでは無く、また他の効果があってもよい。
<電子機器への適用例>
 本開示に係る技術(本技術)は、例えば、デジタルスチルカメラやデジタルビデオカメラなど(以下、カメラと総称する。)の撮像システム、撮像機能を備えた携帯電話機等のモバイル機器、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図11は、本開示に係る技術(本技術)を電子機器300に適用した例を示す概念図である。図11に示すように、電子機器300は、例えばカメラであり、固体撮像装置201、光学レンズ210、シャッタ装置211、駆動回路212、及び、信号処理回路213を有する。光学レンズ210は、本開示の「光学部品」の一例である。
 光学レンズ210を透過した光が固体撮像装置201に入射する。例えば、光学レンズ210は、被写体からの像光(入射光)を固体撮像装置201の撮像面上に結像させる。これにより固体撮像装置201内に、一定期間、信号電荷が蓄積される。シャッタ装置211は、固体撮像装置201への光照射期間及び遮光期間を制御する。駆動回路212は、固体撮像装置201の転送動作等及びシャッタ装置211のシャッタ動作を制御する駆動信号を供給する。駆動回路212から供給される駆動信号(タイミング信号)により、固体撮像装置201の信号転送を行う。信号処理回路213は、各種の信号処理を行う。例えば、信号処理回路213は、固体撮像装置201から出力される信号を処理する。信号処理が行われた映像信号は、メモリ等の記憶媒体に記憶され、あるいは、モニタに出力される。
 電子機器300では、上述した撮像装置100から100D、200のいずれか1つ以上が固体撮像装置201に適用される。これにより、性能の向上が図られた電子機器300を得ることができる。なお、電子機器300は、カメラに限られるものではない。電子機器300は、撮像機能を備えた携帯電話機等のモバイル機器、または、撮像機能を備えた他の機器であってもよい。
 <内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図12は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図12では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図13は、図12に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102の撮像部11402、CCU11201の画像処理部11412等に適用され得る。具体的には、上述した撮像装置100から100D、200のいずれか1つ以上は、撮像部10402に適用することができる。内視鏡11100や、カメラヘッド11102の撮像部11402、CCU11201の画像処理部11412等に本開示に係る技術を適用することにより、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。また、内視鏡11100や、カメラヘッド11102の撮像部11402、CCU11201の画像処理部11412等に本開示に係る技術を適用することにより、より低レイテンシで術部画像を得ることができるため、術者が術部を触接観察している場合と同様の感覚で処置を行うことが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図14は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図14に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図14の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図15は、撮像部12031の設置位置の例を示す図である。
 図15では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図15には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、上述した撮像装置100から100D、200のいずれか1つ以上は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 なお、本開示は以下のような構成も取ることができる。
(1)第1面と、前記第1面の反対側に位置する第2面とを有する光電変換層と、
 前記第1面側に位置する第1電極と、
 前記第2面側に位置する第2電極と、を備え、
 前記光電変換層の厚さ方向において、前記第1電極と重なる領域を第1領域とし、前記第1電極から外れる領域を第2領域とすると、
 前記第1領域の少なくとも一部における前記光電変換層の第1膜厚は、前記第2領域における前記光電変換層の第2膜厚よりも薄い、撮像装置。
(2)前記第1膜厚はゼロである、
前記(1)に記載の撮像装置。
(3)前記光電変換層と前記第1電極とに接する導電層、をさらに備える、
前記(1)又は(2)に記載の撮像装置。
(4)前記導電層は、
 前記第1電極に接する半導体層と、
 前記半導体層に積層され、前記光電変換層に接するバッファ層と、を有する
前記(3)に記載の撮像装置。
(5)前記第1領域に配置され、前記光電変換層と接する第1絶縁層、をさらに備える
前記(3)又は(4)に記載の撮像装置。
(6)前記第1絶縁層は、前記導電層と前記光電変換層との間に配置されている、
前記(5)に記載の撮像装置。
(7)前記第1絶縁層は、前記光電変換層と前記第2電極との間に前配置されている、
前記(5)に記載の撮像装置。
(8)前記導電層を挟んで前記光電変換層の反対側に配置される第3電極と、
 前記第3電極と前記導電層との間に配置される第2絶縁層と、をさらに備え、
 前記第3電極は、前記光電変換層と前記厚さ方向で重なる、
前記(3)から(7)のいずれか1項に記載の撮像装置。
(9)光学部品と、
 前記光学部品を透過した光が入射する撮像装置と、
 前記撮像装置から出力される信号を処理する信号処理回路と、を備え、
 前記撮像装置は、
 第1面と、前記第1面の反対側に位置する第2面とを有する光電変換層と、
 前記第1面側に位置する第1電極と、
 前記第2面側に位置する第2電極と、を備え、
 前記光電変換層の厚さ方向において、前記第1電極と重なる領域を第1領域とし、前記第1電極から外れる領域を第2領域とすると、
 前記第1領域の少なくとも一部における前記光電変換層の第1膜厚は、前記第2領域における前記光電変換層の第2膜厚よりも薄い、電子機器。
11 第1電極
12 第3電極
13 ゲート電極
14 導電層
15 光電変換層
15A 第1面
15B 第2面
15H 貫通穴
15RE 凹部
16 第2電極
17 配線
41 n型半導体領域
42、44、73 p
43 n型半導体領域
45、46、51、52、53 ゲート部
45C、46C 領域
46A 転送チャネル
51A、52A、53A チャネル形成領域
51B、52B、53B ドレイン領域
51C、52C、53C ソース領域
61 コンタクトホール部
62 配線層
63、64 パッド部
65、66 接続孔
70 半導体基板
70A 表面
70B 裏面
71 素子分離領域
72 酸化膜
74 HfO
75 絶縁膜
76、81 層間絶縁膜
81 層間絶縁膜
82、83 絶縁層
82H、83H 貫通穴
90 オンチップ・マイクロ・レンズ
100、100A、100B、100C、100D、200 撮像装置
101 積層型撮像素子
111 撮像領域
112 垂直駆動回路
113 カラム信号処理回路
114 水平駆動回路
115 出力回路
116 駆動制御回路
117 信号線(データ出力線)
118 水平信号線
141 半導体層
142 バッファ層
201 固体撮像装置
210 光学レンズ
211 シャッタ装置
212 駆動回路
213 信号処理回路
300 電子機器
831 第1絶縁膜
831A 上面
831B 側面
832 第2絶縁膜
10402 撮像部
11000 内視鏡手術システム
11100 内視鏡
11101 鏡筒
11102 カメラヘッド
11110 術具
11111 気腹チューブ
11112 エネルギー処置具
11120 支持アーム装置
11131 術者(医師)
11132 患者
11133 患者ベッド
11200 カート
11201 カメラコントロールユニット(CCU)
11202 表示装置
11203 光源装置
11204 入力装置
11205 処置具制御装置
11206 気腹装置
11207 レコーダ
11208 プリンタ
11400 伝送ケーブル
11401 レンズユニット
11402 撮像部
11403 駆動部
11404 通信部
11405 カメラヘッド制御部
11411 通信部
11412 画像処理部
11413 制御部
12000 車両制御システム
12001 通信ネットワーク
12010 駆動系制御ユニット
12020 ボディ系制御ユニット
12030 車外情報検出ユニット
12031 撮像部
12040 車内情報検出ユニット
12041 運転者状態検出部
12050 統合制御ユニット
12051 マイクロコンピュータ
12052 音声画像出力部
12061 オーディオスピーカ
12062 表示部
12063 インストルメントパネル
12100 車両
12101、12102、12103、12104、12105 撮像部
12111、12112、12113、12114 撮像範囲
FD1 第1浮遊拡散層
FD2 第2浮遊拡散層
FD3 第3浮遊拡散層
PD1、PD2、PD3 光電変換部
R1 第1領域
R2 第2領域
T1、T2 膜厚
TG2、TG3 転送ゲート線
TR1amp、TR2amp、TR3amp 増幅トランジスタ
TR1rst、TR2rst、TR3rst リセットトランジスタ
TR1sel、TR2sel、TR3sel 選択トランジスタ
TR2trs、TR3trs 転送トランジスタ
VDD 電源
VOA 配線
VSL1、VSL2、VSL3 信号線(データ出力線)

Claims (9)

  1.  第1面と、前記第1面の反対側に位置する第2面とを有する光電変換層と、
     前記第1面側に位置する第1電極と、
     前記第2面側に位置する第2電極と、を備え、
     前記光電変換層の厚さ方向において、前記第1電極と重なる領域を第1領域とし、前記第1電極から外れる領域を第2領域とすると、
     前記第1領域の少なくとも一部における前記光電変換層の第1膜厚は、前記第2領域における前記光電変換層の第2膜厚よりも薄い、撮像装置。
  2.  前記第1膜厚はゼロである、請求項1に記載の撮像装置。
  3.  前記光電変換層と前記第1電極とに接する導電層、をさらに備える、請求項1に記載の撮像装置。
  4.  前記導電層は、
     前記第1電極に接する半導体層と、
     前記半導体層に積層され、前記光電変換層に接するバッファ層と、を有する請求項3に記載の撮像装置。
  5.  前記第1領域に配置され、前記光電変換層と接する第1絶縁層、をさらに備える請求項3に記載の撮像装置。
  6.  前記第1絶縁層は、前記導電層と前記光電変換層との間に配置されている、請求項5に記載の撮像装置。
  7.  前記第1絶縁層は、前記光電変換層と前記第2電極との間に前配置されている、請求項5に記載の撮像装置。
  8.  前記導電層を挟んで前記光電変換層の反対側に配置される第3電極と、
     前記第3電極と前記導電層との間に配置される第2絶縁層と、をさらに備え、
     前記第3電極は、前記光電変換層と前記厚さ方向で重なる、請求項3に記載の撮像装置。
  9.  光学部品と、
     前記光学部品を透過した光が入射する撮像装置と、
     前記撮像装置から出力される信号を処理する信号処理回路と、を備え、
     前記撮像装置は、
     第1面と、前記第1面の反対側に位置する第2面とを有する光電変換層と、
     前記第1面側に位置する第1電極と、
     前記第2面側に位置する第2電極と、を備え、
     前記光電変換層の厚さ方向において、前記第1電極と重なる領域を第1領域とし、前記第1電極から外れる領域を第2領域とすると、
     前記第1領域の少なくとも一部における前記光電変換層の第1膜厚は、前記第2領域における前記光電変換層の第2膜厚よりも薄い、電子機器。
PCT/JP2020/027238 2019-09-27 2020-07-13 撮像装置及び電子機器 WO2021059676A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/753,881 US20220376128A1 (en) 2019-09-27 2020-07-13 Imaging device and electronic apparatus
JP2021548363A JPWO2021059676A1 (ja) 2019-09-27 2020-07-13

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-176817 2019-09-27
JP2019176817 2019-09-27

Publications (1)

Publication Number Publication Date
WO2021059676A1 true WO2021059676A1 (ja) 2021-04-01

Family

ID=75166538

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/027238 WO2021059676A1 (ja) 2019-09-27 2020-07-13 撮像装置及び電子機器

Country Status (3)

Country Link
US (1) US20220376128A1 (ja)
JP (1) JPWO2021059676A1 (ja)
WO (1) WO2021059676A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1187683A (ja) * 1997-09-09 1999-03-30 Semiconductor Energy Lab Co Ltd 電子機器およびその作製方法
JPH1197664A (ja) * 1997-09-20 1999-04-09 Semiconductor Energy Lab Co Ltd 電子機器およびその作製方法
WO2013111637A1 (ja) * 2012-01-23 2013-08-01 ソニー株式会社 固体撮像装置、及び、固体撮像装置の製造方法、電子機器
JP2016033972A (ja) * 2014-07-31 2016-03-10 キヤノン株式会社 撮像装置及び撮像システム
JP2016033982A (ja) * 2014-07-31 2016-03-10 キヤノン株式会社 固体撮像素子および撮像システム
JP2018060910A (ja) * 2016-10-05 2018-04-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および固体撮像装置
JP2019036641A (ja) * 2017-08-16 2019-03-07 ソニー株式会社 撮像素子、積層型撮像素子及び固体撮像装置
WO2019151049A1 (ja) * 2018-01-31 2019-08-08 ソニー株式会社 光電変換素子、固体撮像装置及び電子装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1187683A (ja) * 1997-09-09 1999-03-30 Semiconductor Energy Lab Co Ltd 電子機器およびその作製方法
JPH1197664A (ja) * 1997-09-20 1999-04-09 Semiconductor Energy Lab Co Ltd 電子機器およびその作製方法
WO2013111637A1 (ja) * 2012-01-23 2013-08-01 ソニー株式会社 固体撮像装置、及び、固体撮像装置の製造方法、電子機器
JP2016033972A (ja) * 2014-07-31 2016-03-10 キヤノン株式会社 撮像装置及び撮像システム
JP2016033982A (ja) * 2014-07-31 2016-03-10 キヤノン株式会社 固体撮像素子および撮像システム
JP2018060910A (ja) * 2016-10-05 2018-04-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および固体撮像装置
JP2019036641A (ja) * 2017-08-16 2019-03-07 ソニー株式会社 撮像素子、積層型撮像素子及び固体撮像装置
WO2019151049A1 (ja) * 2018-01-31 2019-08-08 ソニー株式会社 光電変換素子、固体撮像装置及び電子装置

Also Published As

Publication number Publication date
JPWO2021059676A1 (ja) 2021-04-01
US20220376128A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
US11476285B2 (en) Light-receiving device, imaging device, and electronic apparatus
US11990486B2 (en) Solid-state imaging device
KR102609022B1 (ko) 수광 소자, 수광 소자의 제조 방법, 촬상 소자 및 전자 기기
CN108475688B (zh) 受光元件、受光元件的制造方法、成像元件以及电子设备
WO2020158515A1 (ja) 固体撮像素子、電子機器、および固体撮像素子の製造方法
WO2021124974A1 (ja) 撮像装置
TWI821431B (zh) 半導體元件及其製造方法
WO2022172711A1 (ja) 光電変換素子および電子機器
WO2017122537A1 (ja) 受光素子、受光素子の製造方法、撮像素子および電子機器
WO2021059676A1 (ja) 撮像装置及び電子機器
US20210114988A1 (en) Photoelectric conversion element
WO2021215299A1 (ja) 撮像素子および撮像装置
US20240237373A1 (en) Solid-state imaging element
WO2022124131A1 (ja) 受光素子、受光装置及び電子機器
US12027562B2 (en) Imaging element and semiconductor element
WO2022131033A1 (ja) 光電変換素子、光検出装置、光検出システム、電子機器および移動体
WO2022234806A1 (ja) 固体撮像素子
WO2023189664A1 (ja) 撮像装置及び半導体装置
WO2024057805A1 (ja) 撮像素子および電子機器
WO2024057814A1 (ja) 光検出装置および電子機器
WO2023119840A1 (ja) 撮像素子、撮像素子の製造方法、電子機器
WO2021053940A1 (ja) 撮像素子及び撮像装置
WO2021084983A1 (ja) 受光素子、受光素子の製造方法及び固体撮像装置
WO2021084819A1 (ja) 撮像素子および撮像装置
US20220181364A1 (en) Imaging element and semiconductor element

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20867175

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021548363

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20867175

Country of ref document: EP

Kind code of ref document: A1