WO2019220897A1 - 撮像素子および電子機器並びに撮像素子の駆動方法 - Google Patents

撮像素子および電子機器並びに撮像素子の駆動方法 Download PDF

Info

Publication number
WO2019220897A1
WO2019220897A1 PCT/JP2019/017430 JP2019017430W WO2019220897A1 WO 2019220897 A1 WO2019220897 A1 WO 2019220897A1 JP 2019017430 W JP2019017430 W JP 2019017430W WO 2019220897 A1 WO2019220897 A1 WO 2019220897A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
conversion unit
light
unit
pixel
Prior art date
Application number
PCT/JP2019/017430
Other languages
English (en)
French (fr)
Inventor
小笠原 隆行
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to DE112019002526.0T priority Critical patent/DE112019002526T5/de
Priority to JP2020519544A priority patent/JP7242655B2/ja
Priority to CN201980032183.6A priority patent/CN112119502A/zh
Priority to US17/055,702 priority patent/US11387279B2/en
Publication of WO2019220897A1 publication Critical patent/WO2019220897A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • H01L27/14667Colour imagers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • H01L27/14614Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor having a special gate structure
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14638Structures specially adapted for transferring the charges across the imager perpendicular to the imaging plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/17Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels

Definitions

  • the present disclosure relates to, for example, an imaging device and an electronic device in which a plurality of photoelectric conversion units are stacked in the vertical direction, and a driving method of the imaging device.
  • a solid-state imaging device such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor has been reduced.
  • the number of photons incident on the unit pixel is reduced, so that the sensitivity is lowered and the S / N ratio is lowered.
  • a color filter formed by two-dimensionally arranging red, green, and blue primary color filters for colorization is used, for example, in red pixels, green and blue light are absorbed by the color filter. It is causing a decline.
  • interpolation processing is performed between pixels, so that a so-called false color is generated.
  • Patent Document 1 a so-called vertical spectral solid-state imaging device in which an organic photoelectric conversion unit having an organic photoelectric conversion film and two inorganic photoelectric conversion units having a pn junction in a semiconductor substrate are stacked. Is disclosed. In such a solid-state imaging device, the sensitivity is improved by separately extracting B / G / R signals from one pixel.
  • An imaging device is stacked in order from the light incident side, and selectively detects light in different wavelength bands and performs photoelectric conversion, and first and second photoelectric conversion units
  • the second photoelectric conversion units are arranged at an interval narrower than the pixel pitch of the first photoelectric conversion unit.
  • An electronic apparatus includes a plurality of image sensors for each pixel, and includes the image sensor according to the embodiment of the present disclosure as the image sensor.
  • An image sensor driving method includes a first photoelectric conversion unit and a second photoelectric conversion unit that are sequentially stacked from the light incident side and that selectively detect light in different wavelength bands and perform photoelectric conversion.
  • the second photoelectric conversion unit includes a photoelectric conversion unit, and the second photoelectric conversion unit converts the color signal of the first light into the first photoelectric conversion element in an imaging device arranged at a smaller interval than the pixel pitch of the first photoelectric conversion unit.
  • the color signals of the second light having a wavelength band different from that of the first light are added and acquired by the plurality of second photoelectric conversion units.
  • the electronic device and the manufacturing method of the imaging device according to the embodiment, a first photoelectric conversion unit that selectively detects light in different wavelength bands and performs photoelectric conversion.
  • the 2nd photoelectric conversion part was laminated
  • each color signal is acquired from each photoelectric conversion unit without a phase shift.
  • the imaging device of the embodiment of the present disclosure the electronic device of the embodiment, and the manufacturing method of the imaging device of the embodiment, the first photoelectric device that selectively detects and photoelectrically converts light in different wavelength bands.
  • the pixel pitch of the second photoelectric conversion unit is arranged at a narrower interval than the first photoelectric conversion unit arranged on the light incident side. In the mode, each color signal can be acquired from each photoelectric conversion unit without phase shift. Therefore, it is possible to improve the resolution and the graininess.
  • FIG. 4 is a schematic plan view illustrating a relationship between an on-chip lens of the image sensor illustrated in FIG. 3 and an organic photoelectric conversion unit.
  • FIG. 4 is a schematic plan view illustrating a relationship between an on-chip lens of the image sensor illustrated in FIG. 3 and an inorganic photoelectric conversion unit.
  • FIG. 4 is a schematic plan view illustrating an example of a configuration of a unit pixel of the image sensor illustrated in FIG. 3. It is a cross-sectional schematic diagram showing an example of the manufacturing process of the image pick-up element shown in FIG. FIG.
  • FIG. 8 is a schematic cross-sectional diagram illustrating a process following the process in FIG. 7. It is a plane schematic diagram for demonstrating the drive method of the green pixel in high-resolution mode. It is a plane schematic diagram for demonstrating the drive method of the red pixel in high resolution mode. It is a plane schematic diagram for demonstrating the drive method of the blue pixel in high resolution mode.
  • FIG. 6 is a schematic plan view for explaining development processing in a high resolution mode. It is a plane schematic diagram for demonstrating the drive method of the green pixel in high sensitivity mode. It is a plane schematic diagram for demonstrating the drive method of the red pixel in high sensitivity mode. It is a plane schematic diagram for demonstrating the drive method of the blue pixel in high sensitivity mode.
  • FIG. 6 is a schematic plan view for explaining development processing in a high resolution mode. It is a plane schematic diagram for demonstrating the drive method of the green pixel in high sensitivity mode. It is a plane schematic diagram for demonstrating the drive method of the red pixel in
  • FIG. 6 is a schematic plan view for explaining development processing in a high resolution mode. It is a plane schematic diagram for demonstrating the drive method of the green pixel in high speed mode. It is a plane schematic diagram for demonstrating the drive method of the red pixel in high speed mode. It is a plane schematic diagram for demonstrating the drive method of the blue pixel in high speed mode. It is a plane schematic diagram for demonstrating the thinning-out process in high speed mode.
  • FIG. 6 is a schematic plan view for explaining development processing in a high-speed mode. It is a figure for demonstrating FD addition. It is a figure for demonstrating digital addition. It is a plane schematic diagram for demonstrating the high sensitivity mode in a common image pick-up element.
  • FIG. 18A It is a plane schematic diagram for demonstrating the high sensitivity mode in the common image pick-up element following FIG. 18A. It is a plane schematic diagram for demonstrating the high sensitivity mode in the general image pick-up element following FIG. 18B. It is a plane schematic diagram for demonstrating the high sensitivity mode in the general image pick-up element following FIG. 18C. It is a cross-sectional schematic diagram showing an example of the specific structure of the image pick-up element which concerns on the modification of this indication. It is a block diagram showing the whole structure of the image pick-up element shown in FIG. It is a functional block diagram showing an example of the electronic device (camera) using the image pick-up element shown in FIG.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the present technology can be applied. It is a block diagram which shows an example of a function structure of the camera head shown in FIG. 23, and CCU. It is a block diagram which shows the schematic structural example of a vehicle control system. It is explanatory drawing which shows an example of the installation position of an imaging part.
  • Embodiment an example of an image sensor in which four pixels of an inorganic photoelectric conversion unit are arranged for one pixel of an organic photoelectric conversion unit
  • Configuration of image sensor 1-2 Configuration of image sensor 1-2.
  • Manufacturing method of imaging device 1-3 Driving method of image sensor 1-4.
  • Application examples
  • FIG. 1 is a perspective view schematically illustrating a configuration of main parts (organic photoelectric conversion unit 11G and inorganic photoelectric conversion units 11B and 11R) of an image sensor (image sensor 1) according to an embodiment of the present disclosure.
  • FIG. 2 is a schematic plan view illustrating the configuration of the inorganic photoelectric conversion units 11B and 11R with respect to the organic photoelectric conversion unit 11G of the imaging element 1 illustrated in FIG.
  • FIG. 3 schematically illustrates an example of a specific cross-sectional configuration of the image sensor 1 illustrated in FIG. 1.
  • the imaging element 1 constitutes, for example, a back-illuminated (back-side light-receiving) CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor (see FIG. 20).
  • the imaging element 1 is a so-called one in which one organic photoelectric conversion unit 11G that selectively detects light in different wavelength bands and performs photoelectric conversion and two inorganic photoelectric conversion units 11B and 11R are stacked in the vertical direction. It is of the vertical spectroscopic type.
  • the image sensor 1 of the present embodiment includes an organic photoelectric conversion unit 11G (first photoelectric conversion unit), an inorganic photoelectric conversion unit 11B (third photoelectric conversion unit), and an inorganic photoelectric conversion unit 11R (second photoelectric conversion unit). ) Are stacked in this order from the light incident side, and the inorganic photoelectric conversion units 11B and 11R are arranged at a pixel pitch (w) narrower than the pixel pitch (W) of the organic photoelectric conversion unit 11G with respect to the organic photoelectric conversion unit 11G1 pixel. It was established.
  • the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R selectively detect light in different wavelength bands and perform photoelectric conversion. Specifically, the organic photoelectric conversion unit 11G acquires a green (G) color signal. In the inorganic photoelectric conversion units 11B and 11R, blue (B) and red (R) color signals are acquired based on the difference in absorption coefficient. As a result, the image pickup device 1 can acquire a plurality of types of color signals in one pixel without using a color filter.
  • the organic photoelectric conversion unit 11G is provided on the back surface (first surface 11S1) side of the semiconductor substrate 11.
  • the inorganic photoelectric conversion units 11 ⁇ / b> B and 11 ⁇ / b> R are embedded in the semiconductor substrate 11 and are stacked in the thickness direction of the semiconductor substrate 11.
  • the semiconductor substrate 11 is made of, for example, an n-type silicon (Si) substrate, and has a p-well 61 in a predetermined region.
  • On the second surface (surface of the semiconductor substrate 11) 11S2 of the p well 61 for example, floating diffusions (floating diffusion layers) FD2 and FD3 are provided.
  • various transistors Tr for example, a Tr group 1110 described later
  • a multilayer wiring 70 is provided on the second surface 11S2 of the semiconductor substrate 11.
  • the multilayer wiring 70 has a configuration in which, for example, wiring layers 71, 72, and 73 are stacked in an insulating layer 74.
  • a peripheral circuit (not shown) made up of a logic circuit or the like is provided in the peripheral portion of the semiconductor substrate 11.
  • the first surface 11S1 side of the semiconductor substrate 11 is represented as the light incident surface S1
  • the second surface 11S2 side is represented as the wiring layer side S2.
  • the inorganic photoelectric conversion units 11B and 11R are configured by, for example, PIN (Positive Intrinsic Negative) type photodiodes, and each have a pn junction in a predetermined region of the semiconductor substrate 11.
  • the inorganic photoelectric conversion units 11B and 11R can split light in the vertical direction by utilizing the fact that the wavelength band absorbed by the silicon substrate differs depending on the incident depth of light.
  • the inorganic photoelectric conversion unit 11B selectively detects blue light and accumulates signal charges corresponding to blue light, and is installed at a depth at which blue light can be efficiently photoelectrically converted.
  • the inorganic photoelectric conversion unit 11R selectively detects red light and accumulates signal charges corresponding to red, and is installed at a depth at which red light can be efficiently photoelectrically converted.
  • blue (B) is a color corresponding to a wavelength band of 450 nm to 495 nm, for example
  • red (R) is a color corresponding to a wavelength band of 620 nm to 750 nm, for example.
  • Each of the inorganic photoelectric conversion units 11B and 11R only needs to be able to detect light in a part or all of the wavelength bands.
  • each of the inorganic photoelectric conversion unit 11B and the inorganic photoelectric conversion unit 11R includes, for example, a p + region that becomes a hole accumulation layer and an n region that becomes an electron accumulation layer. (It has a pnp stacked structure).
  • the p + region of the inorganic photoelectric conversion unit 11B is bent along, for example, a vertical transistor (vertical transistor Tr1) and connected to the p + region of the inorganic photoelectric conversion unit 11R.
  • the four inorganic photoelectric conversion units 11B and 11R are arranged in a 2 ⁇ 2 arrangement with respect to one organic photoelectric conversion unit 11G.
  • one floating diffusion FD1 and FD2 is arranged for each 2 ⁇ 2 array.
  • the floating diffusion FD1 is electrically connected to the inorganic photoelectric conversion unit 11B by being partly formed in the n region of the inorganic photoelectric conversion unit 11B provided in the semiconductor substrate 11.
  • a gate wiring layer 64 constituting the vertical transistor Tr1 is electrically connected to the floating diffusion FD1.
  • the floating diffusion FD2 is provided facing the second surface 11S2 of the semiconductor substrate 11, and a part of the floating diffusion FD2 is formed in the n region of the inorganic photoelectric conversion unit 11R provided in the semiconductor substrate 11. It is electrically connected to the inorganic photoelectric conversion unit 11R.
  • the second surface 11S2 of the semiconductor substrate 11 is provided with various transistors such as the floating diffusion FD3, the vertical transistor Tr1, and a Tr group 1110 described later.
  • the lower contact 75 is made of, for example, a doped silicon material such as PDAS (Phosphorus Doped Amorphous Silicon), or aluminum (Al), tungsten (W), titanium (Ti), cobalt (Co), hafnium (Hf), tantalum. It is made of a metal material such as (Ta).
  • a doped silicon material such as PDAS (Phosphorus Doped Amorphous Silicon), or aluminum (Al), tungsten (W), titanium (Ti), cobalt (Co), hafnium (Hf), tantalum. It is made of a metal material such as (Ta).
  • An organic photoelectric conversion unit 11G is provided on the first surface 11S1 side of the semiconductor substrate 11.
  • the organic photoelectric conversion unit 11G has a configuration in which, for example, a lower electrode 15, an organic photoelectric conversion layer 16, and an upper electrode 17 are stacked in this order from the first surface S1 side of the semiconductor substrate 11.
  • the lower electrode 15 is separately formed for each unit pixel P.
  • the organic photoelectric conversion layer 16 and the upper electrode 17 are provided as a continuous layer common to a plurality of unit pixels P (for example, the pixel portion 1a of the image sensor 1 shown in FIG. 18).
  • the organic photoelectric conversion unit 11G absorbs green light corresponding to part or all of a selective wavelength band (for example, 450 nm or more and 650 nm or less) and generates an electron-hole pair. It is.
  • interlayer insulating layers 12 and 14 are stacked in this order from the semiconductor substrate 11 side.
  • the interlayer insulating layer 12 has a configuration in which, for example, a layer having a fixed charge (fixed charge layer) 12A and a dielectric layer 12B having insulating properties are laminated.
  • a protective layer 18 is provided on the upper electrode 17. Above the protective layer 18, an on-chip lens 19L that constitutes an on-chip lens 19L and also serves as a planarization layer is disposed.
  • a through electrode 63 is provided between the first surface 11S1 and the second surface 11S2 of the semiconductor substrate 11.
  • the organic photoelectric conversion unit 11G is connected to the floating diffusion FD3 and the gate of the amplifier transistor AMP (not shown) through the through electrode 63, respectively.
  • the electric charge generated in the organic photoelectric conversion unit 11G on the first surface 11S1 side of the semiconductor substrate 11 is favorably transferred to the second surface 11S2 side of the semiconductor substrate 11 through the through electrode 63. It is possible to improve the characteristics.
  • the through electrode 63 is provided, for example, for each organic photoelectric conversion unit 11G of the image sensor 1.
  • the through electrode 63 functions as a connector between the organic photoelectric conversion unit 11G and the gates of the floating diffusion FD3 and the amplifier transistor AMP, and serves as a transmission path for charges generated in the organic photoelectric conversion unit 11G.
  • the lower end of the through electrode 63 is connected to, for example, the connection portion 71A in the wiring layer 71.
  • the connection portion 71A and the gate of the amplifier transistor AMP are not shown in the figure, but have the same configuration as the lower contact 75, for example. It is connected via a contact that has.
  • the connecting portion 71A and the floating diffusion FD3 are connected to the lower electrode 15 via the lower contact 75.
  • the penetration electrode 63 was shown as a cylindrical shape, it is not restricted to this, For example, it is good also as a taper shape.
  • a reset gate of a reset transistor RST is preferably disposed. As a result, the charge accumulated in the floating diffusion FD3 can be reset by the reset transistor RST.
  • the imaging device 1 In the imaging device 1, light incident on the organic photoelectric conversion unit 11 ⁇ / b> G from the upper electrode 17 side is absorbed by the organic photoelectric conversion layer 16.
  • the excitons generated thereby move to the interface between the electron donor and the electron acceptor constituting the organic photoelectric conversion layer 16, and are separated into exciton separation, that is, electrons and holes.
  • the charges (electrons and holes) generated here are caused by diffusion due to a carrier concentration difference or an internal electric field due to a work function difference between the anode (here, the lower electrode 15) and the cathode (here, the upper electrode 17). Are carried to different electrodes and detected as photocurrents.
  • the transport direction of electrons and holes can be controlled.
  • the organic photoelectric conversion unit 11G includes a p-type semiconductor and an n-type semiconductor, and includes an organic photoelectric conversion layer 16 having a bulk heterojunction structure in the layer.
  • the bulk heterojunction structure is a p / n junction surface formed by mixing a p-type semiconductor and an n-type semiconductor.
  • the organic photoelectric conversion unit 11G is an organic photoelectric conversion element that absorbs light corresponding to part or all of a selective wavelength band (for example, 450 nm or more and 750 nm or less) and generates electron-hole pairs. is there.
  • the organic photoelectric conversion unit 11G includes, for example, the lower electrode 15 and the upper electrode 17 that are disposed to face each other, and the organic photoelectric conversion layer 16 that is provided between the lower electrode 15 and the upper electrode 17. ing.
  • the lower electrode 15 is provided in a region covering the light receiving surfaces facing the light receiving surfaces of the four inorganic photoelectric conversion units 11B and 11R arranged in a 2 ⁇ 2 array formed in the semiconductor substrate 11.
  • the lower electrode 15 is made of a light-transmitting metal oxide.
  • the metal atoms constituting the metal oxide used as the material of the lower electrode 15 include tin (Sn), zinc (Zn), indium (In), silicon (Si), zirconium (Zr), and aluminum (Al).
  • Examples of the metal oxide containing one or more metal atoms include ITO (indium tin oxide).
  • ITO indium tin oxide
  • a tin oxide (SnO 2 ) -based material to which a dopant is added, or a zinc oxide-based material obtained by adding a dopant to aluminum zinc oxide is used.
  • the zinc oxide-based material include aluminum zinc oxide (AZO) added with aluminum (Al) as a dopant, gallium zinc oxide (GZO) added with gallium (Ga), and indium zinc oxide added with indium (In). (IZO).
  • AZO aluminum zinc oxide
  • Ga gallium zinc oxide
  • IZO indium zinc oxide added with indium (In).
  • CuI, InSbO 4 , ZnMgO, CuInO 2 , MgIn 2 O 4 , CdO, ZnSnO 3, or the like may be used.
  • the organic photoelectric conversion layer 16 converts light energy into electric energy.
  • the organic photoelectric conversion layer 16 includes, for example, two or more organic semiconductor materials (p-type semiconductor material or n-type semiconductor material) that function as a p-type semiconductor or an n-type semiconductor, respectively.
  • the organic photoelectric conversion layer 16 has a junction surface (p / n junction surface) between the p-type semiconductor material and the n-type semiconductor material in the layer.
  • a p-type semiconductor functions relatively as an electron donor (donor)
  • an n-type semiconductor functions relatively as an electron acceptor.
  • the organic photoelectric conversion layer 16 provides a field in which excitons generated when light is absorbed are separated into electrons and holes. Specifically, the interface between the electron donor and the electron acceptor (p / N junction surface), excitons are separated into electrons and holes.
  • the organic photoelectric conversion layer 16 includes, in addition to the p-type semiconductor material and the n-type semiconductor material, an organic semiconductor material that converts light in a predetermined wavelength band while transmitting light in other wavelength bands, a so-called dye material. It may be comprised.
  • the organic photoelectric conversion layer 16 is formed using three types of organic semiconductor materials, that is, a p-type semiconductor material, an n-type semiconductor material, and a dye material, the p-type semiconductor material and the n-type semiconductor material have a visible region (for example, A material having optical transparency at 450 nm to 800 nm) is preferable.
  • the thickness of the organic photoelectric conversion layer 16 is, for example, 50 nm to 500 nm.
  • Examples of the organic semiconductor material constituting the organic photoelectric conversion layer 16 include quinacridone, chlorinated boron subphthalocyanine, pentacene, benzothienobenzothiophene, fullerene, and derivatives thereof.
  • the organic photoelectric conversion layer 16 is configured by combining two or more of the above organic semiconductor materials.
  • the organic semiconductor material functions as a p-type semiconductor or an n-type semiconductor depending on the combination.
  • the organic-semiconductor material which comprises the organic photoelectric converting layer 16 is not specifically limited.
  • any one of naphthalene, anthracene, phenanthrene, tetracene, pyrene, perylene, and fluoranthene or derivatives thereof is preferably used.
  • polymers such as phenylene vinylene, fluorene, carbazole, indole, pyrene, pyrrole, picoline, thiophene, acetylene, diacetylene, and derivatives thereof may be used.
  • metal complex dyes cyanine dyes, merocyanine dyes, phenylxanthene dyes, triphenylmethane dyes, rhodacyanine dyes, xanthene dyes, macrocyclic azaannulene dyes, azulene dyes, naphthoquinone, anthraquinone dyes, Condensed polycyclic aromatics such as anthracene and pyrene and chain compounds condensed with aromatic rings or heterocyclic compounds, or two compounds such as quinoline, benzothiazole, and benzoxazole having a squarylium group and a croconic methine group as a binding chain
  • a cyanine-like dye or the like bonded by a nitrogen heterocycle or a squarylium group and a croconite methine group can be preferably used.
  • the metal complex dye is preferably a dithiol metal complex dye, a metal phthalocyanine dye, a
  • the upper electrode 17 is made of a light-transmitting conductive film like the lower electrode 15.
  • the upper electrode 17 may be separated for each unit pixel P, or may be formed as a common electrode for each unit pixel P.
  • the thickness of the upper electrode 17 is, for example, 10 nm to 200 nm.
  • another layer may be provided between the organic photoelectric conversion layer 16 and the lower electrode 15 and between the organic photoelectric conversion layer 16 and the upper electrode 17.
  • the fixed charge layer 12A may be a film having a positive fixed charge or a film having a negative fixed charge.
  • a material of the film having a negative fixed charge hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), zirconium oxide (ZrO 2 ), tantalum oxide (Ta 2 O 5 ), titanium oxide (TiO 2 ) Etc.
  • lanthanum oxide praseodymium oxide, cerium oxide, neodymium oxide, promethium oxide, samarium oxide, europium oxide, gadolinium oxide, terbium oxide, dysprosium oxide, holeium oxide, thulium oxide, ytterbium oxide, lutetium oxide
  • an yttrium oxide, an aluminum nitride film, a hafnium oxynitride film, an aluminum oxynitride film, or the like may be used.
  • the fixed charge layer 12A may have a configuration in which two or more kinds of films are stacked. Thereby, for example, in the case of a film having a negative fixed charge, the function as the hole accumulation layer can be further enhanced.
  • the material of the dielectric layer 12B is not particularly limited.
  • the dielectric layer 12B is formed of a silicon oxide film, a TEOS film, a silicon nitride film, a silicon oxynitride film, or the like.
  • the pad portions 13A and 13C and the upper contact 13B are, for example, doped silicon material such as PDAS (Phosphorus Doped Amorphous Silicon), or aluminum (Al), tungsten (W), titanium (Ti), like the lower contact 75, for example. ), Cobalt (Co), hafnium (Hf), and tantalum (Ta).
  • doped silicon material such as PDAS (Phosphorus Doped Amorphous Silicon), or aluminum (Al), tungsten (W), titanium (Ti), like the lower contact 75, for example. ), Cobalt (Co), hafnium (Hf), and tantalum (Ta).
  • the interlayer insulating layer 14 is, for example, a single layer film made of one of silicon oxide (SiO), silicon nitride (SiN), silicon oxynitride (SiON), etc., or a laminate made of two or more of these. It is comprised by the film
  • the protective layer 18 is made of a light-transmitting material.
  • the protective layer 18 is a single-layer film made of any of silicon oxide, silicon nitride, silicon oxynitride, or the like, or a laminated film made of two or more of them. It is comprised by.
  • the thickness of the protective layer 18 is, for example, 100 nm to 30000 nm.
  • An on-chip lens layer 19 is formed on the protective layer 18 so as to cover the entire surface.
  • a plurality of on-chip lenses 19 ⁇ / b> L (microlenses) are provided on the surface of the on-chip lens layer 19.
  • the on-chip lens 19L collects light incident from above on the light receiving surfaces of the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R.
  • the four inorganic photoelectric conversion units 11B blue pixels Pb
  • 11R red pixels Pr
  • the four inorganic photoelectric conversion units 11G green pixel Pg
  • one organic photoelectric conversion unit 11G green pixel Pg
  • four inorganic photoelectric conversions are performed for one on-chip lens 19L.
  • the portions 11B and 11R are arranged in the vertical direction.
  • 5A to 5C schematically show incident light (L) with respect to the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R, respectively.
  • incident light (L) with respect to the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R, respectively.
  • one organic photoelectric conversion unit 11G and four inorganic photoelectric conversion units 11B and 11R are arranged for each on-chip lens 19L. For this reason, in the inorganic photoelectric conversion parts 11B and 11R, it can acquire with the signal for phase difference detection.
  • the multilayer wiring 70 is formed on the second surface 11S2 side of the semiconductor substrate 11.
  • the light receiving surfaces of the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R can be arranged close to each other, and variations in sensitivity between colors that occur depending on the F value of the on-chip lens 19L are reduced. can do.
  • FIG. 6 is a plan view illustrating a configuration example of the imaging element 1 in which a plurality of photoelectric conversion units (for example, the inorganic photoelectric conversion units 11B and 11R and the organic photoelectric conversion unit 11G) to which the technology according to the present disclosure can be applied are stacked.
  • FIG. FIG. 6 illustrates an example of a planar configuration of the unit pixel P configuring the pixel unit 1a illustrated in FIG. 20, for example, in which a plurality of photoelectric conversion units to which the technology according to the present disclosure can be applied are stacked.
  • 1 shows a configuration example of an image sensor 1.
  • a red photoelectric conversion unit inorganic photoelectric conversion unit 11 ⁇ / b> R in FIG. 3 and a blue photoelectric conversion unit that photoelectrically convert light of each wavelength of R (Red), G (Green), and B (Blue).
  • Inorganic photoelectric conversion unit 11B in FIG. 3 and green photoelectric conversion unit are, for example, light receiving surfaces (light incident surface S1 in FIG. 3).
  • Side, the photoelectric conversion region 1100 is stacked in three layers in the order of the green photoelectric conversion unit, the blue photoelectric conversion unit, and the red photoelectric conversion unit.
  • the unit pixel P has a Tr group 1110, a Tr group 1120, and a Tr as charge reading units that read out charges corresponding to light of RGB wavelengths from the red photoelectric conversion unit, the green photoelectric conversion unit, and the blue photoelectric conversion unit. It has a group 1130.
  • vertical spectroscopy that is, each layer of RGB in each layer as a red photoelectric conversion unit, a green photoelectric conversion unit, and a blue photoelectric conversion unit stacked in the photoelectric conversion region 1100. Spectroscopy of light is performed.
  • the Tr group 1110, the Tr group 1120, and the Tr group 1130 are formed around the photoelectric conversion region 1100.
  • the Tr group 1110 outputs a signal charge corresponding to the R light generated and accumulated by the red photoelectric conversion unit as a pixel signal.
  • the Tr group 1110 includes a transfer Tr (MOS FET) 1111, a reset Tr 1112, an amplification Tr 1113, and a selection Tr 1114.
  • the Tr group 1120 outputs a signal charge corresponding to the B light generated and accumulated by the blue photoelectric conversion unit as a pixel signal.
  • the Tr group 1120 includes a transfer Tr 1121, a reset Tr 1122, an amplification Tr 1123, and a selection Tr 1124.
  • the Tr group 1130 outputs a signal charge corresponding to the G light generated and accumulated by the green photoelectric conversion unit as a pixel signal.
  • the Tr group 1130 includes a transfer Tr 1131, a reset Tr 1132, an amplification Tr 1133, and a selection Tr 1134.
  • the transfer Tr 1111 includes a gate G, a source / drain region S / D, and an FD (floating diffusion) 1115 (a source / drain region).
  • the transfer Tr 1121 includes a gate G, a source / drain region S / D, and an FD 1125.
  • the transfer Tr 1131 is configured by a gate G, a green photoelectric conversion unit (source / drain region S / D connected to) of the photoelectric conversion region 1100, and an FD 1135.
  • the source / drain region of the transfer Tr 1111 is connected to the red photoelectric conversion unit in the photoelectric conversion region 1100, and the source / drain region S / D of the transfer Tr 1121 is connected to the blue photoelectric conversion unit in the photoelectric conversion region 1100. It is connected.
  • Each of the reset Trs 1112, 1132, and 1122, the amplification Trs 1113, 1133, and 1123, and the selection Trs 1114, 1134, and 1124 includes a gate G and a pair of source / drain regions S / D arranged so as to sandwich the gate G. It consists of
  • the FDs 1115, 1135, and 1125 are connected to the source / drain regions S / D that are the sources of the reset Trs 1112, 1132, and 1122, respectively, and to the gates G of the amplification Trs 1113, 1133, and 1123, respectively.
  • a power source Vdd is connected to the common source / drain region S / D in each of the reset Tr 1112 and the amplification Tr 1113, the reset Tr 1132 and the amplification Tr 1133, and the reset Tr 1122 and the amplification Tr 1123.
  • a VSL (vertical signal line) is connected to the source / drain regions S / D which are the sources of the selection Trs 1114, 1134 and 1124.
  • the technology according to the present disclosure can be applied to the photoelectric conversion element as described above.
  • the image sensor 1 of the present embodiment can be manufactured as follows, for example.
  • a p-well 61 is formed as a first conductivity type well in the semiconductor substrate 11, and a second conductivity type (for example, n-type) inorganic is formed in the p well 61.
  • Photoelectric converters 11B and 11R are formed.
  • a p + region is formed in the vicinity of the first surface 11S1 of the semiconductor substrate 11.
  • an n + region serving as the floating diffusion FD1 is formed so as to be partially embedded.
  • the gate insulating layer 62 and the gates of the Tr group 1110 and the like described above are formed on the second surface 11S2 of the semiconductor substrate 11, as shown in FIG. 7, after forming n + regions to be the floating diffusions FD2 and FD3, the gate insulating layer 62 and the gates of the Tr group 1110 and the like described above are formed. A gate wiring layer 64 is formed. Thereby, the vertical transistor Tr1, various Tr groups 1110, and the like are formed. Further, the multilayer wiring 70 including the wiring layers 71 to 73 including the lower contact and the connecting portion 71A and the insulating layer 74 is formed on the second surface 11S2 of the semiconductor substrate 11.
  • an SOI (Silicon On Insulator) substrate in which a semiconductor substrate 11, a buried oxide film (not shown), and a holding substrate (not shown) are stacked is used.
  • the buried oxide film and the holding substrate are bonded to the first surface 11S1 of the semiconductor substrate 11. After ion implantation, annealing is performed.
  • a support substrate (not shown) or another semiconductor substrate is joined to the second surface 11S2 side (multilayer wiring 70 side) of the semiconductor substrate 11 and turned upside down. Subsequently, the semiconductor substrate 11 is separated from the buried oxide film of the SOI substrate and the holding substrate, and the first surface 11S1 of the semiconductor substrate 11 is exposed.
  • the above steps can be performed by techniques used in a normal CMOS process, such as ion implantation and CVD (Chemical Vapor Deposition).
  • the semiconductor substrate 11 is processed from the first surface 11S1 side by dry etching, for example, to form an annular opening 63H.
  • the depth of the opening 63H penetrates from the first surface 11S1 to the second surface 11S2 of the semiconductor substrate 11 and reaches, for example, the connection portion 71A.
  • a negative fixed charge layer 12A is formed on the first surface 11S1 of the semiconductor substrate 11 and the side surface of the opening 63H.
  • Two or more types of films may be stacked as the negative fixed charge layer 12A. Thereby, the function as a hole accumulation layer can be further enhanced.
  • the dielectric layer 12B is formed.
  • a through electrode 63 is formed by embedding a conductor in the opening 63H.
  • the conductor include doped silicon materials such as PDAS (PhosphorusphorDoped Amorphous Silicon), aluminum (Al), tungsten (W), titanium (Ti), cobalt (Co), hafnium (Hf), and tantalum.
  • PDAS PhosphorusphorDoped Amorphous Silicon
  • Al aluminum
  • Ti tungsten
  • Co titanium
  • Hf hafnium
  • tantalum tantalum
  • a metal material such as (Ta) can be used.
  • the lower electrode 15 and the through electrode 63 are formed on the dielectric layer 12B and the pad portion 13A.
  • An interlayer insulating layer 14 is formed in which an upper contact 13B and a pad portion 13C are electrically connected to the pad portion 13A.
  • the lower electrode 15, the organic photoelectric conversion layer 16, the upper electrode 17, and the protective layer 18 are formed in this order on the interlayer insulating layer 14.
  • an on-chip lens layer 19 having a plurality of on-chip lenses 19L is disposed on the surface.
  • the image pickup device 1 shown in FIG. 3 is completed.
  • the method for forming the organic photoelectric conversion layer 16 is not necessarily limited to the method using the vacuum deposition method, and other methods such as a spin coating technique and a printing technique may be used.
  • the organic photoelectric conversion unit 11G is connected to the gate G of the amplification Tr 1113 and the floating diffusion FD3 through the through electrode 63. Therefore, holes of the electron-hole pairs generated in the organic photoelectric conversion unit 11G are taken out from the lower electrode 15 side, transferred to the second surface 11S2 side of the semiconductor substrate 11 through the through electrode 63, and floated. Accumulated in the diffusion FD3. At the same time, the amount of charge generated in the organic photoelectric conversion unit 11G is modulated into a voltage by the amplification Tr 1113.
  • the gate G of the reset Tr 1112 is disposed next to the floating diffusion FD3. Thereby, the electric charge accumulated in the floating diffusion FD3 is reset by the reset Tr1112.
  • the organic photoelectric conversion unit 11G is connected not only to the amplification Tr 1113 but also to the floating diffusion FD3 via the through electrode 63, the charge accumulated in the floating diffusion FD3 can be easily reset by the reset Tr 1112. Is possible.
  • the inorganic photoelectric conversion unit 11R electrons corresponding to the incident red light are accumulated in the n region of the inorganic photoelectric conversion unit 11R, and the accumulated electrons are transferred to the floating diffusion FD2 by the transfer transistor Tr.
  • the image sensor 1 of the present embodiment has a plurality of operation modes, for example, three types of operation modes: a high resolution mode, a high sensitivity mode, and a high speed mode.
  • operation modes for example, three types of operation modes: a high resolution mode, a high sensitivity mode, and a high speed mode.
  • R / G / B signals are acquired as follows in each operation mode.
  • the organic photoelectric conversion unit 11G that acquires a green signal as shown in FIG. 9A, signal charges are read from all the green pixels Pg, respectively.
  • the inorganic photoelectric conversion unit 11B that acquires the blue signal and the inorganic photoelectric conversion unit 11R that acquires the red signal as shown in FIGS. 9B and 9C, 4 (2 ⁇ 2) pixels (blue pixel Pb, red pixel Pr) Is added as a unit U. Thereafter, development processing is performed.
  • signals having the same phase can be acquired between the green pixels Pg, the 2 ⁇ 2 blue pixel Pb, and the 2 ⁇ 2 red pixel Pr. For this reason, an R / G / B signal with no phase shift is obtained in the unit pixel P without signal processing.
  • the high sensitivity mode will be described.
  • the organic photoelectric conversion unit 11G that acquires a green signal as shown in FIG. 11A, signal charges are read from all the green pixels Pg, respectively.
  • the inorganic photoelectric conversion unit 11B that acquires a blue signal and the inorganic photoelectric conversion unit 11R that acquires a red signal as shown in FIGS. 11B and 11C, 16 (4 ⁇ 4) pixels (blue pixel Pb, red pixel Pr) Is added as a unit U.
  • each unit U of the inorganic photoelectric conversion unit 11B and the inorganic photoelectric conversion unit 11R that acquires a red signal is configured by 4 ⁇ 4 pixels that are shifted by 2 ⁇ 2 pixels. Thereafter, development processing is performed.
  • the units U of the inorganic photoelectric conversion unit 11 ⁇ / b> B and the inorganic photoelectric conversion unit 11 ⁇ / b> R that obtains the red signal are configured to be shifted from each other by 2 ⁇ 2 pixels. Therefore, in the high sensitivity mode, in each unit pixel P, there is a unit pixel P that does not have information on both the blue pixel Pb or the red pixel Pr or both the blue pixel Pb and the red pixel Pr. Therefore, in the development process in the high sensitivity mode, as shown in FIG. 12, for example, the unit pixel P having the green signal and the blue signal complements the red signal from the surrounding unit pixel P having the green signal and the red signal. Thereby, an R / G / B signal having no phase shift in the high sensitivity mode is obtained.
  • the addition mode used in each operation mode can be switched as follows.
  • the four blue pixels Pb and the red pixels Pr (P1, P2, P3, P4) provided in one unit pixel P have switches SW1, SW2, SW3, SW4, respectively. Is connected.
  • the switches SW1, SW2, SW3, SW4 connected to the color pixels P1, P2, P3, P4 are turned on.
  • the signals of the four color pixels P1, P2, P3, and P4 are output as one pixel.
  • the digital addition mode used in the high sensitivity mode as shown in FIG.
  • a solid-state imaging device such as a CCD image sensor or a CMOS image sensor is required to improve sensitivity.
  • a so-called vertical spectroscopic solid-state imaging device has been developed in which an organic photoelectric conversion unit having an organic photoelectric conversion film and two inorganic photoelectric conversion units having a pn junction in a semiconductor substrate are stacked.
  • R / G / B signals can be acquired from one pixel, each color pixel (red pixel, green pixel, and blue pixel) having primary color filters of red, green, and blue is two.
  • a higher resolution can be obtained as compared with a three-dimensional imaging device.
  • each unit U of the inorganic photoelectric conversion unit 11B and the inorganic photoelectric conversion unit 11R is composed of 2 ⁇ 2 pixels shifted by 1 ⁇ 1 pixel. Thereafter, after performing the pinning process as shown in FIG.
  • the demosaic process is performed between the blue pixel Pb and the red pixel Pr as shown in FIG. 18C to obtain the RB signal. For this reason, in the image sensor 1000, as shown in FIG. 18D, a phase shift occurs when the green signal (G signal) and the RB signal are calculated.
  • the inorganic photoelectric conversion units 11B and 11R have a pixel pitch (w) narrower than the pixel pitch (W) of the organic photoelectric conversion unit 11G. ).
  • w pixel pitch
  • W pixel pitch
  • four pixels of the inorganic photoelectric conversion units 11B and 11R are arranged in a 2 ⁇ 2 arrangement with respect to the organic photoelectric conversion unit 11G1 pixel.
  • the image pickup device 1 in the three operation modes (high resolution mode, high sensitivity mode, and high speed mode), a green signal is obtained from one pixel of the organic photoelectric conversion unit 11G (green pixel Pg).
  • the blue signal and the red signal are obtained by adding 2 ⁇ 2 4 pixel signals or 4 ⁇ 4 16 pixel signals to the inorganic photoelectric conversion unit 11B (blue pixel Pb) and the inorganic photoelectric conversion unit 11R (red pixel Pr), respectively. get. Therefore, R / G / B signals can be obtained without phase shift.
  • the inorganic photoelectric conversion units 11B and 11R are arranged in 4 (2 ⁇ 2) pixels with respect to the organic photoelectric conversion unit 11G1 pixel, and each operation mode has a green color.
  • each operation mode has a green color.
  • the four 16 pixels are added to obtain a blue signal and a red signal.
  • signals from 4 ⁇ 4 16 pixels are added to obtain a blue signal and a red signal, respectively, so that it is possible to reduce graininess in the dark. That is, it is possible to provide an imaging device that realizes improvement in resolution and improvement in graininess.
  • FIG. 19 illustrates a cross-sectional configuration of an imaging element (imaging element 1B) according to a modified example of the present disclosure.
  • the imaging element 1B constitutes, for example, a backside illumination (backside light receiving) CCD image sensor or a CMOS image sensor, as with the photoelectric conversion element 10A (see FIG. 22).
  • the image sensor 1B includes one organic photoelectric conversion unit 20 that selectively detects light in different wavelength bands and performs photoelectric conversion, and two inorganic photoelectric conversion units 11B and 11R. This is a vertical direction spectral imaging device that is stacked in the vertical direction.
  • the imaging device 1B according to this modification is different from the above embodiment in that the lower electrode 21 includes a plurality of electrodes (reading electrode 21A and storage electrode 21B).
  • the organic photoelectric conversion unit 20 is provided on the back surface (first surface 11S1) side of the semiconductor substrate 11 in the same manner as the image sensor 1A in the above embodiment.
  • the inorganic photoelectric conversion units 11 ⁇ / b> B and 11 ⁇ / b> R are embedded in the semiconductor substrate 11 and are stacked in the thickness direction of the semiconductor substrate 11.
  • the organic photoelectric conversion unit 20 has a configuration in which, for example, a lower electrode 21, an organic photoelectric conversion layer 16, and an upper electrode 17 are stacked in this order from the first surface 11S1 side of the semiconductor substrate 11.
  • An insulating layer 22 is provided between the lower electrode 21 and the charge storage layer 23.
  • the lower electrode 21 is formed, for example, separately for each image pickup device 1B, and includes a readout electrode 21A and a storage electrode 21B that are separated from each other with an insulating layer 22 therebetween, as will be described in detail later.
  • An opening 22H is provided in the insulating layer 22 on the readout electrode 21A, and the readout electrode 21A and the charge storage layer 23 are electrically connected through the opening 22H.
  • FIG. 19 shows an example in which the charge storage layer 23, the organic photoelectric conversion layer 16, and the upper electrode 17 are formed separately for each image sensor 1B.
  • the image sensor 1A It may be provided as a continuous layer common to the plurality of imaging elements 1B.
  • a fixed charge layer 12A, a dielectric layer 12B, and an interlayer insulating layer 14 are provided between the first surface 11S1 of the semiconductor substrate 11 and the lower electrode 21.
  • a protective layer 18 including a light shielding film 51 is provided on the upper electrode 17.
  • an optical member such as an on-chip lens layer 19 having an on-chip lens 19L is disposed.
  • the lower electrode 21 is composed of the readout electrode 21A and the storage electrode 21B that are separately formed as described above, and a voltage is applied to each of them independently.
  • the readout electrode 21A is used to transfer charges (here, electrons) generated in the organic photoelectric conversion layer 16 to the floating diffusion FD3.
  • the upper first contact 24A, the pad portion 39A, the through electrode 63, It is connected to the floating diffusion FD3 through the connecting portion 71A and the lower contact 75.
  • the storage electrode 21B is for accumulating electrons in the charge storage layer 23 as signal charges out of the charges generated in the organic photoelectric conversion layer 16, and for transferring the accumulated electrons to the readout electrode 21A.
  • the storage electrode 21B is provided in a region that covers the light receiving surfaces of the inorganic photoelectric conversion units 11B and 11R formed in the semiconductor substrate 11 so as to face the light receiving surfaces.
  • the storage electrode 21 ⁇ / b> B is preferably larger than the readout electrode 21 ⁇ / b> A, so that a large amount of charge can be stored in the charge storage layer 23.
  • the lower electrode 21 is divided into the readout electrode 21A and the storage electrode 21B, and a voltage is applied independently.
  • the image sensor 1B it is possible to store the charge generated in the organic photoelectric conversion layer 16 in the charge storage layer 23 disposed between the lower electrode 21 and the organic photoelectric conversion layer 16, and The accumulated charge can be read out to the floating diffusion FD3 through the read electrode 21A as appropriate. Therefore, it is possible to completely deplete the charge storage portion at the start of exposure, and in addition to the effects of the above embodiment, there is an effect that the image quality of the image can be improved.
  • FIG. 20 illustrates the overall configuration of the image sensor 1 using, for example, the image sensor 1 described in the above embodiment for each pixel.
  • the image pickup device 1 is a CMOS image sensor, and has a pixel unit 1a as an image pickup area on a semiconductor substrate 11, and a peripheral region of the pixel unit 1a includes, for example, a row scanning unit 131, a horizontal selection unit 133, A peripheral circuit unit 130 including a column scanning unit 134 and a system control unit 132 is provided.
  • the pixel unit 1a includes, for example, a plurality of unit pixels P (for example, corresponding to the green pixel Pg of the image sensor 1) that are two-dimensionally arranged in a matrix.
  • a pixel drive line Lread (specifically, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading a signal from the pixel.
  • One end of the pixel drive line Lread is connected to an output end corresponding to each row of the row scanning unit 131.
  • the row scanning unit 131 includes a shift register, an address decoder, and the like, and is a pixel driving unit that drives each unit pixel P of the pixel unit 1a, for example, in units of rows.
  • a signal output from each unit pixel P of the pixel row that is selectively scanned by the row scanning unit 131 is supplied to the horizontal selection unit 133 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 133 is configured by an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 134 is configured by a shift register, an address decoder, and the like, and drives each of the horizontal selection switches of the horizontal selection unit 133 in order while scanning. By the selective scanning by the column scanning unit 134, the signal of each pixel transmitted through each of the vertical signal lines Lsig is sequentially output to the horizontal signal line 135 and transmitted to the outside of the semiconductor substrate 11 through the horizontal signal line 135. .
  • the circuit portion including the row scanning unit 131, the horizontal selection unit 133, the column scanning unit 134, and the horizontal signal line 135 may be formed directly on the semiconductor substrate 11, or provided in the external control IC. It may be. In addition, these circuit portions may be formed on another substrate connected by a cable or the like.
  • the system control unit 132 receives a clock given from the outside of the semiconductor substrate 11, data for instructing an operation mode, and the like, and outputs data such as internal information of the image sensor 1.
  • the system control unit 132 further includes a timing generator that generates various timing signals, and the row scanning unit 131, the horizontal selection unit 133, the column scanning unit 134, and the like based on the various timing signals generated by the timing generator. Peripheral circuit drive control.
  • FIG. 21 shows a schematic configuration of the camera 2 as an example.
  • the camera 2 is, for example, a video camera that can shoot a still image or a moving image, and drives the image sensor 1, the optical system (optical lens) 310, the shutter device 311, and the image sensor 1 and the shutter device 311.
  • the optical system 310 guides image light (incident light) from a subject to the pixel portion 1 a of the image sensor 1.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls the light irradiation period and the light shielding period to the image sensor 1.
  • the drive unit 313 controls the transfer operation of the image sensor 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various signal processing on the signal output from the image sensor 1.
  • the video signal Dout after the signal processing is stored in a storage medium such as a memory, or is output to a monitor or the like.
  • the technology (present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 22 is a block diagram illustrating an example of a schematic configuration of a patient in-vivo information acquisition system using a capsule endoscope to which the technology (present technology) according to the present disclosure can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach and the intestine by peristaltic motion or the like until it is spontaneously discharged from the patient.
  • Images (hereinafter also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to the external control device 10200 outside the body.
  • the external control device 10200 comprehensively controls the operation of the in-vivo information acquisition system 10001. Further, the external control device 10200 receives information about the in-vivo image transmitted from the capsule endoscope 10100 and, based on the received information about the in-vivo image, displays the in-vivo image on the display device (not shown). The image data for displaying is generated.
  • an in-vivo image obtained by imaging the inside of the patient's body can be obtained at any time in this manner until the capsule endoscope 10100 is swallowed and discharged.
  • the capsule endoscope 10100 includes a capsule-type casing 10101.
  • a light source unit 10111 In the casing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power supply unit 10115, and a power supply unit 10116 and the control unit 10117 are stored.
  • the light source unit 10111 includes a light source such as an LED (light-emitting diode), and irradiates the imaging field of the imaging unit 10112 with light.
  • a light source such as an LED (light-emitting diode)
  • the image capturing unit 10112 includes an image sensor and an optical system including a plurality of lenses provided in front of the image sensor. Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor. In the imaging unit 10112, in the imaging element, the observation light incident thereon is photoelectrically converted, and an image signal corresponding to the observation light is generated. The image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various types of signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the radio communication unit 10114 with the image signal subjected to signal processing as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal that has been subjected to signal processing by the image processing unit 10113, and transmits the image signal to the external control apparatus 10200 via the antenna 10114A.
  • the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A.
  • the wireless communication unit 10114 provides a control signal received from the external control device 10200 to the control unit 10117.
  • the power feeding unit 10115 includes a power receiving antenna coil, a power regeneration circuit that regenerates power from a current generated in the antenna coil, a booster circuit, and the like. In the power feeding unit 10115, electric power is generated using a so-called non-contact charging principle.
  • the power supply unit 10116 is composed of a secondary battery, and stores the electric power generated by the power supply unit 10115.
  • FIG. 22 illustration of an arrow or the like indicating a power supply destination from the power supply unit 10116 is omitted in order to prevent the drawing from being complicated, but the power stored in the power supply unit 10116 is stored in the light source unit 10111.
  • the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the control unit 10117 can be used for driving them.
  • the control unit 10117 includes a processor such as a CPU, and a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115. Control accordingly.
  • a processor such as a CPU
  • the external control device 10200 is configured by a processor such as a CPU or GPU, or a microcomputer or a control board in which a processor and a storage element such as a memory are mounted.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • the capsule endoscope 10100 for example, the light irradiation condition for the observation target in the light source unit 10111 can be changed by a control signal from the external control device 10200.
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 10112
  • a control signal from the external control device 10200 can be changed by a control signal from the external control device 10200.
  • the contents of processing in the image processing unit 10113 and the conditions (for example, the transmission interval, the number of transmission images, etc.) by which the wireless communication unit 10114 transmits an image signal may be changed by a control signal from the external control device 10200. .
  • the external control device 10200 performs various image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaic processing), image quality enhancement processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various signal processing such as electronic zoom processing can be performed.
  • the external control device 10200 controls driving of the display device to display an in-vivo image captured based on the generated image data.
  • the external control device 10200 may cause the generated image data to be recorded on a recording device (not shown) or may be printed out on a printing device (not shown).
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. Thereby, detection accuracy improves.
  • Application example 4 ⁇ Application example to endoscopic surgery system>
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 23 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology (present technology) according to the present disclosure can be applied.
  • FIG. 23 shows a state in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000.
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as an insufflation tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. And a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • a lens barrel 11101 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid mirror having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible lens barrel. Good.
  • An opening into which the objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. Irradiation is performed toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: “Camera Control Unit”) 11201 as RAW data.
  • the CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various kinds of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example.
  • image processing for example, development processing (demosaic processing
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 includes a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the drive of the energy treatment instrument 11112 for tissue ablation, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 passes gas into the body cavity via the insufflation tube 11111.
  • the recorder 11207 is an apparatus capable of recording various types of information related to surgery.
  • the printer 11208 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies the irradiation light when the surgical site is imaged to the endoscope 11100 can be configured by, for example, a white light source configured by an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time. Synchronously with the timing of changing the intensity of the light, the drive of the image sensor of the camera head 11102 is controlled to acquire an image in a time-sharing manner, and the image is synthesized, so that high dynamic without so-called blackout and overexposure A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • a so-called narrow-band light observation (Narrow Band Imaging) is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 24 is a block diagram illustrating an example of a functional configuration of the camera head 11102 and the CCU 11201 illustrated in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other by a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101. Observation light taken from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 can be provided corresponding to each imaging element.
  • the imaging unit 11402 is not necessarily provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the driving unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Thereby, the magnification and the focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various types of information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • a so-called AE (Auto-Exposure) function, AF (Auto-Focus) function, and AWB (Auto-White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various types of control related to imaging of the surgical site by the endoscope 11100 and display of a captured image obtained by imaging of the surgical site. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a picked-up image showing the surgical part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 11112, and the like by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may display various types of surgery support information superimposed on the image of the surgical unit using the recognition result. Surgery support information is displayed in a superimposed manner and presented to the operator 11131, thereby reducing the burden on the operator 11131 and allowing the operator 11131 to proceed with surgery reliably.
  • the transmission cable 11400 for connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400.
  • communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). You may implement
  • FIG. 25 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, or vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 26 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 26 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of automatic driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, and power poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as two-
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, whether or not a person is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular outline for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the present disclosure is not limited to the above-described embodiments and the like, and various modifications are possible.
  • the imaging element for the one organic photoelectric conversion unit 11G that detects green light, four inorganic photoelectric conversion units 11B and inorganic photoelectric conversion units 11R that detect blue light and red light respectively.
  • the present disclosure is not limited to such a structure.
  • one organic photoelectric conversion unit 11G that detects green light
  • eight inorganic photoelectric conversion units 11B and inorganic photoelectric conversion units 11R (each 8 pixels) that respectively detect blue light and red light are sequentially stacked. It is good. Moreover, it is good also as a structure by which two organic photoelectric conversion parts and one inorganic photoelectric conversion part were laminated
  • the configuration of the back-illuminated image sensor is illustrated, but the present disclosure can also be applied to a front-illuminated image sensor.
  • the imaging device of the present disclosure does not have to include all the components described in the above embodiments, and may include other layers.
  • the present disclosure may be configured as follows.
  • the second photoelectric conversion unit is arranged at an interval narrower than a pixel pitch of the first photoelectric conversion unit.
  • the first photoelectric conversion unit is an organic photoelectric conversion unit formed using an organic material
  • the second photoelectric conversion unit is an inorganic photoelectric conversion unit embedded in a semiconductor substrate.
  • the imaging device according to any one of the above.
  • the first photoelectric conversion unit and the second photoelectric conversion unit detect light of a wavelength band different from that of the first photoelectric conversion unit and the second photoelectric conversion unit and perform photoelectric conversion, and the first photoelectric conversion unit and the second photoelectric conversion unit Further comprising a third photoelectric conversion unit disposed between The imaging device according to (4), wherein the third photoelectric conversion unit is an inorganic photoelectric conversion unit embedded in the semiconductor substrate.
  • the third photoelectric conversion units are arranged at an interval narrower than a pixel pitch of the first photoelectric conversion unit.
  • the imaging device according to (5) or (6), wherein the third photoelectric conversion unit includes four pixels with respect to one pixel of the first photoelectric conversion unit.
  • the first photoelectric conversion unit performs photoelectric conversion of green light
  • the second photoelectric conversion unit and the third photoelectric conversion unit perform photoelectric conversion of red light or blue light.
  • the imaging device according to any one of 8).
  • the first photoelectric conversion unit and the second photoelectric conversion unit detect light of a wavelength band different from that of the first photoelectric conversion unit and the second photoelectric conversion unit and perform photoelectric conversion, and the first photoelectric conversion unit and the second photoelectric conversion unit Further comprising a third photoelectric conversion unit disposed between The image sensor according to (4), wherein the third photoelectric conversion unit is an organic photoelectric conversion unit formed on the semiconductor substrate.
  • the third photoelectric conversion unit is arranged at a pixel pitch similar to that of the first photoelectric conversion unit.
  • the image sensor is The first photoelectric conversion unit and the second photoelectric conversion unit that are stacked in order from the light incident side, selectively detect light in different wavelength bands and perform photoelectric conversion
  • the second photoelectric conversion unit is an electronic device that is arranged at a narrower interval than a pixel pitch of the first photoelectric conversion unit.
  • the second photoelectric conversion unit includes a first photoelectric conversion unit and a second photoelectric conversion unit that are stacked in order from the light incident side, selectively detect light in different wavelength bands, and perform photoelectric conversion.
  • the image sensor has a high resolution mode, a high sensitivity mode and a high speed mode as operation modes, In the high-resolution mode and the high-speed mode, the color signal of the second light is obtained by adding the second photoelectric conversion unit 4 (2 ⁇ 2) pixels to one pixel of the first photoelectric conversion unit.
  • the driving method of the image pickup device according to (13).
  • the image sensor has a high resolution mode, a high sensitivity mode and a high speed mode as operation modes, In the high sensitivity mode, the color signal of the second light is obtained by adding the second photoelectric conversion unit 16 (4 ⁇ 4) pixels to one pixel of the first photoelectric conversion unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

本開示の一実施形態の撮像素子は、光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を備え、記第2の光電変換部は、第1の光電変換部の画素ピッチよりも狭い間隔で配設されている。

Description

撮像素子および電子機器並びに撮像素子の駆動方法
 本開示は、例えば、複数の光電変換部が縦方向に積層された撮像素子および電子機器並びに撮像素子の駆動方法に関する。
 近年、CCD(Charge Coupled Device)イメージセンサ、あるいはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像装置では、画素サイズの縮小化が進んでいる。これにより、単位画素へ入射するフォトン数が減少することから感度が低下すると共に、S/N比の低下が生じている。また、カラー化のために、赤,緑,青の原色フィルタを2次元配列してなるカラーフィルタを用いた場合、例えば赤画素では、緑と青の光がカラーフィルタによって吸収されるため感度の低下を招いている。また、各色信号を生成する際に、画素間で補間処理を行うことから、いわゆる偽色が発生する。
 そこで、例えば、特許文献1では、有機光電変換膜を有する有機光電変換部と、半導体基板内においてpn接合を有する2つの無機光電変換部とが積層された、所謂縦方向分光型の固体撮像装置が開示されている。このような固体撮像装置では、1画素から、B/G/Rの信号を別々に取り出すことで、感度の向上が図られている。
特開2011-29337号公報
 ところで、上記のような縦方向分光型の撮像装置では、解像度と粒状感との両立が求められている。
 解像度の向上および粒状感の改善を図ることが可能な撮像素子およびこれを備えた電子機器並びに撮像素子の駆動方法を提供することが望ましい。
 本開示の一実施形態の撮像素子は、光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を備えたものであり、記第2の光電変換部は、第1の光電変換部の画素ピッチよりも狭い間隔で配設されている。
 本開示の一実施形態の電子機器は、画素毎に複数の撮像素子を備え、この撮像素子として、上記本開示の一実施形態の撮像素子を備えたものである。
 本開示の一実施形態の撮像素子の駆動方法は、光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を有し、第2の光電変換部は、第1の光電変換部の画素ピッチよりも狭い間隔で配設されている撮像素子において、第1の光の色信号を第1の光電変換部1画素で取得するのに対して、第1の光とは異なる波長帯域の第2の光の色信号を複数の第2の光電変換部において加算して取得する。
 本開示の一実施形態の撮像素子および一実施形態の電子機器並びに一実施形態の撮像素子の製造方法では、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を光入射側から順に積層し、第2の光電変換部の画素ピッチが第1の光電変換部の画素ピッチよりも狭い間隔となるようにした。これにより、例えば高感度モードにおいて、各光電変換部から位相のずれなく各色信号が取得される。
 本開示の一実施形態の撮像素子および一実施形態の電子機器並びに一実施形態の撮像素子の製造方法によれば、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部において、第2の光電変換部の画素ピッチを光入射側に配置された第1の光電変換部よりも狭い間隔で配設するようにしたので、例えば高感度モードにおいて、各色信号を各光電変換部から位相のずれなく取得することが可能となる。よって、解像度の向上および粒状感の改善を図ることが可能となる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であってもよい。
本開示の一実施の形態に係る撮像素子の要部の構成を表す斜視図である。 図1に示した撮像素子の有機光電変換部に対する無機光電変換部の構成を表す平面模式図である。 図1に示した撮像素子の具体的な構成の一例を表す断面模式図である。 図3に示した撮像素子のオンチップレンズと有機光電変換部との関係を表す平面模式図である。 図3に示した撮像素子のオンチップレンズと無機光電変換部との関係を表す平面模式図である。 オンチップレンズを介して有機光電変換部に入射する光(入射光)を表す断面模式図である。 オンチップレンズを介して青色信号を取得する無機光電変換部に入射する光(入射光)を表す断面模式図である。 オンチップレンズを介して赤色信号を取得する無機光電変換部に入射する光(入射光)を表す断面模式図である。 図3に示した撮像素子の単位画素の構成の一例を表す平面模式図である。 図3に示した撮像素子の製造工程の一例を表す断面模式図である。 図7に続く工程を表す断面模式図である。 高解像モードにおける緑色画素の駆動方法を説明するための平面模式図である。 高解像モードにおける赤色画素の駆動方法を説明するための平面模式図である。 高解像モードにおける青色画素の駆動方法を説明するための平面模式図である。 高解像モードにおける現像処理を説明するための平面模式図である。 高感度モードにおける緑色画素の駆動方法を説明するための平面模式図である。 高感度モードにおける赤色画素の駆動方法を説明するための平面模式図である。 高感度モードにおける青色画素の駆動方法を説明するための平面模式図である。 高解像モードにおける現像処理を説明するための平面模式図である。 高速モードにおける緑色画素の駆動方法を説明するための平面模式図である。 高速モードにおける赤色画素の駆動方法を説明するための平面模式図である。 高速モードにおける青色画素の駆動方法を説明するための平面模式図である。 高速モードにおける間引き処理を説明するための平面模式図である。 高速モードにおける現像処理を説明するための平面模式図である。 FD加算を説明するための図である。 デジタル加算を説明するための図である。 一般的な撮像素子における高感度モードを説明するための平面模式図である。 図18Aに続く一般的な撮像素子における高感度モードを説明するための平面模式図である。 図18Bに続く一般的な撮像素子における高感度モードを説明するための平面模式図である。 図18Cに続く一般的な撮像素子における高感度モードを説明するための平面模式図である。 本開示の変形例に係る撮像素子の具体的な構成の一例を表す断面模式図である。 図1に示した撮像素子の全体構成を表すブロック図である。 図20に示した撮像素子を用いた電子機器(カメラ)の一例を表す機能ブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 本技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 図23に示したカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の一例を示す説明図である。
 以下、本開示における実施の形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比等についても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
 1.実施の形態(有機光電変換部1画素に対して無機光電変換部が4画素配置された撮像素子の例)
   1-1.撮像素子の構成
   1-2.撮像素子の製造方法
   1-3.撮像素子の駆動方法
   1-4.作用・効果
 2.変形例
 3.適用例
<1.実施の形態>
 図1は、本開示の一実施の形態の撮像素子(撮像素子1)の要部(有機光電変換部11Gおよび無機光電変換部11B,11R)の構成を模式的に表した斜視図である。図2は、図1に示した撮像素子1の有機光電変換部11Gに対する無機光電変換部11B,11Rの構成を表す平面模式図である。図3は、図1に示した撮像素子1の具体的な断面構成の一例を模式的に表したものである。撮像素子1は、例えば、裏面照射型(裏面受光型)のCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等を構成するものである(図20参照)。撮像素子1は、それぞれ異なる波長帯域の光を選択的に検出して光電変換を行う1つの有機光電変換部11Gと、2つの無機光電変換部11B,11Rとが縦方向に積層された、いわゆる縦方向分光型のものである。
(1-1.撮像素子の構成)
 本実施の形態の撮像素子1は、有機光電変換部11G(第1の光電変換部)、無機光電変換部11B(第3の光電変換部)および無機光電変換部11R(第2の光電変換部)が光入射側からこの順に積層され、有機光電変換部11G1画素に対して、無機光電変換部11B,11Rが有機光電変換部11Gの画素ピッチ(W)よりも狭い画素ピッチ(w)で配設されたものである。具体的には、撮像素子1は、例えば、有機光電変換部11G1画素に対して、無機光電変換部11B,11Rが、それぞれ4(2×2)画素配置されている。即ち、無機光電変換部11B,11Rの画素ピッチ(w)は、有機光電変換部11Gの画素ピッチ(W)に対して、例えば1/2(w=1/2W)となっており、面積換算では1/4となっている。
 有機光電変換部11Gと、無機光電変換部11B,11Rとは、互いに異なる波長帯域の光を選択的に検出して光電変換を行うものである。具体的には、有機光電変換部11Gでは、緑(G)の色信号を取得する。無機光電変換部11B,11Rでは、吸収係数の違いにより、それぞれ、青(B)および赤(R)の色信号を取得する。これにより、撮像素子1では、カラーフィルタを用いることなく一つの画素において複数種類の色信号を取得可能となっている。
 なお、本実施の形態では、光電変換によって生じる電子および正孔の対のうち、正孔を信号電荷として読み出す場合(p型半導体領域を光電変換層とする場合)について説明する。また、図中において、「p」「n」に付した「+(プラス)」は、p型またはn型の不純物濃度が高いことを表している。
 有機光電変換部11Gは、半導体基板11の裏面(第1面11S1)側に設けられている。無機光電変換部11B,11Rは、半導体基板11内に埋め込み形成されており、半導体基板11の厚み方向に積層されている。
 半導体基板11は、例えば、n型のシリコン(Si)基板により構成され、所定領域にpウェル61を有している。pウェル61の第2面(半導体基板11の表面)11S2には、例えば、フローティングディフュージョン(浮遊拡散層)FD2,FD3が設けられている。この他、各種トランジスタTr(例えば、後述するTr群1110)が設けられている(例えば、図4参照)。更に、半導体基板11の第2面11S2には、多層配線70とが設けられている。多層配線70は、例えば、配線層71,72,73を絶縁層74内に積層した構成を有している。また、半導体基板11の周辺部には、ロジック回路等からなる周辺回路(図示せず)が設けられている。
 なお、図3では、半導体基板11の第1面11S1側を光入射面S1、第2面11S2側を配線層側S2と表している。
 無機光電変換部11B,11Rは、例えばPIN(Positive Intrinsic Negative)型のフォトダイオードによって構成されており、それぞれ、半導体基板11の所定領域にpn接合を有する。無機光電変換部11B,11Rは、シリコン基板において光の入射深さに応じて吸収される波長帯域が異なることを利用して縦方向に光を分光することを可能としたものである。
 無機光電変換部11Bは、青色光を選択的に検出して青色に対応する信号電荷を蓄積させるものであり、青色光を効率的に光電変換可能な深さに設置されている。無機光電変換部11Rは、赤色光を選択的に検出して赤色に対応する信号電荷を蓄積させるものであり、赤色光を効率的に光電変換可能な深さに設置されている。なお、青(B)は、例えば450nm~495nmの波長帯域、赤(R)は、例えば620nm~750nmの波長帯域にそれぞれ対応する色である。無機光電変換部11B,11Rはそれぞれ、各波長帯域のうちの一部または全部の波長帯域の光を検出可能となっていればよい。
 無機光電変換部11Bおよび無機光電変換部11Rは、具体的には、図3に示したように、それぞれ、例えば、正孔蓄積層となるp+領域と、電子蓄積層となるn領域とを有する(p-n-pの積層構造を有する)。無機光電変換部11Bのp+領域は、例えば縦型のトランジスタ(縦型トランジスタTr1)に沿って屈曲し、無機光電変換部11Rのp+領域につながっている。また、無機光電変換部11B,11Rは、上記のように、1つの有機光電変換部11Gに対して、4つの無機光電変換部11B,11Rが、それぞれ、2×2配列で配置されている。無機光電変換部11B,11Rは、例えば、後述する図9Bおよび図9Cに示したように、例えば2×2配列毎に1つのフローティングディフュージョンFD1,FD2が配置されている。
 フローティングディフュージョンFD1は、その一部が半導体基板11内に設けられた無機光電変換部11Bのn領域内に形成されることにより、無機光電変換部11Bと電気的に接続されている。フローティングディフュージョンFD1には、例えば、縦型トランジスタTr1を構成するゲート配線層64が電気的に接続されている。フローティングディフュージョンFD2は、例えば、半導体基板11の第2面11S2に面して設けられ、その一部が半導体基板11内に設けられた無機光電変換部11Rのn領域内に形成されることにより、無機光電変換部11Rと電気的に接続されている。
 半導体基板11の第2面11S2には、この他、上記のように、例えば、フローティングディフュージョンFD3、縦型トランジスタTr1や後述するTr群1110等の各種トランジスタが設けられている。
 下部コンタクト75は、例えば、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料、または、アルミニウム(Al)、タングステン(W)、チタン(Ti)、コバルト(Co)、ハフニウム(Hf)、タンタル(Ta)等の金属材料により構成されている。
 半導体基板11の第1面11S1側には、有機光電変換部11Gが設けられている。有機光電変換部11Gは、例えば、下部電極15、有機光電変換層16および上部電極17が、半導体基板11の第1面S1の側からこの順に積層された構成を有している。下部電極15は、例えば、単位画素Pごとに分離形成されている。有機光電変換層16および上部電極17は、複数の単位画素P(例えば、図18に示した撮像素子1の画素部1a)に対して共通した連続層として設けられている。有機光電変換部11Gは、選択的な波長帯域(例えば、450nm以上650nm以下)の一部または全部の波長帯域に対応する緑色光を吸収して、電子-正孔対を発生させる有機光電変換素子である。
 半導体基板11の第1面11S1と下部電極15との間には、例えば、層間絶縁層12,14が半導体基板11側からこの順に積層されている。層間絶縁層12は、例えば、固定電荷を有する層(固定電荷層)12Aと、絶縁性を有する誘電体層12Bとが積層された構成を有する。上部電極17の上には、保護層18が設けられている。保護層18の上方には、オンチップレンズ19Lを構成すると共に、平坦化層を兼ねるオンチップレンズ層19が配設されている。
 半導体基板11の第1面11S1と第2面11S2との間には、貫通電極63が設けられている。有機光電変換部11Gは、この貫通電極63を介して、フローティングディフュージョンFD3および、図示していないが、アンプトランジスタAMPのゲートにそれぞれ接続されている。これにより、撮像素子1では、半導体基板11の第1面11S1側の有機光電変換部11Gで生じた電荷を、貫通電極63を介して半導体基板11の第2面11S2側に良好に転送し、特性を高めることが可能となっている。
 貫通電極63は、例えば、撮像素子1の有機光電変換部11Gごとに、それぞれ設けられている。貫通電極63は、有機光電変換部11GとフローティングディフュージョンFD3およびアンプトランジスタAMPのゲートとのコネクタとしての機能を有すると共に、有機光電変換部11Gにおいて生じた電荷の伝送経路となるものである。
 貫通電極63の下端は、例えば、配線層71内の接続部71Aに接続されており、接続部71AとアンプトランジスタAMPのゲートとは、図示していないが、例えば下部コンタクト75と同様の構成を有するコンタクトを介して接続されている。接続部71Aと、フローティングディフュージョンFD3とは、下部コンタクト75を介して下部電極15に接続されている。なお、図1では、貫通電極63を円柱形状として示したが、これに限らず、例えばテーパ形状としてもよい。
 フローティングディフュージョンFD3の隣には、図示していないが、例えばリセットトランジスタRSTのリセットゲートが配置されていることが好ましい。これにより、フローティングディフュージョンFD3に蓄積された電荷を、リセットトランジスタRSTによりリセットすることが可能となる。
 撮像素子1では、上部電極17側から有機光電変換部11Gに入射した光は有機光電変換層16で吸収される。これによって生じた励起子は、有機光電変換層16を構成する電子供与体と電子受容体との界面に移動し、励起子分離、即ち、電子と正孔とに解離する。ここで発生した電荷(電子および正孔)は、キャリアの濃度差による拡散や、陽極(ここでは、下部電極15)と陰極(ここでは、上部電極17)との仕事関数の差による内部電界によって、それぞれ異なる電極へ運ばれ、光電流として検出される。また、下部電極15と上部電極17との間に電位を印加することによって、電子および正孔の輸送方向を制御することができる。
 以下、各部の構成や材料等について説明する。
 有機光電変換部11Gは、p型半導体およびn型半導体を含んで構成され、層内にバルクヘテロ接合構造を有する有機光電変換層16を含む。バルクヘテロ接合構造は、p型半導体およびn型半導体が混ざり合うことで形成されたp/n接合面である。有機光電変換部11Gは、選択的な波長帯域(例えば、450nm以上750nm以下)の一部または全部の波長帯域に対応する光を吸収して、電子-正孔対を発生させる有機光電変換素子である。有機光電変換部11Gは、上記のように、例えば、対向配置された下部電極15および上部電極17と、下部電極15と上部電極17との間に設けられた有機光電変換層16とから構成されている。
 下部電極15は、半導体基板11内に形成された2×2で配列された4つの無機光電変換部11B,11Rの受光面と正対して、これらの受光面を覆う領域に設けられている。下部電極15は、光透過性を有する金属酸化物により構成されている。下部電極15の材料として用いられる金属酸化物を構成する金属原子としては、例えば、スズ(Sn)、亜鉛(Zn)、インジウム(In)、ケイ素(Si)、ジルコニウム(Zr)、アルミニウム(Al)、ガリウム(Ga)、タングステン(W)、クロム(Cr)、コバルト(Co)、ニッケル(Ni)、タンタル(Ta)、ニオブ(Nb)およびモリブデン(Mo)が挙げられる。上記金属原子を1種以上含む金属酸化物としては、例えば、ITO(インジウム錫酸化物)が挙げられる。但し、下部電極15の構成材料としては、このITOの他にも、ドーパントを添加した酸化スズ(SnO2)系材料、あるいはアルミニウム亜鉛酸化物にドーパントを添加してなる酸化亜鉛系材料を用いてもよい。酸化亜鉛系材料としては、例えば、ドーパントとしてアルミニウム(Al)を添加したアルミニウム亜鉛酸化物(AZO)、ガリウム(Ga)添加のガリウム亜鉛酸化物(GZO)、インジウム(In)添加のインジウム亜鉛酸化物(IZO)が挙げられる。また、この他にも、CuI、InSbO4、ZnMgO、CuInO2、MgIn24、CdO、ZnSnO3等を用いてもよい。
 有機光電変換層16は、光エネルギーを電気エネルギーに変換するものである。有機光電変換層16は、例えば、それぞれp型半導体またはn型半導体として機能する有機半導体材料(p型半導体材料またはn型半導体材料)を2種以上含んで構成されている。有機光電変換層16は、層内に、このp型半導体材料とn型半導体材料との接合面(p/n接合面)を有する。p型半導体は、相対的に電子供与体(ドナー)として機能するものであり、n型半導体は、相対的に電子受容体(アクセプタ)として機能するものである。有機光電変換層16は、光を吸収した際に生じる励起子が電子と正孔とに分離する場を提供するものであり、具体的には、電子供与体と電子受容体との界面(p/n接合面)において、励起子が電子と正孔とに分離する。
 有機光電変換層16は、p型半導体材料およびn型半導体材料の他に、所定の波長帯域の光を光電変換する一方、他の波長帯域の光を透過させる有機半導体材料、いわゆる色素材料を含んで構成されていてもよい。有機光電変換層16をp型半導体材料、n型半導体材料および色素材料の3種類の有機半導体材料を用いて形成する場合には、p型半導体材料およびn型半導体材料は、可視領域(例えば、450nm~800nm)において光透過性を有する材料であることが好ましい。有機光電変換層16の厚みは、例えば、50nm~500nmである。
 有機光電変換層16を構成する有機半導体材料としては、例えば、キナクリドン、塩素化ホウ素サブフタロシアニン、ペンタセン、ベンゾチエノベンゾチオフェン、フラーレンおよびそれらの誘導体が挙げられる。有機光電変換層16は、上記有機半導体材料を2種以上組み合わせて構成されている。上記有機半導体材料は、その組み合わせによってp型半導体またはn型半導体として機能する。
 なお、有機光電変換層16を構成する有機半導体材料は特に限定されない。上記した有機半導体材料以外には、例えば、ナフタレン、アントラセン、フェナントレン、テトラセン、ピレン、ペリレン、およびフルオランテンあるいはそれらの誘導体のうちのいずれか1種が好適に用いられる。あるいは、フェニレンビニレン、フルオレン、カルバゾール、インドール、ピレン、ピロール、ピコリン、チオフェン、アセチレン、ジアセチレン等の重合体やそれらの誘導体を用いてもよい。加えて、金属錯体色素、シアニン系色素、メロシアニン系色素、フェニルキサンテン系色素、トリフェニルメタン系色素、ロダシアニン系色素、キサンテン系色素、大環状アザアヌレン系色素、アズレン系色素、ナフトキノン、アントラキノン系色素、アントラセンおよびピレン等の縮合多環芳香族および芳香環あるいは複素環化合物が縮合した鎖状化合物、または、スクアリリウム基およびクロコニツクメチン基を結合鎖として持つキノリン、ベンゾチアゾール、ベンゾオキサゾール等の二つの含窒素複素環、または、スクアリリウム基およびクロコニツクメチン基により結合したシアニン系類似の色素等を好ましく用いることができる。なお、上記金属錯体色素としては、ジチオール金属錯体系色素、金属フタロシアニン色素、金属ポルフィリン色素、またはルテニウム錯体色素が好ましいが、これに限定されるものではない。
 上部電極17は、下部電極15と同様に光透過性を有する導電膜により構成されている。撮像素子1では、上部電極17が単位画素P毎に分離されていてもよいし、各単位画素P毎に共通の電極として形成されていてもよい。上部電極17の厚みは、例えば、10nm~200nmである。
 なお、有機光電変換層16と下部電極15との間、および有機光電変換層16と上部電極17との間には、他の層が設けられていてもよい。具体的には、例えば、下部電極15側から順に、下引き層、正孔輸送層、電子ブロック層、有機光電変換層16、正孔ブロック層、バッファ層、電子輸送層および仕事関数調整層等が積層されていてもよい。
 固定電荷層12Aは、正の固定電荷を有する膜でもよいし、負の固定電荷を有する膜でもよい。負の固定電荷を有する膜の材料としては、酸化ハフニウム(HfO2)、酸化アルミニウム(Al23)、酸化ジルコニウム(ZrO2)、酸化タンタル(Ta25)、酸化チタン(TiO2)等が挙げられる。また上記以外の材料としては酸化ランタン、酸化プラセオジム、酸化セリウム、酸化ネオジム、酸化プロメチウム、酸化サマリウム、酸化ユウロピウム、酸化ガドリニウム、酸化テルビウム、酸化ジスプロシウム、酸化正孔ミウム、酸化ツリウム、酸化イッテルビウム、酸化ルテチウム、酸化イットリウム、窒化アルミニウム膜、酸窒化ハフニウム膜または酸窒化アルミニウム膜等を用いてもよい。
 固定電荷層12Aは、2種類以上の膜を積層した構成を有していてもよい。それにより、例えば負の固定電荷を有する膜の場合には正孔蓄積層としての機能をさらに高めることが可能である。
 誘電体層12Bの材料は特に限定されないが、例えば、シリコン酸化膜、TEOS膜、シリコン窒化膜、シリコン酸窒化膜等によって形成されている。
 パッド部13A,13Cおよび上部コンタクト13Bは、例えば、下部コンタクト75と同様に、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料、または、アルミニウム(Al)、タングステン(W)、チタン(Ti)、コバルト(Co)、ハフニウム(Hf)、タンタル(Ta)等の金属材料により構成されている。
 層間絶縁層14は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)および酸窒化シリコン(SiON)等のうちの1種よりなる単層膜か、あるいはこれらのうちの2種以上よりなる積層膜により構成されている。
 保護層18は、光透過性を有する材料により構成され、例えば、酸化シリコン、窒化シリコンおよび酸窒化シリコン等のうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜により構成されている。この保護層18の厚みは、例えば、100nm~30000nmである。
 保護層18上には、全面を覆うように、オンチップレンズ層19が形成されている。オンチップレンズ層19の表面には、複数のオンチップレンズ19L(マイクロレンズ)が設けられている。オンチップレンズ19Lは、その上方から入射した光を、有機光電変換部11G、無機光電変換部11B,11Rの各受光面へ集光させるものである。
 撮像素子1では、上記のように、1つの有機光電変換部11G(緑色画素Pg)に対して2×2で配列された4つの無機光電変換部11B(青色画素Pb),11R(赤色画素Pr)が配置されている。このため、本実施の形態では、図4Aおよび図4Bに示したように、1つのオンチップレンズ19Lに対して、1つの有機光電変換部11G(1つの緑色画素Pg)および4つの無機光電変換部11B,11R(4つの青色画素Pbおよび4つの赤色画素Pr)が縦方向に配置されるようになっている。
 図5A~図5Cは、それぞれ、有機光電変換部11G,無機光電変換部11B,11Rに対する入射光(L)を模式的に表したものである。本実施の形態では、上記のように、1つのオンチップレンズ19Lに対して、有機光電変換部11Gは1つ、無機光電変換部11B,11Rはそれぞれ4つずつ配置されている。このため、無機光電変換部11B,11Rでは、位相差検出用の信号と取得することができる。
 また、本実施の形態では、多層配線70が半導体基板11の第2面11S2側には形成されている。これにより、有機光電変換部11G、無機光電変換部11B,11Rの各受光面を互いに近づけて配置することができ、オンチップレンズ19LのF値に依存して生じる各色間の感度のばらつきを低減することができる。
 図6は、本開示に係る技術を適用し得る複数の光電変換部(例えば、上記無機光電変換部11B,11Rおよび有機光電変換部11G)が積層された撮像素子1の構成例を示した平面図である。図6は、例えば、図20に示した画素部1aを構成する単位画素Pの平面構成の一例を表したものであり、本開示に係る技術を適用し得る複数の光電変換部が積層された撮像素子1の構成例を示したものである。
 単位画素P内には、R(Red)、G(Green)およびB(Blue)のそれぞれの波長の光を光電変換する赤色光電変換部(図3における無機光電変換部11R)、青色光電変換部(図3における無機光電変換部11B)および緑色光電変換部(図3における有機光電変換部11G)(図6では、いずれも図示せず)が、例えば、受光面(図3における光入射面S1)側から、緑色光電変換部、青色光電変換部および赤色光電変換部の順番で3層に積層された光電変換領域1100を有する。更に、単位画素Pは、RGBのそれぞれの波長の光に対応する電荷を、赤色光電変換部、緑色光電変換部および青色光電変換部から読み出す電荷読み出し部としてのTr群1110、Tr群1120およびTr群1130を有する。撮像素子1では、1つの単位画素Pにおいて、縦方向の分光、即ち、光電変換領域1100に積層された赤色光電変換部、緑色光電変換部および青色光電変換部としての各層で、RGBのそれぞれの光の分光が行われる。
 Tr群1110、Tr群1120およびTr群1130は、光電変換領域1100の周辺に形成されている。Tr群1110は、赤色光電変換部で生成、蓄積されたRの光に対応する信号電荷を画素信号として出力する。Tr群1110は、転送Tr(MOS FET)1111、リセットTr1112、増幅Tr1113および選択Tr1114で構成されている。Tr群1120は、青色光電変換部で生成、蓄積されたBの光に対応する信号電荷を画素信号として出力する。Tr群1120は、転送Tr1121、リセットTr1122、増幅Tr1123および選択Tr1124で構成されている。Tr群1130は、緑色光電変換部で生成、蓄積されたGの光に対応する信号電荷を画素信号として出力する。Tr群1130は、転送Tr1131、リセットTr1132、増幅Tr1133および選択Tr1134で構成されている。
 転送Tr1111は、ゲートG、ソース/ドレイン領域S/DおよびFD(フローティングディフュージョン)1115(となっているソース/ドレイン領域)によって構成されている。転送Tr1121は、ゲートG、ソース/ドレイン領域S/D、および、FD1125によって構成される。転送Tr1131は、ゲートG、光電変換領域1100のうちの緑色光電変換部(と接続しているソース/ドレイン領域S/D)およびFD1135によって構成されている。なお、転送Tr1111のソース/ドレイン領域は、光電変換領域1100のうちの赤色光電変換部に接続され、転送Tr1121のソース/ドレイン領域S/Dは、光電変換領域1100のうちの青色光電変換部に接続されている。
 リセットTr1112、1132および1122、増幅Tr1113、1133および1123ならびに選択Tr1114、1134および1124は、いずれもゲートGと、そのゲートGを挟むような形に配置された一対のソース/ドレイン領域S/Dとで構成されている。
 FD1115、1135および1125は、リセットTr1112、1132および1122のソースになっているソース/ドレイン領域S/Dにそれぞれ接続されると共に、増幅Tr1113、1133および1123のゲートGにそれぞれ接続されている。リセットTr1112および増幅Tr1113、リセットTr1132および増幅Tr1133ならびにリセットTr1122および増幅Tr1123のそれぞれにおいて共通のソース/ドレイン領域S/Dには、電源Vddが接続されている。選択Tr1114、1134および1124のソースになっているソース/ドレイン領域S/Dには、VSL(垂直信号線)が接続されている。
 本開示に係る技術は、以上のような光電変換素子に適用することができる。
(1-2.撮像素子の製造方法)
 本実施の形態の撮像素子1は、例えば、次のようにして製造することができる。
 図7および図8は、撮像素子1の製造方法を工程順に表したものである。まず、図7に示したように、半導体基板11内に、第1の導電型のウェルとして例えばpウェル61を形成し、このpウェル61内に第2の導電型(例えばn型)の無機光電変換部11B,11Rを形成する。半導体基板11の第1面11S1近傍にはp+領域を形成する。半導体基板11内のn領域には、一部が埋設されるようにフローティングディフュージョンFD1となるn+領域を形成する。
 半導体基板11の第2面11S2には、同じく図7に示したように、フローティングディフュージョンFD2,FD3となるn+領域を形成したのち、ゲート絶縁層62と、上述したTr群1110等の各ゲートを含むゲート配線層64とを形成する。これにより、縦型トランジスタTr1および各種Tr群1110等が形成される。更に、半導体基板11の第2面11S2上に、下部コンタクトおよび接続部71Aを含む配線層71~73および絶縁層74からなる多層配線70を形成する。
 半導体基板11の基体としては、例えば、半導体基板11と、埋込み酸化膜(図示せず)と、保持基板(図示せず)とを積層したSOI(Silicon on Insulator)基板を用いる。埋込み酸化膜および保持基板は、図7には図示しないが、半導体基板11の第1面11S1に接合されている。イオン注入後、アニール処理を行う。
 次いで、半導体基板11の第2面11S2側(多層配線70側)に支持基板(図示せず)または他の半導体基板等を接合して、上下反転する。続いて、半導体基板11をSOI基板の埋込み酸化膜および保持基板から分離し、半導体基板11の第1面11S1を露出させる。以上の工程は、イオン注入およびCVD(Chemical Vapor Deposition)等、通常のCMOSプロセスで使用されている技術にて行うことが可能である。
 次いで、図8に示したように、例えばドライエッチングにより半導体基板11を第1面11S1側から加工し、環状の開口63Hを形成する。開口63Hの深さは、図6に示したように、半導体基板11の第1面11S1から第2面11S2まで貫通すると共に、例えば、接続部71Aまで達するものである。
 続いて、図8に示したように、半導体基板11の第1面11S1および開口63Hの側面に、例えば負の固定電荷層12Aを形成する。負の固定電荷層12Aとして、2種類以上の膜を積層してもよい。それにより、正孔蓄積層としての機能をより高めることが可能となる。負の固定電荷層12Aを形成したのち、誘電体層12Bを形成する。
 次に、開口63Hに、導電体を埋設して貫通電極63を形成する。導電体としては、例えば、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料の他、アルミニウム(Al)、タングステン(W)、チタン(Ti)、コバルト(Co)、ハフニウム(Hf)およびタンタル(Ta)等の金属材料を用いることができる。
 続いて、貫通電極63上にパッド部13Aを形成したのち、誘電体層12Bおよびパッド部13A上に、下部電極15と貫通電極63(具体的には、貫通電極63上のパッド部13A)とを電気的に接続する上部コンタクト13Bおよびパッド部13Cがパッド部13A上に設けられた層間絶縁層14を形成する。
 次に、層間絶縁層14上に、下部電極15、有機光電変換層16、上部電極17および保護層18をこの順に形成する。最後に、表面に複数のオンチップレンズ19Lを有するオンチップレンズ層19を配設する。以上により、図3に示した撮像素子1が完成する。
 なお、有機光電変換層16の上層または下層に、他の有機層(例えば、電子ブロッキング層等)を形成する場合には、真空工程において連続的に(真空一貫プロセスで)形成することが望ましい。また、有機光電変換層16の成膜方法としては、必ずしも真空蒸着法を用いた手法に限らず、他の手法、例えば、スピンコート技術やプリント技術等を用いてもよい。
(1-3.撮像素子の駆動方法)
 撮像素子1では、有機光電変換部11Gに、オンチップレンズ19Lを介して光が入射すると、その光は、有機光電変換部11G、無機光電変換部11B,11Rの順に通過し、その通過過程において緑、青、赤の色光毎に光電変換される。以下、各色の信号取得動作について説明する。
(有機光電変換部11Gによる緑色信号の取得)
 撮像素子1へ入射した光のうち、まず、緑色光が、有機光電変換部11Gにおいて選択的に検出(吸収)され、光電変換される。
 有機光電変換部11Gは、貫通電極63を介して、増幅Tr1113のゲートGとフローティングディフュージョンFD3とに接続されている。よって、有機光電変換部11Gで発生した電子-正孔対のうちの正孔が、下部電極15側から取り出され、貫通電極63を介して半導体基板11の第2面11S2側へ転送され、フローティングディフュージョンFD3に蓄積される。これと同時に、増幅Tr1113により、有機光電変換部11Gで生じた電荷量が電圧に変調される。
 また、フローティングディフュージョンFD3の隣には、リセットTr1112のゲートGが配置されている。これにより、フローティングディフュージョンFD3に蓄積された電荷は、リセットTr1112によりリセットされる。
 ここでは、有機光電変換部11Gが、貫通電極63を介して、増幅Tr1113だけでなくフローティングディフュージョンFD3にも接続されているので、フローティングディフュージョンFD3に蓄積された電荷をリセットTr1112により容易にリセットすることが可能となる。
 これに対して、貫通電極63とフローティングディフュージョンFD3とが接続されていない場合には、フローティングディフュージョンFD3に蓄積された電荷をリセットすることが困難となり、大きな電圧をかけて上部電極17側へ引き抜くことになる。そのため、有機光電変換層16がダメージを受けるおそれがある。また、短時間でのリセットを可能とする構造は暗時ノイズの増大を招き、トレードオフとなるため、この構造は困難である。
(無機光電変換部11B,11Rによる青色信号,赤色信号の取得)
 続いて、有機光電変換部11Gを透過した光のうち、青色光は無機光電変換部11B、赤色光は無機光電変換部11Rにおいて、それぞれ順に吸収され、光電変換される。無機光電変換部11Bでは、入射した青色光に対応した電子が無機光電変換部11Bのn領域に蓄積され、蓄積された電子は、フローティングディフュージョンFD1に転送される。同様に、無機光電変換部11Rでは、入射した赤色光に対応した電子が無機光電変換部11Rのn領域に蓄積され、蓄積された電子は、転送トランジスタTrによりフローティングディフュージョンFD2へと転送される。
 本実施の形態の撮像素子1は、複数の動作モードを有し、例えば高解像モード、高感度モードおよび高速モードの3種類の動作モードを有する。有機光電変換部11Gおよび無機光電変換部11B,11Rでは、各動作モードにおいて以下のようにしてR/G/Bの信号が取得される。
 高解像モードについて説明する。緑色信号を取得する有機光電変換部11Gでは、図9Aに示したように、全ての緑色画素Pgからそれぞれ信号電荷が読み出される。青色信号を取得する無機光電変換部11Bおよび赤色信号を取得する無機光電変換部11Rでは、図9Bおよび図9Cに示したように、4(2×2)画素(青色画素Pb、赤色画素Pr)を1ユニットUとしてFD加算が行われる。この後、現像処理が行われる。高解像モードでは、各緑色画素Pg、2×2青色画素Pbおよび2×2赤色画素Pr間において位相の揃った信号を取得できる。このため、単位画素Pにおいて信号処理なしに、位相のずれのないR/G/Bの信号が得られる。
 高感度モードについて説明する。緑色信号を取得する有機光電変換部11Gでは、図11Aに示したように、全ての緑色画素Pgからそれぞれ信号電荷が読み出される。青色信号を取得する無機光電変換部11Bおよび赤色信号を取得する無機光電変換部11Rでは、図11Bおよび図11Cに示したように、16(4×4)画素(青色画素Pb、赤色画素Pr)を1ユニットUとしてデジタル加算が行われる。このとき、無機光電変換部11Bおよび赤色信号を取得する無機光電変換部11Rの各ユニットUは、互いに2×2画素分シフトした4×4画素で構成されている。この後、現像処理が行われる。上記のように、無機光電変換部11Bおよび赤色信号を取得する無機光電変換部11Rの各ユニットUは、互いに2×2画素分ずれて構成されている。このため、高感度モードでは、各単位画素Pにおいて、青色画素Pbまたは赤色画素Prあるいは青色画素Pbおよび赤色画素Prの両方の情報がない単位画素Pが存在する。よって、高感度モードの現像処理では、図12に示したように、例えば緑色信号および青色信号を有する単位画素Pが周囲の緑色信号および赤色信号を有する単位画素Pから赤色信号を補完する。これにより、高感度モードにおいて位相のずれのないR/G/Bの信号が得られる。
 高速モードについて説明する。緑色信号を取得する有機光電変換部11Gでは、図13Aに示したように、全ての緑色画素Pgからそれぞれ信号電荷が読み出される。青色信号を取得する無機光電変換部11Bおよび赤色信号を取得する無機光電変換部13Rでは、図13Bおよび図13Cに示したように、4(2×2)画素(青色画素Pb、赤色画素Pr)を1ユニットUとしてデジタル加算が行われる。高速モードでは、この後間引き処理が行われ、緑色信号、青色信号および赤色信号は、図14に示したようにベイヤ状に取得される。最後に、各単位画素P毎に現像処理を行う。これにより、高速モードにおいて位相のずれのないR/G/Bの信号が得られる。
 なお、上記各動作モードにおいて用いた加算モードの切り替えは以下のようにして行うことができる。本実施の形態の撮像素子1Aでは、1つの単位画素P内に設けられた4つの青色画素Pbおよび赤色画素Pr(P1,P2,P3,P4)には、それぞれスイッチSW1,SW2,SW3,SW4が接続されている。高解像モードおよび高速モードで用いられるFD加算モードでは、図16に示したように、各色画素P1,P2,P3,P4にそれぞれ接続されたスイッチSW1,SW2,SW3,SW4がオン状態となって4つの色画素P1,P2,P3,P4の信号が1画素として出力される。高感度モードで用いられるデジタル加算モードでは、図17に示したように、各色画素P1,P2,P3,P4にそれぞれ接続されたスイッチSW1,SW2,SW3,SW4のうちの1つがオン状態、残りの3つはオフ状態となって各色画素P1,P2,P3,P4毎に信号が読み出されたのち、4画素として出力される。その後、後段ISPにおいて4画素分の信号が加算される。
(1-4.作用・効果)
 前述したように、CCDイメージセンサ、あるいはCMOSイメージセンサ等の固体撮像装置では、感度の向上が求められている。これに対して、例えば、有機光電変換膜を有する有機光電変換部と、半導体基板内においてpn接合を有する2つの無機光電変換部とが積層された、所謂縦方向分光型の固体撮像装置が開発されている。この縦方向分光型の固体撮像装置では、1画素からR/G/Bの信号を取得できるため、赤,緑,青の原色フィルタを有する各色画素(赤色画素、緑色画素、青色画素)が2次元配列してなる撮像装置と比較して、高い解像度が得られる。
 しかしながら、上記のような縦方向分光型の固体撮像装置では、半導体基板内におけるRB分光の混色が大きい。このため、色ノイズが大きくなり、暗時にノイズが増幅されて粒状感が大幅に悪化するという課題がある。粒状感を改善する方法としては、例えば高感度モードを用いる方法が挙げられる。
 一般的な撮像素子1000における高感度モードでは、まず、図18Aに示したように、緑色信号を取得する有機光電変換部1011Gでは、全ての緑色画素Pgからそれぞれ信号電荷が読み出される。青色信号を取得する無機光電変換部11Bおよび赤色信号を取得する無機光電変換部11Rでは、それぞれ、2×2配列の4画素(青色画素Pb、赤色画素Pr)を1ユニットUとしたデジタル加算が行われる。このとき、無機光電変換部11Bおよび無機光電変換部11Rの各ユニットUは、互いに1×1画素分シフトした2×2画素で構成されている。この後、図18Bに示したようにピニング処理を行ったのち、図18Cに示したように、青色画素Pbと赤色画素Prとの間でデモザイク処理を行ってRB信号を得る。このため、撮像素子1000では、図18Dに示したように、緑色信号(G信号)とRB信号との演算時に位相のずれが生じてしまう。
 これに対して本実施の形態の撮像素子1では、有機光電変換部11G1画素に対して、無機光電変換部11B,11Rを有機光電変換部11Gの画素ピッチ(W)よりも狭い画素ピッチ(w)となるように形成した。具体的には、例えば、有機光電変換部11G1画素に対して、無機光電変換部11B,11Rを、それぞれ2×2配列で4画素配置するようにした。この撮像素子1では、上記3種の動作モード(高解像モード、高感度モードおよび高速モード)時に、緑色信号を有機光電変換部11G(緑色画素Pg)1画素から取得するのに対して、青色信号および赤色信号は、それぞれ、無機光電変換部11B(青色画素Pb)および無機光電変換部11R(赤色画素Pr)を2×2の4画素あるいは4×4の16画素の信号を加算して取得する。よって、位相のずれなくR/G/Bの信号を取得することが可能となる。
 以上、本実施の形態の撮像素子1では、有機光電変換部11G1画素に対して、無機光電変換部11B,11Rを、それぞれ4(2×2)画素配置するようにし、各動作モードにおいて、緑色信号を取得する有機光電変換部11G(緑色画素Pg)1画素に対して、無機光電変換部11B(青色画素Pb)および無機光電変換部11R(赤色画素Pr)2×2の4画素あるいは4×4の16画素をそれぞれ加算して青色信号および赤色信号を取得するようにした。特に、高感度モード時には4×4の16画素からの信号をそれぞれ加算して青色信号および赤色信号を取得するようにしたので、暗時における粒状感を低減することが可能となる。即ち、解像度の向上および粒状感の改善を実現した撮像素子を提供することが可能となる。
 次に、本開示の変形例について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜その説明を省略する。
<2.変形例>
 図19は、本開示の変形例に係る撮像素子(撮像素子1B)の断面構成を表したものである。撮像素子1Bは、光電変換素子10Aと同様に、例えば、裏面照射型(裏面受光型)のCCDイメージセンサまたはCMOSイメージセンサ等を構成するものである(図22参照)。撮像素子1Bは、上記撮像素子1Aと同様に、それぞれ異なる波長帯域の光を選択的に検出して光電変換を行う1つの有機光電変換部20と、2つの無機光電変換部11B,11Rとが縦方向に積層された、縦方向分光型の撮像素子である。本変形例の撮像素子1Bは、下部電極21が複数の電極(読み出し電極21Aおよび蓄積電極21B)からなる点が上記実施の形態とは異なる。
 有機光電変換部20は、上記実施の形態における撮像素子1Aと同様に、半導体基板11の裏面(第1面11S1)側に設けられている。無機光電変換部11B,11Rは、半導体基板11内に埋め込み形成されており、半導体基板11の厚み方向に積層されている。
 有機光電変換部20は、例えば、下部電極21、有機光電変換層16および上部電極17が、半導体基板11の第1面11S1の側からこの順に積層された構成を有している。なお、下部電極21と電荷蓄積層23との間には絶縁層22が設けられている。下部電極21は、例えば、撮像素子1Bごとに分離形成されると共に、詳細は後述するが、絶縁層22を間に互いに分離された読み出し電極21Aおよび蓄積電極21Bとから構成されている。読み出し電極21A上の絶縁層22には開口22Hが設けられており、読み出し電極21Aと電荷蓄積層23とは、この開口22Hを介して電気的に接続されている。
 なお、図19では、電荷蓄積層23、有機光電変換層16および上部電極17が、撮像素子1Bごとに分離して形成されている例を示したが、例えば、上記撮像素子1Aと同様に、複数の撮像素子1Bに共通した連続層として設けられていてもよい。半導体基板11の第1面11S1と下部電極21との間には、第1の実施の形態と同様に、例えば、固定電荷層12Aと、誘電体層12Bと、層間絶縁層14とが設けられている。上部電極17の上には、遮光膜51を含む保護層18が設けられている。保護層18の上には、オンチップレンズ19Lを有するオンチップレンズ層19等の光学部材が配設されている。
 下部電極21は、上記のように、分離形成された読み出し電極21Aと蓄積電極21Bとから構成されており、それぞれ独立して電圧が印加されるようになっている。読み出し電極21Aは、有機光電変換層16内で発生した電荷(ここでは、電子)をフローティングディフュージョンFD3に転送するためのものであり、例えば、上部第1コンタクト24A、パッド部39A、貫通電極63、接続部71Aおよび下部コンタクト75を介してフローティングディフュージョンFD3に接続されている。蓄積電極21Bは、有機光電変換層16内で発生した電荷のうち、信号電荷として電子を電荷蓄積層23内に蓄積させるため、および蓄積した電子を読み出し電極21Aに転送するためのものである。蓄積電極21Bは、半導体基板11内に形成された無機光電変換部11B,11Rの受光面と正対して、これらの受光面を覆う領域に設けられている。蓄積電極21Bは、読み出し電極21Aよりも大きいことが好ましく、これにより、電荷蓄積層23内に多くの電荷を蓄積させることが可能となる。
 以上のように、本変形例では、下部電極21を読み出し電極21Aと蓄積電極21Bとに分割し、それぞれ独立して電圧を印加するようにした。これにより、撮像素子1Bでは、有機光電変換層16内に生成された電荷を、下部電極21と有機光電変換層16との間に配置した電荷蓄積層23に蓄積することが可能となると共に、蓄積された電荷を適宜読み出し電極21Aを介してフローティングディフュージョンFD3に読み出すことが可能となる。よって、露光開始時に電荷蓄積部を完全に空乏化することが可能となり、上記実施の形態の効果に加えて、撮像画質を改善できるという効果を奏する。
<3.適用例>
(適用例1)
 図20は、例えば、上記実施の形態において説明した撮像素子1を各画素に用いた撮像素子1の全体構成を表したものである。この撮像素子1は、CMOSイメージセンサであり、半導体基板11上に、撮像エリアとしての画素部1aを有すると共に、この画素部1aの周辺領域に、例えば、行走査部131、水平選択部133、列走査部134およびシステム制御部132からなる周辺回路部130を有している。
 画素部1aは、例えば、行列状に2次元配置された複数の単位画素P(例えば、撮像素子1の緑色画素Pgに相当)を有している。この単位画素Pには、例えば、画素行ごとに画素駆動線Lread(具体的には行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素からの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部131の各行に対応した出力端に接続されている。
 行走査部131は、シフトレジスタやアドレスデコーダ等によって構成され、画素部1aの各単位画素Pを、例えば、行単位で駆動する画素駆動部である。行走査部131によって選択走査された画素行の各単位画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部133に供給される。水平選択部133は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部134は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部133の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部134による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線135に出力され、当該水平信号線135を通して半導体基板11の外部へ伝送される。
 行走査部131、水平選択部133、列走査部134および水平信号線135からなる回路部分は、半導体基板11上に直に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。
 システム制御部132は、半導体基板11の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像素子1の内部情報等のデータを出力するものである。システム制御部132はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部131、水平選択部133および列走査部134等の周辺回路の駆動制御を行う。
(適用例2)
 上述の撮像素子1は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図21に、その一例として、カメラ2の概略構成を示す。このカメラ2は、例えば、静止画または動画を撮影可能なビデオカメラであり、撮像素子1と、光学系(光学レンズ)310と、シャッタ装置311と、撮像素子1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像素子1の画素部1aへ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、撮像素子1への光照射期間および遮光期間を制御するものである。駆動部313は、撮像素子1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、撮像素子1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリ等の記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
(適用例3)
<体内情報取得システムへの応用例>
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図22は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図22では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
(適用例4)
<内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図23は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図23では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図24は、図23に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(適用例5)
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図25は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図25に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図25の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図26は、撮像部12031の設置位置の例を示す図である。
 図26では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図26には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、実施の形態および変形例並びに適用例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態では、撮像素子として、緑色光を検出する有機光電変換部11G1つに対して、青色光,赤色光をそれぞれ検出する4つの無機光電変換部11Bおよび無機光電変換部11Rを順に積層させた構成としたが、本開示内容はこのような構造に限定されるものではない。
 例えば、緑色光を検出する有機光電変換部11G1つに対して、青色光,赤色光をそれぞれ検出する8つの無機光電変換部11Bおよび無機光電変換部11R(各々8画素)を順に積層させた構成としてもよい。また、2つの有機光電変換部と1つの無機光電変換部とが積層された構成としてもよい。その場合には、2つの有機光電変換部を同じ画素ピッチで形成してもよいが、無機光電変換部側に設けられた有機光電変換部を上記無機光電変換部11B,11Rのように、光入射側に配置された有機光電変換部の画素ピッチよりも狭く形成してもよい。
 更に、上記実施の形態等では、裏面照射型の撮像素子の構成を例示したが、本開示内容は表面照射型の撮像素子にも適用可能である。更に、本開示の撮像素子では、上記実施の形態で説明した各構成要素を全て備えている必要はなく、また逆に他の層を備えていてもよい。
 なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
 なお、本開示は、以下のような構成であってもよい。
(1)
 光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を備え、
 前記第2の光電変換部は、前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている
 撮像素子。
(2)
 前記第2の光電変換部は、前記第1の光電変換部1画素に対して4画素が配設されている、前記(1)に記載の撮像素子。
(3)
 前記第2の光電変換部は、前記第1の光電変換部1画素に対して8画素が配設されている、前記(1)に記載の撮像素子。
(4)
 前記第1の光電変換部は有機材料を用いて形成された有機光電変換部であり、前記第2の光電変換部は半導体基板に埋め込み形成された無機光電変換部である、前記(1)乃至(3)のうちのいずれかに記載の撮像素子。
(5)
 前記第1の光電変換部および前記第2の光電変換部とは異なる波長帯域の光を選択的に検出して光電変換すると共に、前記第1の光電変換部と前記第2の光電変換部との間に配置された第3の光電変換部をさらに備え、
 前記第3の光電変換部は、前記半導体基板に埋め込み形成された無機光電変換部である、前記(4)に記載の撮像素子。
(6)
 前記第3の光電変換部は、前記前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている、前記(5)に記載の撮像素子。
(7)
 前記第3の光電変換部は、前記第1の光電変換部1画素に対して4画素が配設されている、前記(5)または(6)に記載の撮像素子。
(8)
 前記第3の光電変換部は、前記第1の光電変換部1画素に対して8画素が配設されている、前記(5)または(6)に記載の撮像素子。
(9)
 前記第1の光電変換部は緑色光の光電変換を行い、前記第2の光電変換部および前記第3の光電変換部は、赤色光または青色光の光電変換を行う、前記(5)乃至(8)のうちのいずれかに記載の撮像素子。
(10)
 前記第1の光電変換部および前記第2の光電変換部とは異なる波長帯域の光を選択的に検出して光電変換すると共に、前記第1の光電変換部と前記第2の光電変換部との間に配置された第3の光電変換部をさらに備え、
 前記第3の光電変換部は、前記半導体基板上に形成された有機光電変換部である、前記(4)に記載の撮像素子。
(11)
 前記第3の光電変換部は、前記前記第1の光電変換部と同様の画素ピッチで配設されている、前記(10)に記載の撮像素子。
(12)
 撮像素子を備え、
 前記撮像素子は、
 光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を有し、
 前記第2の光電変換部は、前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている
 電子機器。
(13)
 光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を有し、前記第2の光電変換部は、前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている撮像素子において、
 第1の光の色信号を前記第1の光電変換部1画素で取得するのに対して、前記第1の光とは異なる波長帯域の第2の光の色信号を複数の前記第2の光電変換部において加算して取得する
 撮像素子の駆動方法。
(14)
 前記撮像素子は動作モードとして高解像モード、高感度モードおよび高速モードを有し、
 前記高解像モードおよび前記高速モードでは、前記第1の光電変換部1画素に対して、前記第2の光電変換部4(2×2)画素加算により前記第2の光の色信号を取得する、前記(13)に記載の撮像素子の駆動方法。
(15)
 前記撮像素子は動作モードとして高解像モード、高感度モードおよび高速モードを有し、
 前記高感度モードでは、前記第1の光電変換部1画素に対して、前記第2の光電変換部16(4×4)画素加算により前記第2の光の色信号を取得する、前記(13)に記載の撮像素子の駆動方法。
 本出願は、日本国特許庁において2018年5月18日に出願された日本特許出願番号2018-096530号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (15)

  1.  光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を備え、
     前記第2の光電変換部は、前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている
     撮像素子。
  2.  前記第2の光電変換部は、前記第1の光電変換部1画素に対して4画素が配設されている、請求項1に記載の撮像素子。
  3.  前記第2の光電変換部は、前記第1の光電変換部1画素に対して8画素が配設されている、請求項1に記載の撮像素子。
  4.  前記第1の光電変換部は有機材料を用いて形成された有機光電変換部であり、前記第2の光電変換部は半導体基板に埋め込み形成された無機光電変換部である、請求項1に記載の撮像素子。
  5.  前記第1の光電変換部および前記第2の光電変換部とは異なる波長帯域の光を選択的に検出して光電変換すると共に、前記第1の光電変換部と前記第2の光電変換部との間に配置された第3の光電変換部をさらに備え、
     前記第3の光電変換部は、前記半導体基板に埋め込み形成された無機光電変換部である、請求項4に記載の撮像素子。
  6.  前記第3の光電変換部は、前記前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている、請求項5に記載の撮像素子。
  7.  前記第3の光電変換部は、前記第1の光電変換部1画素に対して4画素が配設されている、請求項5に記載の撮像素子。
  8.  前記第3の光電変換部は、前記第1の光電変換部1画素に対して8画素が配設されている、請求項5に記載の撮像素子。
  9.  前記第1の光電変換部は緑色光の光電変換を行い、前記第2の光電変換部および前記第3の光電変換部は、赤色光または青色光の光電変換を行う、請求項5に記載の撮像素子。
  10.  前記第1の光電変換部および前記第2の光電変換部とは異なる波長帯域の光を選択的に検出して光電変換すると共に、前記第1の光電変換部と前記第2の光電変換部との間に配置された第3の光電変換部をさらに備え、
     前記第3の光電変換部は、前記半導体基板上に形成された有機光電変換部である、請求項4に記載の撮像素子。
  11.  前記第3の光電変換部は、前記前記第1の光電変換部と同様の画素ピッチで配設されている、請求項10に記載の撮像素子。
  12.  撮像素子を備え、
     前記撮像素子は、
     光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を有し、
     前記第2の光電変換部は、前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている
     電子機器。
  13.  光入射側から順に積層されると共に、互いに異なる波長帯域の光を選択的に検出して光電変換する第1の光電変換部および第2の光電変換部を有し、前記第2の光電変換部は、前記第1の光電変換部の画素ピッチよりも狭い間隔で配設されている撮像素子において、
     第1の光の色信号を前記第1の光電変換部1画素で取得するのに対して、前記第1の光とは異なる波長帯域の第2の光の色信号を複数の前記第2の光電変換部において加算して取得する
     撮像素子の駆動方法。
  14.  前記撮像素子は動作モードとして高解像モード、高感度モードおよび高速モードを有し、
     前記高解像モードおよび前記高速モードでは、前記第1の光電変換部1画素に対して、前記第2の光電変換部4(2×2)画素加算により前記第2の光の色信号を取得する、請求項13に記載の撮像素子の駆動方法。
  15.  前記撮像素子は動作モードとして高解像モード、高感度モードおよび高速モードを有し、
     前記高感度モードでは、前記第1の光電変換部1画素に対して、前記第2の光電変換部16(4×4)画素加算により前記第2の光の色信号を取得する、請求項13に記載の撮像素子の駆動方法。
PCT/JP2019/017430 2018-05-18 2019-04-24 撮像素子および電子機器並びに撮像素子の駆動方法 WO2019220897A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112019002526.0T DE112019002526T5 (de) 2018-05-18 2019-04-24 Bildgebungselement, elektronische einrichtung und verfahren zum ansteuern eines bildgebungselements
JP2020519544A JP7242655B2 (ja) 2018-05-18 2019-04-24 撮像素子の駆動方法
CN201980032183.6A CN112119502A (zh) 2018-05-18 2019-04-24 成像元件、电子设备和成像元件的驱动方法
US17/055,702 US11387279B2 (en) 2018-05-18 2019-04-24 Imaging element, electronic apparatus, and method of driving imaging element

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-096530 2018-05-18
JP2018096530 2018-05-18

Publications (1)

Publication Number Publication Date
WO2019220897A1 true WO2019220897A1 (ja) 2019-11-21

Family

ID=68540304

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017430 WO2019220897A1 (ja) 2018-05-18 2019-04-24 撮像素子および電子機器並びに撮像素子の駆動方法

Country Status (6)

Country Link
US (1) US11387279B2 (ja)
JP (1) JP7242655B2 (ja)
CN (1) CN112119502A (ja)
DE (1) DE112019002526T5 (ja)
TW (1) TWI809098B (ja)
WO (1) WO2019220897A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047663A1 (ja) * 2021-09-27 2023-03-30 ソニーセミコンダクタソリューションズ株式会社 受光素子および電子機器
EP4216279A4 (en) * 2020-09-16 2024-04-10 Sony Group Corp SOLID STATE IMAGING DEVICE AND ELECTRONIC DEVICE

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109005346B (zh) * 2018-08-13 2020-04-03 Oppo广东移动通信有限公司 控制方法、装置、电子设备和计算机可读存储介质
CN111354756B (zh) * 2020-03-13 2022-08-26 京东方科技集团股份有限公司 一种光线探测基板及其制备方法、光线探测设备
US11317039B1 (en) * 2021-01-06 2022-04-26 Visera Technologies Company Limited Image-sensing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040518A (ja) * 2009-08-10 2011-02-24 Sony Corp 固体撮像装置とその製造方法および撮像装置
WO2014027588A1 (ja) * 2012-08-14 2014-02-20 ソニー株式会社 固体撮像装置および電子機器
JP2015170620A (ja) * 2014-03-04 2015-09-28 株式会社東芝 固体撮像装置
JP2017017563A (ja) * 2015-07-01 2017-01-19 株式会社ソニー・インタラクティブエンタテインメント 撮像装置および情報処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4911445B2 (ja) * 2005-06-29 2012-04-04 富士フイルム株式会社 有機と無機のハイブリッド光電変換素子
JP5564847B2 (ja) * 2009-07-23 2014-08-06 ソニー株式会社 固体撮像装置とその製造方法、及び電子機器
JP6013039B2 (ja) * 2012-06-25 2016-10-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置およびその制御方法、並びに、電子機器
TWI620445B (zh) 2013-03-25 2018-04-01 Sony Corp 攝像元件及電子機器
JP2016058559A (ja) * 2014-09-10 2016-04-21 ソニー株式会社 固体撮像装置およびその駆動方法、並びに電子機器
US11201186B2 (en) * 2016-01-20 2021-12-14 Sony Corporation Solid-state imaging device, driving method therefor, and electronic apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040518A (ja) * 2009-08-10 2011-02-24 Sony Corp 固体撮像装置とその製造方法および撮像装置
WO2014027588A1 (ja) * 2012-08-14 2014-02-20 ソニー株式会社 固体撮像装置および電子機器
JP2015170620A (ja) * 2014-03-04 2015-09-28 株式会社東芝 固体撮像装置
JP2017017563A (ja) * 2015-07-01 2017-01-19 株式会社ソニー・インタラクティブエンタテインメント 撮像装置および情報処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216279A4 (en) * 2020-09-16 2024-04-10 Sony Group Corp SOLID STATE IMAGING DEVICE AND ELECTRONIC DEVICE
WO2023047663A1 (ja) * 2021-09-27 2023-03-30 ソニーセミコンダクタソリューションズ株式会社 受光素子および電子機器

Also Published As

Publication number Publication date
DE112019002526T5 (de) 2021-04-08
TWI809098B (zh) 2023-07-21
TW202005071A (zh) 2020-01-16
CN112119502A (zh) 2020-12-22
JPWO2019220897A1 (ja) 2021-06-17
US11387279B2 (en) 2022-07-12
US20210193739A1 (en) 2021-06-24
JP7242655B2 (ja) 2023-03-20

Similar Documents

Publication Publication Date Title
US11792541B2 (en) Solid-state imaging device and method of controlling solid-state imaging device
JP7242655B2 (ja) 撮像素子の駆動方法
JP7372243B2 (ja) 撮像素子および撮像装置
US20230018449A1 (en) Photoelectric converter and solid-state imaging device
WO2020166309A1 (ja) 撮像素子および撮像装置
WO2019181456A1 (ja) 固体撮像素子および固体撮像装置
JP2018206837A (ja) 固体撮像装置および固体撮像装置の製造方法、並びに電子機器
JP7433231B2 (ja) 撮像素子および撮像装置
WO2019230354A1 (ja) 光電変換素子および光電変換素子の製造方法
WO2021153294A1 (ja) 撮像素子および撮像装置
WO2019203013A1 (ja) 光電変換素子および撮像装置
WO2021157468A1 (ja) 光電変換素子および撮像素子
US20240030251A1 (en) Solid-state imaging element and electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19802883

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020519544

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19802883

Country of ref document: EP

Kind code of ref document: A1