WO2020162196A1 - 撮像装置および撮像システム - Google Patents

撮像装置および撮像システム Download PDF

Info

Publication number
WO2020162196A1
WO2020162196A1 PCT/JP2020/002238 JP2020002238W WO2020162196A1 WO 2020162196 A1 WO2020162196 A1 WO 2020162196A1 JP 2020002238 W JP2020002238 W JP 2020002238W WO 2020162196 A1 WO2020162196 A1 WO 2020162196A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
shielding film
semiconductor substrate
imaging device
pixel
Prior art date
Application number
PCT/JP2020/002238
Other languages
English (en)
French (fr)
Inventor
創造 横川
浩樹 萩原
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/426,736 priority Critical patent/US20220102411A1/en
Priority to EP20752006.5A priority patent/EP3923331A4/en
Priority to KR1020217024161A priority patent/KR20210119999A/ko
Publication of WO2020162196A1 publication Critical patent/WO2020162196A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to an imaging device and an imaging system having a semiconductor substrate and a wiring layer.
  • reflection and diffraction of light inside the imaging device may affect imaging information.
  • an imaging device that can suppress the influence on the imaging information due to the reflection and diffraction of light inside the imaging device, and an imaging system equipped with this imaging device.
  • An imaging device has a first surface and a second surface facing each other, a semiconductor substrate provided with a plurality of pixels, and a semiconductor substrate provided on a second surface side of the semiconductor substrate.
  • a waveguide that is provided on the first surface side of the optical waveguide toward the opening of the light shielding film.
  • An imaging system includes the imaging device according to the embodiment of the present disclosure and an arithmetic processing unit to which a signal from the imaging device is input.
  • the aperture of the light shielding film satisfies Expression (1). That is, in each pixel, the area of the region covered with the light shielding film is larger than the area of the opening of the light shielding film. As a result, the light reflected and diffracted in the interface between the semiconductor substrate and the wiring layer or in the wiring layer is incident on the light-shielding film and is less likely to be emitted from the first surface of the semiconductor substrate to the outside of the semiconductor substrate. ..
  • FIG. 3 is a schematic cross-sectional view showing a configuration of a main part of an imaging device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram showing an example of a configuration of a pixel circuit of the image pickup device shown in FIG. 1. It is a schematic diagram showing the planar structure of the light shielding film shown in FIG.
  • FIG. 4 is a schematic diagram showing another example of a planar configuration of the light shielding film shown in FIG. 3.
  • FIG. 2 is a schematic diagram for explaining a minimum converging diameter portion of the on-chip lens shown in FIG. 1.
  • FIG. 2 is a schematic cross-sectional view showing an example of the configuration of the light shielding film shown in FIG. 1.
  • FIG. 8 is a schematic diagram showing a planar configuration of the light shielding film and the like shown in FIG. 7.
  • FIG. 3 is a schematic diagram for explaining an operation of the image pickup apparatus shown in FIG. 1.
  • FIG. 9 is a diagram showing absorbed light and reflected light of the image pickup apparatus shown in FIG. 7.
  • FIG. 3 is a diagram showing absorbed light and reflected light of the image pickup device shown in FIG. 1.
  • FIG. 9 is a schematic cross-sectional view showing the configuration of a main part of an imaging device according to Modification 1.
  • FIG. 9 is a schematic cross-sectional view showing the configuration of a main part of an imaging device according to modification 2.
  • FIG. 13 is a diagram illustrating an example of a configuration of a pixel circuit of the image pickup apparatus illustrated in FIG. 12.
  • FIG. 13 is a schematic diagram showing a planar configuration of the PD shown in FIG. 12.
  • FIG. 13 is a schematic diagram showing a planar configuration of the light shielding film shown in FIG. 12.
  • FIG. 13 is a schematic plan view showing another example of the configuration of the pixel shown in FIG. 12.
  • FIG. 17 is a diagram illustrating an example of a circuit configuration of the pixel shown in FIG. 16.
  • FIG. 17 is a schematic plan view showing another example of the planar configuration of the pixel shown in FIG. 16.
  • FIG. 19 is a diagram illustrating an example of a circuit configuration of the pixel illustrated in FIG. 18.
  • FIG. 20B is a schematic diagram illustrating another example (1) of the overall configuration of the imaging device illustrated in FIG. 20A.
  • FIG. 20B is a schematic diagram showing another example (2) of the overall configuration of the imaging device shown in FIG. 20A.
  • FIG. 22 is a block diagram showing an example of composition of a ranging system to which the image pick-up device shown in Drawing 1 etc. is applied.
  • FIG. 22 is a block diagram (1) showing another example (1) of the distance measuring system shown in FIG. 21.
  • FIG. 22 is a block diagram (2) showing another example (2) of the distance measuring system shown in FIG. 21.
  • 22 is a block diagram (3) showing another example (3) of the distance measuring system shown in FIG. 21.
  • FIG. 3 is a schematic plan view showing an example of a surface configuration of a portable electronic device to which the image pickup apparatus shown in FIG. 1 or the like is applied.
  • FIG. 25B is a schematic plan view illustrating an example of the configuration of the back surface of the electronic device illustrated in FIG. 25A. It is a figure which shows the usage example of the imaging device shown in FIG. It is a block diagram showing an example of a schematic structure of an in-vivo information acquisition system. It is a figure which shows an example of a schematic structure of an endoscopic surgery system. It is a block diagram showing an example of functional composition of a camera head and a CCU. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • FIG. 1 schematically illustrates an example of a cross-sectional configuration of a main part of an imaging device (imaging device 1) according to an embodiment of the present disclosure.
  • the imaging device 1 is, for example, a back-illuminated CMOS (Complementary Metal Oxide Semiconductor) image sensor, and is applied to, for example, a distance measuring system (the distance measuring system 3 in FIG. 21, which will be described later) or the like.
  • the imaging device 1 is configured to receive light having a wavelength in the near infrared region, for example.
  • the wavelength in the near infrared region is, for example, a wavelength of about 800 nm to 1100 nm.
  • the image pickup device 1 includes a semiconductor substrate 10, a wiring layer 20, an antireflection film 31, a light shielding film 32, a waveguide 36, a low refractive index material 37, and an on-chip lens 35.
  • the semiconductor substrate 10 has a first surface S1 that serves as a light receiving surface and a second surface S2 that faces the first surface S1.
  • the wiring layer 20 is provided on the second surface S2 side of the semiconductor substrate 10 and laminated on the semiconductor substrate 10.
  • the wiring layer 20 is a multilayer wiring layer and includes a plurality of wirings 21 and an interlayer insulating film 22.
  • an antireflection film 31, a light shielding film 32, a waveguide 36, and an on-chip lens 35 are provided in this order from the semiconductor substrate 10 side.
  • the imaging device 1 has a plurality of pixels 50 in a pixel area (a pixel area 110A in FIGS. 20A to 20C described later).
  • the plurality of pixels 50 are arranged in a matrix, for example. In FIG. 1, four pixels 50 lined up along one direction (X direction) are shown.
  • the semiconductor substrate 10 is made of, for example, p-type silicon (Si).
  • the semiconductor substrate 10 is provided with PD11 and FD12 for each pixel 50.
  • the PD 11 corresponds to a specific example of the photoelectric conversion unit of the present disclosure
  • the FD 12 corresponds to a specific example of the first floating diffusion capacitance of the present disclosure.
  • the PD 11 is, for example, an n-type semiconductor region formed in the thickness direction (Z direction) of the semiconductor substrate 10 (here, Si substrate) for each pixel 50.
  • the PD 11 is a so-called pn-junction photodiode, which has a pn junction and a p-type semiconductor region provided near the first surface S1 and the second surface S2 of the semiconductor substrate 10.
  • the FD 12 is provided in the semiconductor substrate 10 near the second surface S2.
  • the FD 12 is an n-type semiconductor region formed by injecting an n-type impurity into the p-well layer of the semiconductor substrate 10 at a high concentration.
  • a transfer transistor In the vicinity of the second surface S2 of the semiconductor substrate 10, for example, a transfer transistor, a reset transistor, an amplification transistor, a selection transistor, an ejection transistor, etc. (a transfer transistor TG, a reset transistor RST, an amplification transistor AMP, a selection transistor SEL shown in FIG. And a drain transistor OFG).
  • a MOSFT Metal Oxide Semiconductor Field Effect Transistor
  • Such a transistor is, for example, a MOSFT (Metal Oxide Semiconductor Field Effect Transistor), and forms a pixel circuit for each pixel 50.
  • the PD 11 has an anode electrode connected to a negative power source (eg, ground), and photoelectrically converts the received light (incident light) into a photocharge having a charge amount corresponding to the amount of light, and accumulates the photocharge.
  • the cathode electrode of the PD 11 is electrically connected to the gate electrode of the amplification transistor AMP via the transfer transistor TG.
  • the node electrically connected to the gate electrode of the amplification transistor AMP is the FD12.
  • the transfer transistor TG is connected between the cathode electrode of the PD 11 and the FD 12.
  • a transfer pulse is applied to the gate electrode of the transfer transistor TG via the transfer line.
  • the transfer transistor TG becomes conductive, and the photoelectric charges photoelectrically converted by the PD 11 are transferred to the FD 12.
  • the discharge transistor OFG is connected to the cathode electrode of the PD 11 together with the transfer transistor TG.
  • the reset transistor RST has a drain electrode connected to the pixel power supply VDD and a source electrode connected to the FD 12. A reset pulse is applied to the gate electrode of the reset transistor RST via the reset line. As a result, the reset transistor RST becomes conductive, and the FD 12 is reset by discarding the charge of the FD 12 to the pixel power supply VDD.
  • the amplification transistor AMP has a gate electrode connected to the FD 12 and a drain electrode connected to the pixel power supply VDD. Then, the amplification transistor AMP outputs the potential of the FD 12 after being reset by the reset transistor RST as a reset signal. Further, the amplification transistor AMP outputs the potential of the FD 12 after the signal charge is transferred by the transfer transistor TG as a light accumulation signal.
  • the drain electrode is connected to the source electrode of the amplification transistor AMP, and the source electrode is connected to the vertical signal line VSL.
  • a selection pulse is applied to the gate electrode of the selection transistor SEL via a selection line.
  • the selection transistor SEL becomes conductive, and the pixel 50 is selected, and the signal supplied from the amplification transistor AMP is output to the vertical signal line VSL.
  • the selection transistor SEL has a circuit configuration in which it is connected between the source electrode of the amplification transistor AMP and the vertical signal line VSL, but the selection transistor SEL is connected to the pixel power supply VDD and the drain electrode of the amplification transistor AMP. It is also possible to adopt a circuit configuration connected between the two.
  • each pixel 50 is not limited to the pixel configuration described above.
  • a pixel configuration including a transistor that also serves as the amplification transistor AMP and the selection transistor SEL may be used, and the configuration of the pixel circuit is not limited.
  • Transistors other than the transfer transistor TG can be shared by the plurality of pixels 50.
  • the plurality of wirings 21 included in the wiring layer 20 configure, for example, a pixel circuit and a vertical signal line VSL in addition to the gate electrode of the transistor.
  • the wiring 21 is formed, for example, with the pixel 50 as a repeating unit.
  • the interlayer insulating film 22 is made of, for example, a SiO (silicon oxide) film.
  • the antireflection film 31 covers the first surface S1 of the semiconductor substrate 10.
  • the antireflection film 31 is provided, for example, over the entire pixel region.
  • the antireflection film 31 is made of, for example, silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ), hafnium oxide (HfO 2 ) or tantalum oxide (Ta 2 O 5 ). ing.
  • the light shielding film 32 provided on the antireflection film 31 has a property of not transmitting light having a wavelength in the near infrared region. By providing such a light shielding film 32, it is possible to suppress color mixing due to crosstalk of obliquely incident light between adjacent pixels 50.
  • the light shielding film 32 has an opening 32A at a position facing the PD 11 of each pixel 50. Light enters the PD 11 through the opening 32A of the light shielding film 32.
  • FIG. 3 illustrates an example of a planar (XY plane) configuration of the light shielding film 32 and the on-chip lens 35.
  • Each pixel 50 has, for example, a substantially square planar shape with a side of P.
  • An opening 32A of the light shielding film 32 is provided at the center of each pixel 50.
  • the opening 32A has, for example, a substantially square planar shape with one side having a size of M.
  • the light shielding film 32 having the opening 32A satisfies the following formula (1).
  • B is the area of the opening 32A in each pixel 50
  • A is the area of the first surface S1 of the semiconductor substrate 10 covered with the light shielding film 32 in each pixel 50.
  • the light-shielding film 32 thus satisfies the formula (1), and thus the light reflected by the interface between the semiconductor substrate 10 (second surface S2) and the wiring layer 20 or the light reflected by the wiring layer 20 ( Reflected light RL in FIG. 10 described later is less likely to be emitted from the first surface S1 of the semiconductor substrate 10 to the outside of the semiconductor substrate 10 (on the on-chip lens 35 side).
  • the light shielding film 32 further satisfy the following expression (2).
  • the light-shielding film 32 satisfies the expression (2), that is, the ratio of the area A to the area of each pixel 50 (that is, the sum of the area A and the area B) is set to 75% or more, thereby more effectively
  • the emission of the reflected light RL to the outside of the semiconductor substrate 10 can be suppressed.
  • FIG. 4 shows another example of the planar configuration of the light shielding film 32 and the on-chip lens 35.
  • the planar shape of the opening 32A of the light shielding film 32 may be, for example, a polygon such as a substantially octagon. Although illustration is omitted, the opening 32A may have, for example, a substantially elliptical planar shape.
  • FIG. 5 shows the relationship between the light (light L) condensed by the on-chip lens 35 and the light shielding film 32.
  • the light-shielding film 32 be disposed on the minimum focusing diameter portion 35F of the on-chip lens 35.
  • the minimum focusing diameter portion 35F is a portion where the focusing spot size of the on-chip lens 35 is minimum in the Z-axis direction, and corresponds to the vicinity of the beam waist in Gaussian beam optics.
  • FIG. 6 shows an example of a sectional configuration of the light shielding film 32 together with the semiconductor substrate 10 and the antireflection film 31.
  • the light shielding film 32 has, for example, a laminated structure including a first light shielding film 32-1 and a second light shielding film 32-2 from the semiconductor substrate 10 (or antireflection film 31) side.
  • the first light shielding film 32-1 has, for example, a reflection characteristic for light having a wavelength in the near infrared region.
  • Such a first light-shielding film 32-1 contains, for example, a conductive metal such as aluminum (Al) and copper (Cu) as a main component.
  • the second light-shielding film 32-2 laminated on the first light-shielding film 32-1 has both a reflection characteristic and an absorption characteristic with respect to light having a wavelength in the near infrared region, for example.
  • the second light-shielding film 32-2 as described above contains, for example, tungsten (W) as a main component.
  • the second light shielding film 32-2 may have an absorption characteristic mainly for light having a wavelength in the near infrared region.
  • Such a second light-shielding film 32-3 contains, for example, a carbonized material such as carbon black or titanium black as its main component.
  • At least the first light-shielding film 32-1 has a reflection characteristic for light having a wavelength in the near-infrared region, so that the light traveling from the inside of the semiconductor substrate 10 to the outside of the semiconductor substrate 10 via the first surface S1 For example, the reflected light RL of FIG. 10 described later is reflected and travels toward the inside of the semiconductor substrate 10 again. If the first light-shielding film 32-1 has an absorption characteristic for light having a wavelength in the near-infrared region, such reflected light RL is generated inside the semiconductor substrate 10 (more specifically, the PD 11). Since it does not return to, the sensitivity may decrease.
  • the first light-shielding film 32-1 has a reflection characteristic with respect to light having a wavelength in the near-infrared region, so that a decrease in sensitivity can be suppressed.
  • the light shielding film 32 may be formed of a single film, or may be formed of a laminated film having three or more layers.
  • the waveguide 36 is provided, for example, from the on-chip lens 35 toward the opening 32A of the light shielding film 32.
  • the waveguide 36 is provided for each pixel 50, for example, between the on-chip lens 35 and the first surface S1 of the semiconductor substrate 10.
  • the waveguide 36 is for guiding the light L condensed by the on-chip lens 35 to the PD 11 (semiconductor substrate 10).
  • the waveguide 36 is formed, for example, so as to be sandwiched between the low refractive index materials 37. In other words, the waveguide 36 is surrounded by the low refractive index material 37.
  • the refractive index of the material forming the waveguide 36 is higher than that of the low refractive index material 37.
  • the waveguide 36 is made of silicon nitride (SiN), and the low refractive index material 37 is made of silicon oxide (SiO).
  • the on-chip lens 35 is provided on the light incident side of the light shielding film 32. In other words, the on-chip lens 35 covers the first surface S1 of the semiconductor substrate 10 with the light shielding film 32 in between.
  • the on-chip lens 35 is provided for each pixel 50.
  • the light incident on the on-chip lens 35 is focused on the PD 11 for each pixel 50.
  • the lens system of the on-chip lens 35 is set to a value according to the size of the pixel 50.
  • Examples of the material of the on-chip lens 35 include an organic material and a silicon oxide film (SiO 2 ).
  • signal charges for example, electrons
  • the imaging device 1 signal charges (for example, electrons) are acquired as follows.
  • the light passes through the on-chip lens 35, the waveguide 36 and the like and is incident on the first surface S1 of the semiconductor substrate 10, the light (light having a wavelength in the near infrared region) is detected (absorbed) by the PD 11 of each pixel 50. And photoelectrically converted.
  • the electron-hole pairs generated in the PD 11 for example, electrons move to the FD 12 and are accumulated therein, and holes move to the p-type region and are discharged.
  • the electrons accumulated in the FD 12 are output to the vertical signal line VSL as a light accumulation signal for each pixel 50.
  • the opening 32A of the light shielding film 32 satisfies the formula (1). That is, in each pixel 50, the area (area A) of the region covered with the light shielding film 32 is larger than the area (area B) of the opening 32A of the light shielding film 32.
  • light reflected at the interface between the semiconductor substrate 10 and the wiring layer 20 or inside the wiring layer 20 enters the light shielding film 32, and the first surface of the semiconductor substrate 10 is reflected. It becomes difficult to radiate from S1 to the outside of the semiconductor substrate 10.
  • this function and effect will be described using a comparative example.
  • FIG. 7 and 8 show a schematic configuration of a main part of an imaging device (imaging device 100) according to a comparative example.
  • FIG. 7 shows a cross-sectional configuration of the image pickup apparatus 100, and corresponds to FIG. 1 showing the image pickup apparatus 1.
  • FIG. 8 shows a planar configuration of the image pickup apparatus 100, and corresponds to FIG. 3 showing the image pickup apparatus 1.
  • the first surface S1 of the semiconductor substrate 10 is the light incident surface
  • the wiring layer 20 is laminated on the second surface S2, similarly to the imaging device 1. That is, the imaging device 100 is a backside illumination type imaging device.
  • the back-illuminated imaging device 100 is more likely to generate reflected light RL than the front-illuminated imaging device. This is because the image pickup device 100 has, on the side of the second surface S2 of the semiconductor substrate 10, an interface between the semiconductor substrate 10 (second surface S2) and the wiring layer 20 and an interface between the wiring 21 in the wiring layer 20 (the wiring 21 and the interlayer). This is because it has an interface with the insulating film 22.
  • the light L condensed by the on-chip lens 35 enters the inside of the semiconductor substrate 10 from the first surface S1.
  • the semiconductor substrate 10 made of silicon (Si) has lower sensitivity (or lower quantum efficiency) to light having a wavelength in the near infrared region than light having a wavelength in the visible region.
  • the semiconductor substrate 10 since the semiconductor substrate 10 is in a semitransparent state with respect to light having a wavelength in the near infrared region, the light L penetrates deeply in the thickness direction of the semiconductor substrate 10. This light L is reflected at the interface between the semiconductor substrate 10 and the wiring layer 20 or in the wiring layer 20 to become reflected light RL.
  • the front-illuminated imaging device such an interface does not exist on the second surface side of the semiconductor substrate. Therefore, in the front-illuminated imaging device, the light that has entered the inside of the semiconductor substrate from the first surface is less likely to be reflected on the second surface side of the semiconductor substrate.
  • the reflected light RL generated on the second surface S2 side of the semiconductor substrate 10 is emitted from the first surface S1 to the outside of the semiconductor substrate 10 through the opening 32A of the light shielding film 32.
  • the area of the region covered with the light shielding film 32 is smaller than the area of the opening 32A of the light shielding film 32. Therefore, a large amount of reflected light RL is emitted from the first surface S1 to the outside of the semiconductor substrate 10 via the opening 32A.
  • the reflected light RL emitted to the outside of the semiconductor substrate 10 has a great influence on imaging information.
  • the reflected light RL emitted to the outside of the semiconductor substrate 10 may cause flare or ghost.
  • multiple reflection of the reflected light RL may occur between the lenses or between the lens and the semiconductor substrate 10, which may cause a distance measuring error.
  • the area (area A) of the region covered by the light shielding film 32 is the area (area) of the opening 32A of the light shielding film 32. Since the reflected light RL is larger than that in B), even if the reflected light RL is generated on the second surface S2 side of the semiconductor substrate 10, compared to the imaging device 100, the reflected light RL is outside the semiconductor substrate 10 from the first surface S1. Hard to be released.
  • FIG. 9 shows the reflected light RL generated by the imaging device 1.
  • the reflected light RL traveling from the second surface S2 side of the semiconductor substrate 10 to the first surface S1 side is incident on the light shielding film 32 and, for example, travels from the light shielding film 32 to the inside of the semiconductor substrate 10 again.
  • the reflected light RL is less likely to be radiated to the outside of the semiconductor substrate 10, so that the influence of the reflected light RL on the imaged information can be reduced, and the occurrence of flare or ghost can be suppressed. ..
  • the distance measuring error can be reduced.
  • 10A and 10B show reflected light (reflected light RL in FIGS. 7 and 8) emitted from the first surface S1 of the semiconductor substrate 10 to the outside of the semiconductor substrate 10 and the semiconductor substrate 10 by using an optical simulation. This is the relationship with the absorbed light.
  • 10A shows the result of the image pickup apparatus 100
  • FIG. 10B shows the result of the image pickup apparatus 1.
  • the results of the imaging devices 1 and 100 are compared for a wavelength of 950 nm. At this time, in the imaging device 100, 16% of the light is absorbed by the semiconductor substrate 10 and 22% of the reflected light is emitted to the outside of the semiconductor substrate 10, whereas in the imaging device 1, the semiconductor substrate 10 absorbs the reflected light.
  • the emitted light is 22%, and the reflected light emitted to the outside of the semiconductor substrate 10 is 20%. That is, in the image pickup apparatus 1, improvement in both absorption and reflection has been confirmed as compared with the image pickup apparatus 100. Also from the result of this optical simulation, since the opening 32A of the light shielding film 32 satisfies the expression (1), the reflected light RL emitted to the outside of the semiconductor substrate 10 can be reduced and the wavelength in the near infrared region can be more efficiently achieved. It can be seen that the above light can be absorbed by the semiconductor substrate 10.
  • the image pickup apparatus 1 by disposing the light shielding film 32 on the minimum converging diameter portion 35F of the on-chip lens 35, the reduction in sensitivity can be suppressed even if the opening 32A is made small.
  • the imaging device 1 is provided with the waveguide 36, it is possible to improve the sensitivity as compared with the imaging device 1.
  • the opening 32A of the light shielding film 32 satisfies the formula (1), and therefore, at the interface between the semiconductor substrate 10 and the wiring layer 20, or in the wiring layer 20. It is possible to prevent the reflected light (reflected light RL) from being emitted to the outside of the semiconductor substrate 10. Therefore, it is possible to suppress the influence on the image pickup signal due to the reflected light RL inside the image pickup apparatus 1.
  • the light shielding film 32 on the minimum converging diameter portion 35F of the on-chip lens 35, it is possible to suppress the decrease in sensitivity.
  • the imaging device 1 is provided with the waveguide 36, it is possible to improve the sensitivity as compared with the imaging device 1.
  • FIG. 11 shows a schematic cross-sectional configuration of a main part of an imaging device (imaging device 1A) according to the first modification of the above embodiment.
  • FIG. 11 corresponds to FIG. 1 showing the image pickup apparatus 1.
  • the semiconductor substrate 10 is provided with the separation groove 10T for separating the adjacent pixels 50.
  • the image pickup apparatus 1A according to Modification 1 has the same configuration as the image pickup apparatus 1 of the above-described embodiment, and the operation and effect thereof are also the same.
  • PD 11 and FD 12 shown in FIG. 1 are omitted.
  • the separation groove 10T is provided, for example, through the semiconductor substrate 10 in the thickness direction from the first surface S1 to the second surface S2.
  • the separation groove 10T has, for example, a lattice-shaped planar shape, and is arranged so as to surround each pixel 50.
  • An insulating material such as silicon oxide (SiO) is embedded in the isolation trench 10T.
  • a buried light-shielding portion 13 is provided in the separation groove 10T, for example.
  • the embedded light-shielding portion 13 is made of a light-shielding material, and is provided from the second surface S2 to part of the separation groove 10T in the depth direction (Z-axis direction).
  • Examples of the light-shielding material forming the embedded light-shielding portion 13 include metal materials such as tungsten (W), aluminum (Al), and copper (Cu).
  • the size H in the depth direction of the embedded light-shielding portion 13 preferably satisfies the following expression (3). H>P/2 x tan(a) (3) However, P is a size of one side of each pixel 50, and a is a critical angle with respect to the separation groove 10T.
  • n 1 is the refractive index of the isolation trench 10T
  • n 2 is the refractive index of the semiconductor substrate 10.
  • n 1 is about 1.45 and n 2 is about 3.7.
  • the critical angle a with respect to the separation groove 10T is about 23°.
  • the reflected light RL that enters the separation groove 10T at an angle smaller than the critical angle a enters the adjacent pixel 50. Can be suppressed. Therefore, it is possible to more effectively suppress the occurrence of crosstalk between the pixels 50.
  • the opening 32A of the light shielding film 32 satisfies the expression (1), so that the interface between the semiconductor substrate 10 and the wiring layer 20, or The light reflected in the wiring layer 20 is incident on the light shielding film 32 and is less likely to be emitted from the first surface S1 of the semiconductor substrate 10 to the outside of the semiconductor substrate 10.
  • the separation groove 10T for partitioning the pixels 50 is provided, the occurrence of crosstalk between the pixels 50 can be suppressed more effectively. Thereby, for example, it becomes possible to obtain an infrared image or a ranging image with high spatial resolution.
  • the embedded light-shielding portion 13 so that the size H in the depth direction satisfies the above expression (3) in the separation groove 10T, it is possible to more effectively suppress the occurrence of crosstalk.
  • FIG. 12 shows a schematic cross-sectional configuration of a main part of an imaging device (imaging device 1B) according to the second modification of the above embodiment.
  • FIG. 12 shows the configuration of one pixel 50.
  • each pixel 50 is provided with one PD 11, two transfer transistors (transfer transistors TGA, TGB), and two FDs (FD12A, 12B).
  • the image pickup apparatus 1B is preferably used, for example, in a distance measuring system using an indirect ToF (Time of Flight) method.
  • the distance measuring system using the indirect ToF method the light reflected by the active light emitted from the light source in a certain phase upon the object is received by the image pickup apparatus 1B.
  • ToF Time of Flight
  • the image pickup apparatus 1B this light is distributed to a plurality of areas (FD12A, 12B). Except for this point, the image pickup apparatus 1B according to Modification 2 has the same configuration as the image pickup apparatus 1 of the above-described embodiment, and the operation and effect thereof are also the same.
  • FIG. 13 shows an example of the circuit configuration of each pixel 50.
  • the cathode electrode of PD11 is connected to the transfer transistor TGA and the transfer transistor TGB, and the discharge transistor OFG.
  • the transfer transistor TGA is electrically connected to the gate electrode of the amplification transistor AMPA.
  • the node electrically connected to the gate electrode of the amplification transistor AMPA is FD12A.
  • the drain electrode of the selection transistor SELA is connected to the source electrode of the amplification transistor AMPA. When the selection transistor SELA becomes conductive, the signal supplied from the amplification transistor AMPA is output to the vertical signal line VSLA.
  • a capacitance switching transistor FDGA and an additional capacitance CA are connected between the FD 12A and the reset transistor RSTA.
  • the transfer transistor TGB is electrically connected to the gate electrode of the amplification transistor AMPB.
  • the node electrically connected to the gate electrode of the amplification transistor AMPB is the FD 12B.
  • the drain electrode of the selection transistor SELB is connected to the source electrode of the amplification transistor AMPB.
  • the selection transistor SELB becomes conductive, the signal supplied from the amplification transistor AMPB is output to the vertical signal line VSLB.
  • the capacitance switching transistor FDGB and the additional capacitance CB are connected between the FD 12B and the reset transistor RSTB.
  • the transfer transistors TGA and TGB correspond to a specific example of the first transfer transistor and the second transfer transistor of the present disclosure
  • the FDs 12A and 12B are specific examples of the first floating diffusion capacitance and the second floating diffusion capacitance of the present disclosure. Corresponds to the example.
  • FIG. 14 shows an example of a plane (XY plane) configuration of the PD 11, the transfer transistors TGA and TGB, and the discharge transistor OFG.
  • the PD 11 has, for example, a substantially octagonal planar shape, and the transfer transistors TGA and TGB and the discharge transistor OFG are arranged, for example, near the edge of the PD 11.
  • FIG. 15 shows an example of a planar configuration of the light shielding film 32.
  • the opening 32A of the light shielding film 32 has, for example, a substantially octagonal planar shape corresponding to the planar shape of the PD 11.
  • the pixel 50 may have a pixel structure of CAPD (Current Assisted Photonic Demodulator), for example.
  • the semiconductor substrate 10 has a voltage applying portion, and the voltage is directly applied to the semiconductor substrate 10.
  • a current is generated in the semiconductor substrate 10, and a wide area in the semiconductor substrate 10 can be modulated at high speed. (See, for example, JP-A-2018-117117).
  • 16 and 17 show another example of the configuration of the pixel 50 of the image pickup apparatus 1B.
  • 16 shows a planar configuration of the pixel 50
  • FIG. 17 shows a circuit configuration of the pixel 50.
  • 12 and 13 show the case where the signal charges are stored in the FDs 12A and 12B, but as shown in FIGS. 16 and 17, the signal charges are stored in the MEM (Memory, charge storage unit). It may be like this.
  • MEM Memory, charge storage unit
  • each pixel 50 is provided with two MEMs (MEM-A, MEM-B) and transfer transistors VGA, VGB for transferring signal charges from the PD 11 to the MEM-A, MEM-B. Has been.
  • FIG. 18 shows another example of the planar configuration of the pixel 50 shown in FIG. 16, and FIG. 19 shows another example of the circuit configuration of the pixel 50 shown in FIG.
  • the FDs FDA and FDB in FIG. 17 to which the signal charges are sent from the transfer transistors TGA and TGB may be shared.
  • the opening 32A of the light shielding film 32 satisfies the expression (1), and thus the interface between the semiconductor substrate 10 and the wiring layer 20, or The light reflected in the wiring layer 20 is incident on the light shielding film 32 and is less likely to be emitted from the first surface S1 of the semiconductor substrate 10 to the outside of the semiconductor substrate 10.
  • 20A, 20B, and 20C are schematic diagrams illustrating an example of the overall configuration of the imaging devices 1, 1A, and 1B illustrated in FIG. 1 and the like.
  • the imaging devices 1, 1A, 1B include, for example, a pixel region 110A in which a plurality of pixels 50 are provided, a control circuit 110B, a logic circuit 110C, and a drive circuit 110D.
  • the pixel region 110A, the control circuit 110B, the logic circuit 110C, and the drive circuit 110D may be configured as a single chip as shown in FIG. 20A, or a plurality of them may be provided as shown in FIGS. 20B and 20C. May be configured as a chip.
  • FIG. 21 is a block diagram showing an example of the configuration of the distance measuring system 3 to which the image pickup devices 1, 1A, and 1B are applied.
  • the distance measuring system 3 includes, for example, a light source unit 70, a light diffusion member 71, a light source driving unit 72, and the imaging system 2.
  • the imaging system 2 includes, for example, a lens group 81, a bandpass filter 82, a light receiving section 60, a control section 61, an A/D conversion section 62, and an arithmetic processing section 63.
  • the light receiving unit 60 is configured by the pixel area 110A according to the above-described embodiments and the like.
  • the light source unit 70 irradiates infrared light in the wavelength range of 700 nm to 1100 nm, for example.
  • the light source unit 70 includes a laser light source, an LED (Light Emitting Diode) light source, or the like.
  • the center wavelength of the light source unit 70 is, for example, 850 nm, 905 nm or 940 nm.
  • the light source unit 70 is driven by a light source driving unit 72 controlled by the control unit 61.
  • the wavelength of infrared light emitted by the light source unit 70 may be appropriately selected depending on the application and configuration of the distance measuring system. For example, a value such as approximately 850 nanometers, approximately 905 nanometers, or approximately 940 nanometers can be selected as the center wavelength.
  • the lens group 81 and the bandpass filter 82 are provided on the light receiving surface side of the light receiving unit 60.
  • the light condensed by the lens group 81 enters the bandpass filter 82.
  • the bandpass filter 82 infrared light in a predetermined wavelength range is selectively transmitted.
  • the signal obtained by the light receiving unit 60 is digitized by the A/D conversion unit 62 and sent to the arithmetic processing unit 63.
  • the arithmetic processing unit 63 is configured to calculate the distance information of the object based on the data from the light receiving unit 60. This series of operations is controlled by the control unit 61, for example.
  • the light receiving unit 60, the A/D conversion unit 62, the arithmetic processing unit 63, the control unit 61, and the light source driving unit 72 are formed on a semiconductor substrate made of, for example, silicon.
  • the arithmetic processing unit 63 may obtain the distance information based on the pattern of the reflected light of the object, for example. That is, the ranging system 3 may be an indirect Time of Flight type ranging system. At this time, for example, infrared light is irradiated onto the object in a predetermined pattern. Alternatively, the arithmetic processing unit 63 may obtain the distance information based on the flight time of the reflected light of the object. The flight time of this light is measured by, for example, TDC (Time Digital Converter). That is, the distance measuring system 3 may be a direct type time of flight distance measuring system.
  • TDC Time Digital Converter
  • a light diffusing member 71 is arranged in front of the light source unit 70, and diffused light is emitted from the light diffusing member 71.
  • the light source unit 70 is modulated at a frequency of, for example, several 10 kHz to several 100 MHz.
  • distance information can be obtained by detecting the reflected light component in synchronization with the modulation of the light source unit 70.
  • FIG. 22 is a block diagram showing an example of the configuration of the distance measuring system 3A.
  • the imaging devices 1, 1A, 1B may be applied to such a distance measuring system 3A. Similar to the distance measuring system 3, the distance measuring system 3A also obtains distance information based on the flight time of reflected light. In the distance measuring system 3A, the light from the light source unit 70 is scanned by the scanning unit 73. Distance information can be obtained by detecting the reflected light component in synchronization with this scanning.
  • FIG. 23 is a block diagram showing an example of the configuration of the distance measuring system 3B.
  • the image pickup devices 1, 1A, 1B may be applied to such a distance measuring system 3B.
  • the object is irradiated with infrared light in a predetermined pattern.
  • distance information can be obtained based on the pattern of the reflected light of the object.
  • the light of the light source unit 70 is made into a spatially non-uniform predetermined pattern by the pattern projection unit 74, and the target object is irradiated with the light.
  • Distance information (or parallax information) can be obtained by detecting the spatial distribution information of the illuminance pattern and the distortion of the pattern image on the object.
  • FIG. 24 is a block diagram showing an example of the configuration of the distance measuring system 3C.
  • the image pickup devices 1, 1A, 1B may be applied to such a distance measuring system 3C.
  • the distance measuring system 3C is also configured to obtain stereoscopic information by disposing a plurality of light receiving units 60 at a distance.
  • the distance measuring system 3C may be one that emits diffused light as in the distance measuring system 3 or may be one that scans light from a light source as in the distance measuring system 3A. Similar to the system 3B, the infrared light may be emitted in a predetermined pattern.
  • 25A and 25B schematically show an example of a planar configuration of a portable electronic device to which the image pickup apparatus 1, 1A, 1B according to the above-described embodiments or the like is applied.
  • This portable electronic device includes, for example, a display unit, front cameras 90A and 90B, rear cameras 91A and 91B, and an IR light source. At least one of the front cameras 90A and 90B and the rear cameras 91A and 91B is configured by the image pickup devices 1, 1A and 1B.
  • FIG. 26 is a diagram showing a usage example of the image pickup devices 1, 1A, and 1B according to the above-described embodiments.
  • the imaging devices 1, 1A, 1B of the above-described embodiments and the like can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as described below. ..
  • ⁇ Devices that capture images used for viewing such as digital cameras and mobile devices with camera functions
  • Safe driving such as automatic stop and recognition of the driver's condition
  • Gestures of devices/users used for traffic such as in-vehicle sensors for taking images of the rear, surroundings, inside the vehicle, surveillance cameras for monitoring running vehicles and roads, distance sensors for distance measurement between vehicles, etc.
  • Devices and endoscopes that are used for home appliances such as TVs, refrigerators, and air conditioners, and devices that perform blood vessel imaging by receiving infrared light, in order to take images and operate the devices according to the gestures.
  • Devices used for medical and healthcare surveillance cameras for crime prevention, cameras used for person authentication, devices used for security, skin measuring instruments for skin, and scalp
  • a device used for beauty such as a microscope
  • a device used for sports such as an action camera or wearable camera for sports purposes.
  • ⁇ Devices used for agriculture such as cameras for monitoring the condition of fields and crops
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 27 is a block diagram showing an example of a schematic configuration of a system for acquiring in-vivo information of a patient using a capsule endoscope to which the technology according to the present disclosure (this technology) can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by a patient at the time of inspection.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach and the intestine by peristaltic movement or the like until it is naturally discharged from the patient.
  • Images (hereinafter, also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information regarding the in-vivo images is sequentially wirelessly transmitted to the external control device 10200 outside the body.
  • the external control device 10200 centrally controls the operation of the in-vivo information acquisition system 10001. Further, the external control device 10200 receives the information about the in-vivo image transmitted from the capsule endoscope 10100, and displays the in-vivo image on the display device (not shown) based on the received information about the in-vivo image. Image data for displaying is generated.
  • in-vivo images of the inside of the patient's body can be obtained at any time during the period from when the capsule endoscope 10100 is swallowed until it is discharged.
  • the capsule endoscope 10100 has a capsule-type housing 10101, and in the housing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power feeding unit 10115, and a power supply unit. 10116 and the control part 10117 are stored.
  • the light source unit 10111 includes a light source such as an LED (light emitting diode), and irradiates the imaging visual field of the imaging unit 10112 with light.
  • a light source such as an LED (light emitting diode)
  • the image pickup unit 10112 is composed of an image pickup device and an optical system including a plurality of lenses provided in front of the image pickup device. Reflected light (hereinafter, referred to as observation light) of the light applied to the body tissue as the observation target is condensed by the optical system and is incident on the imaging device. In the image pickup unit 10112, the image pickup device photoelectrically converts the observation light incident thereon to generate an image signal corresponding to the observation light. The image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is configured by a processor such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the image signal subjected to the signal processing to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs a predetermined process such as a modulation process on the image signal subjected to the signal processing by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A.
  • the wireless communication unit 10114 receives a control signal regarding drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A.
  • the wireless communication unit 10114 provides the control signal received from the external control device 10200 to the control unit 10117.
  • the power feeding unit 10115 includes an antenna coil for receiving power, a power regeneration circuit that regenerates power from the current generated in the antenna coil, a booster circuit, and the like.
  • the power supply unit 10115 generates electric power using the principle of so-called non-contact charging.
  • the power supply unit 10116 is composed of a secondary battery and stores the electric power generated by the power supply unit 10115.
  • FIG. 27 in order to avoid making the drawing complicated, the illustration of the arrow or the like indicating the supply destination of the electric power from the power supply unit 10116 is omitted, but the electric power stored in the power supply unit 10116 is the light source unit 10111.
  • the image capturing unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the control unit 10117 and can be used to drive them.
  • the control unit 10117 includes a processor such as a CPU, and controls the driving of the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115 from the external control device 10200. Control as appropriate.
  • the external control device 10200 is configured by a processor such as a CPU or a GPU, or a microcomputer or a control board on which a processor and a memory element such as a memory are mixed.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • a light irradiation condition for the observation target in the light source unit 10111 can be changed by a control signal from the external control device 10200.
  • the imaging condition for example, the frame rate in the imaging unit 10112, the exposure value, etc.
  • the control signal from the external control device 10200 may change the content of the processing in the image processing unit 10113 and the condition (for example, the transmission interval, the number of transmission images, etc.) at which the wireless communication unit 10114 transmits the image signal. ..
  • the external control device 10200 performs various image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing include development processing (demosaic processing), high image quality processing (band emphasis processing, super-resolution processing, NR (Noise reduction) processing and/or camera shake correction processing), and/or enlargement processing ( Various signal processing such as electronic zoom processing) can be performed.
  • the external control device 10200 controls driving of the display device to display an in-vivo image captured based on the generated image data.
  • the external control device 10200 may record the generated image data in a recording device (not shown) or may print it out by a printing device (not shown).
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. This improves the detection accuracy.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 28 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (the present technology) can be applied.
  • FIG. 28 illustrates a situation in which an operator (doctor) 11131 is operating on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 into which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid endoscope having the rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. It is irradiated toward the observation target in the body cavity of the patient 11132 via the lens.
  • the endoscope 11100 may be a direct-viewing endoscope, or may be a perspective or side-viewing endoscope.
  • An optical system and an image pickup device are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup device by the optical system.
  • the observation light is photoelectrically converted by the imaging element, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to a camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and centrally controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives the image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal subjected to the image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various kinds of information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for cauterization of tissue, incision, sealing of blood vessel, or the like.
  • the pneumoperitoneum device 11206 is used to inflate the body cavity of the patient 11132 through the pneumoperitoneum tube 11111 in order to inflate the body cavity of the patient 11132 for the purpose of securing the visual field by the endoscope 11100 and the working space of the operator.
  • the recorder 11207 is a device capable of recording various information regarding surgery.
  • the printer 11208 is a device that can print various types of information regarding surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies irradiation light to the endoscope 11100 when imaging a surgical site can be configured by, for example, an LED, a laser light source, or a white light source configured by a combination thereof.
  • a white light source is formed by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy, so that the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is time-divided to irradiate the observation target, and the drive of the image pickup device of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to take the captured image in time division. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the driving of the image sensor of the camera head 11102 in synchronization with the timing of changing the intensity of the light to acquire an image in a time-division manner and combining the images, a high dynamic image without so-called blackout and overexposure is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of absorption of light in body tissues, by irradiating a narrow band of light as compared with the irradiation light (that is, white light) during normal observation, the mucosal surface layer A so-called narrow band imaging (Narrow Band Imaging) is performed, in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • narrow band imaging Narrow Band Imaging
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating the excitation light may be performed.
  • the excitation light corresponding to the fluorescence wavelength of the reagent can be irradiated to obtain a fluorescence image or the like.
  • the light source device 11203 may be configured to be capable of supplying narrowband light and/or excitation light compatible with such special light observation.
  • FIG. 29 is a block diagram showing an example of the functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at the connecting portion with the lens barrel 11101.
  • the observation light taken from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the number of image pickup devices forming the image pickup unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • each image pickup element may generate image signals corresponding to RGB, and these may be combined to obtain a color image.
  • the image capturing unit 11402 may be configured to have a pair of image capturing elements for respectively acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display.
  • the 3D display enables the operator 11131 to more accurately understand the depth of the living tissue in the operation site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Accordingly, the magnification and focus of the image captured by the image capturing unit 11402 can be adjusted appropriately.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the driving of the camera head 11102 from the CCU 11201, and supplies it to the camera head control unit 11405.
  • the control signal includes, for example, information specifying a frame rate of a captured image, information specifying an exposure value at the time of capturing, and/or information specifying a magnification and a focus of the captured image. Contains information about the condition.
  • the image capturing conditions such as the frame rate, the exposure value, the magnification, and the focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head controller 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives the image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal that is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls regarding imaging of a surgical site or the like by the endoscope 11100 and display of a captured image obtained by imaging the surgical site or the like. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image of the surgical site or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects a surgical instrument such as forceps, a specific living body part, bleeding, and a mist when the energy treatment instrument 11112 is used, by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgery support information on the image of the operation unit. By displaying the surgery support information in a superimposed manner and presenting it to the operator 11131, the burden on the operator 11131 can be reduced, and the operator 11131 can reliably proceed with the surgery.
  • a transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electric signal cable compatible with electric signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 among the configurations described above.
  • the detection accuracy is improved.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of movement of an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), and the like. It may be realized as a device mounted on the body.
  • FIG. 30 is a block diagram showing a schematic configuration example of a vehicle control system which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjusting and a control device such as a braking device for generating a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device that substitutes for a key.
  • the body system control unit 12020 receives these radio waves or signals and controls the vehicle door lock device, power window device, lamp, and the like.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the image capturing unit 12031 to capture an image of the vehicle exterior and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image or can output the information as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of tiredness or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether or not the driver is asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, a vehicle collision warning, or a vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, or the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, thereby It is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the voice image output unit 12052 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to a passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 31 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • the image capturing unit 12101 provided on the front nose and the image capturing unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like.
  • FIG. 31 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in a rear bumper or a back door is shown.
  • a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image capturing units 12101 to 12104 may be a stereo camera including a plurality of image capturing elements, or may be an image capturing element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object within the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100). By determining, the closest three-dimensional object on the traveling path of the vehicle 12100, which is traveling in the substantially same direction as the vehicle 12100 at a predetermined speed (for example, 0 km/h or more), can be extracted as the preceding vehicle. it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation of the driver.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 uses the distance information obtained from the image capturing units 12101 to 12104 to convert three-dimensional object data regarding a three-dimensional object into another three-dimensional object such as a two-wheeled vehicle, an ordinary vehicle, a large vehicle, a pedestrian, and a utility pole. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or more than the set value and there is a possibility of collision, the microcomputer 12051 outputs the audio through the audio speaker 12061 and the display unit 12062. A driver can be assisted for collision avoidance by outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize the pedestrian by determining whether or not the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • a procedure of extracting a feature point in an image captured by the image capturing units 12101 to 12104 as an infrared camera and a pattern matching process on a series of feature points indicating the contour of an object are performed to determine whether the pedestrian is a pedestrian. It is performed by the procedure of determining.
  • the audio image output unit 12052 causes the recognized pedestrian to have a rectangular contour line for emphasis.
  • the display unit 12062 is controlled so as to superimpose and display.
  • the audio image output unit 12052 may control the display unit 12062 to display an icon indicating a pedestrian or the like at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the technology according to the present disclosure can be applied to the image capturing unit 12031, it is possible to obtain a captured image that is easier to see, and thus it is possible to reduce fatigue of the driver.
  • the present disclosure is not limited to the above-described embodiment and the like, and various modifications can be made.
  • the configurations of the image capturing apparatus, the image capturing system, and the distance measuring system described in the above embodiments are examples, and may further include other components.
  • the material and thickness of each layer are also examples, and are not limited to the above.
  • the present disclosure may have the following configurations.
  • the imaging device and the imaging system having the following configurations, since the opening of the light shielding film satisfies the expression (1), light and diffraction reflected at the interface between the semiconductor substrate and the wiring layer or in the wiring layer.
  • the emitted light can be suppressed from being emitted to the outside of the semiconductor substrate. Therefore, it is possible to suppress the influence on the imaging information due to the reflection of light inside the imaging device.
  • a semiconductor substrate having a first surface and a second surface facing each other and provided with a plurality of pixels; A wiring layer which is provided on the second surface side of the semiconductor substrate and which sends a signal to each of the plurality of pixels; A light-shielding film that faces the wiring layer with the semiconductor substrate in between and that has an opening that satisfies the following formula (1) for each pixel;
  • An image pickup device comprising: a waveguide provided on the first surface side of the semiconductor substrate for each of the plurality of pixels, the waveguide extending toward the opening of the light shielding film.
  • B is the area of the opening in each pixel
  • A is the area of the first surface covered with the light shielding film in each pixel.
  • an on-chip lens which is provided for each of the plurality of pixels and covers the semiconductor substrate with the light-shielding film interposed therebetween is provided.
  • the image pickup device according to (1) wherein the light-shielding film is provided on a minimum converging diameter portion of the on-chip lens.
  • the said light shielding film is an imaging device as described in said (1) or (2) which satisfy
  • the semiconductor substrate is further A separation groove for separating the adjacent pixels,
  • the size H of the embedded light-shielding portion in the depth direction satisfies the following expression (3). H>P/2 x tan(a) (3) However, P is the size of one side of each pixel, and a is a critical angle with respect to the separation groove.
  • the light shielding film contains a metal.
  • the light shielding film has a laminated structure including a first light shielding film and a second light shielding film in this order from the semiconductor substrate side.
  • the first light-shielding film includes a material that reflects light having a wavelength in the near-infrared region.
  • the second light shielding film includes a material that absorbs light having a wavelength in the near infrared region.
  • the first light-shielding film includes aluminum (Al) or copper (Cu), The imaging device according to any one of (8) to (10), wherein the second light-shielding film contains tungsten (W), carbon black, or titanium black. (12) Furthermore, On the semiconductor substrate, a photoelectric conversion unit provided for each of the plurality of pixels, A first transfer transistor connected to each of the plurality of photoelectric conversion units; The imaging device according to any one of (1) to (11), further including a first floating diffusion capacitance that stores signal charges transferred from the photoelectric conversion unit via the first transfer transistor.
  • a second transfer transistor connected to each of the plurality of photoelectric conversion units together with the first transfer transistor; A second floating diffusion capacitance that selectively accumulates the signal charge transferred from the photoelectric conversion unit via the second transfer transistor among the first transfer transistor and the second transfer transistor.
  • An imaging device An arithmetic processing unit to which a signal from the imaging device is input,
  • the imaging device is A semiconductor substrate having a first surface and a second surface facing each other and provided with a plurality of pixels;
  • a wiring layer which is provided on the second surface side of the semiconductor substrate and which sends a signal to each of the plurality of pixels;
  • a light-shielding film that faces the wiring layer with the semiconductor substrate in between and that has an opening that satisfies the following formula (1) for each pixel;
  • An imaging system comprising: a waveguide provided to the first surface side of the semiconductor substrate for each of the plurality of pixels, and a waveguide facing the opening of the light shielding film.
  • B is the area of the opening in each pixel
  • A is the area of the first surface covered with the light shielding film in each pixel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

対向する第1面および第2面を有するとともに、複数の画素が設けられた半導体基板と、前記半導体基板の第2面側に設けられ、前記複数の画素毎に信号が送られる配線層と、前記半導体基板を間にして前記配線層に対向し、かつ、前記画素毎に以下の式(1)を満たす開口を有する遮光膜と、前記複数の画素毎に前記半導体基板の前記第1面側に設けられた、前記遮光膜の前記開口に向かう導波路とを備えた撮像装置。 B<A ・・・・・(1) ただし、Bは各画素における前記開口の面積であり、Aは各画素において前記遮光膜に覆われた前記第1面の面積である。

Description

撮像装置および撮像システム
 本開示は、半導体基板および配線層を有する撮像装置および撮像システムに関する。
 近年、近赤外領域の波長の光を受光する撮像装置の開発が進められている。例えば、このような撮像装置は、所定の地点から対象までの距離情報を得るための測距システム等に適用される(例えば、特許文献1参照)。
特開2017-150893号公報
 このような撮像装置では、撮像装置内部での光の反射および回折が撮像情報に影響を及ぼすおそれがある。
 したがって、撮像装置内部での光の反射および回折に起因する撮像情報への影響を抑えることが可能な撮像装置およびこの撮像装置を備えた撮像システムを提供することが望ましい。
 本開示の一実施の形態に係る撮像装置は、対向する第1面および第2面を有するとともに、複数の画素が設けられた半導体基板と、半導体基板の第2面側に設けられ、複数の画素毎に信号が送られる配線層と、半導体基板を間にして配線層に対向し、かつ、画素毎に以下の式(1)を満たす開口を有する遮光膜と、複数の画素毎に半導体基板の第1面側に設けられた、遮光膜の開口に向かう導波路とを備えたものである。

  B<A ・・・・・(1)

 ただし、Bは各画素における開口の面積であり、Aは各画素において遮光膜に覆われた第1面の面積である。
 本開示の一実施の形態に係る撮像システムは、上記本開示の一実施の形態に係る撮像装置と、撮像装置からの信号が入力される演算処理部とを備えたものである。
 本開示の一実施の形態に係る撮像装置および撮像システムでは、遮光膜の開口が式(1)を満たしている。即ち、各画素では、遮光膜で覆われた領域の面積が、遮光膜の開口の面積よりも大きくなっている。これにより、半導体基板と配線層との界面、あるいは配線層内で反射された光および回折された光は、遮光膜に入射し、半導体基板の第1面から半導体基板の外側に放射されにくくなる。
 尚、上記内容は本開示の一例である。本開示の効果は、上述したものに限らず、他の異なる効果であってもよいし、更に他の効果を含んでいてもよい。
本開示の一実施の形態に係る撮像装置の要部の構成を表す断面模式図である。 図1に示した撮像装置の画素回路の構成の一例を表す図である。 図1に示した遮光膜等の平面構成を表す模式図である。 図3に示した遮光膜等の平面構成の他の例を表す模式図である。 図1に示したオンチップレンズの最小集光径部分について説明するための模式図である。 図1に示した遮光膜等の構成の一例を表す断面模式図である。 比較例に係る撮像装置の要部の構成を表す断面模式図である。 図7に示した遮光膜等の平面構成を表す模式図である。 図1に示した撮像装置の作用について説明するための模式図である。 図7に示した撮像装置の吸収光および反射光を表す図である。 図1に示した撮像装置の吸収光および反射光を表す図である。 変形例1に係る撮像装置の要部の構成を表す断面模式図である。 変形例2に係る撮像装置の要部の構成を表す断面模式図である。 図12に示した撮像装置の画素回路の構成の一例を表す図である。 図12に示したPD等の平面構成を表す模式図である。 図12に示した遮光膜の平面構成を表す模式図である。 図12に示した画素の構成の他の例を表す平面模式図である。 図16に示した画素の回路構成の一例を表す図である。 図16に示した画素の平面構成の他の例を表す平面模式図である。 図18に示した画素の回路構成の一例を表す図である。 図1等に示した撮像装置の全体構成の一例を表す模式図である。 図20Aに示した撮像装置の全体構成の他の例(1)を表す模式図である。 図20Aに示した撮像装置の全体構成の他の例(2)を表す模式図である。 図1等に示した撮像装置を適用した測距システムの構成の一例を表すブロック図である。 図21に示した測距システムの他の例(1)を表すブロック図(1)である。 図21に示した測距システムの他の例(2)を表すブロック図(2)である。 図21に示した測距システムの他の例(3)を表すブロック図(3)である。 図1等に示した撮像装置を適用した携帯型の電子機器の表面の構成の一例を表す平面模式図である。 図25Aに示した電子機器の裏面の構成の一例を表す平面模式図である。 図1等に示した撮像装置の使用例を示す図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示における実施形態について、図面を参照して詳細に説明する。なお、説明する順序は、下記の通りである。
1.実施の形態(各画素の半分より大きな領域が遮光膜で覆われた撮像装置)
2.変形例1(分離溝を有する例)
3.変形例2(各画素に2つのFD(Floating Diffusion)を有する例)
4.適用例
5.応用例
<実施の形態>
(撮像装置1の構成)
 図1は、本開示の一実施の形態に係る撮像装置(撮像装置1)の要部の断面構成の一例を模式的に表したものである。撮像装置1は、例えば裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、例えば、測距システム(後述
の図21の測距システム3等)等に適用される。この撮像装置1は、例えば、近赤外領域の波長の光を受光するように構成されている。近赤外領域の波長とは、例えば、波長800nm程度~1100nm程度である。
 撮像装置1は、半導体基板10、配線層20、反射防止膜31、遮光膜32、導波路36、低屈折率材料37およびオンチップレンズ35を含んでいる。半導体基板10は、受光面となる第1面S1と、第1面S1に対向する第2面S2とを有している。配線層20は、半導体基板10の第2面S2側に設けられ、半導体基板10に積層されている。この配線層20は多層配線層であり、複数の配線21および層間絶縁膜22を含んでいる。半導体基板10の第1面S1上に、例えば、半導体基板10側から反射防止膜31、遮光膜32、導波路36およびオンチップレンズ35がこの順に設けられている。
 撮像装置1は、画素領域(後述の図20A~図20Cの画素領域110A)に、複数の画素50を有している。複数の画素50は、例えば、行列状に配置されている。図1には、一方向(X方向)に沿って並ぶ4つの画素50が示されている。
 以下、撮像装置1の各構成要素について説明する。
 半導体基板10は、例えばp型のシリコン(Si)によって構成されている。半導体基板10には、画素50毎に、PD11およびFD12が設けられている。ここでは、PD11が本開示の光電変換部の一具体例に対応し、FD12が本開示の第1浮遊拡散容量の一具体例に対応する。
 PD11は、画素50毎に、半導体基板10(ここではSi基板)の厚み方向(Z方向)に形成された、例えばn型半導体領域である。このPD11は、半導体基板10の第1面S1および第2面S2近傍に設けられたp型半導体領域と、pn接合を有しており、所謂pn接合型のフォトダイオードである。FD12は、半導体基板10内の第2面S2近傍に設けられている。このFD12は、半導体基板10のp-ウェル層にn型の不純物を高濃度に注入することによって形成されたn型半導体領域である。
 半導体基板10の第2面S2近傍には、例えば、転送トランジスタ、リセットトランジスタ、増幅トランジスタ、選択トランジスタおよび排出トランジスタ等(後述の図2の転送トランジスタTG、リセットトランジスタRST、増幅トランジスタAMP、選択トランジスタSELおよび排出トランジスタOFG)が設けられている。この様なトランジスタは例えばMOSEFT(Metal Oxide Semiconductor Field Effect Transistor)であり、画素50毎に画素回路を構成する。
 図2は、画素回路の構成の一例を表している。
 PD11は、アノード電極が負側電源(例えば、グランド)に接続されており、受光した光(入射光)をその光量に応じた電荷量の光電荷に光電変換してその光電荷を蓄積する。PD11のカソード電極は、転送トランジスタTGを介して増幅トランジスタAMPのゲート電極と電気的に接続されている。増幅トランジスタAMPのゲート電極と電気的に繋がったノードが、FD12である。
 転送トランジスタTGは、PD11のカソード電極とFD12との間に接続されている。転送トランジスタTGのゲート電極には、転送パルスが転送線を介して与えられる。これにより、転送トランジスタTGは導通状態となり、PD11で光電変換された光電荷がFD12に転送される。PD11のカソード電極には、転送トランジスタTGとともに、排出トランジスタOFGが接続されている。
 リセットトランジスタRSTは、ドレイン電極が画素電源VDDに、ソース電極がFD12にそれぞれ接続されている。リセットトランジスタRSTのゲート電極には、リセットパルスがリセット線を介して与えられる。これにより、リセットトランジスタRSTは導通状態となり、FD12の電荷を画素電源VDDに捨てることによってFD12がリセットされる。
 増幅トランジスタAMPは、ゲート電極がFD12に、ドレイン電極が画素電源VDDにそれぞれ接続されている。そして、増幅トランジスタAMPは、リセットトランジスタRSTによってリセットされた後のFD12の電位をリセット信号として出力する。さらに、増幅トランジスタAMPは、転送トランジスタTGによって信号電荷が転送された後のFD12の電位を光蓄積信号として出力する。
 選択トランジスタSELは、例えば、ドレイン電極が増幅トランジスタAMPのソース電極に、ソース電極が垂直信号線VSLにそれぞれ接続されている。選択トランジスタSELのゲート電極には、選択パルスが選択線を介して与えられる。これにより、選択トランジスタSELは導通状態となり、画素50を選択状態として増幅トランジスタAMPから供給される信号が垂直信号線VSLに出力される。
 図2の例では、選択トランジスタSELを、増幅トランジスタAMPのソース電極と垂直信号線VSLとの間に接続する回路構成としたが、選択トランジスタSELを、画素電源VDDと増幅トランジスタAMPのドレイン電極との間に接続する回路構成を採ることも可能である。
 各画素50の回路構成は、上述した画素構成のものに限られるものではない。例えば、増幅トランジスタAMPと選択トランジスタSELとを兼用するトランジスタを含む画素構成のもの等であってもよく、その画素回路の構成は問わない。転送トランジスタTG以外のトランジスタは、複数の画素50間で共有することも可能である。
 配線層20に含まれる複数の配線21は、上記トランジスタのゲート電極の他、例えば、画素回路および垂直信号線VSL等を構成している。配線21は、例えば、画素50を繰り返し単位として形成されている。層間絶縁膜22は、例えばSiO(酸化シリコン)膜等により構成されている。
 反射防止膜31は、半導体基板10の第1面S1を覆っている。反射防止膜31は、例えば、画素領域全面にわたって設けられている。この反射防止膜31は、例えば、窒化シリコン(SiN),酸化アルミニウム(Al23),酸化シリコン(SiO2),酸化ハフニウム(HfO2)または酸化タンタル(Ta25)等により構成されている。
 反射防止膜31上に設けられた遮光膜32は、近赤外領域の波長の光を透過させない特性を有するものである。このような遮光膜32を設けることにより、隣り合う画素50間の斜入射光のクロストークによる混色を抑制することが可能となる。この遮光膜32は、各画素50のPD11に対向する位置に開口32Aを有している。この遮光膜32の開口32Aを介してPD11に光が入射するようになっている。
 図3は、遮光膜32およびオンチップレンズ35の平面(XY平面)構成の一例を表したものである。図3では、2行×2列の4つの画素50が表されている。各画素50は、例えば、一辺の大きさがPの略正方形の平面形状を有している。この各画素50の中央部に、遮光膜32の開口32Aが設けられている。開口32Aは、例えば、一辺の大きさがMの略正方形の平面形状を有している。本実施の形態では、この開口32Aを有する遮光膜32が、下記の式(1)を満たしている。

  B<A ・・・・・(1)

 ただし、Bは各画素50における開口32Aの面積であり、Aは各画素50において遮光膜32に覆われた半導体基板10の第1面S1の面積である。
 例えば、画素50および開口32Aが、上記の平面形状を有するとき、B=M2、A=P2-M2で求められる。例えば、Pが10μmであるとき、Mが7μmであれば、式(1)が満たされる。このとき、各画素50の面積(P2)に占める面積Aの割合は、51%となる。詳細は後述するが、このように遮光膜32が式(1)を満たすことにより、半導体基板10(第2面S2)と配線層20との界面、あるいは、配線層20で反射された光(後述の図10の反射光RL)が、半導体基板10の第1面S1から半導体基板10の外側(オンチップレンズ35側)に放射されにくくなる。
 遮光膜32は、更に、以下の式(2)を満たすことが好ましい。

  A≧0.75×(A+B)・・・・・(2)
 遮光膜32が式(2)を満たす、即ち、各画素50の面積(即ち、面積Aと面積Bとの和)に占める面積Aの割合を75%以上にすることにより、より効果的に、反射光RLの半導体基板10の外側への放出を抑えることができる。例えば、Pが10μmであるとき、Mが5μmであれば、各画素50の面積に占める面積Aの割合が75%(A=0.75×(A+B))となる。
 図4は、遮光膜32およびオンチップレンズ35の平面構成の他の例を表している。遮光膜32の開口32Aの平面形状は、例えば、略八角形等の多角形であってもよい。図示は省略するが、開口32Aは、例えば略楕円状の平面形状を有していてもよい。
 図5は、オンチップレンズ35により集光された光(光L)と遮光膜32との関係を表している。積層方向(Z軸方向)では、オンチップレンズ35の最小集光径部分35Fに、遮光膜32が配置されていることが好ましい。最小集光径部分35Fは、Z軸方向において、オンチップレンズ35の集光スポットサイズが最小となる部分であり、ガウシアンビーム光学でのビームウェスト近傍に相当する。このように、遮光膜32を最小集光径部分35Fに配置することにより、開口32Aを小さくしても、感度の低下が抑えられる。
 図6は、遮光膜32の断面構成の一例を、半導体基板10および反射防止膜31とともに表したものである。遮光膜32は、例えば、半導体基板10(または反射防止膜31)側から、第1遮光膜32-1および第2遮光膜32-2を含む積層構造を有している。第1遮光膜32-1は、例えば、近赤外領域の波長の光に対して反射特性を有している。このような第1遮光膜32-1は、例えば、主成分として、アルミニウム(Al)および銅(Cu)等の導体金属を含んでいる。第1遮光膜32-1に積層された第2遮光膜32-2は、例えば、近赤外領域の波長の光に対して反射特性および吸収特性の両方を有している。このような第2遮光膜32-2は、例えば、主成分として、タングステン(W)等を含んでいる。第2遮光膜32-2は、近赤外領域の波長の光に対して主に吸収特性を有していてもよい。このような第2遮光膜32-3は、例えば、主成分として、カーボンブラック等の炭化素材またはチタンブラック等を含んでいる。少なくとも、第1遮光膜32-1が近赤外領域の波長の光に対して反射特性を有することにより、半導体基板10の内部から第1面S1を介して半導体基板10の外部に向かう光(例えば、後述の図10の反射光RL)が反射され、再び半導体基板10の内部に向かう。仮に、第1遮光膜32-1が近赤外領域の波長の光に対して吸収特性を有していると、このような反射光RLが半導体基板10の内部(より具体的にはPD11)に戻らないので、感度が低下するおそれがある。したがって、第1遮光膜32-1が近赤外領域の波長の光に対して反射特性を有することにより、感度の低下を抑えることができる。遮光膜32は単膜により構成するようにしてもよく、あるいは3層以上の積層膜により構成するようにしてもよい。
 導波路36は、例えば、オンチップレンズ35から遮光膜32の開口32Aに向かうように設けられている。この導波路36は、例えば、オンチップレンズ35と半導体基板10の第1面S1との間に、画素50毎に設けられている。導波路36は、オンチップレンズ35により集光された光LをPD11(半導体基板10)に導くためのものである。このような導波路36を設けることにより、感度を向上させることができる。
 導波路36は、例えば、低屈折率材料37に挟まれるように形成されている。換言すれば、導波路36は低屈折率材料37に囲まれている。導波路36を構成する材料の屈折率は、この低屈折率材料37の屈折率よりも高くなっている。例えば導波路36は窒化シリコン(SiN)、低屈折率材料37は酸化シリコン(SiO)により構成されている。
 オンチップレンズ35は、遮光膜32の光入射側に、設けられている。換言すれば、オンチップレンズ35は、遮光膜32を間にして半導体基板10の第1面S1を覆っている。このオンチップレンズ35は画素50毎に設けられている。オンチップレンズ35に入射した光は、画素50毎にPD11に集光されるようになっている。このオンチップレンズ35のレンズ系は、画素50のサイズに応じた値に設定されている。オンチップレンズ35の材料としては、例えば有機材料やシリコン酸化膜(SiO2)等が挙げられる。
(撮像装置1の動作)
 このような撮像装置1では、例えば次のようにして信号電荷(例えば、電子)が取得される。光が、オンチップレンズ35および導波路36等を通過して半導体基板10の第1面S1に入射すると、光(近赤外領域の波長の光)は各画素50のPD11で検出(吸収)され、光電変換される。PD11で発生した電子-正孔対のうち、例えば、電子はFD12へ移動して蓄積され、正孔はp型領域へ移動して排出される。FD12に蓄積された電子は、画素50毎に、光蓄積信号として、垂直信号線VSLに出力される。
(撮像装置1の作用・効果)
 本実施の形態では、遮光膜32の開口32Aが式(1)を満たしている。即ち、各画素50では、遮光膜32で覆われた領域の面積(面積A)が、遮光膜32の開口32Aの面積(面積B)よりも大きくなっている。これにより、半導体基板10と配線層20との界面、あるいは配線層20内で反射された光(後述の図10の反射光RL)は、遮光膜32に入射し、半導体基板10の第1面S1から半導体基板10の外側に放射されにくくなる。以下、この作用効果について、比較例を用いて説明する。
 図7および図8は、比較例に係る撮像装置(撮像装置100)の要部の模式的な構成を表している。図7は、撮像装置100の断面構成を表しており、撮像装置1を表す図1に対応している。図8は、撮像装置100の平面構成を表しており、撮像装置1を表す図3に対応している。この撮像装置100では、撮像装置1と同様に、半導体基板10の第1面S1が光入射面となっており、第2面S2に配線層20が積層されている。即ち、撮像装置100は、裏面照射型の撮像装置である。
 裏面照射型の撮像装置100は、表面照射型の撮像装置に比べて、反射光RLが生じやすい。これは、撮像装置100が、半導体基板10の第2面S2側に、半導体基板10(第2面S2)と配線層20との界面および配線層20内の配線21による界面(配線21と層間絶縁膜22との界面)を有するためである。
 オンチップレンズ35で集光された光L(近赤外領域の波長の光を含む)は、第1面S1から半導体基板10の内部に入射する。例えば、シリコン(Si)により構成された半導体基板10は、可視領域の波長の光に比べて、近赤外領域の波長の光に対する感度が低い(または量子効率が低い)。換言すれば、近赤外領域の波長の光に対して半導体基板10は半透明の状態であるので、光Lは半導体基板10の厚み方向に深く進入する。この光Lが、半導体基板10と配線層20との界面あるいは、配線層20内で反射され、反射光RLとなる。表面照射型の撮像装置では、半導体基板の第2面側にこのような界面が存在しない。したがって、表面照射型の撮像装置では、第1面から半導体基板の内部に入射した光は、半導体基板の第2面側で反射されにくい。
 撮像装置100では、半導体基板10の第2面S2側で生じた反射光RLが、遮光膜32の開口32Aを介して第1面S1から半導体基板10の外側に放射される。撮像装置100の各画素50では、遮光膜32で覆われた領域の面積が、遮光膜32の開口32Aの面積よりも小さくなっている。したがって、開口32Aを介して、多くの反射光RLが第1面S1から半導体基板10の外側に放出される。この半導体基板10の外側に放出された反射光RLは、撮像情報に大きく影響を及ぼす。例えば、半導体基板10の外側に放出された反射光RLは、フレアまたはゴースト等の原因となるおそれがある。また、撮像装置1を例えば測距システムに適用したときには、レンズ間、あるいはレンズと半導体基板10との間で反射光RLの多重反射が起こり、測距誤差の原因となるおそれがある。
 このような撮像装置100に対して、本実施の形態の撮像装置1の各画素50では、遮光膜32で覆われた領域の面積(面積A)が、遮光膜32の開口32Aの面積(面積B)よりも大きくなっているので、半導体基板10の第2面S2側で反射光RLが生じても、撮像装置100に比べて、第1面S1から半導体基板10の外側に反射光RLが放出されにくい。
 図9は、撮像装置1で生じた反射光RLを表している。撮像装置1では、半導体基板10の第2面S2側から第1面S1側に向かう反射光RLが、遮光膜32に入射し、例えば、遮光膜32から再び半導体基板10の内部に向かう。このように撮像装置1では、半導体基板10の外側に反射光RLが放射されにくくなっているので、反射光RLによる撮像情報への影響を軽減し、フレアまたはゴースト等の発生を抑えることができる。また、撮像装置1を例えば測距システムに適用したときには、測距誤差を小さくすることができる。
 図10Aおよび図10Bは、光学シミュレーションを用いて、半導体基板10の第1面S1から半導体基板10の外側に放射される反射光(図7,図8の反射光RL)と、半導体基板10に吸収される光との関係を求めたものである。図10Aは撮像装置100の結果、図10Bは撮像装置1の結果をそれぞれ表している。例えば、波長950nmについて、撮像装置1,100の結果を比較する。このとき、撮像装置100では、半導体基板10に吸収される光が16%、半導体基板10の外側に放射される反射光が22%であるのに対し、撮像装置1では、半導体基板10に吸収される光が22%、半導体基板10の外側に放射される反射光が20%である。即ち、撮像装置1では、撮像装置100に比べて、吸収および反射の両方で改善が確認されている。この光学シミュレーションの結果からも、遮光膜32の開口32Aが式(1)を満たすことにより、半導体基板10の外側に放出される反射光RLを減らし、かつ、より効率よく近赤外領域の波長の光を半導体基板10に吸収させることができることがわかる。
 更に、撮像装置1では、遮光膜32をオンチップレンズ35の最小集光径部分35Fに配置することにより、開口32Aを小さくしても、感度の低下が抑えられる。
 また、撮像装置1では導波路36が設けられているので、撮像装置1に比べて感度を向上させることが可能となる。
 以上のように、本実施の形態の撮像装置1では、遮光膜32の開口32Aが式(1)を満たすようにしたので、半導体基板10と配線層20との界面、あるいは配線層20内で反射された光(反射光RL)が、半導体基板10の外側に放出されるのを抑えることができる。よって、撮像装置1内部での反射光RLに起因する撮像信号への影響を抑えることが可能となる。
 また、遮光膜32をオンチップレンズ35の最小集光径部分35Fに配置することにより、感度の低下を抑えることができる。
 また、撮像装置1では導波路36が設けられているので、撮像装置1に比べて感度を向上させることが可能となる。
 以下、上記実施の形態の変形例について説明するが、以降の説明において上記実施の形態と同一構成部分については同一符号を付してその説明は適宜省略する。
<変形例1>
 図11は、上記実施の形態の変形例1に係る撮像装置(撮像装置1A)の要部の模式的な断面構成を表している。図11は、撮像装置1を表す図1に対応するものである。撮像装置1Aでは、半導体基板10に、隣り合う画素50を分離する分離溝10Tが設けられている。この点を除き、変形例1に係る撮像装置1Aは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。なお、図13では図1に表したPD11およびFD12を省略して表している。
 分離溝10Tは、例えば、第1面S1から第2面S2まで半導体基板10を厚み方向に貫通して設けられている。分離溝10Tは、例えば、格子状の平面形状を有しており、各画素50を囲むように配置されている。分離溝10Tには、例えば、酸化シリコン(SiO)等の絶縁材料が埋め込まれている。このような分離溝10Aを設けることにより、複数の画素50間でのクロストークの発生を抑えることができる。
 分離溝10Tには、例えば埋込遮光部13が設けられている。埋込遮光部13は、遮光材料により構成されており、第2面S2から分離溝10Tの深さ方向(Z軸方向)の一部にわたって設けられている。埋込遮光部13を構成する遮光材料としては、例えば、タングステン(W),アルミニウム(Al)および銅(Cu)等の金属材料が挙げられる。埋込遮光部13の深さ方向の大きさHは、以下の式(3)を満たすことが好ましい。

  H>P/2×tan(a)・・・・・(3)

 ただし、Pは、各画素50の一辺の大きさであり、aは前記分離溝10Tに対する臨界角である。
 aは以下の式(4)で表される。

Figure JPOXMLDOC01-appb-M000001
 ただし、n1は分離溝10Tの屈折率、n2は半導体基板10の屈折率である。
 例えば、分離溝10Tに酸化シリコン(SiO)が埋め込まれ、半導体基板10が結晶シリコン(Si)により構成されているときには、n1が約1.45、n2が約3.7であるから、分離溝10Tに対する臨界角aは、約23°となる。
 埋込遮光部13の深さ方向の大きさHが、上記式(3)を満たすことにより、分離溝10Tに臨界角aよりも小さい角度で入射した反射光RLが、隣り合う画素50に入射することを抑えられる。したがって、より効果的に画素50間のクロストークの発生を抑えることが可能となる。
 本変形例の撮像装置1Aも、上記実施の形態の撮像装置1と同様に、遮光膜32の開口32Aが式(1)を満たしているので、半導体基板10と配線層20との界面、あるいは配線層20内で反射された光は、遮光膜32に入射し、半導体基板10の第1面S1から半導体基板10の外側に放射されにくくなる。また、画素50間を仕切る分離溝10Tが設けられているので、画素50間でのクロストークの発生がより効果的に抑えられる。これにより、例えば、高い空間解像度での赤外線画像または測距画像を得ることが可能となる。更に、分離溝10Tに、深さ方向の大きさHが上記式(3)を満たすように埋込遮光部13を設けることにより、更に効果的にクロストークの発生を抑えることができる。
<変形例2>
 図12は、上記実施の形態の変形例2に係る撮像装置(撮像装置1B)の要部の模式的な断面構成を表している。図12は、1つの画素50の構成を表すものである。撮像装置1Bは、各画素50に、1つのPD11と、2つの転送トランジスタ(転送トランジスタTGA,TGB)と、2つのFD(FD12A,12B)とが設けられている。撮像装置1Bは、例えば、間接ToF(Time of Flight)方式を利用した測距システムに好適に用いられる。間接ToF方式を利用した測距システムでは、ある位相で光源から照射されたアクティブ光が対象物にあたって反射した光が、撮像装置1Bで受光される。撮像装置1Bでは、この光が複数の領域(FD12A,12B)に振り分けられるようになっている。この点を除き、変形例2に係る撮像装置1Bは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 図13は、各画素50の回路構成の一例を表したものである。PD11のカソード電極は、転送トランジスタTGAおよび転送トランジスタTGBと、排出トランジスタOFGとに接続されている。転送トランジスタTGAは、増幅トランジスタAMPAのゲート電極と電気的に接続されている。増幅トランジスタAMPAのゲート電極と電気的に繋がったノードが、FD12Aである。増幅トランジスタAMPAのソース電極には、選択トランジスタSELAのドレイン電極が接続されている。選択トランジスタSELAが導通状態となると、増幅トランジスタAMPAから供給される信号が垂直信号線VSLAに出力される。FD12AとリセットトランジスタRSTAとの間には、容量切替トランジスタFDGAおよび付加容量CAが接続されている。
 転送トランジスタTGBは、増幅トランジスタAMPBのゲート電極と電気的に接続されている。増幅トランジスタAMPBのゲート電極と電気的に繋がったノードが、FD12Bである。増幅トランジスタAMPBのソース電極には、選択トランジスタSELBのドレイン電極が接続されている。選択トランジスタSELBが導通状態となると、増幅トランジスタAMPBから供給される信号が垂直信号線VSLBに出力される。FD12BとリセットトランジスタRSTBとの間には、容量切替トランジスタFDGBおよび付加容量CBが接続されている。ここでは、転送トランジスタTGA,TGBが本開示の第1転送トランジスタ,第2転送トランジスタの一具体例に対応し、FD12A,12Bが本開示の第1浮遊拡散容量,第2浮遊拡散容量の一具体例に対応する。
 図14は、PD11、転送トランジスタTGA,TGBおよび排出トランジスタOFGの平面(XY平面)構成の一例を表している。PD11は、例えば、略八角形状の平面形状を有しており、転送トランジスタTGA,TGBおよび排出トランジスタOFGは、例えば、PD11の縁近傍に配置されている。
 図15は、遮光膜32の平面構成の一例を表している。遮光膜32の開口32Aは、例えば、PD11の平面形状に対応して、略八角形の平面形状を有している。
 画素50は、例えばCAPD(Current Assisted Photonic Demodulator)の画素構造を有していてもよい。このような画素50は、半導体基板10に電圧印加部を有しており、半導体基板10に直接電圧が印加されるようになっている。これにより、半導体基板10内に電流が発生し、半導体基板10内の広範囲の領域を高速に変調することができる。(例えば、特開2018-117117号公報参照)。
 図16および図17は、撮像装置1Bの画素50の構成の他の例を表している。図16は、画素50の平面構成を表し、図17は画素50の回路構成を表している。上記図12および図13には、FD12A,12Bに信号電荷が蓄積される場合を示したが、図16および図17に示したように、MEM(Memory,電荷蓄積部)に信号電荷が蓄積されるようになっていてもよい。このとき、例えば、各画素50には、2つのMEM(MEM-A,MEM-B)と、PD11からMEM-A,MEM-Bに信号電荷を転送するための転送トランジスタVGA,VGBとが設けられている。
 図18は、図16に示した画素50の平面構成の他の例を表し、図19は、図17に示した画素50の回路構成の他の例を表している。このように、転送トランジスタTGA,TGB各々から信号電荷が送られるFD(図17のFDA,FDB)が、共有されていてもよい。
 本変形例の撮像装置1Bも、上記実施の形態の撮像装置1と同様に、遮光膜32の開口32Aが式(1)を満たしているので、半導体基板10と配線層20との界面、あるいは配線層20内で反射された光は、遮光膜32に入射し、半導体基板10の第1面S1から半導体基板10の外側に放射されにくくなる。
<撮像装置1等の全体構成>
 図20A、図20Bおよび図20Cは、図1等に示した撮像装置1,1A,1Bの全体構成の一例を表す模式図である。撮像装置1,1A,1Bは、例えば、複数の画素50が設けられた画素領域110Aと、制御回路110Bと、ロジック回路110Cと、駆動回路110Dとを含んでいる。画素領域110A、制御回路110B、ロジック回路110Cおよび駆動回路110Dは、図20Aに示したように、単一のチップとして構成されていてもよいし、図20Bおよび図20Cに示したように、複数のチップとして構成されていてもよい。
<適用例>
 図21は、撮像装置1,1A,1Bが適用される測距システム3の構成の一例を表すブロック図である。測距システム3は、例えば、光源部70、光拡散部材71、光源駆動部72および撮像システム2を含んでいる。撮像システム2は、例えば、レンズ群81、バンドパスフィルタ82、受光部60、制御部61、A/D変換部62および演算処理部63を含んでいる。この受光部60が、上記実施の形態等の画素領域110Aにより構成される。
 光源部70は、例えば、波長700nmから1100nm程度の範囲の赤外光を照射する。光源部70は、レーザ光源またはLED(Light Emitting Diode)光源等を含んでいる。光源部70の中心波長は、例えば、850nm、905nmまたは940nm等である。光源部70は、制御部61によって制御される光源駆動部72によって駆動される。
 光源部70が照射する赤外光の波長は、測距システムの用途や構成において適宜選択すればよい。例えば、中心波長として、略850ナノメートル、略905ナノメートル、または、略940ナノメートルといった値を選択することができる。
 レンズ群81およびバンドパスフィルタ82は、受光部60の受光面側に設けられている。レンズ群81により集光された光は、バンドパスフィルタ82に入射する。このバンドパスフィルタ82では、所定の波長範囲の赤外光が選択的に透過するようになっている。
 受光部60で得られた信号はA/D変換部62によってデジタル化され、演算処理部63に送られる。演算処理部63では、受光部60からのデータに基づいて対象物の距離情報が算出されるようになっている。この一連の動作は、例えば、制御部61によって制御される。
 受光部60、A/D変換部62、演算処理部63、制御部61、および、光源駆動部72は、例えば、シリコンから成る半導体基板上に形成されている。
 演算処理部63は、例えば、対象物の反射光のパターンに基づいて距離情報を得るものであってもよい。即ち、測距システム3は、間接型Time of Flight方式の測距システムであってもよい。このとき、例えば、対象物に対して所定のパターンで赤外光が照射されるようになっている。あるいは、演算処理部63は、対象物の反射光の飛行時間に基づいて距離情報を得るものであってもよい。この光の飛行時間は、例えば、TDC(Time Digital Converter)で測定される。即ち、測距システム3は、直接型Time of Flight方式の測距システムであってもよい。
 図21に示した測距システム3では、光源部70の前に光拡散部材71が配置されており、光拡散部材71から拡散光が照射される。光源部70は、例えば、数10kHz~数100MHzといった周波数で変調される。測距システム3では、光源部70の変調に同期して反射光成分を検知することによって距離情報を得ることができる。
 図22は、測距システム3Aの構成の一例を表すブロック図である。撮像装置1,1A,1Bは、このような測距システム3Aに適用するようにしてもよい。測距システム3Aも、測距システム3と同様に、反射光の飛行時間に基づいて距離情報を得るものである。測距システム3Aにおいて、光源部70の光は走査部73によって走査される。この走査に同期して反射光成分を検知することによって距離情報を得ることができる。
 図23は、測距システム3Bの構成の一例を表すブロック図である。撮像装置1,1A,1Bは、このような測距システム3Bに適用するようにしてもよい。測距システム3Bでは、対象物に対して所定のパターンで赤外光が照射されるようになっている。この測距システム3Bの演算処理部63では、対象物の反射光のパターンに基づいて距離情報が得られるようになっている。測距システム3Bにおいて、光源部70の光はパターン投影部74によって空間的に非一様な所定のパターンとされ、対象物に対して照射される。照度パターンの空間分布情報や、対象物におけるパターン像の歪みを検知することによって距離情報(または、視差情報)を得ることができる。
 図24は、測距システム3Cの構成の一例を表すブロック図である。撮像装置1,1A,1Bは、このような測距システム3Cに適用するようにしてもよい。測距システム3Cは、複数の受光部60を離間して配置することによって、立体情報も得るように構成されている。尚、測距システム3Cは、測距システム3と同様に、拡散光を照射するものであってもよく、測距システム3Aと同様に、光源光を走査するものであってもよく、測距システム3Bと同様に、所定のパターンで赤外光を照射するものであってもよい。
 図25A、図25Bは、上記実施の形態等の撮像装置1,1A,1Bが適用された携帯型の電子機器の平面構成の一例を模式的に表したものである。この携帯型の電子機器は、例えば、表示部、フロントカメラ90A,90B、リアカメラ91A,91BおよびIR光源を含んでいる。フロントカメラ90A,90Bおよびリアカメラ91A,91Bの少なくとも1つが撮像装置1,1A,1Bにより構成される。
 図26は、上記実施の形態等の撮像装置1,1A,1Bの使用例を示す図である。
 上記実施の形態等の撮像装置1,1A,1Bは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置 
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<体内情報取得システムへの応用例>
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図27は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図27では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ
補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
<内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図28は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図28では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図29は、図28に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図30は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図30に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図30の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図31は、撮像部12031の設置位置の例を示す図である。
 図31では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図31には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 以上、実施の形態および変形例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態において説明した撮像装置、撮像システムおよび測距システムの構成は一例であり、更に他の構成要素を備えていてもよい。また、各層の材料や厚みも一例であって、上述のものに限定されるものではない。
 上記実施の形態等において説明した効果は一例であり、他の効果であってもよいし、更に他の効果を含んでいてもよい。
 尚、本開示は、以下のような構成であってもよい。以下の構成を有する撮像装置および撮像システムによれば、遮光膜の開口が式(1)を満たすようにしたので、半導体基板と配線層との界面、あるいは配線層内で反射された光および回折された光が、半導体基板の外側に放出されるのを抑えることができる。よって、撮像装置内部での光の反射に起因する撮像情報への影響を抑えることが可能となる。
(1)
 対向する第1面および第2面を有するとともに、複数の画素が設けられた半導体基板と、
 前記半導体基板の第2面側に設けられ、前記複数の画素毎に信号が送られる配線層と、
 前記半導体基板を間にして前記配線層に対向し、かつ、前記画素毎に以下の式(1)を満たす開口を有する遮光膜と、
 前記複数の画素毎に前記半導体基板の前記第1面側に設けられた、前記遮光膜の前記開口に向かう導波路と
 を備えた撮像装置。

  B<A ・・・・・(1)

 ただし、Bは各画素における前記開口の面積であり、Aは各画素において前記遮光膜に覆われた前記第1面の面積である。
(2)
 更に、前記複数の画素毎に設けられるとともに、前記遮光膜を間にして前記半導体基板を覆うオンチップレンズを有し、
 前記オンチップレンズの最小集光径部分に、前記遮光膜が設けられている
 前記(1)に記載の撮像装置。
(3)
 前記遮光膜は、以下の式(2)を満たす
 前記(1)または(2)に記載の撮像装置。

  A≧0.75×(A+B)・・・・・(2)

(4)
 前記半導体基板は、更に、
 隣り合う前記画素を分離する分離溝と、
 前記分離溝の深さ方向の一部に設けられた埋込遮光部とを有する
 前記(1)ないし(3)のうちいずれか1つに記載の撮像装置。
(5)
 前記埋込遮光部の前記深さ方向の大きさHは、以下の式(3)を満たす
 前記(4)に記載の撮像装置。

  H>P/2×tan(a)・・・・・(3)

 ただし、Pは、各画素の一辺の大きさであり、aは前記分離溝に対する臨界角である。(6)
 前記導波路を構成する材料の屈折率は、前記導波路の周囲を構成する材料の屈折率よりも高くなっている
 前記(1)ないし(5)のうちいずれか1つに記載の撮像装置。
(7)
 前記遮光膜は金属を含む
 前記(1)ないし(6)のうちいずれか1つに記載の撮像装置。
(8)
 前記遮光膜は、前記半導体基板側から第1遮光膜および第2遮光膜をこの順に含む積層構造を有する
 前記(1)ないし(7)のうちいずれか1つに記載の撮像装置。
(9)
 前記第1遮光膜は、近赤外領域の波長の光を反射する材料を含む
 前記(8)に記載の撮像装置。
(10)
 前記第2遮光膜は、近赤外領域の波長の光を吸収する材料を含む
 前記(8)または(9)に記載の撮像装置。
(11)
 前記第1遮光膜は、アルミニウム(Al)または銅(Cu)を含み、
 前記第2遮光膜は、タングステン(W),カーボンブラックまたはチタンブラックを含む
 前記(8)ないし(10)のいずれか1つに記載の撮像装置。
(12)
 更に、
 前記半導体基板に、前記複数の画素毎に設けられた光電変換部と、
 複数の前記光電変換部各々に接続された第1転送トランジスタと、
 前記第1転送トランジスタを介して前記光電変換部から転送された信号電荷を蓄積する第1浮遊拡散容量とを有する
 前記(1)ないし(11)のうちいずれか1つに記載の撮像装置。
(13)
 更に、
 前記第1転送トランジスタとともに、複数の前記光電変換部各々に接続された第2転送トランジスタと、
 前記第1転送トランジスタおよび前記第2転送トランジスタのうち、前記第2転送トランジスタを介して前記光電変換部から転送された信号電荷を選択的に蓄積する第2浮遊拡散容量とを有する
 前記(12)に記載の撮像装置。
(14)
 前記半導体基板はシリコン基板である
 前記(1)ないし(13)のうちいずれか1つに記載の撮像装置。
(15)
 撮像装置と、
 前記撮像装置からの信号が入力される演算処理部とを備え、
 前記撮像装置は、
 対向する第1面および第2面を有するとともに、複数の画素が設けられた半導体基板と、
 前記半導体基板の第2面側に設けられ、前記複数の画素毎に信号が送られる配線層と、
 前記半導体基板を間にして前記配線層に対向し、かつ、前記画素毎に以下の式(1)を満たす開口を有する遮光膜と、
 前記複数の画素毎に前記半導体基板の前記第1面側に設けられた、前記遮光膜の前記開口に向かう導波路とを含む
 撮像システム。

  B<A ・・・・・(1)

 ただし、Bは各画素における前記開口の面積であり、Aは各画素において前記遮光膜に覆われた前記第1面の面積である。
 本出願は、日本国特許庁において2019年2月6日に出願された日本特許出願番号2019-019629号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (15)

  1.  対向する第1面および第2面を有するとともに、複数の画素が設けられた半導体基板と、
     前記半導体基板の第2面側に設けられ、前記複数の画素毎に信号が送られる配線層と、
     前記半導体基板を間にして前記配線層に対向し、かつ、前記画素毎に以下の式(1)を満たす開口を有する遮光膜と、
     前記複数の画素毎に前記半導体基板の前記第1面側に設けられた、前記遮光膜の前記開口に向かう導波路と
     を備えた撮像装置。

      B<A ・・・・・(1)

     ただし、Bは各画素における前記開口の面積であり、Aは各画素において前記遮光膜に覆われた前記第1面の面積である。
  2.  更に、前記複数の画素毎に設けられるとともに、前記遮光膜を間にして前記半導体基板を覆うオンチップレンズを有し、
     前記オンチップレンズの最小集光径部分に、前記遮光膜が設けられている
     請求項1に記載の撮像装置。
  3.  前記遮光膜は、以下の式(2)を満たす
     請求項1に記載の撮像装置。

      A≧0.75×(A+B)・・・・・(2)
  4.  前記半導体基板は、更に、
     隣り合う前記画素を分離する分離溝と、
     前記分離溝の深さ方向の一部に設けられた埋込遮光部とを有する
     請求項1に記載の撮像装置。
  5.  前記埋込遮光部の前記深さ方向の大きさHは、以下の式(3)を満たす
     請求項4に記載の撮像装置。

      H>P/2×tan(a)・・・・・(3)

     ただし、Pは、各画素の一辺の大きさであり、aは前記分離溝に対する臨界角である。
  6.  前記導波路を構成する材料の屈折率は、前記導波路の周囲を構成する材料の屈折率よりも高くなっている
     請求項1に記載の撮像装置。
  7.  前記遮光膜は金属を含む
     請求項1に記載の撮像装置。
  8.  前記遮光膜は、前記半導体基板側から第1遮光膜および第2遮光膜をこの順に含む積層構造を有する
     請求項1に記載の撮像装置。
  9.  前記第1遮光膜は、近赤外領域の波長の光を反射する材料を含む
     請求項8に記載の撮像装置。
  10.  前記第2遮光膜は、近赤外領域の波長の光を吸収する材料を含む
     請求項8に記載の撮像装置。
  11.  前記第1遮光膜は、アルミニウム(Al)または銅(Cu)を含み、
     前記第2遮光膜は、タングステン(W),カーボンブラックまたはチタンブラックを含む
     請求項8に記載の撮像装置。
  12.  更に、
     前記半導体基板に、前記複数の画素毎に設けられた光電変換部と、
     複数の前記光電変換部各々に接続された第1転送トランジスタと、
     前記第1転送トランジスタを介して前記光電変換部から転送された信号電荷を蓄積する第1浮遊拡散容量とを有する
     請求項1に記載の撮像装置。
  13.  更に、
     前記第1転送トランジスタとともに、複数の前記光電変換部各々に接続された第2転送トランジスタと、
     前記第1転送トランジスタおよび前記第2転送トランジスタのうち、前記第2転送トランジスタを介して前記光電変換部から転送された信号電荷を選択的に蓄積する第2浮遊拡散容量とを有する
     請求項12に記載の撮像装置。
  14.  前記半導体基板はシリコン基板である
     請求項1に記載の撮像装置。
  15.  撮像装置と、
     前記撮像装置からの信号が入力される演算処理部とを備え、
     前記撮像装置は、
     対向する第1面および第2面を有するとともに、複数の画素が設けられた半導体基板と、
     前記半導体基板の第2面側に設けられ、前記複数の画素毎に信号が送られる配線層と、
     前記半導体基板を間にして前記配線層に対向し、かつ、前記画素毎に以下の式(1)を満たす開口を有する遮光膜と、
     前記複数の画素毎に前記半導体基板の前記第1面側に設けられた、前記遮光膜の前記開口に向かう導波路とを含む
     撮像システム。

      B<A ・・・・・(1)

     ただし、Bは各画素における前記開口の面積であり、Aは各画素において前記遮光膜に覆われた前記第1面の面積である。
PCT/JP2020/002238 2019-02-06 2020-01-23 撮像装置および撮像システム WO2020162196A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/426,736 US20220102411A1 (en) 2019-02-06 2020-01-23 Imaging device and imaging system
EP20752006.5A EP3923331A4 (en) 2019-02-06 2020-01-23 IMAGING DEVICE AND IMAGING SYSTEM
KR1020217024161A KR20210119999A (ko) 2019-02-06 2020-01-23 촬상 장치 및 촬상 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-019629 2019-02-06
JP2019019629A JP2020126961A (ja) 2019-02-06 2019-02-06 撮像装置および撮像システム

Publications (1)

Publication Number Publication Date
WO2020162196A1 true WO2020162196A1 (ja) 2020-08-13

Family

ID=71947556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/002238 WO2020162196A1 (ja) 2019-02-06 2020-01-23 撮像装置および撮像システム

Country Status (6)

Country Link
US (1) US20220102411A1 (ja)
EP (1) EP3923331A4 (ja)
JP (1) JP2020126961A (ja)
KR (1) KR20210119999A (ja)
TW (1) TWI849045B (ja)
WO (1) WO2020162196A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095491A1 (ja) * 2021-11-29 2023-06-01 ソニーセミコンダクタソリューションズ株式会社 受光素子及び電子機器

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI798834B (zh) * 2021-03-18 2023-04-11 神盾股份有限公司 光感測陣列模組與光收發裝置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1187677A (ja) * 1997-09-12 1999-03-30 Nikon Corp 固体撮像素子及び光電変換特性測定方法
JPH1197655A (ja) * 1997-09-18 1999-04-09 Toshiba Corp 固体撮像素子
JP2000059688A (ja) * 1998-08-05 2000-02-25 Canon Inc 光電変換装置
JP2012124377A (ja) * 2010-12-09 2012-06-28 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2015186007A (ja) * 2014-03-24 2015-10-22 キヤノン株式会社 撮像装置及び撮像装置の駆動方法
JP2017150893A (ja) 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
JP2018117117A (ja) 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置
JP2018206837A (ja) * 2017-05-31 2018-12-27 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および固体撮像装置の製造方法、並びに電子機器
WO2018235416A1 (ja) * 2017-06-21 2018-12-27 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び固体撮像装置
JP2019019629A (ja) 2017-07-20 2019-02-07 トヨタホーム株式会社 耐火壁構造及び耐火壁構造の施工方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090189055A1 (en) * 2008-01-25 2009-07-30 Visera Technologies Company Limited Image sensor and fabrication method thereof
JP5710510B2 (ja) * 2012-01-12 2015-04-30 株式会社東芝 固体撮像装置
JP2013207053A (ja) * 2012-03-28 2013-10-07 Sony Corp 固体撮像素子、電子機器
JP2014011304A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 固体撮像装置
US8530266B1 (en) * 2012-07-18 2013-09-10 Omnivision Technologies, Inc. Image sensor having metal grid with a triangular cross-section
US9355345B2 (en) * 2012-07-23 2016-05-31 Microsoft Technology Licensing, Llc Transparent tags with encoded data
US9478574B2 (en) * 2012-09-19 2016-10-25 Semiconductor Components Industries, Llc Image sensor pixels with light guides and light shield structures
US10163959B2 (en) * 2015-11-16 2018-12-25 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor and method for manufacturing the same
US10192917B2 (en) * 2016-06-30 2019-01-29 Stmicroelectronics (Crolles 2) Sas Backside illuminated photosensor element with light pipe and light mirror structures
US10469775B2 (en) * 2017-03-31 2019-11-05 Semiconductor Components Industries, Llc High dynamic range storage gate pixel circuitry
JP6912922B2 (ja) * 2017-04-12 2021-08-04 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子
JP2018200955A (ja) * 2017-05-26 2018-12-20 キヤノン株式会社 撮像装置、撮像システム、および、移動体
US10269844B2 (en) * 2017-06-27 2019-04-23 Taiwan Semiconductor Manufacturing Co., Ltd. Structure and formation method of light sensing device
KR20210076019A (ko) * 2018-10-11 2021-06-23 가부시키가이샤 한도오따이 에네루기 켄큐쇼 촬상 장치 및 인증 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1187677A (ja) * 1997-09-12 1999-03-30 Nikon Corp 固体撮像素子及び光電変換特性測定方法
JPH1197655A (ja) * 1997-09-18 1999-04-09 Toshiba Corp 固体撮像素子
JP2000059688A (ja) * 1998-08-05 2000-02-25 Canon Inc 光電変換装置
JP2012124377A (ja) * 2010-12-09 2012-06-28 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2015186007A (ja) * 2014-03-24 2015-10-22 キヤノン株式会社 撮像装置及び撮像装置の駆動方法
JP2017150893A (ja) 2016-02-23 2017-08-31 ソニー株式会社 測距モジュール、測距システム、および、測距モジュールの制御方法
JP2018117117A (ja) 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置
JP2018206837A (ja) * 2017-05-31 2018-12-27 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および固体撮像装置の製造方法、並びに電子機器
WO2018235416A1 (ja) * 2017-06-21 2018-12-27 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び固体撮像装置
JP2019019629A (ja) 2017-07-20 2019-02-07 トヨタホーム株式会社 耐火壁構造及び耐火壁構造の施工方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3923331A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095491A1 (ja) * 2021-11-29 2023-06-01 ソニーセミコンダクタソリューションズ株式会社 受光素子及び電子機器

Also Published As

Publication number Publication date
EP3923331A1 (en) 2021-12-15
KR20210119999A (ko) 2021-10-06
US20220102411A1 (en) 2022-03-31
JP2020126961A (ja) 2020-08-20
EP3923331A4 (en) 2022-04-27
TW202040807A (zh) 2020-11-01
TWI849045B (zh) 2024-07-21

Similar Documents

Publication Publication Date Title
US11923385B2 (en) Solid-state imaging device and solid-state imaging apparatus
US12027546B2 (en) Imaging element, fabrication method, and electronic equipment
WO2019093135A1 (ja) 撮像素子およびその製造方法、並びに電子機器
JPWO2018043654A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
US11075241B2 (en) Solid-state imaging device and electronic apparatus
US20240038788A1 (en) Solid-state imaging device
US12002825B2 (en) Solid-state imaging device and electronic apparatus with improved sensitivity
US20220120868A1 (en) Sensor and distance measurement apparatus
US20220278153A1 (en) Imaging device
WO2020162196A1 (ja) 撮像装置および撮像システム
US20230261028A1 (en) Solid-state imaging device and electronic apparatus
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
CN110998849B (zh) 成像装置、相机模块和电子设备
US20240321917A1 (en) Imaging device
US20240088191A1 (en) Photoelectric conversion device and electronic apparatus
US20240030252A1 (en) Solid-state imaging device and electronic apparatus
EP4124010A1 (en) Sensor package, method for manufacturing same, and imaging device
EP4415047A1 (en) Imaging device
JP2024058808A (ja) 固体撮像装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20752006

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020752006

Country of ref document: EP

Effective date: 20210906