WO2022131034A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2022131034A1
WO2022131034A1 PCT/JP2021/044560 JP2021044560W WO2022131034A1 WO 2022131034 A1 WO2022131034 A1 WO 2022131034A1 JP 2021044560 W JP2021044560 W JP 2021044560W WO 2022131034 A1 WO2022131034 A1 WO 2022131034A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
pixel
unit
image pickup
photoelectric conversion
Prior art date
Application number
PCT/JP2021/044560
Other languages
English (en)
French (fr)
Inventor
祐士 田仲
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/034,233 priority Critical patent/US20230387166A1/en
Publication of WO2022131034A1 publication Critical patent/WO2022131034A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present disclosure relates to, for example, an imaging device capable of acquiring imaging information and parallax information.
  • Patent Document 1 by providing a first separation unit and a second separation unit that form different potential barriers between the first photoelectric conversion unit and the second photoelectric conversion unit, the amount of light received can be reduced.
  • An image pickup device for acquiring an appropriate image according to the situation and improving the focus detection accuracy is disclosed.
  • the image pickup apparatus as one embodiment of the present disclosure has a first surface and a second surface facing each other, a plurality of pixels are arranged in a matrix, and each pixel receives a charge according to the amount of light received.
  • a semiconductor substrate having a plurality of photoelectric conversion units generated by photoelectric conversion, a first lens arranged for each pixel, and a second lens arranged between the semiconductor substrate and the first lens for each photoelectric conversion unit.
  • a first separation unit provided between a lens and adjacent photoelectric conversion units in a pixel to optically separate adjacent photoelectric conversion units, and an adjacent pixel are optically separated from each other. It is provided with a second separation portion that protrudes in the light incident direction from the first separation portion.
  • a plurality of pixels are arranged in a matrix, and a first lens for each pixel is placed on the light incident surface side of a semiconductor substrate having a plurality of photoelectric conversion units for each pixel.
  • a second lens was arranged for each photoelectric conversion unit between the first surface of the semiconductor substrate and the first lens.
  • a first separation unit that optically separates adjacent photoelectric conversion units in the pixel
  • a second separation unit that optically separates the adjacent pixels and protrudes in the light incident direction from the first separation unit.
  • a separation part is provided.
  • FIG. 3 is a schematic plan view showing an example of the layout of a photoelectric conversion unit, an inner lens, and an outer lens in the unit pixel shown in FIG. 1.
  • FIG. 3 is a schematic plan view showing another example of the layout of the photoelectric conversion unit, the inner lens, and the outer lens in the unit pixel shown in FIG. 1.
  • FIG. 3 is a schematic plan view showing an example of the structure of the image pickup apparatus which concerns on the modification 1 of this disclosure.
  • Modification 2 (an example in which a color filter having a plurality of types of transmissive portions that transmit different wavelengths is provided and the position of the inner lens in the stacking direction is changed for each transmissive portion).
  • Modification 3 (an example of having an inner lens having a different curvature depending on the position in a unit pixel) 2-4.
  • Modification 4 (Example in which the offset amount of the inner lens is changed according to the position of the photoelectric conversion unit in a unit pixel) 2-5.
  • Modification 5 (an example in which an inner lens is further added between the outer lens and the inner lens) 2-6.
  • Modification 6 (Example of surface-illuminated image pickup device) 3.
  • FIG. 1 schematically shows an example of a cross-sectional configuration of an image pickup apparatus (imaging apparatus 1) according to an embodiment of the present disclosure.
  • FIG. 2 shows an example of the overall configuration of the image pickup apparatus 1 shown in FIG.
  • the image pickup device 1 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor used in electronic devices such as digital still cameras and video cameras, and a pixel in which a plurality of pixels are two-dimensionally arranged in a matrix as an image pickup area. It has a unit (pixel unit 100A).
  • the image pickup device 1 is, for example, a so-called back-illuminated image pickup device in this CMOS image sensor or the like.
  • the image pickup apparatus 1 of the present embodiment has pixels (unit pixels P) capable of simultaneously acquiring image pickup information and parallax information.
  • the image pickup apparatus 1 of the present embodiment is provided with an inner lens 22L and an outer lens 24L on, for example, the first surface 11S1 side of the semiconductor substrate 11 provided with a plurality of photoelectric conversion units 12 for each unit pixel P.
  • the inner lens 22L is arranged for each photoelectric conversion unit 12, and the outer lens 24L is arranged for each unit pixel P.
  • the image pickup apparatus 1 further includes a first separation unit 13 that optically separates adjacent photoelectric conversion units 12 in the unit pixel P, and a second separation unit 14 that optically separates adjacent unit pixels P.
  • the second separation portion 14 is provided so as to project from the first separation portion 13 on the light incident side S1.
  • the inner lens 22L corresponds to a specific example of the "second lens” of the present disclosure
  • the outer lens 24L corresponds to a specific example of the "first lens” of the present disclosure
  • the first separation unit 13 corresponds to a specific example of the "first separation unit” of the present disclosure
  • the second separation unit 14 corresponds to a specific example of the "second separation unit” of the present disclosure. do.
  • the image pickup apparatus 1 captures incident light (image light) from a subject via an optical lens system (not shown), and converts the amount of incident light formed on the image pickup surface into an electric signal on a pixel-by-pixel basis. It is output as a pixel signal.
  • the image pickup apparatus 1 has a pixel portion 100A as an imaging area on the semiconductor substrate 11, and in a peripheral region of the pixel portion 100A, for example, a vertical drive circuit 111, a column signal processing circuit 112, a horizontal drive circuit 113, and an output. It has a circuit 114, a control circuit 115, and an input / output terminal 116.
  • a plurality of unit pixels P are two-dimensionally arranged in a matrix in the pixel unit 100A.
  • the plurality of unit pixels P also serve as an image pickup pixel and an image plane phase difference pixel.
  • the image pickup pixel is for generating a signal for image generation by photoelectric conversion of a subject image formed by an image pickup lens in a photodiode PD.
  • the image plane phase difference pixel divides the pupil region of the image pickup lens and photoelectrically converts the subject image from the divided pupil region to generate a signal for phase difference detection.
  • a pixel drive line Lread (specifically, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lead transmits a drive signal for reading a signal from a pixel.
  • One end of the pixel drive line Lead is connected to the output end corresponding to each line of the vertical drive circuit 111.
  • the vertical drive circuit 111 is configured by a shift register, an address decoder, or the like, and is a pixel drive unit that drives each unit pixel P of the pixel unit 100A, for example, in row units.
  • the signal output from each unit pixel P of the pixel row selectively scanned by the vertical drive circuit 111 is supplied to the column signal processing circuit 112 through each of the vertical signal lines Lsig.
  • the column signal processing circuit 112 is composed of an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the horizontal drive circuit 113 is composed of a shift register, an address decoder, etc., and drives each horizontal selection switch of the column signal processing circuit 112 in order while scanning. By the selective scanning by the horizontal drive circuit 113, the signals of each pixel transmitted through each of the vertical signal lines Lsig are sequentially output to the horizontal signal line 121 and transmitted to the outside of the semiconductor substrate 11 through the horizontal signal line 121. ..
  • the output circuit 114 processes signals and outputs the signals sequentially supplied from each of the column signal processing circuits 112 via the horizontal signal line 121.
  • the output circuit 114 may, for example, perform only buffering, or may perform black level adjustment, column variation correction, various digital signal processing, and the like.
  • the circuit portion including the vertical drive circuit 111, the column signal processing circuit 112, the horizontal drive circuit 113, the horizontal signal line 121, and the output circuit 114 may be formed directly on the semiconductor substrate 11, or may be used as an external control IC. It may be arranged. Further, those circuit portions may be formed on another substrate connected by a cable or the like.
  • the control circuit 115 receives a clock given from the outside of the semiconductor substrate 11, data for instructing an operation mode, and the like, and outputs data such as internal information of the image pickup apparatus 1.
  • the control circuit 115 further has a timing generator that generates various timing signals, and the vertical drive circuit 111, the column signal processing circuit 112, the horizontal drive circuit 113, and the like based on the various timing signals generated by the timing generator. It controls the drive of peripheral circuits.
  • the input / output terminal 116 exchanges signals with the outside.
  • FIG. 3 shows an example of a readout circuit of a unit pixel P of the image pickup apparatus 1 shown in FIG.
  • the unit pixel P includes two photoelectric conversion units 12A and 12B, transfer transistors TR1 and TR2, a floating diffusion FD, a reset transistor RST, an amplification transistor AMP, and a selection transistor SEL. And have.
  • the photoelectric conversion units 12A and 12B are photodiodes (PD), respectively.
  • the anode is connected to the ground voltage line and the cathode is connected to the source of the transfer transistor TR1.
  • the photoelectric conversion unit 12 has an anode connected to the ground voltage line and a cathode connected to the source of the transfer transistor TR2.
  • the transfer transistor TR1 is connected between the photoelectric conversion unit 12A and the floating diffusion FD.
  • the transfer transistor TR2 is connected between the photoelectric conversion unit 12B and the floating diffusion FD.
  • a drive signal TRsig is applied to the gate electrodes of the transfer transistors TR1 and TR2, respectively. When this drive signal TRsig becomes active, the transfer gates of the transfer transistors TR1 and TR2 become conductive, and the signal charges stored in the photoelectric conversion units 12A and 12B float via the transfer transistors TR1 and TR2. Transferred to the diffusion FD.
  • the floating diffusion FD is connected between the transfer transistors TR1 and TR2 and the amplification transistor AMP.
  • the floating diffusion FD converts the signal charges transferred by the transfer transistors TR1 and TR2 into voltage signals and outputs them to the amplification transistor AMP.
  • the reset transistor RST is connected between the floating diffusion FD and the power supply unit.
  • a drive signal RSTsig is applied to the gate electrode of the reset transistor RST.
  • this drive signal RSTsig becomes active, the reset gate of the reset transistor RST becomes conductive, and the potential of the floating diffusion FD is reset to the level of the power supply unit.
  • the gate electrode of the amplification transistor AMP is connected to the floating diffusion FD, and the drain electrode is connected to the power supply unit, which serves as an input unit for a voltage signal reading circuit held by the floating diffusion FD, a so-called source follower circuit. That is, the amplification transistor AMP constitutes a constant current source and a source follower circuit connected to one end of the vertical signal line Lsig by connecting its source electrode to the vertical signal line Lsig via the selection transistor SEL.
  • the selection transistor SEL is connected between the source electrode of the amplification transistor AMP and the vertical signal line Lsig.
  • a drive signal SELsig is applied to the gate electrode of the selection transistor SEL.
  • the selection transistor SEL becomes a conduction state, and the unit pixel P becomes a selection state.
  • the read signal (pixel signal) output from the amplification transistor AMP is output to the vertical signal line Lsig via the selection transistor SEL.
  • the signal charge generated by the photoelectric conversion unit 12A and the signal charge generated by the photoelectric conversion unit 12B are read out, respectively.
  • the signal charges read from each of the photoelectric conversion unit 12A and the photoelectric conversion unit 12B are added together in the floating diffusion FD and output to, for example, an image pickup block of an external signal processing unit, whereby the photoelectric conversion unit 12A and the photoelectric conversion unit 12A and the photoelectric conversion unit are converted.
  • a pixel signal based on the total charge of unit 12B can be acquired.
  • FIG. 4 schematically shows an example of the planar configuration of the unit pixel P.
  • the image pickup device 1 is, for example, a back-illuminated image pickup device, and the unit pixels P arranged two-dimensionally in a matrix on the pixel section 100A are, for example, light incident on the light receiving section 10 and the light receiving section 10. It has a configuration in which a light collecting unit 20 provided on the side S1 and a multilayer wiring layer 30 provided on the side opposite to the light incident side S1 of the light receiving unit 10 are laminated.
  • the light receiving unit 10 has a semiconductor substrate 11 having the first surface 11S1 and the second surface 11S2 facing each other, and a plurality of photoelectric conversion units 12 embedded and formed in the semiconductor substrate 11.
  • the semiconductor substrate 11 is made of, for example, a silicon substrate.
  • the photoelectric conversion unit 12 is, for example, a PIN (Positive Intrinsic Negative) type photodiode (PD), and has a pn junction in a predetermined region of the semiconductor substrate 11.
  • the photoelectric conversion unit 12 is formed by embedding a plurality of (for example, two (photoelectric conversion units 12A and 12B)) in the unit pixel P.
  • the light receiving unit 10 further has a first separation unit 13 and a second separation unit 14.
  • the first separation unit 13 is provided between the photoelectric conversion units 12A and the photoelectric conversion units 12B that are adjacent to each other in the unit pixel P.
  • the first separation unit 13 is for optically separating the adjacent photoelectric conversion unit 12A and the photoelectric conversion unit 12B, and for example, between the first surface 11S1 and the second surface 11S2 of the semiconductor substrate 11. It penetrates.
  • the first separation portion 13 is provided, for example, with a light-shielding conductive film extending between the first surface 11S1 and the second surface 11S2 of the semiconductor substrate 11 and between the conductive film and the semiconductor substrate 11. It is formed from an insulating film.
  • the conductive film having a light-shielding property include a single-layer film or a laminated film such as tungsten (W), silver (Ag), copper (Cu), aluminum (Al) or an alloy of Al and copper (Cu). Be done.
  • the insulating film include a silicon oxide (SiO x ) film and the like.
  • the second separation unit 14 is provided between adjacent unit pixels P.
  • the second separation unit 14 is provided around the unit pixel P, and is provided in the pixel unit 100A, for example, in a grid pattern.
  • the second separation unit 14 is for optically separating adjacent unit pixels P, and is, for example, extending from the first surface 11S1 side to the second surface 11S2 side of the semiconductor substrate 11.
  • the second separation unit 14 further protrudes from the first surface 11S1 to the light incident side S1 and extends into the light collection unit 20.
  • the second separation portion 14 extends from the second surface 11S2 of the semiconductor substrate 11 to the outer lens layer 24 provided in the condensing portion 20.
  • the second separation portion 14 is formed of, for example, a conductive film having a light-shielding property and an insulating film provided around the conductive film, similarly to the first separation portion 13.
  • the conductive film having a light-shielding property include a single-layer film or a laminated film such as tungsten (W), silver (Ag), copper (Cu), aluminum (Al) or an alloy of Al and copper (Cu). Be done.
  • the insulating film include a silicon oxide (SiO x ) film and the like.
  • the first separation unit 13 and the second separation unit 14 do not necessarily have to penetrate the semiconductor substrate 11, and for example, the first separation unit 13 and the second separation unit 14 are contained in the semiconductor substrate 11 on the second surface 11S2 side.
  • the end portion of the portion 14 may be formed.
  • the adjacent photoelectric conversion units 12A and 12B, or the adjacent unit pixels P may be connected to each other by the semiconductor substrate 11 on the second surface 11S2 side of the semiconductor substrate 11.
  • the second separation unit 14 extending into the light collection unit 20 may be formed by using a material different from that of the second separation unit 14 provided in the light receiving unit 10.
  • the unit pixel P has two photoelectric conversion units 12A and 12B is shown, but the number of photoelectric conversion units 12 in the unit pixel P is not limited to this.
  • the unit pixel P may be provided with three or more photoelectric conversion units 12, and for example, as shown in FIG. 5, four photoelectric conversion units 12A, 12B, arranged in 2 rows ⁇ 2 columns, 12C and 12D may be provided.
  • the light collecting unit 20 is provided on the light incident side S1 of the light receiving unit 10, for example, a protective layer 21 covering the first surface 11S1 of the semiconductor substrate 11, an inner lens layer 22, an embedded layer 23, and an outer lens layer. It has 24 and is laminated in this order from the light receiving portion 10 side.
  • the protective layer 21 is for protecting the first surface 11S1 of the semiconductor substrate 11 and for flattening the surface.
  • the protective layer 21 is formed of, for example, silicon oxide (SiO x ), silicon nitride (SiN x ), silicon oxynitride (SiO x N y ), or the like.
  • the inner lens layer 22 is provided so as to cover the entire surface of the pixel portion 100A, for example, and has a plurality of inner lenses 22L provided on the surface thereof, for example, in a gapless manner.
  • the inner lens 22L is for guiding the light incident from above to the photoelectric conversion unit 12, for example, as shown in FIG. 4, for each photoelectric conversion unit 12 (for example, photoelectric conversion units 12A and 12B). It is provided in.
  • the inner lens layer 22 including the inner lens 22L is formed by using, for example, a high refractive index material, and specifically, specifically, by using an inorganic material such as silicon oxide (SiO x ) or silicon nitride (SiN x ). It is formed.
  • the inner lens layer 22 may be formed by using an organic material having a high refractive index such as an episulfide resin, a thietan compound, or the resin thereof.
  • the shape of the inner lens 22L is not particularly limited, and various lens shapes such as a hemispherical shape and a semi-cylindrical shape can be adopted.
  • the embedded layer 23 is for maintaining a distance between the inner lens layer 22 and the outer lens layer 24.
  • the embedded layer 23 is formed by using, for example, silicon oxide (SiO x ), silicon nitride (SiN x ), silicon oxynitride (SiO x N y ), or the like.
  • the outer lens layer 24 is provided so as to cover the entire surface of the pixel portion 100A, for example, and has a plurality of outer lenses 24L on the surface thereof.
  • the outer lens 24L is for condensing light incident from above on the inner lens 22L, and is provided for each unit pixel P, for example, as shown in FIG.
  • the outer lens layer 24 including the outer lens 24L is formed by using, for example, a high refractive index material, and specifically, for example, silicon oxide (SiO x ) or silicon nitride (Silicon nitride). It is made of an inorganic material such as SiN x ).
  • the outer lens layer 24 may be formed by using an organic material having a high refractive index such as an episulfide resin, a thietan compound or the resin thereof.
  • the shape of the outer lens 24L is not particularly limited, and various lens shapes such as a hemispherical shape and a semi-cylindrical shape can be adopted.
  • the multilayer wiring layer 30 is provided on the side of the light receiving unit 10 opposite to the light incident side S1.
  • the multilayer wiring layer 30 has, for example, a configuration in which a plurality of wiring layers 31, 32, 33 are laminated with an interlayer insulating layer 34 in between.
  • a vertical drive circuit 111, a column signal processing circuit 112, a horizontal drive circuit 113, an output circuit 114, a control circuit 115, an input / output terminal 116, and the like are formed. There is.
  • the wiring layers 31, 32, 33 are formed of, for example, aluminum (Al), copper (Cu), tungsten (W), or the like.
  • the wiring layers 31, 32, and 33 may be formed by using polysilicon (Poly—Si).
  • the interlayer insulating layer 34 is, for example, a single-layer film made of one of silicon oxide (SiO x ), TEOS, silicon nitride (SiN x ), silicon oxynitride (SiO x N y ), or any of these. It is formed of a laminated film composed of two or more types.
  • an outer is provided for each unit pixel P on the first surface 11S1 side of the semiconductor substrate 11 having a plurality of photoelectric conversion units 12 (for example, photoelectric conversion units 12A and 12B) in the unit pixel P.
  • the lens 24L is arranged, and the inner lens 22L is arranged for each of the photoelectric conversion units 12A and 12B between the first surface 11S1 of the semiconductor substrate 11 and the outer lens 24L.
  • the first separation unit 13 is projected between the adjacent photoelectric conversion units 12A and 12B
  • the second separation unit is projected between the adjacent unit pixels P on the light incident side S1 from the first separation unit 13.
  • the part 14 is provided.
  • each pixel has a plurality of photodiodes, and by sharing one microlens with the plurality of photodiodes, it is possible to acquire imaging information and parallax information at the same time. ..
  • incident light is separated and sensed according to a predetermined incident angle.
  • crosstalk occurs in the vicinity of the angle to be separated.
  • each unit pixel P is outer on the first surface 11S1 side of the semiconductor substrate 11 having a plurality of photoelectric conversion units 12 (for example, photoelectric conversion units 12A and 12B) in the unit pixel P.
  • the lens 24L is arranged, and the inner lens 22L is arranged for each of the photoelectric conversion units 12A and 12B between the first surface 11S1 of the semiconductor substrate 11 and the outer lens 24L.
  • the outer lens 24L is arranged so as to be in focus on the inner lens 22L, and the light incident on the outer lens 24L (for example, the light L1, L2, L3) is shown in FIG. 1, for example.
  • the pupil is separated by incident on the corresponding inner lens 22L according to the incident angle, and then guided to the photoelectric conversion unit 12A or the photoelectric conversion unit 12B arranged below by the inner lens 22L.
  • the light incident near the boundary between the adjacent inner lenses 22L arranged above the photoelectric conversion units 12A and 12B, such as the light L3 is also the photoelectric conversion unit 12A arranged below the incident inner lens 22L.
  • it can be efficiently guided to the photoelectric conversion unit 12B.
  • the first separation unit penetrating between the photoelectric conversion units 12A and 12B adjacent to each other in the unit pixel P for example, between the first surface 11S1 and the second surface 11S2 of the semiconductor substrate 11. 13 is provided, and between adjacent unit pixels P, a second separation extending from the first surface 11S1 side of the semiconductor substrate 11 toward the second surface 11S2 and further extending to the light incident side S1 to reach the outer lens 24L.
  • the part 14 is provided.
  • the image pickup apparatus 1 of the present embodiment while the light incident on the unit pixel P is incident on the photoelectric conversion units 12A and 12B according to the incident angle, crosstalk is generated in the adjacent photoelectric conversion units 12A and 12B. Can be reduced. That is, it is possible to improve the imaging performance while improving the pupil separation performance.
  • the outer lens 24L is focused on the inner lens 22L, so that the outer lens 24L is focused on the first surface of the semiconductor substrate 11 as in a general image pickup device.
  • the sensitivity can be improved as compared with the case of 11S1 or the case of adjusting to the inside. That is, it is possible to further improve the imaging performance.
  • FIG. 6 schematically shows an example of the cross-sectional configuration of the image pickup apparatus (imaging apparatus 1A) according to the first modification of the present disclosure.
  • the image pickup device 1A is, for example, a CMOS image sensor or the like used in an electronic device such as a digital still camera or a video camera, and is, for example, a so-called back-illuminated image pickup device as in the above embodiment.
  • the width W1 of the first separation portion 13 is set. It may be formed narrower than the width W2 of the second separation portion 14 (W1 ⁇ W2). As a result, the decrease in sensitivity due to the light that cannot be avoided by the inner lens 22L hitting the first separation unit 13 and the generation of scattered light are reduced. Therefore, it is possible to further improve the imaging performance while improving the pupil separation performance.
  • FIG. 7 schematically shows an example of the cross-sectional configuration of the image pickup apparatus (imaging apparatus 1B) according to the second modification of the present disclosure.
  • the image pickup device 1B is, for example, a CMOS image sensor or the like used in an electronic device such as a digital still camera or a video camera, and is, for example, a so-called back-illuminated image pickup device as in the above embodiment.
  • red light (R), green light (G), or blue light (B) is used for each unit pixel P between the embedded layer 23 and the outer lens layer 24 of the light collecting unit 20.
  • a color filter 25 that selectively transmits light is provided, and the distance between the lens surface of the outer lens 23L and the lens surface of the inner lens 22L is changed according to the wavelength of the light transmitted through the color filter 25. It is different from the morphology.
  • the color filter 25 has a transmission unit 25A that selectively transmits light in a predetermined wavelength range, and a transmission unit 25B that selectively transmits light having a wavelength longer than that transmitted through the transmission unit 25A. ing.
  • the transmission unit 25A is arranged in the unit pixel P1
  • the transmission unit 25B is arranged in the unit pixel P2
  • the protective layer 21 that covers the first surface 11S1 of the semiconductor substrate 11 of the unit pixel P1 is made thicker than the protective layer 21 that covers the first surface 11S1 of the semiconductor substrate 11 of the unit pixel P2, so that the unit pixel P1
  • the distance h1 between the lens surface of the outer lens 23L and the lens surface of the inner lens 22L in the unit pixel P2 is narrower than the distance h2 between the lens surface of the outer lens 23L and the lens surface of the inner lens 22L in the unit pixel P2 (h1 ⁇ h2). ..
  • the focus position of the light focused on the inner lens 22L by the outer lens 24L differs depending on the wavelength. Specifically, the shorter the wavelength, the shorter the focus position, and the longer the wavelength, the longer the focus position.
  • a color filter 25 having a transmission unit (for example, transmission units 25A and 25B) for selectively transmitting light in a predetermined wavelength range is provided for each unit pixel P.
  • a transmission unit for example, transmission units 25A and 25B
  • the distance between the first surface 11S1 of the semiconductor substrate 11 and the lens surface of the inner lens 22L changes according to the arranged color filter 25, as shown in FIG. 7, It is preferable to project the first separation portion 13 toward the light incident side S1 according to the distance between the first surface 11S1 of the semiconductor substrate 11 and the lens surface of the inner lens 22L.
  • the distance between the first surface 11S1 of the semiconductor substrate 11 and the inner lens 22L is wide as in the unit pixel P1 shown in FIG. 7, the first surface 11S1 and the inner of the semiconductor substrate 11 It is preferable to extend it into the protective layer 21 between the lens 22L and the lens 22L. As a result, even when the distance between the first surface 11S1 of the semiconductor substrate 11 and the lens surface of the inner lens 22L is widened, it is possible to improve the imaging performance while improving the pupil separation performance.
  • FIG. 8 schematically shows an example of the cross-sectional configuration of the image pickup apparatus (imaging apparatus 1C) according to the third modification of the present disclosure.
  • the image pickup device 1C is, for example, a CMOS image sensor or the like used in an electronic device such as a digital still camera or a video camera, and is, for example, a so-called back-illuminated image pickup device as in the above embodiment.
  • this modification for example, three or more photoelectric conversion units 12 are provided in the row direction and / or the column direction in the unit pixel P, and the curvature of the inner lens 22L arranged for each photoelectric conversion unit 12 is set to the unit pixel P. It differs from the above-described embodiment in that it is changed according to the position inside.
  • the unit pixel P is provided with, for example, four photoelectric conversion units 12A, 12B, 12C, 12D in the X-axis direction, and above the photoelectric conversion units 12A, 12B, 12C, 12D, respectively.
  • Inner lenses 22La, 22Lb, 22Lc, 22Ld are arranged. These four inner lenses 22La, 22Lb, 22Lc, and 22Ld have a larger curvature toward the peripheral edge of the unit pixel P.
  • the lens surface of the inner lenses 22La and 22Ld arranged above the photoelectric conversion units 12A and 12D provided on the peripheral portion of the unit pixel P is above the photoelectric conversion units 12B and 12C adjacent to the central portion. It has a larger curvature than the lens surface of the inner lenses 22Lb and 22Lc arranged in.
  • the image pickup apparatus 1C of the present modification for example, in a unit pixel provided with three or more photoelectric conversion units 12 in the row direction and / or the column direction, photoelectric conversion is performed according to the position in the unit pixel P.
  • the curvature of the inner lens 22L arranged for each part 12 was changed. This makes it possible to improve the light collection performance. Therefore, it is possible to further improve the imaging performance while improving the pupil separation performance.
  • FIG. 9 schematically shows an example of the planar configuration of the image pickup device (imaging device 1D) according to the modified example 4 of the present disclosure.
  • the image pickup device 1D is, for example, a CMOS image sensor or the like used in an electronic device such as a digital still camera or a video camera, and is, for example, a so-called back-illuminated image pickup device as in the above embodiment.
  • three or more photoelectric conversion units 12 are provided in the unit pixel P in the row direction and / or the column direction, and an inner lens provided for each photoelectric conversion unit 12 according to the position in the unit pixel P.
  • the point that the offset amount of 22L is changed is different from the above-described embodiment.
  • 16 photoelectric conversion units 12 are arranged in an array of 4 rows and 4 columns in the X-axis direction (for example, row direction) and the Y-axis direction (for example, column direction) in the unit pixel P. It is provided.
  • 16 inner lenses 22L corresponding to these 16 photoelectric conversion units 12 are provided, and in these 16 inner lenses 22L, the peripheral portion of the unit pixel P is closer to the unit pixel P. It has a large offset amount toward the center of the lens.
  • the photoelectric is photoelectric according to the position in the unit pixel P.
  • the offset amount of the inner lens 22L arranged for each conversion unit 12 is changed. This makes it possible to improve the light collection performance. Therefore, it is possible to further improve the imaging performance while improving the pupil separation performance.
  • FIG. 10 schematically shows an example of the cross-sectional configuration of the image pickup apparatus (imaging apparatus 1E) according to the modified example 5 of the present disclosure.
  • the image pickup device 1E is, for example, a CMOS image sensor used in an electronic device such as a digital still camera or a video camera.
  • the point that the inner lens layer 26 is further arranged between the inner lens layer 22 and the outer lens layer 24 is different from the above-described embodiment.
  • the inner lens layer 26 is provided so as to cover the entire surface of the pixel portion 100A, for example, and has a plurality of inner lenses 26L on the surface thereof.
  • the inner lens 26L assists the light collection of the outer lens 24L, and is provided for each unit pixel P, for example, as shown in FIG.
  • the inner lens layer 26 including the inner lens 26L is formed by using, for example, a high refractive index material, and specifically, specifically, by using an inorganic material such as silicon oxide (SiO x ) or silicon nitride (SiN x ). It is formed.
  • the inner lens layer 26 may use an organic material having a high refractive index such as an episulfide resin, a thietan compound, or a resin thereof.
  • the shape of the inner lens 26L is not particularly limited, and various lens shapes such as a hemispherical shape and a semi-cylindrical shape can be adopted.
  • an inner lens layer 26 is further provided between the inner lens layer 22 and the outer lens layer 24 to assist the outer lens 24L to collect light on the inner lens 22L.
  • FIG. 11 schematically shows an example of the cross-sectional configuration of the image pickup apparatus (imaging apparatus 1F) according to the modified example 6 of the present disclosure.
  • the image pickup device 1F is, for example, a CMOS image sensor used in an electronic device such as a digital still camera or a video camera.
  • the image pickup device 1F of this modification is a so-called surface irradiation type image pickup device in which a multilayer wiring layer 30 is provided on the light incident side S1 of the light receiving unit 10.
  • this technique can be applied not only to the back-illuminated image pickup apparatus but also to the front-illuminated image pickup apparatus, and as in the above embodiment, the image pickup performance is improved while improving the pupil separation performance. Can be improved.
  • the first separation portion 13 and the second separation portion 14 extending into the multilayer wiring layer 30 may be partially formed by using, for example, wiring layers 31, 32, 33 formed in the multilayer wiring layer 30. Alternatively, for example, it may be formed by using a waveguide.
  • the technique according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 12 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the vehicle interior information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 13 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the vehicle 12100 has an imaging unit 12101, 12102, 12103, 12104, 12105 as an imaging unit 12031.
  • the image pickup units 12101, 12102, 12103, 12104, 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided in the front nose and the image pickup section 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the image pickup units 12101 and 12105 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 13 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like that autonomously travels without relying on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • recognition of a pedestrian is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the image pickup unit 12031 among the configurations described above.
  • the image pickup apparatus 100 can be applied to the image pickup unit 12031.
  • the technique according to the present disclosure (the present technique) can be applied to various products.
  • the techniques according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 14 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 14 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11153 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 11100.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating the excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 15 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an image pickup unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image pickup element constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and the focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the image pickup unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the image pickup conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques.
  • the control unit 11413 detects a surgical tool such as forceps, a specific biological part, bleeding, mist when using the energy treatment tool 11112, etc. by detecting the shape, color, etc. of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can surely proceed with the surgery.
  • the transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technique according to the present disclosure can be applied.
  • the technique according to the present disclosure can be suitably applied to the image pickup unit 11402 provided in the camera head 11102 of the endoscope 11100 among the configurations described above.
  • the image pickup unit 11402 can be miniaturized or high-definition, so that a small-sized or high-definition endoscope 11100 can be provided.
  • the present disclosure may also have the following structure.
  • a plurality of pixels are arranged in a matrix, and a first lens is arranged for each pixel on the light incident surface side of a semiconductor substrate having a plurality of photoelectric conversion units for each pixel.
  • a second lens is arranged for each photoelectric conversion unit between the first surface of the semiconductor substrate and the first lens.
  • the first separation unit that optically separates the adjacent photoelectric conversion units in the pixel and the adjacent pixels are optically separated from each other and protrude in the light incident direction from the first separation unit.
  • the second separation part was provided.
  • a plurality of photoelectric conversion units having a first surface and a second surface facing each other, having a plurality of pixels arranged in a matrix, and generating a charge corresponding to the amount of received light for each pixel by photoelectric conversion.
  • the semiconductor substrate The first lens arranged for each pixel and A second lens arranged between the semiconductor substrate and the first lens for each photoelectric conversion unit, and A first separation unit provided between the adjacent photoelectric conversion units in the pixel and optically separating the adjacent photoelectric conversion units, An image pickup device provided between the adjacent pixels, which optically separates the adjacent pixels and also has a second separation portion protruding in the light incident direction from the first separation portion.
  • a color filter having a first transmission unit that selectively transmits a first wavelength and a second transmission unit that selectively transmits a second wavelength longer than the first wavelength for each pixel. Further above the first surface of the semiconductor substrate.
  • the second lens provided in the pixel having the first transmissive portion and the second lens provided in the pixel having the second transmissive portion refer to the first surface.
  • the image pickup apparatus according to any one of (1) to (3) above, which is arranged at different heights.
  • the distance between the lens surface of the second lens and the lens surface of the first lens arranged in the pixel having the first transmissive portion is arranged in the pixel having the second transmissive portion.
  • the image pickup apparatus wherein the image pickup device is narrower than the distance between the lens surface of the second lens and the lens surface of the first lens.
  • the height of the first separation portion provided on the pixel having the second transmission portion on the light incident side is the height of the first separation portion provided on the pixel having the first transmission portion.
  • the pixel has three or more photoelectric conversion units arranged in at least one of the row direction and the column direction. Of the above (1) to (6), the plurality of the second lenses provided in each of the three or more photoelectric conversion units have different curvatures depending on the positions in the pixels.
  • the imaging apparatus according to any one.
  • the image pickup apparatus according to (7), wherein the curvature of the plurality of second lenses provided in each of the three or more photoelectric conversion units is larger toward the peripheral portion of the pixel.
  • the pixel has three or more photoelectric conversion units arranged in at least one of the row direction and the column direction.
  • the plurality of the second lenses provided in each of the three or more photoelectric conversion units have different offset amounts depending on the positions in the pixels.
  • the image pickup apparatus according to any one of the above.
  • the image pickup apparatus (10) The image pickup apparatus according to (9), wherein the offset amount of the plurality of second lenses provided in each of the three or more photoelectric conversion units is larger toward the peripheral portion of the pixel.
  • the image pickup apparatus according to any one of (1) to (10), further comprising a third lens arranged between the first lens and the second lens. (12) The image pickup apparatus according to (11), wherein the third lens is arranged for each pixel. (13) The image pickup apparatus according to any one of (1) to (12), wherein the first separation portion and the second separation portion have different widths. (14) The image pickup apparatus according to any one of (1) to (13), wherein the width of the first separation portion is narrower than the width of the second separation portion. (15) The image pickup apparatus according to any one of (1) to (14), further having a multilayer wiring layer on the second surface side of the semiconductor substrate.
  • the first separation portion and the second separation portion are described in any one of (1) to (15) above, wherein the first separation portion and the second separation portion extend from the inside of the semiconductor substrate into the multilayer wiring layer.
  • Imaging device 17.
  • at least a part of the first separation portion and the second separation portion extending into the multilayer wiring layer includes wiring provided in the multilayer wiring layer. The imaging device described.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の一実施形態の撮像装置は、対向する第1の面および第2の面を有し、複数の画素が行列状に配設されると共に、画素毎に受光量に応じた電荷を光電変換により生成する複数の光電変換部を有する半導体基板と、画素毎に配置された第1のレンズと、光電変換部毎に半導体基板と第1のレンズとの間に配置された第2のレンズと、画素内の隣り合う光電変換部の間に設けられ、隣り合う光電変換部を光学的に分離する第1の分離部と、隣り合う画素の間に設けられ、隣り合う画素を光学的に分離すると共に、第1の分離部よりも光入射方向に突出した第2の分離部とを備える。

Description

撮像装置
 本開示は、例えば、撮像情報および視差情報を取得可能な撮像装置に関する。
 例えば、特許文献1では、第1の光電変換部と第2の光電変換部との間に、異なるポテンシャル障壁を形成する第1の分離部および第2の分離部を設けることにより、受光量に応じた適切な画像の取得と、焦点検出精度の向上とを図った撮像装置が開示されている。
特開2017-212351号公報
 このように、撮像情報および視差情報を取得可能な撮像装置では、瞳分離性能と撮像性能との両立が求められている。
 瞳分離性能を向上させつつ、撮像性能の向上させることが可能な撮像装置を提供することが望ましい。
 本開示の一実施形態としての撮像装置は、対向する第1の面および第2の面を有し、複数の画素が行列状に配設されると共に、画素毎に受光量に応じた電荷を光電変換により生成する複数の光電変換部を有する半導体基板と、画素毎に配置された第1のレンズと、光電変換部毎に半導体基板と第1のレンズとの間に配置された第2のレンズと、画素内の隣り合う光電変換部の間に設けられ、隣り合う光電変換部を光学的に分離する第1の分離部と、隣り合う画素の間に設けられ、隣り合う画素を光学的に分離すると共に、第1の分離部よりも光入射方向に突出した第2の分離部とを備えたものである。
 本開示の一実施形態としての撮像装置では、複数の画素が行列状に配置されると共に、画素毎に複数の光電変換部を有する半導体基板の光入射面側に、画素毎に第1のレンズを配置し、半導体基板の第1の面と第1のレンズとの間に、光電変換部毎に第2のレンズを配置するようにした。更に、画素内において隣り合う光電変換部を光学的に分離する第1の分離部と、隣り合う画素を光学的に分離すると共に、第1の分離部よりも光入射方向に突出した第2の分離部とを設けるようにした。これにより、画素に入射した光を入射角度に応じた光電変換部へ入射させつつ、隣り合う光電変換部におけるクロストークの発生を低減する。
本開示の一実施の形態に係る撮像装置の構成の一例を表す断面模式図である。 図1に示した撮像装置の全体構成を表すブロック図である。 図1に示した単位画素の等価回路図である。 図1に示した単位画素における光電変換部、インナーレンズおよびアウターレンズのレイアウトの一例を表す平面模式図である。 図1に示した単位画素における光電変換部、インナーレンズおよびアウターレンズのレイアウトの他の例を表す平面模式図である。 本開示の変形例1に係る撮像装置の構成の一例を表す断面模式図である。 本開示の変形例2に係る撮像装置の構成の一例を表す断面模式図である。 本開示の変形例3に係る撮像装置の構成の一例を表す断面模式図である。 本開示の変形例4に係る撮像装置の単位画素における光電変換部、インナーレンズおよびアウターレンズのレイアウトの一例を表す平面模式図である。 本開示の変形例5に係る撮像装置の構成の一例を表す断面模式図である。 本開示の変形例6に係る撮像装置の構成の一例を表す断面模式図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示における一実施形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比等についても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
 1.実施の形態(画素毎にアウターレンズ、光電変換部毎にインナーレンズを有し、さらに、画素内の隣接する光電変換部間に第1分離部を、隣接する画素間に光入射側に突出する第2分離部を有する撮像装置の例)
 2.変形例
   2-1.変形例1(第1分離部の幅と第2分離部の幅とが異なる例)
   2-2.変形例2(異なる波長を透過する複数種類の透過部を有するカラーフィルタを設け、透過部毎にインナーレンズの積層方向の位置を変えた例)
   2-3.変形例3(単位画素内の位置に応じて曲率の異なるインナーレンズを有する例)
   2-4.変形例4(単位画素内の光電変換部の位置に応じてインナーレンズのオフセット量を変えた例)
   2-5.変形例5(アウターレンズとインナーレンズとの間にさらにインナーレンズを追加した例)
   2-6.変形例6(表面照射型の撮像装置の例)
 3.応用例
<1.実施の形態>
 図1は、本開示の一実施の形態に係る撮像装置(撮像装置1)の断面構成の一例を模式的に表したものである。図2は、図1に示した撮像装置1の全体構成の一例を表したものである。撮像装置1は、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等であり、撮像エリアとして、複数の画素が行列状に2次元配置された画素部(画素部100A)を有している。撮像装置1は、このCMOSイメージセンサ等において、例えば所謂裏面照射型の撮像装置である。
 本実施の形態の撮像装置1は、撮像情報と視差情報とを同時に取得可能な画素(単位画素P)を有するものである。本実施の形態の撮像装置1は、この単位画素P毎に複数の光電変換部12が設けられた半導体基板11の、例えば第1面11S1側に、インナーレンズ22Lおよびアウターレンズ24L設けられており、インナーレンズ22Lは光電変換部12毎に、アウターレンズ24Lは単位画素P毎にそれぞれ配置されている。撮像装置1には、さらに、単位画素P内において隣り合う光電変換部12を光学的に分離する第1分離部13と、隣り合う単位画素Pを光学的に分離する第2分離部14とを有し、第2分離部14は、第1分離部13よりも光入射側S1に突出して設けられている。
 上記インナーレンズ22Lが、本開示の「第2のレンズ」の一具体例に相当し、アウターレンズ24Lが、本開示の「第1のレンズ」の一具体例に相当する。また、第1分離部13が、本開示の「第1の分離部」の一具体例に相当し、第2分離部14が、本開示の「第2の分離部」の一具体例に相当する。
[撮像装置の概略構成]
 撮像装置1は、光学レンズ系(図示せず)を介して被写体からの入射光(像光)を取り込んで、撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力するものである。撮像装置1は、半導体基板11上に、撮像エリアとしての画素部100Aを有すると共に、この画素部100Aの周辺領域に、例えば、垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、出力回路114、制御回路115および入出力端子116を有している。
 画素部100Aには、例えば、複数の単位画素Pが行列状に2次元配置されている。複数の単位画素Pは、撮像画素と像面位相差画素とを兼ねている。撮像画素は、撮像レンズによって結像された被写体像をフォトダイオードPDにおいて光電変換して画像生成用の信号を生成するものである。像面位相差画素は、撮像レンズの瞳領域を分割し、分割された瞳領域からの被写体像を光電変換して位相差検出用の信号を生成するものである。
 単位画素Pには、例えば、画素行毎に画素駆動線Lread(具体的には行選択線およびリセット制御線)が配線され、画素列毎に垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素からの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、垂直駆動回路111の各行に対応した出力端に接続されている。
 垂直駆動回路111は、シフトレジスタやアドレスデコーダ等によって構成され、画素部100Aの各単位画素Pを、例えば、行単位で駆動する画素駆動部である。垂直駆動回路111によって選択走査された画素行の各単位画素Pから出力される信号は、垂直信号線Lsigの各々を通してカラム信号処理回路112に供給される。カラム信号処理回路112は、垂直信号線Lsig毎に設けられたアンプや水平選択スイッチ等によって構成されている。
 水平駆動回路113は、シフトレジスタやアドレスデコーダ等によって構成され、カラム信号処理回路112の各水平選択スイッチを走査しつつ順番に駆動するものである。この水平駆動回路113による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線121に出力され、当該水平信号線121を通して半導体基板11の外部へ伝送される。
 出力回路114は、カラム信号処理回路112の各々から水平信号線121を介して順次供給される信号に対して信号処理を行って出力するものである。出力回路114は、例えば、バッファリングのみを行う場合もあるし、黒レベル調整、列ばらつき補正および各種デジタル信号処理等が行われる場合もある。
 垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、水平信号線121および出力回路114からなる回路部分は、半導体基板11上に直に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。
 制御回路115は、半導体基板11の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像装置1の内部情報等のデータを出力するものである。制御回路115はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動回路111、カラム信号処理回路112および水平駆動回路113等の周辺回路の駆動制御を行う。
 入出力端子116は、外部との信号のやり取りを行うものである。
[単位画素の回路構成]
 図3は、図2に示した撮像装置1の単位画素Pの読み出し回路の一例を表したものである。単位画素Pは、例えば、図3に示したように、2つの光電変換部12A,12Bと、転送トランジスタTR1,TR2と、フローティングディフュージョンFDと、リセットトランジスタRSTと、増幅トランジスタAMPと、選択トランジスタSELとを有している。
 光電変換部12A,12Bは、それぞれ、フォトダイオード(PD)である。光電変換部12Aは、アノードが接地電圧線に接続され、カソードが転送トランジスタTR1のソースに接続されている。光電変換部12は、光電変換部12Aと同様に、アノードが接地電圧線に接続され、カソードが転送トランジスタTR2のソースに接続されている。
 転送トランジスタTR1は、光電変換部12AとフローティングディフュージョンFDとの間に接続されている。転送トランジスタTR2は、光電変換部12BとフローティングディフュージョンFDとの間に接続されている。転送トランジスタTR1,TR2のゲート電極には、それぞれ、駆動信号TRsigが印加される。この駆動信号TRsigがアクティブ状態になると、転送トランジスタTR1,TR2のそれぞれの転送ゲートが導通状態となり、光電変換部12A,12B各々に蓄積されている信号電荷が、転送トランジスタTR1,TR2を介してフローティングディフュージョンFDに転送される。
 フローティングディフュージョンFDは、転送トランジスタTR1,TR2と増幅トランジスタAMPとの間に接続されている。フローティングディフュージョンFDは、転送トランジスタTR1,TR2により転送される信号電荷を電圧信号に電荷電圧変換して、増幅トランジスタAMPに出力する。
 リセットトランジスタRSTは、フローティングディフュージョンFDと電源部との間に接続されている。リセットトランジスタRSTのゲート電極には、駆動信号RSTsigが印加される。この駆動信号RSTsigがアクティブ状態になると、リセットトランジスタRSTのリセットゲートが導通状態となり、フローティングディフュージョンFDの電位が電源部のレベルにリセットされる。
 増幅トランジスタAMPは、そのゲート電極がフローティングディフュージョンFDに、ドレイン電極が電源部にそれぞれ接続されており、フローティングディフュージョンFDが保持している電圧信号の読み出し回路、所謂ソースフォロア回路の入力部となる。即ち、増幅トランジスタAMPは、そのソース電極が選択トランジスタSELを介して垂直信号線Lsigに接続されることで、垂直信号線Lsigの一端に接続される定電流源とソースフォロア回路を構成する。
 選択トランジスタSELは、増幅トランジスタAMPのソース電極と、垂直信号線Lsigとの間に接続される。選択トランジスタSELのゲート電極には、駆動信号SELsigが印加される。この駆動信号SELsigがアクティブ状態になると、選択トランジスタSELが導通状態となり、単位画素Pが選択状態となる。これにより、増幅トランジスタAMPから出力される読み出し信号(画素信号)が、選択トランジスタSELを介して、垂直信号線Lsigに出力される。
 単位画素Pでは、例えば、光電変換部12Aにおいて生成された信号電荷および光電変換部12Bにおいて生成された信号電荷がそれぞれ読み出される。この光電変換部12Aおよび光電変換部12Bそれぞれから読み出された信号電荷を、例えば外部の信号処理部の位相差演算ブロックに出力することで、位相差オートフォーカス用の信号が取得できる。また、この光電変換部12Aおよび光電変換部12Bそれぞれから読み出された信号電荷をフローティングディフュージョンFDにおいて足し合わせ、例えば外部の信号処理部の撮像ブロックに出力することで、光電変換部12Aおよび光電変換部12Bの総電荷に基づく画素信号を取得できる。
[単位画素の構成]
 図4は、単位画素Pの平面構成の一例を模式的に表したものである。撮像装置1は、上記のように、例えば裏面照射型の撮像装置であり、画素部100Aに行列状に2次元配置された単位画素Pは、例えば、受光部10と、受光部10の光入射側S1に設けられた集光部20と、受光部10の光入射側S1とは反対側に設けられた多層配線層30とが積層された構成を有している。
 受光部10は、対向する第1面11S1および第2面11S2を有する半導体基板11と、半導体基板11に埋め込み形成された複数の光電変換部12とを有している。半導体基板11は、例えば、シリコン基板で構成されている。光電変換部12は、例えばPIN(Positive Intrinsic Negative)型のフォトダイオード(PD)であり、半導体基板11の所定領域にpn接合を有している。光電変換部12は、上記のように、単位画素Pに複数(例えば、2つ(光電変換部12A,12B))埋め込み形成されている。
 受光部10は、さらに、第1分離部13と、第2分離部14とを有している。
 第1分離部13は、単位画素P内において隣り合う光電変換部12Aと光電変換部12Bとの間に設けられている。第1分離部13は、隣り合う光電変換部12Aと光電変換部12Bとを光学的に分離するためのものであり、例えば、半導体基板11の第1面11S1と第2面11S2との間を貫通している。
 第1分離部13は、例えば、半導体基板11の第1面11S1と第2面11S2との間を延伸する遮光性を有する導電膜と、この導電膜と半導体基板11との間に設けられた絶縁膜とから形成されている。遮光性を有する導電膜としては、例えば、タングステン(W)、銀(Ag)、銅(Cu)、アルミニウム(Al)またはAlと銅(Cu)との合金等の単層膜または積層膜が挙げられる。絶縁膜としては、例えば、シリコン酸化(SiO)膜等が挙げられる。
 第2分離部14は、隣り合う単位画素Pの間に設けられている。換言すると、第2分離部14は単位画素Pの周囲に設けられており、画素部100Aにおいて、例えば格子状に設けられている。第2分離部14は、隣り合う単位画素Pを光学的に分離するためのものであり、例えば、半導体基板11の第1面11S1側から第2面11S2側に向かって延伸している。第2分離部14は、さらに、第1面11S1から光入射側S1に突出し、集光部20内に延伸している。具体的には、第2分離部14は、半導体基板11の第2面11S2から集光部20に設けられるアウターレンズ層24まで延伸している。
 第2分離部14は、例えば、第1分離部13と同様に、遮光性を有する導電膜と、この導電膜の周囲に設けられた絶縁膜とから形成されている。遮光性を有する導電膜としては、例えば、タングステン(W)、銀(Ag)、銅(Cu)、アルミニウム(Al)またはAlと銅(Cu)との合金等の単層膜または積層膜が挙げられる。絶縁膜としては、例えば、シリコン酸化(SiO)膜等が挙げられる。
 なお、第1分離部13および第2分離部14は、必ずしも半導体基板11を貫通していなくてもよく、例えば、第2面11S2側の半導体基板11内に第1分離部13および第2分離部14の端部が形成されていてもよい。換言すると、隣り合う光電変換部12A,12B、あるいは、隣り合う単位画素Pは、半導体基板11の第2面11S2側において半導体基板11によって互いに接続されていてもよい。更に、集光部20内に延伸する第2分離部14は、受光部10に設けられた第2分離部14とは異なる材料を用いて形成されていてもよい。
 また、図4では、単位画素Pが2つの光電変換部12A,12Bを有する例を示したが、単位画素P内の光電変換部12の数はこれに限定されるものではない。単位画素Pには、3つ以上の光電変換部12が設けられていてもよく、例えば、図5に示したように、2行×2列に配列された4つの光電変換部12A,12B,12C,12Dを設けるようにしてもよい。
 集光部20は、受光部10の光入射側S1に設けられ、例えば、半導体基板11の第1面11S1を覆う保護層21と、インナーレンズ層22と、埋込層23と、アウターレンズ層24とを有し、受光部10側からこの順に積層されている。
 保護層21は、半導体基板11の第1面11S1を保護すると共に、表面を平坦化するためのものである。保護層21は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)および酸窒化シリコン(SiO)等を用いて形成されている。
 インナーレンズ層22は、例えば、画素部100Aの全面を覆うように設けられており、その表面には、例えばギャップレスに設けられた複数のインナーレンズ22Lを有している。インナーレンズ22Lは、その上方から入射した光を光電変換部12へ誘導するためのものであり、例えば、図4に示したように、光電変換部12(例えば、光電変換部12A,12B)毎に設けられている。インナーレンズ22Lを含むインナーレンズ層22は、例えば、高屈折率材料を用いて形成されており、具体的には、例えば、酸化シリコン(SiO)や窒化シリコン(SiN)等の無機材料により形成されている。この他、インナーレンズ層22は、エピスルフィド系樹脂、チエタン化合物やその樹脂等の高屈折率の有機材料を用いて形成してもよい。インナーレンズ22Lの形状は、特に限定されるものではなく、半球形状や半円筒状等の各種レンズ形状を採用することができる。
 埋込層23は、インナーレンズ層22とアウターレンズ層24との間隔を保持するためのものである。埋込層23は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)および酸窒化シリコン(SiO)等を用いて形成されている。
 アウターレンズ層24は、インナーレンズ層22と同様に、例えば、画素部100Aの全面を覆うように設けられており、その表面には複数のアウターレンズ24Lを有している。アウターレンズ24Lは、その上方から入射した光をインナーレンズ22Lに集光させるためのものであり、例えば、図4に示したように、単位画素P毎に設けられている。アウターレンズ24Lを含むアウターレンズ層24は、インナーレンズ層22と同様に、例えば、高屈折率材料を用いて形成されており、具体的には、例えば、酸化シリコン(SiO)や窒化シリコン(SiN)等の無機材料により形成されている。この他、アウターレンズ層24は、エピスルフィド系樹脂、チエタン化合物やその樹脂等の高屈折率の有機材料を用いて形成してもよい。アウターレンズ24Lの形状は、特に限定されるものではなく、半球形状や半円筒状等の各種レンズ形状を採用することができる。
 多層配線層30は、受光部10の光入射側S1とは反対側に設けられている。多層配線層30は、例えば、複数の配線層31,32,33が、層間絶縁層34を間に積層された構成を有している。多層配線層30には、例えば、上述した読み出し回路の他に、垂直駆動回路111、カラム信号処理回路112、水平駆動回路113、出力回路114、制御回路115および入出力端子116等が形成されている。
 配線層31,32,33は、例えば、アルミニウム(Al)、銅(Cu)またはタングステン(W)等を用いて形成されている。この他、配線層31,32,33は、ポリシリコン(Poly-Si)を用いて形成するようにしてもよい。
 層間絶縁層34は、例えば、酸化シリコン(SiO)、TEOS、窒化シリコン(SiN)および酸窒化シリコン(SiO)等のうちの1種よりなる単層膜、あるいはこれらのうちの2種以上よりなる積層膜により形成されている。
[作用・効果]
 本実施の形態の撮像装置1では、単位画素P内に複数の光電変換部12(例えば、光電変換部12A,12B)を有する半導体基板11の第1面11S1側に、単位画素P毎にアウターレンズ24Lを配置し、半導体基板11の第1面11S1とアウターレンズ24Lとの間に、光電変換部12A,12B毎にインナーレンズ22Lを配置するようにした。更に、単位画素P内において隣り合う光電変換部12A,12Bの間に第1分離部13を、隣り合う単位画素Pの間に第1分離部13よりも光入射側S1に突出した第2分離部14を設けるようにした。これにより、単位画素Pに入射した光を入射角度に応じた光電変換部12A,12Bへ入射させつつ、隣り合う光電変換部12A,12Bにおけるクロストークの発生を低減する。以下、これについて説明する。
 近年、位相差検出方式による焦点検出機能を有する半導体イメージングデバイス(撮像装置)が普及している。このような撮像装置では、各画素が複数のフォトダイオードを有しており、この複数のフォトダイオードで1つのマイクロレンズを共有することにより、撮像情報と視差情報とを同時に取得可能となっている。
 上記のように、複数のフォトダイオードで1つのマイクロレンズを共有する撮像装置では、入射光を所定の入射角度に応じて分離してセンシングする。ところが、分離したい角度近傍では、クロストークが発生するという問題があった。
 この問題を解決する方法として、前述したように、画素の中心方向に分離部を延伸させることにより、瞳分離を強めて受光量に応じた適切な画像の取得と、焦点検出精度の向上とを図った撮像装置が報告されている。しかしながら、この撮像装置では、分離部の延伸を強めると撮像画質が劣化し、延伸を弱めると瞳分離性能が低下するため、撮像性能と瞳分離性能との両立は困難であった。
 これに対して本実施の形態では、単位画素P内に複数の光電変換部12(例えば、光電変換部12A,12B)を有する半導体基板11の第1面11S1側に、単位画素P毎にアウターレンズ24Lを配置し、半導体基板11の第1面11S1とアウターレンズ24Lとの間に、光電変換部12A,12B毎にインナーレンズ22Lを配置するようにした。具体的には、アウターレンズ24Lは、インナーレンズ22Lにピントが合うように配置されており、アウターレンズ24Lに入射した光(例えば、光L1,L2,L3)は、例えば、図1に示したように、まず、その入射角度に応じて対応するインナーレンズ22Lに入射して瞳分離された後、インナーレンズ22Lによって下方に配置された光電変換部12Aまたは光電変換部12Bへ誘導される。これにより、光L3のように、光電変換部12A,12Bの上方に配置された隣り合うインナーレンズ22Lの境界近傍に入射する光も、入射したインナーレンズ22Lの下方に配置された光電変換部12Aまたは光電変換部12Bへ効率よく誘導されるようになる。
 更に、本実施の形態では、単位画素P内において隣り合う光電変換部12A,12Bの間に、例えば、半導体基板11の第1面11S1と第2面11S2との間を貫通する第1分離部13を設け、隣り合う単位画素Pの間に、半導体基板11の第1面11S1側から第2面11S2に向かって延伸すると共に、さらに光入射側S1に延伸しアウターレンズ24Lまで達する第2分離部14を設けるようにした。これにより、隣り合う光電変換部12、特に、単位画素P内において隣り合う光電変換部12A,12Bにおけるクロストークの発生が低減される。
 以上により、本実施の形態の撮像装置1では、単位画素Pに入射した光を入射角度に応じた光電変換部12A,12Bへ入射させつつ、隣り合う光電変換部12A,12Bにおけるクロストークの発生を低減することができる。即ち、瞳分離性能を向上させつつ、撮像性能の向上させることが可能となる。
 また、本実施の形態では、上記のように、アウターレンズ24Lのピントをインナーレンズ22Lに合わせるようにしたので、一般的な撮像装置のようにアウターレンズ24Lのピントを半導体基板11の第1面11S1や内部に合わせた場合と比較して、感度を向上させることができる。即ち、撮像性能をより向上させることが可能となる。
 次に、本開示の変形例1~6について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜その説明を省略する。
<2.変形例>
(2-1.変形例1)
 図6は、本開示の変形例1に係る撮像装置(撮像装置1A)の断面構成の一例を模式的に表したものである。撮像装置1Aは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記実施の形態と同様に、例えば所謂裏面照射型の撮像装置である。
 上記実施の形態では、第1分離部13および第2分離部14を略同じ幅で形成した例を示したが、例えば、図6に示したように、第1分離部13の幅W1を、第2分離部14の幅W2よりも狭く(W1<W2)形成してもよい。これにより、インナーレンズ22Lによって回避しきれなかった光が第1分離部13に当たることによる感度の低下や、散乱光の発生が低減される。よって、瞳分離性能を向上させつつ、撮像性能さらに向上させることが可能となる。
(2-2.変形例2)
 図7は、本開示の変形例2に係る撮像装置(撮像装置1B)の断面構成の一例を模式的に表したものである。撮像装置1Bは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記実施の形態と同様に、例えば所謂裏面照射型の撮像装置である。本変形例では、集光部20の、例えば埋込層23とアウターレンズ層24との間に、単位画素P毎に、例えば赤色光(R)、緑色光(G)または青色光(B)を選択的に透過させるカラーフィルタ25を設け、カラーフィルタ25を透過する光の波長に応じてアウターレンズ23Lのレンズ面と、インナーレンズ22Lのレンズ面との距離を変えた点が、上記実施の形態とは異なる。
 例えば、カラーフィルタ25は、所定の波長域の光を選択的に透過する透過部25Aと、透過部25Aを透過する光よりも波長の長い光を選択的に透過する透過部25Bとを有している。撮像装置1Bでは、単位画素P1に透過部25Aが配置され、単位画素P2に透過部25Bが配置されており、単位画素P1および単位画素P2におけるアウターレンズ23Lのレンズ面とインナーレンズ22Lのレンズ面との距離は互いに異なっている。具体的には、単位画素P1の半導体基板11の第1面11S1を覆う保護層21を、単位画素P2の半導体基板11の第1面11S1を覆う保護層21よりも厚膜化し、単位画素P1におけるアウターレンズ23Lのレンズ面とインナーレンズ22Lのレンズ面との距離h1を、単位画素P2におけるアウターレンズ23Lのレンズ面とインナーレンズ22Lのレンズ面との距離h2よりも狭くした(h1<h2)。
 アウターレンズ24Lによってインナーレンズ22Lに集光される光は、その波長によってピントの位置が異なる。具体的には、短波長ほどピント位置が短くなり、長波長ほどピント位置は長くなる。
 このため、本変形例の撮像装置1Bのように、単位画素P毎に、所定の波長域の光を選択的に透過させる透過部(例えば、透過部25A,25B)を有するカラーフィルタ25を設ける場合には、透過する光の波長に応じてアウターレンズ24Lとインナーレンズ22Lとの距離、換言すると、半導体基板11の第1面11S1とインナーレンズ22Lのレンズ面との距離を変えることが好ましい。これにより、カラーフィルタ25を用いて複数種類の色信号を取得する撮像装置1Bにおいても、上記実施の形態と同様に、瞳分離性能を向上させつつ、撮像性能を向上させることが可能となる。
 また、本変形例のように、配置されるカラーフィルタ25に応じて半導体基板11の第1面11S1とインナーレンズ22Lのレンズ面との距離が変わる場合には、図7に示したように、半導体基板11の第1面11S1とインナーレンズ22Lのレンズ面との距離に応じて第1分離部13を光入射側S1に突出させることが好ましい。具体的には、例えば、図7に示した単位画素P1のように、半導体基板11の第1面11S1とインナーレンズ22Lとの距離が広い場合には、半導体基板11の第1面11S1とインナーレンズ22Lとの間の保護層21内に延伸させることが好ましい。これにより、半導体基板11の第1面11S1とインナーレンズ22Lのレンズ面との距離が広くなった場合にも、瞳分離性能を向上させつつ、撮像性能を向上させることが可能となる。
(2-3.変形例3)
 図8は、本開示の変形例3に係る撮像装置(撮像装置1C)の断面構成の一例を模式的に表したものである。撮像装置1Cは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記実施の形態と同様に、例えば所謂裏面照射型の撮像装置である。本変形例では、単位画素P内に、例えば行方向および/または列方向に3つ以上の光電変換部12を設け、光電変換部12毎に配置されるインナーレンズ22Lの曲率を、単位画素P内の位置に応じて変えた点が、上記実施の形態とは異なる。
 本変形例では、単位画素Pには、例えばX軸方向に4つの光電変換部12A,12B,12C,12Dが設けられており、光電変換部12A,12B,12C,12Dの上方には、それぞれインナーレンズ22La,22Lb,22Lc,22Ldが配置されている。これら4つのインナーレンズ22La,22Lb,22Lc,22Ldは、単位画素Pの周縁部ほど大きな曲率を有している。具体的には、単位画素Pの周縁部に設けられた光電変換部12A,12Dの上方に配置されたインナーレンズ22La,22Ldのレンズ面は、中心部に隣接する光電変換部12B,12Cの上方に配置されたインナーレンズ22Lb,22Lcのレンズ面よりも大きな曲率を有している。
 このように、本変形例の撮像装置1Cでは、例えば行方向および/または列方向に3つ以上の光電変換部12が設けられている単位画素において、単位画素P内の位置に応じて光電変換部12毎に配置されるインナーレンズ22Lの曲率を変えるようにした。これにより、集光性能を向上させることが可能となる。よって、瞳分離性能を向上させつつ、撮像性能をさらに向上させることが可能となる。
(2-4.変形例4)
 図9は、本開示の変形例4に係る撮像装置(撮像装置1D)の平面構成の一例を模式的に表したものである。撮像装置1Dは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等であり、上記実施の形態と同様に、例えば所謂裏面照射型の撮像装置である。本変形例では、単位画素P内に、例えば行方向および/または列方向に3つ以上の光電変換部12を設け、単位画素P内の位置に応じて光電変換部12毎に設けられるインナーレンズ22Lのオフセット量を変えた点が、上記実施の形態とは異なる。
 本変形例では、単位画素Pには、例えば、16個の光電変換部12が、X軸方向(例えば、行方向)およびY軸方向(例えば、列方向)に4行4列のアレイ状に設けられている。単位画素P内には、これら16個の光電変換部12に対応する16個のインナーレンズ22Lが設けられており、これら16個のインナーレンズ22Lは、単位画素Pの周縁部ほど、単位画素Pの中心部に向かって大きなオフセット量を有している。
 このように、本変形例の撮像装置1Dでは、例えば行方向および/または列方向に3つ以上の光電変換部12が設けられている単位画素Pにおいて、単位画素P内の位置に応じて光電変換部12毎に配置されるインナーレンズ22Lのオフセット量を変えるようにした。これにより、集光性能を向上させることが可能となる。よって、瞳分離性能を向上させつつ、撮像性能をさらに向上させることが可能となる。
(2-5.変形例5)
 図10は、本開示の変形例5に係る撮像装置(撮像装置1E)の断面構成の一例を模式的に表したものである。撮像装置1Eは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等である。本変形例では、インナーレンズ層22とアウターレンズ層24との間に、さらにインナーレンズ層26を配置した点が、上記実施の形態とは異なる。
 インナーレンズ層26は、上記インナーレンズ層22と同様に、例えば、画素部100Aの全面を覆うように設けられており、その表面には複数のインナーレンズ26Lを有している。インナーレンズ26Lはアウターレンズ24Lの集光を補助するものであり、例えば、図4に示したように、単位画素P毎に設けられている。インナーレンズ26Lを含むインナーレンズ層26は、例えば、高屈折率材料を用いて形成されており、具体的には、例えば、酸化シリコン(SiO)や窒化シリコン(SiN)等の無機材料により形成されている。この他、インナーレンズ層26は、エピスルフィド系樹脂、チエタン化合物やその樹脂等の高屈折率の有機材料を用いてもよい。インナーレンズ26Lの形状は、特に限定されるものではなく、半球形状や半円筒状等の各種レンズ形状を採用することができる。
 このように、本変形例では、インナーレンズ層22とアウターレンズ層24との間に、さらにインナーレンズ層26を設け、アウターレンズ24Lによるインナーレンズ22Lへの集光を補助するようにした。これにより、上記実施の形態の撮像装置1と比較して、集光部20を低背化できるようになる。よって、本変形例の撮像装置1Eでは、上記実施の形態の効果に加えて、斜め入射特性を改善することが可能となるという効果を奏する。
(2-6.変形例6)
 図11は、本開示の変形例6に係る撮像装置(撮像装置1F)の断面構成の一例を模式的に表したものである。撮像装置1Fは、例えば、デジタルスチルカメラ、ビデオカメラ等の電子機器に用いられるCMOSイメージセンサ等である。本変形例の撮像装置1Fは、受光部10の光入射側S1に多層配線層30が設けられた、所謂表面照射型の撮像装置である。
 このように、本技術は、裏面照射型の撮像装置に限らず、表面照射型の撮像装置にも適用することができ、上記実施の形態と同様に、瞳分離性能を向上させつつ、撮像性能を向上させることが可能となる。
 なお、本変形例のように、光入射側S1に多層配線層30を設ける場合には、上記変形例2と同様に、第1分離部13を多層配線層30内に延伸させることが好ましい。これにより、瞳分離性能の低下および撮像性能を向上させることが可能となる。多層配線層30内に延伸する第1分離部13および第2分離部14は、一部が、例えば、多層配線層30内に形成される配線層31,32,33を用いて形成してもよいし、例えば、導波路を用いて形成するようにしてもよい。
<3.応用例>
(移動体への応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図12に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図57の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図13は、撮像部12031の設置位置の例を示す図である。
 図13では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図13には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る移動体制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、撮像装置100は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、ノイズの少ない高精細な撮影画像を得ることができるので、移動体制御システムにおいて撮影画像を利用した高精度な制御を行うことができる。
(内視鏡手術システムへの応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図14は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図14では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11153上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図15は、図14に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100のカメラヘッド11102に設けられた撮像部11402に好適に適用され得る。撮像部11402に本開示に係る技術を適用することにより、撮像部11402を小型化もしくは高精細化することができるので、小型もしくは高精細な内視鏡11100を提供することができる。
 以上、実施の形態、変形例1~6および応用例を挙げて本開示を説明したが、本技術は上記実施の形態等に限定されるものではなく、種々の変形が可能である。例えば、上記変形例5では、インナーレンズ22Lとアウターレンズ24Lとの間に1つのインナーレンズ26Lを追加した例を示したが、2つ以上のインナーレンズを追加するようにしてもよい。
 なお、本明細書中に記載された効果はあくまで例示であってその記載に限定されるものではなく、他の効果があってもよい。
 なお、本開示は以下のような構成をとることも可能である。以下の構成の本技術によれば、複数の画素が行列状に配置されると共に、画素毎に複数の光電変換部を有する半導体基板の光入射面側に、画素毎に第1のレンズを配置し、半導体基板の第1の面と第1のレンズとの間に、光電変換部毎に第2のレンズを配置するようにした。更に、画素内において隣り合う光電変換部の間を光学的に分離する第1の分離部と、隣り合う画素の間を光学的に分離すると共に、第1の分離部よりも光入射方向に突出した第2の分離部とを設けるようにした。これにより、画素に入射した光を入射角度に応じた光電変換部へ入射させつつ、隣り合う光電変換部におけるクロストークの発生を低減する。よって、瞳分離性能を向上させつつ、撮像性能を向上させることが可能となる。
(1)
 対向する第1の面および第2の面を有し、複数の画素が行列状に配設されると共に、前記画素毎に受光量に応じた電荷を光電変換により生成する複数の光電変換部を有する半導体基板と、
 前記画素毎に配置された第1のレンズと、
 前記光電変換部毎に前記半導体基板と前記第1のレンズとの間に配置された第2のレンズと、
 前記画素内の隣り合う前記光電変換部の間に設けられ、隣り合う前記光電変換部を光学的に分離する第1の分離部と、
 隣り合う前記画素の間に設けられ、隣り合う前記画素を光学的に分離すると共に、前記第1の分離部よりも光入射方向に突出した第2の分離部と
 を備えた撮像装置。
(2)
 前記第1のレンズは入射光を前記第2のレンズに集光し、前記第2のレンズは、前記入射光を前記光電変換部へ誘導する、前記(1)に記載の撮像装置。
(3)
 前記第2の分離部は、隣り合う前記画素の間を前記第1のレンズまで延伸している、前記(1)または(2)に記載の撮像装置。
(4)
 前記画素毎に、第1の波長を選択的に透過する第1の透過部および前記第1の波長よりも長波長な第2の波長を選択的に透過する第2の透過部を有するカラーフィルタを、前記半導体基板の前記第1の面の上方にさらに有し、
 前記第1の透過部を有する前記画素に設けられた前記第2のレンズと、前記第2の透過部を有する前記画素に設けられた前記第2のレンズとは、前記第1の面に対して互いに異なる高さに配置されている、前記(1)乃至(3)のうちのいずれか1つに記載の撮像装置。
(5)
 前記第1の透過部を有する前記画素に配置された前記第2のレンズのレンズ面と前記第1のレンズのレンズ面との距離は、前記第2の透過部を有する前記画素に配置された前記第2のレンズのレンズ面と前記第1のレンズのレンズ面との距離よりも狭い、前記(4)に記載の撮像装置。
(6)
 前記第2の透過部を有する前記画素に設けられた前記第1の分離部の光入射側の高さは、前記第1の透過部を有する前記画素に設けられた前記第1の分離部の前記光入射側の高さよりも低い、前記(4)または(5)に記載の撮像装置。
(7)
 前記画素は、行方向または列方向の少なくとも一方に3つ以上の光電変換部が配置され、
 前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズは、前記画素内の位置に応じて異なる曲率を有している、前記(1)乃至(6)のうちのいずれか1つに記載の撮像装置。
(8)
 前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズの曲率は、前記画素の周縁部ほど大きい、前記(7)に記載の撮像装置。
(9)
 前記画素は、行方向または列方向の少なくとも一方に3つ以上の光電変換部が配置され、
 前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズは、前記画素内の位置に応じて異なるオフセット量を有している、前記(1)乃至(8)のうちのいずれか1つに記載の撮像装置。
(10)
 前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズのオフセット量は、前記画素の周縁部ほど大きい、前記(9)に記載の撮像装置。
(11)
 前記第1のレンズと前記第2のレンズとの間に配置された第3のレンズをさらに有する、前記(1)乃至(10)のうちのいずれか1つに記載の撮像装置。
(12)
 前記第3のレンズは、前記画素毎に配置されている、前記(11)に記載の撮像装置。
(13)
 前記第1の分離部と前記第2の分離部とは異なる幅を有している、前記(1)乃至(12)のうちのいずれか1つに記載の撮像装置。
(14)
 前記第1の分離部の幅は、前記第2の分離部の幅よりも狭い、前記(1)乃至(13)のうちのいずれか1つに記載の撮像装置。
(15)
 前記半導体基板の第2の面側に多層配線層をさらに有する、前記(1)乃至(14)のうちのいずれか1つに記載の撮像装置。
(16)
 前記半導体基板の第1の面側に多層配線層をさらに有し、
 前記第1の分離部および前記第2の分離部は、前記半導体基板の内部から前記多層配線層内に延伸している、前記(1)乃至(15)のうちのいずれか1つに記載の撮像装置。
(17)
 前記多層配線層内に延伸する前記第1の分離部および前記第2の分離部の少なくとも一部は、前記多層配線層内に設けられた配線を含んで形成されている、前記(16)に記載の撮像装置。
 本出願は、日本国特許庁において2020年12月17日に出願された日本特許出願番号2020-209677号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (17)

  1.  対向する第1の面および第2の面を有し、複数の画素が行列状に配設されると共に、前記画素毎に受光量に応じた電荷を光電変換により生成する複数の光電変換部を有する半導体基板と、
     前記画素毎に配置された第1のレンズと、
     前記光電変換部毎に前記半導体基板と前記第1のレンズとの間に配置された第2のレンズと、
     前記画素内の隣り合う前記光電変換部の間に設けられ、隣り合う前記光電変換部を光学的に分離する第1の分離部と、
     隣り合う前記画素の間に設けられ、隣り合う前記画素を光学的に分離すると共に、前記第1の分離部よりも光入射方向に突出した第2の分離部と
     を備えた撮像装置。
  2.  前記第1のレンズは入射光を前記第2のレンズに集光し、前記第2のレンズは、前記入射光を前記光電変換部へ誘導する、請求項1に記載の撮像装置。
  3.  前記第2の分離部は、隣り合う前記画素の間を前記第1のレンズまで延伸している、請求項1に記載の撮像装置。
  4.  前記画素毎に、第1の波長を選択的に透過する第1の透過部および前記第1の波長よりも長波長な第2の波長を選択的に透過する第2の透過部を有するカラーフィルタを、前記半導体基板の前記第1の面の上方にさらに有し、
     前記第1の透過部を有する前記画素に設けられた前記第2のレンズと、前記第2の透過部を有する前記画素に設けられた前記第2のレンズとは、前記第1の面に対して互いに異なる高さに配置されている、請求項1に記載の撮像装置。
  5.  前記第1の透過部を有する前記画素に配置された前記第2のレンズのレンズ面と前記第1のレンズのレンズ面との距離は、前記第2の透過部を有する前記画素に配置された前記第2のレンズのレンズ面と前記第1のレンズのレンズ面との距離よりも狭い、請求項4に記載の撮像装置。
  6.  前記第2の透過部を有する前記画素に設けられた前記第1の分離部の光入射側の高さは、前記第1の透過部を有する前記画素に設けられた前記第1の分離部の前記光入射側の高さよりも低い、請求項4に記載の撮像装置。
  7.  前記画素は、行方向または列方向の少なくとも一方に3つ以上の光電変換部が配置され、
     前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズは、前記画素内の位置に応じて異なる曲率を有している、請求項1に記載の撮像装置。
  8.  前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズの曲率は、前記画素の周縁部ほど大きい、請求項7に記載の撮像装置。
  9.  前記画素は、行方向または列方向の少なくとも一方に3つ以上の光電変換部が配置され、
     前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズは、前記画素内の位置に応じて異なるオフセット量を有している、請求項1に記載の撮像装置。
  10.  前記3つ以上の光電変換部のそれぞれに設けられた複数の前記第2のレンズのオフセット量は、前記画素の周縁部ほど大きい、請求項9に記載の撮像装置。
  11.  前記第1のレンズと前記第2のレンズとの間に配置された第3のレンズをさらに有する、請求項1に記載の撮像装置。
  12.  前記第3のレンズは、前記画素毎に配置されている、請求項11に記載の撮像装置。
  13.  前記第1の分離部と前記第2の分離部とは異なる幅を有している、請求項1に記載の撮像装置。
  14.  前記第1の分離部の幅は、前記第2の分離部の幅よりも狭い、請求項1に記載の撮像装置。
  15.  前記半導体基板の第2の面側に多層配線層をさらに有する、請求項1に記載の撮像装置。
  16.  前記半導体基板の第1の面側に多層配線層をさらに有し、
     前記第1の分離部および前記第2の分離部は、前記半導体基板の内部から前記多層配線層内に延伸している、請求項1に記載の撮像装置。
  17.  前記多層配線層内に延伸する前記第1の分離部および前記第2の分離部の少なくとも一部は、前記多層配線層内に設けられた配線を含んで形成されている、請求項16に記載の撮像装置。
PCT/JP2021/044560 2020-12-17 2021-12-03 撮像装置 WO2022131034A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/034,233 US20230387166A1 (en) 2020-12-17 2021-12-03 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020209677A JP2022096525A (ja) 2020-12-17 2020-12-17 撮像装置
JP2020-209677 2020-12-17

Publications (1)

Publication Number Publication Date
WO2022131034A1 true WO2022131034A1 (ja) 2022-06-23

Family

ID=82057664

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044560 WO2022131034A1 (ja) 2020-12-17 2021-12-03 撮像装置

Country Status (3)

Country Link
US (1) US20230387166A1 (ja)
JP (1) JP2022096525A (ja)
WO (1) WO2022131034A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220098500A (ko) * 2021-01-04 2022-07-12 삼성전자주식회사 이미지 센서

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03283572A (ja) * 1990-03-30 1991-12-13 Sony Corp 固体撮像素子
JP2013191869A (ja) * 2013-05-13 2013-09-26 Sony Corp 固体撮像装置及び電子機器
JP2015026708A (ja) * 2013-07-26 2015-02-05 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
JP2016015430A (ja) * 2014-07-03 2016-01-28 ソニー株式会社 固体撮像素子および電子機器
WO2017130723A1 (ja) * 2016-01-27 2017-08-03 ソニー株式会社 固体撮像素子および電子機器
JP2019004043A (ja) * 2017-06-15 2019-01-10 ルネサスエレクトロニクス株式会社 固体撮像素子およびその製造方法
WO2020013130A1 (ja) * 2018-07-10 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子装置
WO2020137203A1 (ja) * 2018-12-26 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03283572A (ja) * 1990-03-30 1991-12-13 Sony Corp 固体撮像素子
JP2013191869A (ja) * 2013-05-13 2013-09-26 Sony Corp 固体撮像装置及び電子機器
JP2015026708A (ja) * 2013-07-26 2015-02-05 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
JP2016015430A (ja) * 2014-07-03 2016-01-28 ソニー株式会社 固体撮像素子および電子機器
WO2017130723A1 (ja) * 2016-01-27 2017-08-03 ソニー株式会社 固体撮像素子および電子機器
JP2019004043A (ja) * 2017-06-15 2019-01-10 ルネサスエレクトロニクス株式会社 固体撮像素子およびその製造方法
WO2020013130A1 (ja) * 2018-07-10 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子装置
WO2020137203A1 (ja) * 2018-12-26 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置

Also Published As

Publication number Publication date
JP2022096525A (ja) 2022-06-29
US20230387166A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
US11881495B2 (en) Solid-state imaging apparatus, method for manufacturing the same, and electronic device
WO2021131318A1 (ja) 固体撮像装置及び電子機器
JP2019012739A (ja) 固体撮像素子および撮像装置
WO2021241019A1 (ja) 撮像素子および撮像装置
WO2021124975A1 (ja) 固体撮像装置および電子機器
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
WO2022131034A1 (ja) 撮像装置
WO2023013444A1 (ja) 撮像装置
WO2022009627A1 (ja) 固体撮像装置および電子機器
WO2021045139A1 (ja) 撮像素子および撮像装置
WO2021186907A1 (ja) 固体撮像装置及びその製造方法、並びに電子機器
WO2021215299A1 (ja) 撮像素子および撮像装置
WO2024029408A1 (ja) 撮像装置
WO2024057805A1 (ja) 撮像素子および電子機器
WO2024057814A1 (ja) 光検出装置および電子機器
WO2023162496A1 (ja) 撮像装置
WO2023079835A1 (ja) 光電変換装置
WO2023234069A1 (ja) 撮像装置および電子機器
WO2023012989A1 (ja) 撮像装置
US12002825B2 (en) Solid-state imaging device and electronic apparatus with improved sensitivity
WO2021157250A1 (ja) 受光素子、固体撮像装置及び電子機器
WO2021171796A1 (ja) 固体撮像装置及び電子機器
WO2024084991A1 (en) Photodetector, electronic apparatus, and optical element
WO2021140958A1 (ja) 撮像素子、製造方法、並びに電子機器
WO2022137864A1 (ja) 撮像装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906397

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18034233

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21906397

Country of ref document: EP

Kind code of ref document: A1