WO2018173872A1 - センサチップおよび電子機器 - Google Patents

センサチップおよび電子機器 Download PDF

Info

Publication number
WO2018173872A1
WO2018173872A1 PCT/JP2018/009909 JP2018009909W WO2018173872A1 WO 2018173872 A1 WO2018173872 A1 WO 2018173872A1 JP 2018009909 W JP2018009909 W JP 2018009909W WO 2018173872 A1 WO2018173872 A1 WO 2018173872A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
chip
light
sensor
sensor chip
Prior art date
Application number
PCT/JP2018/009909
Other languages
English (en)
French (fr)
Inventor
松本 晃
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN201880018703.3A priority Critical patent/CN110447104B/zh
Priority to US16/487,453 priority patent/US11127772B2/en
Priority to JP2019507588A priority patent/JPWO2018173872A1/ja
Publication of WO2018173872A1 publication Critical patent/WO2018173872A1/ja
Priority to US17/462,223 priority patent/US11855112B2/en
Priority to US18/512,973 priority patent/US20240186351A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers

Definitions

  • the present disclosure relates to a sensor chip and an electronic device, and particularly to a sensor chip and an electronic device that can efficiently use carriers generated by photoelectric conversion.
  • CMOS Complementary Metal Oxide Semiconductor
  • ToF Time-of-Flight
  • SPAD Single-Photon-Avalanche-Diode
  • APD Avalanche-Photodiode
  • Patent Document 1 discloses a configuration in which one on-chip lens is arranged on one pixel in a quantum dot sensor capable of improving the light receiving sensitivity by avalanche amplification.
  • the present disclosure has been made in view of such a situation, and makes it possible to efficiently use carriers generated by photoelectric conversion.
  • a sensor chip is provided with a semiconductor substrate provided with at least one avalanche multiplication region that multiplies carriers generated by photoelectric conversion in each of a plurality of pixel regions, and the semiconductor substrate is irradiated with the sensor chip. And a plurality of on-chip lenses are arranged for one pixel region.
  • An electronic device is provided with a semiconductor substrate provided with at least one avalanche multiplication region that multiplies carriers generated by photoelectric conversion in each of a plurality of pixel regions, and the semiconductor substrate is irradiated with the semiconductor substrate. And a sensor chip in which a plurality of the on-chip lenses are arranged for one pixel region.
  • At least one or more avalanche multiplication regions that multiply carriers generated by photoelectric conversion are provided in a semiconductor substrate in each of a plurality of pixel regions. It is condensed by an on-chip lens. A plurality of on-chip lenses are arranged for one pixel region.
  • carriers generated by photoelectric conversion can be used efficiently.
  • FIG. 9th Embodiment of an APD sensor It is a block diagram which shows the structural example of 9th Embodiment of an APD sensor. It is a block diagram which shows the structural example of an imaging device. It is a figure which shows the usage example which uses an image sensor. It is a block diagram which shows an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • FIG. 1 is a diagram illustrating a configuration example of a first embodiment of an APD sensor to which the present technology is applied.
  • FIG. 1A shows a cross-sectional configuration in one pixel region of the APD sensor 10
  • FIG. 1B shows a perspective view seen from the light irradiation surface on which the APD sensor 10 is irradiated with light. It is shown.
  • the APD sensor 10 is a backside irradiation type in which light is irradiated to the back surface of the semiconductor substrate 11 (the surface facing upward in FIG. 1), and a wiring layer 12 is laminated on the front surface side of the semiconductor substrate 11.
  • a plurality of on-chip lenses 13 are stacked on the back side of the semiconductor substrate 11.
  • the semiconductor substrate 11 is, for example, a wafer obtained by thinly slicing single crystal silicon, and an N-type diffusion layer or a P-type diffusion layer is formed by ion implantation of N-type or P-type impurities. The photoelectric conversion is performed.
  • the semiconductor substrate 11 may be made of a material suitable for infrared detection in addition to silicon. For example, GaAs (Gallium Arsenide), InGaAs (Indium Gallium Arsenide), CIGS (Cu, In, Ga, Se) A compound semiconductor such as may be used. By using such a material, the APD sensor 10 can be used as an infrared sensor.
  • one avalanche multiplication region 21 is provided in each pixel region of the APD sensor 10 in the vicinity of the wiring layer 12 inside the semiconductor substrate 11.
  • the avalanche multiplication region 21 is a high electric field region formed at the boundary surface between the P-type diffusion layer and the N-type diffusion layer by, for example, a large negative voltage applied to the P-type diffusion layer, and is incident on the semiconductor substrate 11. Carriers (e ⁇ ) generated by photoelectric conversion of light can be multiplied.
  • the wiring layer 12 is configured, for example, by forming a plurality of metal wirings 31 in an insulating film, and the metal wirings 31 correspond to the plurality of on-chip lenses 13 (when viewed in a plan view). (Overlapping) position.
  • the metal wiring 31 has a function as a reflection film that reflects light that has passed through the semiconductor substrate 11.
  • the wiring layer 12 is provided with three metal wirings 31-1 to 31-3.
  • a metal wiring 31-1 is arranged corresponding to the on-chip lens 13-1
  • a metal wiring 31-2 is arranged corresponding to the on-chip lens 13-2
  • a metal wiring 31-2 is arranged corresponding to the on-chip lens 13-3.
  • Metal wiring 31-3 is arranged.
  • the metal wiring 31-2 disposed in the center of one pixel region of the APD sensor 10 is preferably formed to have a larger area than the other metal wirings 31-1 and 31-2.
  • the plurality of on-chip lenses 13 are disposed on the light irradiation surface side on which the semiconductor substrate 11 is irradiated with light, and each collects light irradiated on the semiconductor substrate 11.
  • a plurality of on-chip lenses 13 are arranged for one pixel region.
  • the on-chip lenses 13 are arranged so that the number arranged in the vertical direction and the number arranged in the horizontal direction are equal (square) when the APD sensor 10 is viewed in plan. It is preferable.
  • nine on-chip lenses 13 for one pixel region of the APD sensor 10 have a vertical direction ⁇ horizontal direction of 3 ⁇ when the APD sensor 10 is viewed in plan. It is preferable to arrange so as to be 3.
  • the avalanche multiplication area 21 is disposed in the center of one pixel area of the APD sensor 10 when the APD sensor 10 is viewed in a plan view, and the on-chip lens 13 is 3 ⁇ 3 as shown in the figure.
  • the avalanche multiplication region is obtained. It is possible to facilitate photoelectric conversion near 21. As a result, carriers generated by photoelectric conversion can easily flow into the avalanche multiplication region 21, and the number of carriers multiplied in the avalanche multiplication region 21 can be increased. Therefore, the carrier generated by the photoelectric conversion can be used efficiently, and as a result, the light receiving sensitivity (detection efficiency) can be further improved.
  • the carriers photoelectrically converted in the depletion layer region on the avalanche multiplication region reach the avalanche multiplication region by diffusing and contribute to avalanche amplification, but the carriers photoelectrically converted in other regions are It flowed out to the anode or cathode without going through the avalanche multiplication region.
  • the APD sensor 10 since a plurality of on-chip lenses 13 are arranged so that photoelectric conversion can be performed in the vicinity of the avalanche multiplication region 21, carriers generated by photoelectric conversion are increased by avalanche increase. It is possible to avoid flowing out to the anode or the cathode without passing through the double region.
  • the APD sensor 10 configured as described above can reduce the size of each on-chip lens 13 by providing a plurality of on-chip lenses 13 for one pixel region of the APD sensor 10. it can. Therefore, for example, the APD sensor 10 can form the on-chip lens 13 so that the curvature is large (the curvature radius is small) as compared with a configuration in which one on-chip lens is provided for one pixel region. It becomes. As a result, the APD sensor 10 can effectively concentrate light on the avalanche multiplication region 21 by the on-chip lens 13 having a large curvature, and can improve detection efficiency.
  • the APD sensor 10 can lengthen the optical path inside the semiconductor substrate 11 as compared with a configuration in which the on-chip lens is not provided by the amount of light collected by the on-chip lens 13. As a result, even if a thinner semiconductor substrate 11 is used, the amount of light collected by the on-chip lens 13 is less likely to pass through the semiconductor substrate 11, so that a decrease in detection efficiency can be avoided. In other words, the semiconductor substrate 11 can be made thin even with the same detection efficiency as the configuration in which one on-chip lens is provided for one pixel region.
  • the APD sensor 10 in which the semiconductor substrate 11 is configured to be thin can suppress the timing jitter and avoid the adverse effect. That is, in an APD sensor having a thick semiconductor substrate, the distance that the carrier moves from the position where light incident on the semiconductor substrate is photoelectrically converted to the avalanche multiplication region is increased, and timing jitter is increased. .
  • the distance that carriers move from the location where the light incident on the semiconductor substrate 11 is photoelectrically converted to the avalanche multiplication region 21 can be shortened, and timing jitter is suppressed. be able to. Therefore, for example, when the APD sensor 10 is used as a distance image sensor, the distance can be measured more accurately.
  • the APD sensor 10 has a configuration in which one pixel region is enlarged in order to increase the signal amount, by providing a plurality of on-chip lenses 13, the on-chip lens 13 having a sufficient curvature corresponding to the pixel size. And can aim (create) a region having a high light intensity locally. As a result, the degree of freedom in designing the avalanche multiplication region 21 can be improved.
  • the APD sensor 10 is a back-illuminated type as described above, and light passing through the semiconductor substrate 11 in a pixel that receives light in a wavelength region with low absorption efficiency in the semiconductor substrate 11 such as infrared light. Can be reflected by the metal wiring 31.
  • the light is locally concentrated by arranging the on-chip lens 13 so as to concentrate the light locally on the metal wiring 31. The absorption efficiency can be improved.
  • FIG. 2 shows a configuration example of the APD sensor 10 according to the second embodiment.
  • the same reference numerals are given to the same components as those in the APD sensor 10 in FIG. 1, and the detailed description thereof is omitted.
  • the APD sensor 10A includes a wiring layer 12A stacked on the surface of the semiconductor substrate 11, and a plurality of on-chip lenses 13 stacked on the wiring layer 12A.
  • the configuration is different from that of the APD sensor 10.
  • multilayer wirings 32-1 and 32-2 configured by laminating a plurality of layers of wirings are formed in the vicinity of the outer periphery thereof.
  • the APD sensor 10 in FIG. 1 is a backside illumination type as described above, the APD sensor 10A is configured as a frontside illumination type in which light is emitted to the surface side of the semiconductor substrate 11.
  • the avalanche multiplication region 21 is formed on the surface side of the semiconductor substrate 11 in the vicinity of the wiring layer 12A.
  • the surface irradiation type APD sensor 10A also has a structure in which a plurality of on-chip lenses 13 are provided for one pixel region, and is generated by photoelectric conversion as in the APD sensor 10 of FIG. Carriers can be used efficiently, and the light receiving sensitivity can be improved.
  • FIG. 3 shows a configuration example of the APD sensor 10 according to the third embodiment.
  • symbol is attached
  • FIG. 3 is different from the APD sensor 10 of FIG. 1 in that a plurality of on-chip lenses 13 having different sizes are stacked on the semiconductor substrate 11.
  • the APD sensor 10B of FIG. 3 a large-shaped on-chip lens 13a is disposed at the center of one pixel area of the APD sensor 10B, and a small-shaped on-chip is disposed at the periphery of the one pixel area of the APD sensor 10B. It is preferable that the lens 13b is arranged.
  • the small on-chip lens 13b can be formed to have a larger curvature than the on-chip lens 13a. Therefore, the light incident on the semiconductor substrate 11 through the on-chip lens 13b is condensed on the upper portion of the semiconductor substrate 11 and is photoelectrically converted. Then, since the carriers generated by photoelectric conversion on the upper portion of the semiconductor substrate 11 easily flow to the avalanche multiplication region 21, the APD sensor 10B can multiply more carriers.
  • the light that enters the semiconductor substrate 11 through the large-shaped on-chip lens 13 a and passes through the semiconductor substrate 11 is reflected by the metal wiring 31-2 disposed in the center of the wiring layer 12, and is thus transmitted to the semiconductor substrate 11. Re-incident on.
  • the light re-entering the semiconductor substrate 11 is photoelectrically converted in the vicinity of the avalanche multiplication region 21, and the carriers generated thereby flow into the avalanche multiplication region 21 and are multiplied.
  • the APD sensor 10B can efficiently use the carriers generated by the photoelectric conversion by appropriately arranging the plurality of on-chip lenses 13 having different sizes, thereby improving the light receiving sensitivity. it can.
  • FIG. 3B and FIG. 3C show planar arrangement examples of the on-chip lens 13a and the on-chip lens 13b.
  • one on-chip lens 13a is arranged in the center, and together with the eight on-chip lenses 13b provided around it, they are 3 ⁇ 3.
  • the following arrangement can be adopted.
  • a gap is provided between the small-sized on-chip lenses 13b.
  • one on-chip lens 13a is arranged at the center, and twelve on-chip lenses 13b provided around the on-chip lens 13a are spaced from each other. It is more preferable to employ an arrangement in which no is provided.
  • the APD sensor 10B can effectively use incident light by adopting a configuration that avoids the formation of a gap between the on-chip lenses 13b.
  • FIG. 4 shows a configuration example of the APD sensor 10 according to the fourth embodiment.
  • the same reference numerals are given to the same components as those in the APD sensor 10 in FIG. 1, and the detailed description thereof is omitted.
  • the APD sensor 10 ⁇ / b> C is configured in such a manner that an inner lens layer 41 is laminated on the back surface of the semiconductor substrate 11 and a plurality of on-chip lenses 13 are laminated on the inner lens layer 41.
  • the configuration is different from that of the one APD sensor 10.
  • one inner lens 42 is formed for one pixel region of the APD sensor 10C in a transparent resin layer, and the inner lens 42 includes a plurality of on-chip lenses 13. The light condensed by the above is further condensed at the center of one pixel region.
  • the APD sensor 10C has a configuration in which the inner lens 42 is disposed between the semiconductor substrate 11 and the plurality of on-chip lenses 13, so that, for example, the APD sensor 10C is a semiconductor substrate compared to the APD sensor 10 of FIG. 11 condensing spots can be brought closer to the upper side (the side on which light is incident).
  • the semiconductor substrate 11 can be made thinner. That is, even if the semiconductor substrate 11 is thinned, the light incident on the semiconductor substrate 11 can be made difficult to pass through. Accordingly, the APD sensor 10C can efficiently use the carriers generated by the photoelectric conversion, and can improve the light receiving sensitivity.
  • FIG. 5 shows a configuration example of the APD sensor 10 according to the fifth embodiment.
  • the same reference numerals are given to the same components as those in the APD sensor 10 in FIG. 1, and the detailed description thereof is omitted.
  • a light shielding film 51 having a light shielding property for shielding light is formed so as to surround a plurality of on-chip lenses 13 in one pixel region stacked on the semiconductor substrate 11. Therefore, the APD sensor 10 is different from the APD sensor 10 shown in FIG. That is, in the APD sensor 10D, the light shielding film 51 is configured to shield light between adjacent pixel regions on the light irradiation surface of the semiconductor substrate 11.
  • the APD sensor 10D configured in this way can prevent light from being mixed into another adjacent pixel region by the light shielding film 51 on the light irradiation surface of the semiconductor substrate 11. Thereby, APD sensor 10D can suppress generation
  • FIG. 6 shows a configuration example of the APD sensor 10 according to the sixth embodiment.
  • the same reference numerals are given to the same components as those in the APD sensor 10 in FIG. 1, and detailed description thereof is omitted.
  • a light shielding film 51 is formed so as to surround a plurality of on-chip lenses 13 in one pixel region stacked on the semiconductor substrate 11, and the on-chip lenses 13 are connected to each other. 1 is different from the APD sensor 10 of FIG. 1 in that a lens partition 52 is formed between them. That is, the APD sensor 10E is configured such that the plurality of on-chip lenses 13 in one pixel region are partitioned by the lens partitions 52 in addition to the light shielding film 51, similarly to the APD sensor 10D of FIG. .
  • the lens partition 52 is preferably formed of a material having a light transmitting property, and a decrease in the amount of light received by the semiconductor substrate 11 by the lens partition 52 can be avoided.
  • the uniformity of the on-chip lenses 13 is improved. be able to. That is, the APD sensor 10E can form a plurality of on-chip lenses 13 so as to have a more uniform shape.
  • FIG. 7 shows a configuration example of the APD sensor 10 according to the seventh embodiment.
  • symbol is attached
  • the APD sensor 10 ⁇ / b> F has a configuration in which a band-pass filter 61 is laminated on the surface of the semiconductor substrate 11, and a plurality of on-chip lenses 13 are laminated on the band-pass filter 61.
  • the configuration is different from that of the one APD sensor 10.
  • the bandpass filter 61 is a filter that allows only light in a predetermined wavelength range to pass. For example, a color filter (RGB filter) for visible light, a filter that transmits only specific infrared light, or the like is used. It is done.
  • the APD sensor 10F has a configuration in which the band-pass filter 61 is disposed between the semiconductor substrate 11 and the plurality of on-chip lenses 13, thereby detecting, for example, an APD reaction in a specific wavelength range. Can do.
  • FIG. 8 shows a configuration example of the APD sensor 10 according to the eighth embodiment.
  • symbol is attached
  • the APD sensor 10G is configured by embedding an insulating film 62 in a DTI (Deep Trench Isolation) formed so as to surround one pixel region of the semiconductor substrate 11.
  • DTI Deep Trench Isolation
  • the configuration is different from that of the sensor 10. That is, in the APD sensor 10G, a DTI is formed by processing a deep groove so as to separate adjacent pixel regions in the semiconductor substrate 11, and, for example, silicon nitride (silicon nitride having high insulating properties) is formed in the DTI. ) Is embedded to form the insulating film 62.
  • the pixel regions are separated from each other by the insulating film 62 inside the semiconductor substrate 11, so that carriers generated by photoelectric conversion in the semiconductor substrate 11 are mixed into adjacent pixel regions. Can be prevented. Thereby, the APD sensor 10G can suppress the occurrence of color mixing in the semiconductor substrate 11 as compared with the APD sensor 10 of FIG.
  • FIG. 9 shows a configuration example of the APD sensor 10 according to the ninth embodiment.
  • symbol is attached
  • the APD sensor 10 ⁇ / b> H is configured by embedding a metal film 63 having a light shielding property in a DTI formed so as to surround one pixel region of the semiconductor substrate 11.
  • the configuration is different from that of the sensor 10. That is, in the APD sensor 10H, a DTI is formed by processing a deep groove so that adjacent pixel regions in the semiconductor substrate 11 are separated from each other. For example, tungsten or the like is insulated from the semiconductor substrate 11 in the DTI.
  • the metal film 63 is formed by embedding the metal.
  • the APD sensor 10H configured as described above separates the pixel regions inside the semiconductor substrate 11 by the metal film 63, thereby preventing light incident on the semiconductor substrate 11 from being mixed into adjacent pixel regions. be able to. Thereby, the APD sensor 10H can suppress the occurrence of color mixing in the semiconductor substrate 11 as compared with the APD sensor 10 of FIG. Furthermore, when the internal light emission of the semiconductor substrate 11 is generated, the APD sensor 10H can prevent the generated light from being mixed into the adjacent pixel region and suppress the occurrence of color mixing.
  • the APD sensor 10 of each embodiment as described above can easily flow carriers generated by photoelectric conversion into the avalanche multiplication region 21, it is possible to increase the number of carriers multiplied in the avalanche multiplication region 21. it can. As described above, as a result of efficient use of carriers, the APD sensor 10 can improve the light receiving sensitivity.
  • the APD sensor 10 can lengthen the optical path inside the semiconductor substrate 11 as described above, the semiconductor substrate 11 can be thinned and timing jitter can be suppressed. Furthermore, the degree of freedom in designing the avalanche multiplication region 21 in the APD sensor 10 can be improved. Further, in the backside illumination type APD sensor 10, more light can be photoelectrically converted by reflecting the light passing through the semiconductor substrate 11 by the metal wiring 31.
  • one avalanche multiplication region 21 is provided for each pixel region.
  • at least one avalanche multiplication is performed for one pixel region.
  • Any structure may be used as long as the double region 21 is provided. That is, the number of avalanche multiplication regions 21 arranged for one pixel region can be appropriately selected so that carriers can be used efficiently, as with the on-chip lens 13.
  • the double region 21 can be appropriately arranged in one pixel region.
  • one pixel region in the APD sensor 10 is a unit region in which sensor elements used as one sensor output are arranged.
  • region 21 shown in each embodiment is an example, Comprising: It is not limited to a structure as mentioned above.
  • the APD sensor 10 as described above can be used as an imaging device, for example, an imaging system such as a digital still camera or a digital video camera, a mobile phone having an imaging function, or another type having an imaging function.
  • an imaging system such as a digital still camera or a digital video camera
  • a mobile phone having an imaging function or another type having an imaging function.
  • the present invention can be applied to various electronic devices such as devices.
  • FIG. 10 is a block diagram illustrating a configuration example of an imaging device mounted on an electronic device.
  • the imaging apparatus 101 includes an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and can capture still images and moving images.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the image sensor 103, and forms an image on a light receiving surface (sensor unit) of the image sensor 103.
  • the APD sensor 10 described above is applied as the image sensor 103.
  • the image sensor 103 electrons are accumulated for a certain period according to an image formed on the light receiving surface via the optical system 102. Then, a signal corresponding to the electrons accumulated in the image sensor 103 is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signal output from the image sensor 103.
  • An image (image data) obtained by performing signal processing by the signal processing circuit 104 is supplied to the monitor 105 and displayed, or supplied to the memory 106 and stored (recorded).
  • a higher-sensitivity image can be captured by applying the APD sensor 10 described above.
  • FIG. 11 is a diagram illustrating a usage example in which the above-described image sensor is used.
  • the image sensor described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports-Equipment used for sports such as action cameras and wearable cameras for sports applications-Used for agriculture such as cameras for monitoring the condition of fields and crops apparatus
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device that is mounted on any type of mobile body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 12 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes an ADAS (Advanced Driver Assistance System) function including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 13 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 13 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104. Such pedestrian recognition is, for example, whether or not the user is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that there is a pedestrian in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed.
  • voice image output part 12052 may control the display part 12062 so that the icon etc. which show a pedestrian may be displayed on a desired position.
  • the technology according to the present disclosure may be applied to the imaging unit 12031, for example. Specifically, by applying the technology according to the present disclosure to the imaging unit 12031, it is possible to capture an image with higher sensitivity.
  • this technique can also take the following structures.
  • a semiconductor substrate provided with an avalanche multiplication region for multiplying at least one or more carriers generated by photoelectric conversion in each of a plurality of pixel regions;
  • An on-chip lens for condensing the light irradiated to the semiconductor substrate,
  • a plurality of on-chip lenses are arranged for one pixel region.
  • a wiring layer provided on the surface side of the semiconductor substrate and provided with wiring for reflecting light;
  • the sensor chip according to (1), wherein the sensor chip is a back-illuminated type in which light is irradiated to the back surface of the semiconductor substrate.
  • the sensor chip according to (1) wherein the sensor chip is a surface irradiation type in which light is irradiated onto a surface of the semiconductor substrate.
  • the sensor chip according to any one of (1) to (3) wherein silicon is used for the semiconductor substrate.
  • the sensor chip according to any one of (1) to (3) wherein a material suitable for infrared detection is used for the semiconductor substrate.
  • the plurality of on-chip lenses are arranged such that when the semiconductor substrate is viewed in plan, the number arranged in the vertical direction is equal to the number arranged in the horizontal direction.
  • the plurality of on-chip lenses are each formed in a uniform size.
  • the plurality of on-chip lenses are formed in different sizes, When the semiconductor substrate is viewed in plan, the on-chip lens disposed at the center is formed larger than the on-chip lens disposed at the periphery.
  • Any of (1) to (6) above A sensor chip according to any one of the above.
  • Sensor chip (13) The sensor chip according to any one of (1) to (12), further including a lens partition formed to partition between the plurality of on-chip lenses on the light irradiation surface of the semiconductor substrate.
  • APD sensor 11 semiconductor substrate, 12 wiring layer, 13 on-chip lens, 21 avalanche multiplication area, 31 metal wiring, 32 multilayer wiring, 41 inner lens layer, 42 inner lens, 51 light shielding film, 52 lens partition, 61 band Pass filter, 62 insulating film, 63 metal film

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Light Receiving Elements (AREA)

Abstract

本開示は、光電変換により発生したキャリアを効率良く用いることができるようにするセンサチップおよび電子機器に関する。 複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が半導体基板に設けられ、その半導体基板に対して照射される光がオンチップレンズにより集光される。そして、1つの画素領域に対して複数のオンチップレンズが配置されている。本技術は、例えば、裏面照射型のCMOSイメージセンサに適用できる。

Description

センサチップおよび電子機器
 本開示は、センサチップおよび電子機器に関し、特に、光電変換により発生したキャリアを効率良く用いることができるようにしたセンサチップおよび電子機器に関する。
 近年、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサや、ToF(Time-of-Flight)法により距離計測を行う距離画像センサなどでは、アバランシェ増倍と呼ばれる現象を利用して受光感度(検出効率)を向上させることが可能なSPAD(Single Photon Avalanche Diode)やAPD(Avalanche Photodiode)などが利用されている。また、さらなる受光感度の向上を図るために、1つのSPADやAPDごとにオンチップレンズを形成することが提案されている。
 例えば、特許文献1には、アバランシェ増幅によって受光感度を向上させることができる量子ドットセンサにおいて、1つの画素上に1つのオンチップレンズが配置された構成が開示されている。
特開2010-177392号公報
 しかしながら、上述したような特許文献1に開示されている構成では、例えば、画素サイズが大きくなるのに伴って、曲率が大きなオンチップレンズを形成することが難しくなり、光を集中させることが困難となっていた。そのため、光電変換により発生したキャリアを、SPADやAPDなどの増倍領域に効果的に集めることができなくなる結果、受光感度が低下してしまうことがあった。特に、シリコンにおいて吸収効率の低い赤外光では、光電変換領域として半導体基板に厚みが必要となり、SPADやAPDなどの増倍領域から離れた箇所で光電変換が行われてしまうため、その光電変換により発生したキャリアを有効に用いることが困難であった。
 本開示は、このような状況に鑑みてなされたものであり、光電変換により発生したキャリアを効率良く用いることができるようにするものである。
 本開示の一側面のセンサチップは、複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が設けられる半導体基板と、前記半導体基板に対して照射される光を集光するオンチップレンズとを備え、1つの前記画素領域に対して複数の前記オンチップレンズが配置される。
 本開示の一側面の電子機器は、複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が設けられる半導体基板と、前記半導体基板に対して照射される光を集光するオンチップレンズとを有し、1つの前記画素領域に対して複数の前記オンチップレンズが配置されるセンサチップを備える。
 本開示の一側面においては、複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が半導体基板に設けられ、その半導体基板に対して照射する光がオンチップレンズにより集光される。そして、1つの画素領域に対して複数のオンチップレンズが配置されている。
 本開示の一側面によれば、光電変換により発生したキャリアを効率良く用いることができる。
本技術を適用したAPDセンサの第1の実施の形態の構成例を示す図である。 APDセンサの第2の実施の形態の構成例を示す図である。 APDセンサの第3の実施の形態の構成例を示す図である。 APDセンサの第4の実施の形態の構成例を示す図である。 APDセンサの第5の実施の形態の構成例を示す図である。 APDセンサの第6の実施の形態の構成例を示す図である。 APDセンサの第7の実施の形態の構成例を示す図である。 APDセンサの第8の実施の形態の構成例を示す図である。 APDセンサの第9の実施の形態の構成例を示す図である。 撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <APDセンサの第1の構成例>
 図1は、本技術を適用したAPDセンサの第1の実施の形態の構成例を示す図である。
 図1のAには、APDセンサ10の1画素領域における断面的な構成が示されており、図1のBには、APDセンサ10に光が照射される光照射面から見た斜視図が示されている。
 図示するように、APDセンサ10は、半導体基板11の裏面(図1において上側を向く面)に光が照射される裏面照射型であり、半導体基板11の表面側に配線層12が積層されるとともに、半導体基板11の裏面側に複数のオンチップレンズ13が積層されて構成される。
 半導体基板11は、例えば、単結晶のシリコンを薄くスライスしたウェハであり、N型またはP型の不純物がイオン注入されることによりN型拡散層またはP型拡散層が形成され、それらのPN接合によって光電変換が行われる。なお、半導体基板11としては、シリコンの他、赤外線の検出に適した材料を用いてもよく、例えば、GaAs(Gallium Arsenide)やInGaAs(Indium Gallium Arsenide)、CIGS(Cu , In , Ga , Se)などの化合物半導体を用いてもよい。このような材料を用いることで、APDセンサ10を赤外線センサとして利用することができる。
 また、半導体基板11の内部における配線層12の近傍には、APDセンサ10の1画素領域それぞれに、アバランシェ増倍領域21が1つずつ設けられている。アバランシェ増倍領域21は、例えば、P型拡散層に印加される大きな負電圧によってP型拡散層およびN型拡散層の境界面に形成される高電界領域であって、半導体基板11に入射した光の光電変換により発生したキャリア(e-)を増倍することができる。
 配線層12は、例えば、複数の金属配線31が絶縁膜中に形成されることにより構成され、それらの金属配線31は、複数のオンチップレンズ13それぞれに対応する(平面的に見たときに重なる)位置に配置される。また、金属配線31は、半導体基板11を通り抜けた光を反射する反射膜としての機能を備えている。
 図1に示す例では、配線層12に、3つの金属配線31-1乃至31-3が設けられている。そして、オンチップレンズ13-1に対応して金属配線31-1が配置され、オンチップレンズ13-2に対応して金属配線31-2が配置され、オンチップレンズ13-3に対応して金属配線31-3が配置される。また、APDセンサ10の1画素領域の中央に配置される金属配線31-2は、他の金属配線31-1や31-2などよりも、広い面積となるように形成することが好ましい。
 複数のオンチップレンズ13は、半導体基板11に光が照射される光照射面側に配置され、それぞれ半導体基板11に照射される光を集光する。そして、APDセンサ10では、1画素領域に対して複数のオンチップレンズ13が配置される。また、それらのオンチップレンズ13は、APDセンサ10を平面的に見たときに、縦方向に配置される個数と横方向に配置される個数とが等しくなる(正方となる)ように配置することが好ましい。
 例えば、図1のBに示すように、APDセンサ10の1画素領域に対し、9個のオンチップレンズ13が、APDセンサ10を平面的に見たときに、縦方向×横方向が3×3となるように配置されることが好適である。即ち、アバランシェ増倍領域21は、APDセンサ10を平面的に見たときに、APDセンサ10の1画素領域の中心部に配置されており、図示するように3×3でオンチップレンズ13を配置することで、APDセンサ10の1画素領域の中心部に向かって光を集光することができるのと同時に、端部側の光を中心部側へ寄せることができる。また、これらのオンチップレンズ13は、それぞれ均一の大きさとなるように形成される。
 このように、アバランシェ増倍領域21が配置されている中心部に向かって光を効率的に集光することができるように複数のオンチップレンズ13を適切に配置することで、アバランシェ増倍領域21の近傍で光電変換を行わせ易くすることができる。これにより、光電変換で発生したキャリアがアバランシェ増倍領域21へ流れ込み易くなり、アバランシェ増倍領域21で増倍されるキャリアを増やすことができる。従って、光電変換で発生したキャリアを効率良く用いることができるようになる結果、さらに受光感度(検出効率)を向上させることができる。
 即ち、従来、アバランシェ増倍領域上の空乏層領域で光電変換されたキャリアは、拡散することによってアバランシェ増倍領域に到達してアバランシェ増幅に寄与するものの、その他の領域で光電変換されたキャリアは、アバランシェ増倍領域を経ずにアノードまたはカソードに流れ出てしまっていた。これに対し、APDセンサ10は、アバランシェ増倍領域21の近傍で光電変換を行わせることができるように複数のオンチップレンズ13が配置されているので、光電変換により発生したキャリアが、アバランシェ増倍領域を経ずにアノードまたはカソードに流れ出てしまうことを回避することができる。
 また、以上のように構成されるAPDセンサ10は、APDセンサ10の1画素領域に対して複数のオンチップレンズ13を設けることにより、1つ当たりのオンチップレンズ13のサイズを小さくすることができる。従って、例えば、1画素領域に対して1つのオンチップレンズを設ける構成と比較して、APDセンサ10は、曲率が大きく(曲率半径が小さく)なるようにオンチップレンズ13を形成することが可能となる。これにより、APDセンサ10は、曲率が大きなオンチップレンズ13によってアバランシェ増倍領域21に効果的に光を集中することができ、検出効率の向上を図ることができる。
 また、APDセンサ10は、オンチップレンズ13により光を集光する分だけ、オンチップレンズを設けない構成と比較して、半導体基板11の内部における光路を長くすることができる。これにより、より薄い半導体基板11を用いても、オンチップレンズ13により集光される分だけ光が半導体基板11を通り抜け難くなることより、検出効率の低下を回避することができる。即ち、1画素領域に対して1つのオンチップレンズを設ける構成と同等の検出効率であっても、半導体基板11を薄くすることができる。
 このように、半導体基板11が薄く構成されたAPDセンサ10は、タイミングジッタを抑制することができ、その悪影響を回避することができる。即ち、半導体基板が厚く構成されたAPDセンサでは、半導体基板に入射した光が光電変換される箇所からアバランシェ増倍領域までキャリアが移動する距離が長くなり、タイミングジッタが増大することになっていた。
 これに対し、半導体基板11を薄くすることで、半導体基板11に入射した光が光電変換される箇所からアバランシェ増倍領域21までキャリアが移動する距離を短くすることができ、タイミングジッタを抑制することができる。従って、例えば、APDセンサ10を距離画像センサとして利用する場合には、より正確に距離を計測することができる。
 さらに、APDセンサ10は、信号量を増加させるために1画素領域を大型化した構成としても、複数のオンチップレンズ13を設けることによって、画素のサイズに対応した十分な曲率のオンチップレンズ13を形成することができ、光強度の強い領域を局所的に狙う(作り出す)ことができる。これにより、アバランシェ増倍領域21を設計する際の設計自由度を向上させることが可能となる。
 また、APDセンサ10は、上述したように裏面照射型であり、赤外光などのように半導体基板11における吸収効率が低い波長域の光を受光する画素においては、半導体基板11を通り抜けた光を金属配線31により反射させることができる。このように金属配線31での反射を利用することで、APDセンサ10では、金属配線31に局所的に光を集中させるようにオンチップレンズ13を配置することで、局所的に光を集中させて吸収効率を向上させることができる。
 <APDセンサの第2の構成例>
 図2には、APDセンサ10の第2の実施の形態の構成例が示されている。なお、図2に示すAPDセンサ10Aにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図2に示すように、APDセンサ10Aは、半導体基板11の表面に配線層12Aが積層され、配線層12Aに対して複数のオンチップレンズ13が積層されて構成される点で、図1のAPDセンサ10と異なる構成となっている。また、配線層12Aには、その外周近傍に複数層の配線が積層されて構成される多層配線32-1および32-2が形成されている。
 即ち、図1のAPDセンサ10は、上述したように裏面照射型であったのに対し、APDセンサ10Aは、半導体基板11の表面側に光が照射される表面照射型として構成されている。また、APDセンサ10Aにおいて、アバランシェ増倍領域21は、配線層12Aの近傍となる半導体基板11の表面側に形成される。
 このように、表面照射型のAPDセンサ10Aにおいても、1画素領域に対して複数のオンチップレンズ13が設けられる構造とすることで、図1のAPDセンサ10と同様に、光電変換で発生したキャリアを効率良く用いることができ、受光感度の向上を図ることができる。
 <APDセンサの第3の構成例>
 図3には、APDセンサ10の第3の実施の形態の構成例が示されている。なお、図3に示すAPDセンサ10Bにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図3のAPDセンサ10Bは、大きさが異なる複数のオンチップレンズ13が半導体基板11に積層されて構成される点で、図1のAPDセンサ10と異なる構成となっている。例えば、図3に示されるように、APDセンサ10Bの1画素領域の中央部に、大きな形状のオンチップレンズ13aが配置され、APDセンサ10Bの1画素領域の周辺部に、小さな形状のオンチップレンズ13bが配置される構成とすることが好適である。
 例えば、小さな形状のオンチップレンズ13bは、オンチップレンズ13aよりも曲率が大きくなるように形成することができる。従って、オンチップレンズ13bを介して半導体基板11に入射した光は、半導体基板11の上部に集光されて光電変換されることになる。そして、半導体基板11の上部で光電変換されて発生するキャリアは、アバランシェ増倍領域21へ流れ易くなるため、APDセンサ10Bは、より多くのキャリアを増倍することができる。
 また、大きな形状のオンチップレンズ13aを介して半導体基板11に入射し、半導体基板11を通り抜けた光は、配線層12の中央に配置されている金属配線31-2によって反射され、半導体基板11に再入射する。そして、半導体基板11に再入射した光は、アバランシェ増倍領域21の近傍で光電変換され、それにより発生したキャリアはアバランシェ増倍領域21に流れ込んで増倍される。
 このように、APDセンサ10Bは、大きさが異なる複数のオンチップレンズ13を適切に配置することによって、光電変換で発生したキャリアをさらに効率良く用いることができ、受光感度の向上を図ることができる。
 また、図3のBおよび図3のCには、オンチップレンズ13aおよびオンチップレンズ13bの平面的な配置例が示されている。
 例えば、図3のBに示す第1の配置例のように、1個のオンチップレンズ13aを中央に配置して、その周囲に設けられる8個のオンチップレンズ13bとともに、それらが3×3となる配置を採用することができる。ここで、図3のBに示す第1の配置例では、小さな形状のオンチップレンズ13bどうしの間に隙間が設けられることになる。
 そこで、図3のCに示す第2の配置例のように、1個のオンチップレンズ13aを中央に配置するとともに、その周囲に設けられる12個のオンチップレンズ13bが、互いの間に隙間が設けられないような配置を採用することが、より好適できる。このように、オンチップレンズ13bどうしの間に隙間が設けられることを回避した構成とすることで、APDセンサ10Bは、入射光を効果的に利用することができる。
 <APDセンサの第4の構成例>
 図4には、APDセンサ10の第4の実施の形態の構成例が示されている。なお、図4に示すAPDセンサ10Cにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図4に示すように、APDセンサ10Cは、半導体基板11の裏面にインナーレンズ層41が積層され、インナーレンズ層41に対して複数のオンチップレンズ13が積層されて構成される点で、図1のAPDセンサ10と異なる構成となっている。また、インナーレンズ層41では、例えば、透明な樹脂層の中に、APDセンサ10Cの1画素領域に対して1つのインナーレンズ42が形成されており、インナーレンズ42は、複数のオンチップレンズ13により集光される光を、さらに1画素領域の中央に集光する。
 このように、APDセンサ10Cは、半導体基板11と複数のオンチップレンズ13との間にインナーレンズ42を配置した構成とすることで、例えば、図1のAPDセンサ10と比較して、半導体基板11の集光スポットをより上側(光が入射する側)に寄せることができる。これにより、半導体基板11に入射した光の光路をさらに長くすることができるため、半導体基板11をより薄くすることができる。つまり、半導体基板11を薄くしても、半導体基板11に入射した光が通り抜け難くすることができる。これにより、APDセンサ10Cは、光電変換で発生したキャリアを効率良く用いることができ、受光感度の向上を図ることができる。
 <APDセンサの第5の構成例>
 図5には、APDセンサ10の第5の実施の形態の構成例が示されている。なお、図5に示すAPDセンサ10Dにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図5に示すように、APDセンサ10Dは、半導体基板11に積層されている1画素領域の複数のオンチップレンズ13を囲うように、光を遮光する遮光性を備えた遮光膜51が形成されている点で、図1のAPDセンサ10と異なる構成となっている。即ち、APDセンサ10Dでは、半導体基板11の光照射面において、遮光膜51が、隣接する画素領域どうしの間を遮光するように構成されている。
 このように構成されるAPDセンサ10Dは、半導体基板11の光照射面において、遮光膜51によって、隣接する他の画素領域に光が混入することを防止することができる。これにより、APDセンサ10Dは、図1のAPDセンサ10よりも、混色の発生を抑制することができる。
 <APDセンサの第6の構成例>
 図6には、APDセンサ10の第6の実施の形態の構成例が示されている。なお、図6に示すAPDセンサ10Eにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図6に示すように、APDセンサ10Eは、半導体基板11に積層されている1画素領域の複数のオンチップレンズ13を囲うように遮光膜51が形成されるとともに、それらのオンチップレンズ13どうしの間にレンズ間仕切り52が形成されている点で、図1のAPDセンサ10と異なる構成となっている。即ち、APDセンサ10Eは、図5のAPDセンサ10Dと同様に、遮光膜51を備えるのに加えて、1画素領域の複数のオンチップレンズ13がレンズ間仕切り52により仕切られるように構成されている。また、レンズ間仕切り52は、光を透過する透過性を備えた材料により形成することが好ましく、レンズ間仕切り52によって半導体基板11が受光する光量の低下を回避することができる。
 このように構成されるAPDセンサ10Eでは、レンズ間仕切り52によってオンチップレンズ13どうしの間を仕切ることで、複数のオンチップレンズ13を形成する際に、それらのオンチップレンズ13の均一性を高めることができる。つまり、APDセンサ10Eは、より均一な形状となるように複数のオンチップレンズ13を形成することができる。
 <APDセンサの第7の構成例>
 図7には、APDセンサ10の第7の実施の形態の構成例が示されている。なお、図7に示すAPDセンサ10Fにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図7に示すように、APDセンサ10Fは、半導体基板11の表面にバンドパスフィルタ61が積層され、バンドパスフィルタ61に対して複数のオンチップレンズ13が積層されて構成される点で、図1のAPDセンサ10と異なる構成となっている。また、バンドパスフィルタ61は、所定の波長域の光のみを通過させるフィルタであり、例えば、可視光におけるカラーフィルタ(RGBフィルタ)や、特定の赤外光のみを透過させるようなフィルタなどが用いられる。
 このように、APDセンサ10Fは、半導体基板11と複数のオンチップレンズ13との間にバンドパスフィルタ61を配置した構成とすることで、例えば、特定の波長域におけるAPDの反応を検出することができる。
 <APDセンサの第8の構成例>
 図8には、APDセンサ10の第8の実施の形態の構成例が示されている。なお、図8に示すAPDセンサ10Gにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図8に示すように、APDセンサ10Gは、半導体基板11の1画素領域を囲うように形成されたDTI(Deep Trench Isolation)に絶縁膜62が埋め込まれて構成される点で、図1のAPDセンサ10と異なる構成となっている。即ち、APDセンサ10Gでは、半導体基板11における隣接する画素領域どうしを分離するように深い溝を加工することでDTIを形成し、そのDTIに、例えば、高い絶縁性を有する窒化ケイ素(シリコンナイトライド)が埋め込まれることで絶縁膜62が形成される。
 このように構成されるAPDセンサ10Gは、半導体基板11の内部で画素領域どうしを絶縁膜62により分離することで、半導体基板11において光電変換で発生したキャリアが、隣接する画素領域に混入することを防止することができる。これにより、APDセンサ10Gは、図1のAPDセンサ10よりも、半導体基板11内における混色の発生を抑制することができる。
 <APDセンサの第9の構成例>
 図9には、APDセンサ10の第9の実施の形態の構成例が示されている。なお、図9に示すAPDセンサ10Hにおいて、図1のAPDセンサ10と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図9に示すように、APDセンサ10Hは、半導体基板11の1画素領域を囲うように形成されたDTIに遮光性を備えた金属膜63が埋め込まれて構成される点で、図1のAPDセンサ10と異なる構成となっている。即ち、APDセンサ10Hでは、半導体基板11における隣接する画素領域どうしを分離するように深い溝を加工することでDTIを形成し、そのDTIに、例えば、半導体基板11と絶縁されるようにタングステンなどの金属が埋め込まれることで金属膜63が形成される。
 このように構成されるAPDセンサ10Hは、半導体基板11の内部で画素領域どうしを金属膜63により分離することで、半導体基板11に入射した光が、隣接する画素領域に混入することを防止することができる。これにより、APDセンサ10Hは、図1のAPDセンサ10よりも、半導体基板11内における混色の発生を抑制することができる。さらに、APDセンサ10Hは、半導体基板11の内部発光が発生した際に、そこで発生した光が隣接する画素領域に混入することを防止して、混色の発生を抑制することができる。
 以上のような各実施の形態のAPDセンサ10は、光電変換により発生したキャリアをアバランシェ増倍領域21に流れ込み易くすることができるので、アバランシェ増倍領域21で増倍されるキャリアを増やすことができる。このように、キャリアを効率良く用いることができる結果、APDセンサ10は、受光感度の向上を図ることができる。
 また、APDセンサ10は、上述したように半導体基板11の内部における光路を長くすることができることより、半導体基板11の薄肉化を図ることができ、タイミングジッタを抑制することができる。さらに、APDセンサ10におけるアバランシェ増倍領域21の設計の自由度を向上させることができる。また、裏面照射型のAPDセンサ10では、半導体基板11を通り抜けた光を金属配線31により反射させることによっても、より多くの光を光電変換させることができる。
 ところで、上述した各実施の形態では、1画素領域に対してアバランシェ増倍領域21が1つずつ設けられている構成について説明したが、例えば、1画素領域に対して少なくとも1つ以上のアバランシェ増倍領域21が設けられる構成であればよい。即ち、1画素領域に対して配置されるアバランシェ増倍領域21の個数も、オンチップレンズ13と同様に、キャリアを効率良く用いることができるように適切に選択することができ、それらのアバランシェ増倍領域21を1画素領域に適切に配置することができる。なお、APDセンサ10における1画素領域は、1つのセンサ出力として用いられるセンサ素子が配置される単位領域のことである。また、各実施の形態において示したアバランシェ増倍領域21の配置位置は、一例であって、上述したような構成に限定されることはない。
 なお、上述したようなAPDセンサ10は、撮像素子として用いることができ、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 <撮像装置の構成例>
 図10は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図10に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述したAPDセンサ10が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述したAPDセンサ10を適用することで、例えば、より高感度な画像を撮像することができる。
 <イメージセンサの使用例>
 図11は、上述のイメージセンサを使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図12に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図12の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図13は、撮像部12031の設置位置の例を示す図である。
 図13では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図13には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、撮像部12031に本開示に係る技術を適用することにより、より高感度で画像を撮像することができる。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が設けられる半導体基板と、
 前記半導体基板に対して照射される光を集光するオンチップレンズと
 を備え、
 1つの前記画素領域に対して複数の前記オンチップレンズが配置される
 センサチップ。
(2)
 前記半導体基板の表面側に積層され、光を反射する配線が設けられる配線層
 をさらに備え、
 前記半導体基板の裏面に光が照射される裏面照射型である
 上記(1)に記載のセンサチップ。
(3)
 前記半導体基板の表面側に積層される配線層
 をさらに備え、
 前記半導体基板の表面に光が照射される表面照射型である
 上記(1)に記載のセンサチップ。
(4)
 前記半導体基板にはシリコンが用いられる
 上記(1)から(3)までのいずれかに記載のセンサチップ。
(5)
 前記半導体基板には赤外線の検出に適した材料が用いられる
 上記(1)から(3)までのいずれかに記載のセンサチップ。
(6)
 複数の前記オンチップレンズは、前記半導体基板を平面的に見たときに、縦方向に配置される個数と横方向に配置される個数とが等しくなるように配置される
 上記(1)から(5)までのいずれかに記載のセンサチップ。
(7)
 複数の前記オンチップレンズは、それぞれ均一の大きさに形成される
 上記(1)から(6)までのいずれかに記載のセンサチップ。
(8)
 複数の前記オンチップレンズは、異なる大きさに形成され、
 前記半導体基板を平面的に見たときに、中央部に配置される前記オンチップレンズが、周辺部に配置される前記オンチップレンズより大きく形成される
 上記(1)から(6)までのいずれかに記載のセンサチップ。
(9)
 周辺部に配置される前記オンチップレンズは、互いの間に隙間が設けられないように配置される
 上記(8)に記載のセンサチップ。
(10)
 前記半導体基板と複数の前記オンチップレンズとの間に配置され、複数の前記オンチップレンズにより集光された光を前記画素領域の中央に集光するインナーレンズ
 をさらに備える上記(1)から(9)までのいずれかに記載のセンサチップ。
(11)
 前記半導体基板と複数の前記オンチップレンズとの間に配置され、所定の波長域の光のみを通過させるバンドパスフィルタ
 をさらに備える上記(1)から(10)までのいずれかに記載のセンサチップ。
(12)
 前記半導体基板の光照射面において1つの前記画素領域に配置される複数の前記オンチップレンズを囲うように形成される遮光膜
 をさらに備える上記(1)から(11)までのいずれかに記載のセンサチップ。
(13)
 前記半導体基板の光照射面において複数の前記オンチップレンズどうしの間を仕切るように形成されるレンズ間仕切り
 をさらに備える上記(1)から(12)までのいずれかに記載のセンサチップ。
(14)
 前記半導体基板において1つの前記画素領域を囲うように形成されたトレンチに埋め込まれる絶縁膜
 をさらに備える上記(1)から(12)までのいずれかに記載のセンサチップ。
(15)
 前記半導体基板において1つの前記画素領域を囲うように形成されたトレンチに埋め込まれる金属膜
 をさらに備える上記(1)から(12)までのいずれかに記載のセンサチップ。
(16)
 複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が設けられる半導体基板と、
 前記半導体基板に対して照射される光を集光するオンチップレンズと
 を有し、
 1つの前記画素領域に対して複数の前記オンチップレンズが配置される
 センサチップを備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 10 APDセンサ, 11 半導体基板, 12 配線層, 13 オンチップレンズ, 21 アバランシェ増倍領域, 31 金属配線, 32 多層配線, 41 インナーレンズ層, 42 インナーレンズ, 51 遮光膜, 52 レンズ間仕切り, 61 バンドパスフィルタ, 62 絶縁膜, 63 金属膜

Claims (16)

  1.  複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が設けられる半導体基板と、
     前記半導体基板に対して照射される光を集光するオンチップレンズと
     を備え、
     1つの前記画素領域に対して複数の前記オンチップレンズが配置される
     センサチップ。
  2.  前記半導体基板の表面側に積層され、光を反射する配線が設けられる配線層
     をさらに備え、
     前記半導体基板の裏面に光が照射される裏面照射型である
     請求項1に記載のセンサチップ。
  3.  前記半導体基板の表面側に積層される配線層
     をさらに備え、
     前記半導体基板の表面に光が照射される表面照射型である
     請求項1に記載のセンサチップ。
  4.  前記半導体基板にはシリコンが用いられる
     請求項1に記載のセンサチップ。
  5.  前記半導体基板には赤外線の検出に適した材料が用いられる
     請求項1に記載のセンサチップ。
  6.  複数の前記オンチップレンズは、前記半導体基板を平面的に見たときに、縦方向に配置される個数と横方向に配置される個数とが等しくなるように配置される
     請求項1に記載のセンサチップ。
  7.  複数の前記オンチップレンズは、それぞれ均一の大きさに形成される
     請求項1に記載のセンサチップ。
  8.  複数の前記オンチップレンズは、異なる大きさに形成され、
     前記半導体基板を平面的に見たときに、中央部に配置される前記オンチップレンズが、周辺部に配置される前記オンチップレンズより大きく形成される
     請求項1に記載のセンサチップ。
  9.  周辺部に配置される前記オンチップレンズは、互いの間に隙間が設けられないように配置される
     請求項8に記載のセンサチップ。
  10.  前記半導体基板と複数の前記オンチップレンズとの間に配置され、複数の前記オンチップレンズにより集光された光を前記画素領域の中央に集光するインナーレンズ
     をさらに備える請求項1に記載のセンサチップ。
  11.  前記半導体基板と複数の前記オンチップレンズとの間に配置され、所定の波長域の光のみを通過させるバンドパスフィルタ
     をさらに備える請求項1に記載のセンサチップ。
  12.  前記半導体基板の光照射面において1つの前記画素領域に配置される複数の前記オンチップレンズを囲うように形成される遮光膜
     をさらに備える請求項1に記載のセンサチップ。
  13.  前記半導体基板の光照射面において複数の前記オンチップレンズどうしの間を仕切るように形成されるレンズ間仕切り
     をさらに備える請求項1に記載のセンサチップ。
  14.  前記半導体基板において1つの前記画素領域を囲うように形成されたトレンチに埋め込まれる絶縁膜
     をさらに備える請求項1に記載のセンサチップ。
  15.  前記半導体基板において1つの前記画素領域を囲うように形成されたトレンチに埋め込まれる金属膜
     をさらに備える請求項1に記載のセンサチップ。
  16.  複数の画素領域それぞれに少なくとも1つ以上、光電変換により発生したキャリアを増倍するアバランシェ増倍領域が設けられる半導体基板と、
     前記半導体基板に対して照射される光を集光するオンチップレンズと
     を有し、
     1つの前記画素領域に対して複数の前記オンチップレンズが配置される
     センサチップを備える電子機器。
PCT/JP2018/009909 2017-03-24 2018-03-14 センサチップおよび電子機器 WO2018173872A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201880018703.3A CN110447104B (zh) 2017-03-24 2018-03-14 传感器芯片和电子设备
US16/487,453 US11127772B2 (en) 2017-03-24 2018-03-14 Sensor chip and electronic apparatus
JP2019507588A JPWO2018173872A1 (ja) 2017-03-24 2018-03-14 センサチップおよび電子機器
US17/462,223 US11855112B2 (en) 2017-03-24 2021-08-31 Sensor chip and electronic apparatus
US18/512,973 US20240186351A1 (en) 2017-03-24 2023-11-17 Sensor chip and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-059100 2017-03-24
JP2017059100 2017-03-24

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/487,453 A-371-Of-International US11127772B2 (en) 2017-03-24 2018-03-14 Sensor chip and electronic apparatus
US17/462,223 Continuation US11855112B2 (en) 2017-03-24 2021-08-31 Sensor chip and electronic apparatus

Publications (1)

Publication Number Publication Date
WO2018173872A1 true WO2018173872A1 (ja) 2018-09-27

Family

ID=63586011

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/009909 WO2018173872A1 (ja) 2017-03-24 2018-03-14 センサチップおよび電子機器

Country Status (4)

Country Link
US (3) US11127772B2 (ja)
JP (1) JPWO2018173872A1 (ja)
CN (1) CN110447104B (ja)
WO (1) WO2018173872A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137203A1 (ja) * 2018-12-26 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
WO2020179290A1 (ja) * 2019-03-06 2020-09-10 ソニーセミコンダクタソリューションズ株式会社 センサおよび測距装置
WO2020195180A1 (ja) * 2019-03-27 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
WO2021090521A1 (en) * 2019-11-06 2021-05-14 Sony Semiconductor Solutions Corporation Light receiving element and distance measuring device
WO2022113515A1 (ja) * 2020-11-24 2022-06-02 ソニーセミコンダクタソリューションズ株式会社 センサデバイス
WO2022234771A1 (ja) * 2021-05-07 2022-11-10 ソニーセミコンダクタソリューションズ株式会社 センサ装置、製造方法
WO2023162651A1 (ja) * 2022-02-28 2023-08-31 ソニーセミコンダクタソリューションズ株式会社 受光素子、および電子機器

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10854658B2 (en) * 2018-07-16 2020-12-01 Taiwan Semiconductor Manufacturing Company, Ltd. Image sensor with sidewall protection and method of making same
CN112099113B (zh) * 2020-09-25 2021-09-21 清华大学 一种用于图像传感器的超表面微透镜阵列
CN112382640A (zh) * 2020-11-11 2021-02-19 上海韦尔半导体股份有限公司 高动态范围图像传感器的微透镜结构及制作方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003218332A (ja) * 2002-01-22 2003-07-31 Sony Corp 固体撮像素子
JP2010177392A (ja) * 2009-01-29 2010-08-12 Sony Corp 固体撮像装置、その製造方法および撮像装置
JP2011077467A (ja) * 2009-10-02 2011-04-14 Mitsubishi Heavy Ind Ltd 赤外線検出素子、赤外線検出装置及び赤外線検出素子の製造方法
JP2011146635A (ja) * 2009-01-21 2011-07-28 Sony Corp 固体撮像装置、その製造方法および撮像装置
JP2013143431A (ja) * 2012-01-10 2013-07-22 Toppan Printing Co Ltd 固体撮像素子および固体撮像素子の製造方法
JP2014096490A (ja) * 2012-11-09 2014-05-22 Sony Corp 撮像素子、製造方法
JP2015167219A (ja) * 2014-02-13 2015-09-24 ソニー株式会社 撮像素子、製造装置、電子機器
JP2016082067A (ja) * 2014-10-16 2016-05-16 株式会社東芝 固体撮像装置および固体撮像装置の製造方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521743A (en) * 1993-12-16 1996-05-28 Rockwell International Corporation Photon-counting spatial light modulator with APD structure
EP1557886A3 (en) * 2004-01-26 2006-06-07 Matsushita Electric Industrial Co., Ltd. Solid-state imaging device and camera
KR100698071B1 (ko) * 2005-10-24 2007-03-23 동부일렉트로닉스 주식회사 씨모스 이미지 센서 및 그 제조방법
JP4525671B2 (ja) * 2006-12-08 2010-08-18 ソニー株式会社 固体撮像装置
KR100843561B1 (ko) * 2007-05-08 2008-07-03 (주)실리콘화일 고감도 포토다이오드를 구비한 이미지센서의 단위화소
JP4924617B2 (ja) * 2009-01-05 2012-04-25 ソニー株式会社 固体撮像素子、カメラ
US8665363B2 (en) 2009-01-21 2014-03-04 Sony Corporation Solid-state image device, method for producing the same, and image pickup apparatus
JP5651986B2 (ja) * 2010-04-02 2015-01-14 ソニー株式会社 固体撮像装置とその製造方法、並びに電子機器及びカメラモジュール
JP5263219B2 (ja) * 2010-04-16 2013-08-14 ソニー株式会社 固体撮像装置、その製造方法および撮像装置
US8836066B1 (en) * 2011-09-23 2014-09-16 Rockwell Collins, Inc. Avalanche photodiode configured for an image sensor
JP2014086514A (ja) * 2012-10-22 2014-05-12 Canon Inc 撮像装置、その製造方法及びカメラ
JP2014154662A (ja) * 2013-02-07 2014-08-25 Sony Corp 固体撮像素子、電子機器、および製造方法
US20150064629A1 (en) * 2013-08-27 2015-03-05 Visera Technologies Company Limited Manufacturing method for microlenses
JP2015056417A (ja) * 2013-09-10 2015-03-23 ソニー株式会社 撮像装置、製造装置、製造方法、並びに電子機器
KR20150068219A (ko) * 2013-12-11 2015-06-19 삼성전자주식회사 이미지 센서, 이의 제조 방법 및 이를 포함하는 이미지 처리 시스템
KR102136852B1 (ko) * 2013-12-30 2020-07-22 삼성전자 주식회사 Tfa 기반의 시모스 이미지 센서 및 그 동작방법
US9729809B2 (en) * 2014-07-11 2017-08-08 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and driving method of semiconductor device or electronic device
US9209320B1 (en) * 2014-08-07 2015-12-08 Omnivision Technologies, Inc. Method of fabricating a single photon avalanche diode imaging sensor
JP2016062996A (ja) * 2014-09-16 2016-04-25 株式会社東芝 光検出器
CN106257678B (zh) * 2015-06-18 2019-12-17 中芯国际集成电路制造(上海)有限公司 一种cmos图像传感器及其制作方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003218332A (ja) * 2002-01-22 2003-07-31 Sony Corp 固体撮像素子
JP2011146635A (ja) * 2009-01-21 2011-07-28 Sony Corp 固体撮像装置、その製造方法および撮像装置
JP2010177392A (ja) * 2009-01-29 2010-08-12 Sony Corp 固体撮像装置、その製造方法および撮像装置
JP2011077467A (ja) * 2009-10-02 2011-04-14 Mitsubishi Heavy Ind Ltd 赤外線検出素子、赤外線検出装置及び赤外線検出素子の製造方法
JP2013143431A (ja) * 2012-01-10 2013-07-22 Toppan Printing Co Ltd 固体撮像素子および固体撮像素子の製造方法
JP2014096490A (ja) * 2012-11-09 2014-05-22 Sony Corp 撮像素子、製造方法
JP2015167219A (ja) * 2014-02-13 2015-09-24 ソニー株式会社 撮像素子、製造装置、電子機器
JP2016082067A (ja) * 2014-10-16 2016-05-16 株式会社東芝 固体撮像装置および固体撮像装置の製造方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137203A1 (ja) * 2018-12-26 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
WO2020179290A1 (ja) * 2019-03-06 2020-09-10 ソニーセミコンダクタソリューションズ株式会社 センサおよび測距装置
WO2020195180A1 (ja) * 2019-03-27 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
WO2021090521A1 (en) * 2019-11-06 2021-05-14 Sony Semiconductor Solutions Corporation Light receiving element and distance measuring device
WO2022113515A1 (ja) * 2020-11-24 2022-06-02 ソニーセミコンダクタソリューションズ株式会社 センサデバイス
WO2022234771A1 (ja) * 2021-05-07 2022-11-10 ソニーセミコンダクタソリューションズ株式会社 センサ装置、製造方法
WO2023162651A1 (ja) * 2022-02-28 2023-08-31 ソニーセミコンダクタソリューションズ株式会社 受光素子、および電子機器

Also Published As

Publication number Publication date
JPWO2018173872A1 (ja) 2020-01-30
US11127772B2 (en) 2021-09-21
US20210399039A1 (en) 2021-12-23
CN110447104B (zh) 2024-02-13
US20200066775A1 (en) 2020-02-27
US11855112B2 (en) 2023-12-26
CN110447104A (zh) 2019-11-12
US20240186351A1 (en) 2024-06-06

Similar Documents

Publication Publication Date Title
WO2018173872A1 (ja) センサチップおよび電子機器
JP6691101B2 (ja) 受光素子
JP7395650B2 (ja) 撮像素子および電子機器
WO2018135320A1 (ja) 受光素子、撮像素子、および、撮像装置
US20210288192A1 (en) Sensor element and electronic device
WO2018216477A1 (ja) 固体撮像素子および電子機器
CN110199393B (zh) 固态成像元件和电子设备
US11115609B2 (en) Solid-state imaging apparatus and driving method thereof
JP7487253B2 (ja) 受光素子
US20220399396A1 (en) Solid-state imaging device, manufacturing method thereof, and electronic device
US20200235142A1 (en) Solid-state imaging device and electronic device
WO2022158288A1 (ja) 光検出装置
WO2021090569A1 (ja) 受光装置および測距装置
WO2024048267A1 (ja) 光検出装置および測距装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18771984

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019507588

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18771984

Country of ref document: EP

Kind code of ref document: A1