WO2023248388A1 - 光検出装置及び電子機器 - Google Patents

光検出装置及び電子機器 Download PDF

Info

Publication number
WO2023248388A1
WO2023248388A1 PCT/JP2022/024942 JP2022024942W WO2023248388A1 WO 2023248388 A1 WO2023248388 A1 WO 2023248388A1 JP 2022024942 W JP2022024942 W JP 2022024942W WO 2023248388 A1 WO2023248388 A1 WO 2023248388A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
pixel
semiconductor substrate
inter
section
Prior art date
Application number
PCT/JP2022/024942
Other languages
English (en)
French (fr)
Inventor
啓介 寺田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to PCT/JP2022/024942 priority Critical patent/WO2023248388A1/ja
Publication of WO2023248388A1 publication Critical patent/WO2023248388A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • NIR near-infrared light
  • a photoelectric conversion section (pixel) for near-infrared light is formed on the substrate.
  • Near-infrared light has a low absorption coefficient due to silicon (Si) constituting the substrate, so near-infrared light is poorly absorbed by silicon. Therefore, for example, when long-wavelength light is incident on the photoelectric conversion section of a photodetector, the incident light passes through the photoelectric conversion section and exits to the adjacent photoelectric conversion section, causing quantum Efficiency QE may decrease and sensitivity may become low.
  • a technique for improving sensitivity it is possible to increase the distance (optical path length) that the light travels through the medium in the photoelectric conversion section. Although it is possible to increase the optical path length by making the silicon substrate thicker, there are many process issues.
  • This technology includes, for example, providing an uneven structure on the light-receiving surface and the opposite surface of the silicon substrate, or providing an inter-pixel separation section between the photoelectric conversion sections to scatter light and increase the effective optical path length.
  • a technique for increasing sensitivity has been proposed (for example, see Patent Document 1).
  • incident light that passes through a photoelectric conversion section and hits an uneven structure section or an inter-pixel separation section is reflected by the uneven structure section or an inter-pixel separation section, and the reflected incident light is transmitted to the photoelectric conversion section. By returning it to , the quantum efficiency QE is improved.
  • the present disclosure has been made in view of these circumstances, and aims to provide a photodetection device and electronic equipment that can further extend the effective optical path length and improve sensitivity.
  • One aspect of the present disclosure includes a semiconductor substrate in which a plurality of pixels capable of generating electrical signals in response to light received from the outside are arranged in a row direction and a column direction; an inter-pixel separation section for separating the pixels; and a recessed section formed on the light-receiving surface of the semiconductor substrate, shallower than the inter-pixel separation section, and for causing diffraction of the light, the recessed section comprising: an opening with a first width on the light-receiving surface side of the semiconductor substrate, and an opening with a second width exceeding the first width at any position in the thickness direction perpendicular to the row direction and the column direction.
  • This is a light detection device having a scatterer shape.
  • Another aspect of the present disclosure provides a semiconductor substrate in which a plurality of pixels capable of generating electrical signals in response to light received from the outside are arranged in row and column directions, and a plurality of pixels formed on the semiconductor substrate and adjacent to each other.
  • an inter-pixel separation section that separates between pixels, and a recessed section formed on the light-receiving surface of the semiconductor substrate, shallower than the inter-pixel separation section, and for causing diffraction of the light, the recessed section being , an opening having a first width on the light-receiving surface side of the semiconductor substrate, and an opening having a second width exceeding the first width at an arbitrary position in a thickness direction perpendicular to the row direction and the column direction.
  • This is an electronic device that has a scatterer shape and includes a light detection device.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of a photodetection device according to a first embodiment of the present disclosure.
  • FIG. 1 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting device 1 according to a first embodiment of the present disclosure.
  • 3 is a diagram showing a planar configuration of a pixel when cut along line A1-A1' in FIG. 2.
  • FIG. FIG. 2 is a diagram (part 1) shown for explaining the depth dependence of a scatterer structure.
  • FIG. 3 is a diagram (Part 2) shown for explaining the depth dependence of a scatterer structure.
  • FIG. 3 is a diagram (part 3) shown for explaining the depth dependence of the scatterer structure.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of a photodetection device according to a first embodiment of the present disclosure.
  • FIG. 1 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetection device according to a fourth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetecting device according to a first modification of the fourth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetecting device according to a second modified example of the fourth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetection device according to a fifth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetecting device according to a first modification of the fifth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetecting device according to a first modification of the fifth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetecting device according to a second modified example of the fifth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of a photodetection device according to a sixth embodiment of the present disclosure.
  • FIG. 7 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetection device according to a seventh embodiment of the present disclosure.
  • FIG. 7 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting device according to an eighth embodiment of the present disclosure.
  • FIG. 3 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetection device according to a comparative example.
  • FIG. 1 is a diagram showing a planar configuration of pixels of a photodetecting device according to a second modified example of the fifth embodiment of the present disclosure.
  • FIG. 7 is a diagram showing a planar configuration of pixels of
  • FIG. 7 is a cross-sectional view (part 1) showing the process steps of the method for manufacturing a photodetector according to the tenth embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (part 2) showing the process steps of the method for manufacturing a photodetector according to the tenth embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (Part 3) showing the process steps of the method for manufacturing a photodetection device according to the tenth embodiment of the present disclosure.
  • FIG. 4 is a cross-sectional view (part 4) showing the process steps of the method for manufacturing a photodetector according to the tenth embodiment of the present disclosure.
  • FIG. 5 is a cross-sectional view (Part 5) showing the process steps of the method for manufacturing a photodetector according to the tenth embodiment of the present disclosure.
  • FIG. 6 is a cross-sectional view (Part 6) showing the process steps of the method for manufacturing a photodetector according to the tenth embodiment of the present disclosure.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging device as an electronic device to which the technology according to the present disclosure is applied.
  • 1 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • 19 is a diagram showing an example of the installation position of the imaging unit shown in FIG. 18.
  • the "first conductivity type” is either p-type or n-type
  • the “second conductivity type” means one of p-type or n-type, which is different from the “first conductivity type”.
  • “+” and “-” appended to "n” and “p” refer to semiconductors with relatively high or low impurity density, respectively, compared to semiconductor regions without "+” and “-”. It means a territory. However, even if semiconductor regions are given the same "n” and "n”, this does not mean that the impurity density of each semiconductor region is strictly the same.
  • the pixel array section 11 includes a group of photoelectric conversion elements such as photodiodes that constitute the pixels 110 arranged in an array in the horizontal direction (row direction) and the vertical direction (column direction).
  • the pixel array section 11 converts the amount of charge corresponding to the intensity of the incident light imaged onto each pixel 110 into an electrical signal, and outputs it as a pixel signal.
  • the pixel array section 11 may include, for example, effective pixels arranged in a region that can receive actual light and dummy pixels arranged outside the region and shielded by metal or the like. Note that optical system elements such as a micro-on-chip lens and a color filter for condensing incident light are formed on each pixel 110 of the pixel array section 11 (not shown).
  • the vertical drive section 12 includes a shift register, an address decoder, etc.
  • the vertical drive section 12 drives each pixel 110 of the pixel array section 11, for example, simultaneously or in row units by supplying drive signals and the like to each pixel 110 via a plurality of pixel drive lines 18.
  • the horizontal drive section 14 includes a shift register, an address decoder, etc.
  • the horizontal drive unit 14 sequentially selects pixels 110 corresponding to the pixel columns of the column processing unit 13. By this selective scanning by the horizontal driving section 14, pixel signals subjected to signal processing for each pixel 110 in the column processing section 13 are sequentially output to the signal processing section 16.
  • the system control unit 15 includes a timing generator and the like that generate various timing signals.
  • the system control unit 15 controls the vertical drive unit 12, the column processing unit 13, and the horizontal drive unit 14 based on a timing signal generated by a timing generator (not shown), for example.
  • the photodetection device 1 to which the present technology is applied is not limited to the configuration described above.
  • the data storage section 17 is arranged after the column processing section 13, and the pixel signal output from the column processing section 13 is supplied to the signal processing section 16 via the data storage section 17. It may be configured as follows.
  • the photodetecting device 1 may be configured such that the column processing section 13, data storage section 17, and signal processing section 16 connected in series process each pixel signal in parallel.
  • FIG. 2 is a partial vertical cross-sectional view showing an example of the semiconductor structure of the photodetecting device 1 according to the first embodiment of the present disclosure.
  • the semiconductor structure 20 schematically includes, for example, a wiring layer 21, a semiconductor layer 22 (semiconductor substrate), an interlayer film 23, and an on-chip lens 25.
  • Such a semiconductor structure 20 is produced by, for example, integrally bonding a first silicon substrate including a wiring layer 21 and various logic circuits (not shown) and a second silicon substrate including a semiconductor layer 22. It can be configured by
  • the semiconductor layer 22 is a functional layer in which a pixel circuit group including a photoelectric conversion unit 24 such as a photodiode PD and various electronic elements such as transistors forming each pixel 110 is formed.
  • the photoelectric conversion unit 24 generates an amount of charge according to the intensity of light incident through the on-chip lens 25, converts this into an electric signal, and outputs it as a pixel signal.
  • an inter-pixel isolation section 26 that isolates each pixel 110 from each other may be formed in the semiconductor layer 22.
  • the inter-pixel isolation section 26 has a trench structure formed by etching, for example.
  • the inter-pixel separation unit 26 prevents light incident on a pixel 110 from entering an adjacent pixel 110.
  • the semiconductor layer 22 may have a dug portion 27 formed on the back surface S1 side to cause light diffraction.
  • the dug portion 27 has a trench structure formed by etching, for example, and the trench depth Ha is shallower than the trench depth Hb of the inter-pixel isolation portion 26.
  • the dug portion 27 includes an opening 271 extending from the back surface S1 of the semiconductor layer 22 with an opening line width Wa in the thickness direction of the semiconductor layer 22 (arrow Z in FIG. 2).
  • a scatterer 272 having a width Wb exceeding the aperture line width Wa is arranged at an arbitrary position in the direction indicated by .
  • the wiring layer 21 is a layer in which a metal wiring pattern 211 is formed for transmitting power and various drive signals to each pixel 110 in the semiconductor layer 22 and for transmitting pixel signals read out from each pixel 110.
  • the wiring layer 21 may typically be configured by stacking a plurality of layers of metal wiring patterns 211 with an interlayer insulating film interposed therebetween. Further, the laminated metal wiring patterns 211 are electrically connected, for example, via vias, if necessary.
  • the wiring layer 21 is formed of a metal such as aluminum (Al) or copper (Cu), for example.
  • FIG. 3 is a diagram showing the planar configuration of the pixel 110 when cut along the line A1-A1' in FIG.
  • the opening 271 of the dug portion 27 is formed, for example, in a cross shape. Further, the opening 271 of the dug portion 27 is connected to the inter-pixel separation portion 26 .
  • the plurality of pixels 110 are each separated by an inter-pixel isolation section 26 having a trench isolation structure. In other words, one adjacent pixel 110 and the other pixel 110 are separated by the inter-pixel separation section 26.
  • adjoining means adjoining in the horizontal direction (column direction) or vertical direction (row direction) in plan view.
  • is the absorption coefficient of the medium
  • x is the distance traveled by the light in the medium.
  • Si has a low absorption coefficient ⁇ in NIR (near infrared light), so its absorption rate at NIR wavelengths is low. Therefore, low sensitivity is a problem in near-infrared image sensors using general silicon photodiodes (SiPDs).
  • FIG. 4A to 4C are diagrams showing the depth dependence of the scatterer structure.
  • FIG. 4A shows the light absorption distribution when only the opening 271 is provided without the scatterer 272.
  • the wavelength of the light is 940 nm
  • the white area in FIG. 4A of the photoelectric conversion unit 24 represents the light absorption area.
  • FIG. 4B shows the light absorption distribution when the scatterer 272 is provided at the tip of the opening 271 shown in FIG. 4A.
  • the light absorption distribution is broader than in FIG. 4A.
  • FIG. 4C shows the light absorption distribution when the scatterer 272 is provided at a position where the trench is shallower than that in FIG. 4B.
  • FIG. 4C shows that light is effectively scattered by providing the scatterer 272 at a shallow position.
  • the dug portion 27 for causing light diffraction is formed on the back surface S1 of the semiconductor layer 22 to be shallower than the inter-pixel separation portion 26, and the dug portion 27 is formed on the back surface S1 of the semiconductor layer 22.
  • a scatterer 272 with a width Wb exceeding the opening line width Wa of the opening 271 at an arbitrary depth position in the thickness direction of the layer 22 light is scattered compared to the conventional structure, the effective optical path length is extended, and the quantum Efficiency Qe, that is, sensitivity can be improved.
  • FIG. 5 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting device 1A according to a first modification of the first embodiment of the present disclosure. Note that in FIG. 5, the same parts as in FIG. 2 are given the same reference numerals and detailed explanations will be omitted.
  • the dug portion 27A is a circular shape having a width exceeding the opening line width Wa of the opening 271 at an arbitrary depth position in the thickness direction of the semiconductor layer 22. It has a scatterer 273 of. Even in the first modification, the same effects as in the first embodiment can be obtained.
  • FIG. 6 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting device 1B according to a second modification of the first embodiment of the present disclosure.
  • the dug portion 27B is a rectangle with a width exceeding the opening line width Wa of the opening 271 at an arbitrary depth position in the thickness direction of the semiconductor layer 22. It has a shaped scatterer 274. Even in the second modification, the same effects as in the first embodiment can be obtained.
  • FIG. 7 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting device 1C according to the second embodiment of the present disclosure. Note that in FIG. 7, the same parts as in FIG. 2 are given the same reference numerals and detailed explanations will be omitted.
  • a dug portion 31 for causing light diffraction may be formed in the semiconductor layer 22 on the back surface S1 side.
  • the dug portion 31 includes an opening 311 extending from the back surface S1 of the semiconductor layer 22 with an opening line width Wa, and an opening 311 extending from the back surface S1 of the semiconductor layer 22 with an opening line width Wa exceeding the opening line width Wa at an arbitrary position in the thickness direction of the semiconductor layer 22. and a scatterer 312 having a width Wb.
  • the second embodiment by filling the opening 311 of the dug portion 31 and the scatterer 312 with a material having a refractive index difference larger than a1 with silicon (Si) in the semiconductor layer 22, , the reflected light can be reflected and absorbed by the original photoelectric conversion section 24, and sensitivity can be improved.
  • a dug pattern 40 consisting of one or more openings for causing light diffraction may be formed on the back surface S1 side of the semiconductor layer 22.
  • the dug pattern 40 includes, for example, openings 411, 421, and 431 extending from the back surface S1 of the semiconductor layer 22 and having an opening line width Wa.
  • a scatterer 412 having a width Wb exceeding the opening line width Wa is configured at the tip of the opening 411.
  • FIG. 9A is a diagram showing a planar configuration of a pixel 110 of a photodetecting device 1E1 according to a fourth embodiment of the present disclosure. Note that in FIG. 9A, the same parts as in FIG. 3 are given the same reference numerals and detailed explanations will be omitted.
  • the opening 511 of the dug portion 51 is formed, for example, in the shape of one dot in plan view. Note that a scatterer may be formed at the tip of the opening 511.
  • the openings 521, 522, 523, 524, and 525 may be arranged at non-uniform intervals. Further, a scatterer may be formed at the tip of one or more of the openings 521, 522, 523, 524, and 525.
  • FIG. 9C is a diagram showing a planar configuration of the pixel 110 of the photodetection device 1E3 according to the second modification of the fourth embodiment of the present disclosure. Note that in FIG. 9C, the same parts as in FIG. 3 are given the same reference numerals, and detailed explanations will be omitted.
  • the opening 531 of the dug portion 53 is formed, for example, in the shape of a dot in a plan view. Note that a scatterer may be formed at the tip of the opening 531.
  • FIG. 10A is a diagram showing a planar configuration of a pixel 110 of a photodetection device 1F1 according to a fifth embodiment of the present disclosure. Note that in FIG. 10A, the same parts as in FIG. 3 are given the same reference numerals and detailed explanations will be omitted.
  • the opening 611 of the dug portion 61 is formed in, for example, one line shape. Furthermore, the opening 611 of the dug portion 61 is connected to the inter-pixel separation portion 26 . Note that a scatterer may be formed at the tip of the opening 611.
  • FIG. 10B is a diagram showing a planar configuration of a pixel 110 of a photodetector 1F2 according to a first modification of the fifth embodiment of the present disclosure.
  • the same parts as in FIG. 3 are given the same reference numerals and detailed explanations will be omitted.
  • the opening 621 of the dug portion 62 is formed, for example, in the shape of a cross line. Further, the opening 621 of the dug portion 62 is connected to the inter-pixel separation portion 26 . Note that a scatterer may be formed at the tip of the opening 621.
  • FIG. 11 is a diagram showing a planar configuration of a pixel 110 of a photodetector 1G according to a sixth embodiment of the present disclosure. Note that in FIG. 11, the same parts as in FIG. 3 are given the same reference numerals and detailed explanations will be omitted.
  • the digging pattern 71 is formed, for example, by a combination of a dot type and a line type in plan view. That is, the digging pattern 71 is composed of one line-shaped opening 711 and two dot-shaped openings 712 and 713. These openings 711, 712, 713 are arranged at equal intervals.
  • FIG. 12 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetecting device 1H according to a seventh embodiment of the present disclosure. Note that in FIG. 12, the same parts as in FIG. 2 are given the same reference numerals and detailed explanations will be omitted.
  • the semiconductor layer 22 is provided with a moth-eye structure (uneven structure) 81 on the back surface S1 side to suppress reflection of incident light.
  • the same effects as those of the first embodiment can be obtained, and the reflection of incident light can be suppressed by the moth-eye structure part 81, thereby suppressing the reflection of incident light.
  • Light can be absorbed by the photoelectric conversion section 24, and sensitivity can be improved.
  • FIG. 14 is a partial vertical cross-sectional view showing an example of the semiconductor structure of the photodetecting device B1 according to the comparative example. Note that in FIG. 14, the same parts as in FIG. 2 are given the same reference numerals and detailed explanations will be omitted.
  • the pixel separation section 92 is formed halfway from the back surface S1 to the front surface S2 of the semiconductor layer 22. Therefore, a part of the light incident on the photoelectric conversion unit 24 passes through the photoelectric conversion unit 24, reaches the wiring layer 21, and is reflected there, so that the reflected light enters the adjacent pixel 110, so-called color mixing. Increased risk of deterioration.
  • ⁇ Ninth embodiment> a method for manufacturing the photodetector 1 including forming the inter-pixel isolation section 26 and the dug section 27 by HNA etching will be described.
  • FIG. 15A to 15D are cross-sectional views showing the process steps of the method for manufacturing the photodetecting device 1 in the ninth embodiment.
  • a semiconductor layer 22 is prepared which is bonded to the wiring layer 21 and has an opening 1001 extending from the back surface S1 to the front surface S2.
  • a high concentration boron layer 1002 is formed at the position by ion implantation (FIG. 15A).
  • a resist 1003 is formed on the opening 1001 and the back surface S1 of the semiconductor layer 22 using photolithography. Then, using the resist 1003 as a mask, a dry etching process is performed on the p-type region 242 and the high concentration boron layer 1002, thereby forming an intra-pixel trench 1004 (FIG. 15B).
  • the highly concentrated boron layer 1002 is selectively etched by wet etching using an HNA chemical solution to form a scatterer 1005 (FIG. 15C). Further, the resist 1003 embedded in the opening 1001 is also etched by wet etching to form an opening 1006. Thereafter, a filler 1007 is filled in the intra-pixel trench 1004 and the opening 1006 to form the inter-pixel isolation section 26 and the dug section 27 (FIG. 15D).
  • FIG. 16A to 16F are cross-sectional views showing the process steps of the method for manufacturing the photodetecting device 1 according to the tenth embodiment.
  • a semiconductor layer 22 is prepared which is bonded to the wiring layer 21 and has an opening 1011 extending from the back surface S1 to the front surface S2 (FIG. 16A).
  • a resist 1012 is formed on the opening 1011 and the back surface S1 of the semiconductor layer 22 using photolithography, and using the resist 1012 as a mask, a dry etching process is performed on the p-type region 242, and a trench 1013 in the pixel is formed. (FIG. 16B).
  • a silicon nitride (SiN) sidewall 1014 is formed in the pixel trench 1013 (FIG. 16C).
  • a scatterer shape 1015 is formed by etching with AKW (FIG. 16D). At this time, it is a prerequisite that a ⁇ 111> substrate is used as the surface orientation of the silicon substrate.
  • the resist 1012 is removed by wet etching using an HNA chemical solution to form an opening 1016 (FIG. 16E). Thereafter, a filler 1017 is filled in the intra-pixel trench 1013 and the opening 1016 to form an inter-pixel isolation section 26 and a dug section 27 (FIG. 16F).
  • the present technology is applicable to the first to tenth embodiments, the first modified example and second modified example of the first embodiment, and the first modified example and second modified example of the fourth embodiment.
  • the statements and drawings that form part of this disclosure should not be understood as limiting the present technology. .
  • first to tenth embodiments, the first modification example and the second modification example of the first embodiment, the first modification example and the second modification example of the fourth embodiment, and the fifth modification example The configurations disclosed in the first modified example and the second modified example of the embodiment can be combined as appropriate to the extent that no contradiction occurs. For example, configurations disclosed by a plurality of different embodiments may be combined, or configurations disclosed by a plurality of different modifications of the same embodiment may be combined.
  • FIG. 17 is a block diagram showing a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • the imaging device 2201 shown in FIG. 17 includes an optical system 2202, a shutter device 2203, a solid-state image sensor 2204 as a photodetector, a control circuit 2205, a signal processing circuit 2206, a monitor 2207, and two memories 2208. Capable of capturing still images and moving images.
  • the optical system 2202 includes one or more lenses, guides light (incident light) from a subject to the solid-state image sensor 2204, and forms an image on the light-receiving surface of the solid-state image sensor 2204.
  • the shutter device 2203 is disposed between the optical system 2202 and the solid-state image sensor 2204, and controls the light irradiation period and the light shielding period to the solid-state image sensor 2204 under the control of the control circuit 2205.
  • the solid-state image sensor 2204 is configured by a package containing the above-described solid-state image sensor.
  • the solid-state image sensor 2204 accumulates signal charges for a certain period of time according to the light that is imaged on the light receiving surface via the optical system 2202 and the shutter device 2203.
  • the signal charge accumulated in the solid-state image sensor 2204 is transferred according to a drive signal (timing signal) supplied from the control circuit 2205.
  • the control circuit 2205 outputs a drive signal that controls the transfer operation of the solid-state image sensor 2204 and the shutter operation of the shutter device 2203, and drives the solid-state image sensor 2204 and the shutter device 2203.
  • the signal processing circuit 2206 performs various signal processing on the signal charges output from the solid-state image sensor 2204.
  • An image (image data) obtained by signal processing by the signal processing circuit 2206 is supplied to a monitor 2207 and displayed, or supplied to a memory 2208 and stored (recorded). Also in the imaging device 2201 configured in this manner, the photodetecting device 1 can be applied instead of the solid-state imaging device 2204 described above.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. You can.
  • FIG. 18 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 19 is a diagram showing an example of the installation position of the imaging unit 12031.
  • vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle 12100.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 19 shows an example of the imaging range of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates the imaging range of imaging section 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of imaging sections 12102 and 12103 provided on the side mirrors, respectively
  • imaging range 12114 shows the imaging range of imaging section 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. In particular, by determining the three-dimensional object that is closest to the vehicle 12100 on its path and that is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as the vehicle 12100, it is possible to extract the three-dimensional object as the preceding vehicle. can.
  • a predetermined speed for example, 0 km/h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceed
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the present disclosure can also have the following configuration.
  • a semiconductor substrate in which a plurality of pixels capable of generating electrical signals in response to light received from the outside are arranged in row and column directions; an inter-pixel isolation section formed on the semiconductor substrate and separating the adjacent pixels; a dug portion formed on the light-receiving surface of the semiconductor substrate, shallower than the pixel separation portion, and for causing diffraction of the light;
  • the dug portion has an opening with a first width on the light-receiving surface side of the semiconductor substrate, and exceeds the first width at any position in a thickness direction perpendicular to the row direction and the column direction.
  • a light detection device having a scatterer shape with a second width.
  • the inter-pixel separation section is formed from a light-receiving surface of the semiconductor substrate to a surface opposite to the light-receiving surface.
  • the inter-pixel separation section is filled with metal.
  • the dug portion is formed in one or more patterns within the pixel, The photodetecting device according to (1) above, wherein a portion of the dug portion of the pattern has the shape of the scatterer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

実効光路長をさらに伸ばして、感度を改善し得る光検出装置を提供する。光検出装置は、半導体基板と、画素間分離部と、掘り込み部とを備える。半導体基板は、外部から受光した光に応じて電気信号を生成可能な複数の画素を行方向及び列方向に配置する。画素間分離部は、半導体基板に形成され、隣接する前記画素の間を分離する。掘り込み部は、半導体基板の受光面に形成され、画素間分離部より浅く、光の回折を起こす。また、掘り込み部は、半導体基板の受光面に第1の幅の開口部を有し、行方向及び列方向と直交する厚さ方向の任意の位置に第1の幅を超える第2の幅の散乱体形状を有する。

Description

光検出装置及び電子機器
 本開示に係る技術(本技術)は、光検出装置、及び光検出装置を備える電子機器に関する。
 近年、例えば近赤外光(NIR)といった長波長の光を検出対象とするデバイス(光検出装置)が増えている。この光検出装置では、基板に近赤外光用の光電変換部(画素)が形成されている。近赤外光は、基板を構成するシリコン(Si)による吸収係数が低いため、シリコンによる吸収が悪い。それゆえ、例えば、光検出装置の光電変換部に、長波長の光が入射されると、入射された光が、光電変換部を通り抜けて、隣接する光電変換部に出ていくことで、量子効率QEが低下し、低感度となる可能性がある。
 ここで、感度を向上する技術としては、光電変換部内の媒体中を進む距離(光路長)を大きくすることが考えられる。シリコン基板を厚くすることで光路長を上げることが可能であるが、プロセス的な課題が多い。
 そこで、シリコン基板を厚くすることなく光路長を伸ばす技術が求められる。この技術としては、例えば、シリコン基板の受光面とその反対側の面に凹凸構造部や、光電変換部間に画素間分離部を設けるなどして光を散乱させ、実効光路長を長くすることで高感度化を図る技術が提案されている(例えば、特許文献1参照)。特許文献1に記載の技術では、光電変換部を通り抜けて凹凸構造部または画素間分離部に当たった入射光を凹凸構造部または画素間分離部で反射させ、反射された入射光を光電変換部に戻すことで、量子効率QEを向上するようになっている。
特開2018-88532号公報
 ところで、以前から特許文献1に記載の技術よりも、さらに光路長を延伸でき、より量子効率を高めることが可能な技術が強く求められている。
 本開示はこのような事情に鑑みてなされたもので、実効光路長をさらに伸ばして、感度を改善し得る光検出装置及び電子機器を提供することを目的とする。
 本開示の一態様は、外部から受光した光に応じて電気信号を生成可能な複数の画素が行方向及び列方向に配置された半導体基板と、前記半導体基板に形成され、隣接する前記画素の間を分離する画素間分離部と、前記半導体基板の受光面に形成され、前記画素間分離部より浅く、前記光の回折を起こすための掘り込み部と、を備え、前記掘り込み部は、前記半導体基板の受光面側に第1の幅の開口部を有し、前記行方向及び前記列方向とは直交する厚さ方向の任意の位置に前記第1の幅を超える第2の幅の散乱体形状を有する、光検出装置である。
 本開示の他の態様は、外部から受光した光に応じて電気信号を生成可能な複数の画素が行方向及び列方向に配置された半導体基板と、前記半導体基板に形成され、隣接する前記画素の間を分離する画素間分離部と、前記半導体基板の受光面に形成され、前記画素間分離部より浅く、前記光の回折を起こすための掘り込み部と、を備え、前記掘り込み部は、前記半導体基板の受光面側に第1の幅の開口部を有し、前記行方向及び前記列方向と直交する厚さ方向の任意の位置に前記第1の幅を超える第2の幅の散乱体形状を有する、光検出装置を備えた、電子機器である。
本開示の第1の実施形態に係る光検出装置の概略的構成の一例を示すブロック図である。 本開示の第1の実施形態に係る光検出装置1の半導体構造の一例を示す部分縦断面図である。 図2のA1-A1’線で破断した場合の、画素の平面構成を示す図である。 散乱体構造の深さ依存性を説明するために示す図(その1)である。 散乱体構造の深さ依存性を説明するために示す図(その2)である。 散乱体構造の深さ依存性を説明するために示す図(その3)である。 本開示の第1の実施形態の第1の変形例に係る光検出装置1Aの半導体構造の一例を示す部分縦断面図である。 本開示の第1の実施形態の第2の変形例に係る光検出装置1Bの半導体構造の一例を示す部分縦断面図である。 本開示の第2の実施形態に係る光検出装置1Cの半導体構造の一例を示す部分縦断面図である。 本開示の第3の実施形態に係る光検出装置1Dの半導体構造の一例を示す部分縦断面図である。 本開示の第4の実施形態に係る光検出装置の画素の平面構成を示す図である。 本開示の第4の実施形態の第1の変形例に係る光検出装置の画素の平面構成を示す図である。 本開示の第4の実施形態の第2の変形例に係る光検出装置の画素の平面構成を示す図である。 本開示の第5の実施形態に係る光検出装置の画素の平面構成を示す図である。 本開示の第5の実施形態の第1の変形例に係る光検出装置の画素の平面構成を示す図である。 本開示の第5の実施形態の第2の変形例に係る光検出装置の画素の平面構成を示す図である。 本開示の第6の実施形態に係る光検出装置の画素の平面構成を示す図である。 本開示の第7の実施形態に係る光検出装置の半導体構造の一例を示す部分縦断面図である。 本開示の第8の実施形態に係る光検出装置の半導体構造の一例を示す部分縦断面図である。 比較例に係る光検出装置の半導体構造の一例を示す部分縦断面図である。 本開示の第9の実施形態における光検出装置の製造方法の工程手順を示す断面図(その1)である。 本開示の第9の実施形態における光検出装置の製造方法の工程手順を示す断面図(その2)である。 本開示の第9の実施形態における光検出装置の製造方法の工程手順を示す断面図(その3)である。 本開示の第9の実施形態における光検出装置の製造方法の工程手順を示す断面図(その4)である。 本開示の第10の実施形態における光検出装置の製造方法の工程手順を示す断面図(その1)である。 本開示の第10の実施形態における光検出装置の製造方法の工程手順を示す断面図(その2)である。 本開示の第10の実施形態における光検出装置の製造方法の工程手順を示す断面図(その3)である。 本開示の第10の実施形態における光検出装置の製造方法の工程手順を示す断面図(その4)である。 本開示の第10の実施形態における光検出装置の製造方法の工程手順を示す断面図(その5)である。 本開示の第10の実施形態における光検出装置の製造方法の工程手順を示す断面図(その6)である。 本開示に係る技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 図18に示した撮像部の設置位置の例を示す図である。
 以下において、図面を参照して本開示の実施形態を説明する。以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。但し、図面は模式的なものであり、厚みと平面寸法との関係、各装置や各部材の厚みの比率等は現実のものと異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判定すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
 本明細書において、「第1導電型」はp型又はn型の一方であり、「第2導電型」はp型又はn型のうちの「第1導電型」とは異なる一方を意味する。また、「n」や「p」に付す「+」や「-」は、「+」及び「-」が付記されていない半導体領域に比して、それぞれ相対的に不純物密度が高い又は低い半導体領域であることを意味する。但し、同じ「n」と「n」とが付された半導体領域であっても、それぞれの半導体領域の不純物密度が厳密に同じであることを意味するものではない。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 なお、本明細書中に記載される効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 <第1の実施形態> 
 (光検出装置の全体構成) 
 図1は、本開示の第1の実施形態に係る光検出装置の概略的構成の一例を示すブロック図である。光検出装置1は、各画素を構成するフォトダイオード等の光電変換素子を用いて、該画素上に結像した光の強弱に応じた電荷量を電気信号に変換し、これを画像データとして出力する半導体装置であり、例えばCMOSイメージセンサとして構成される。光検出装置1は、例えば、CMOS LSIのようなシステム・オン・チップ(SoC)として一体的に構成され得るが、例えば、以下に示すいくつかのコンポーネントが別体のLSIとして構成されても良い。
 同図に示すように、光検出装置1は、例えば、画素アレイ部11と、垂直駆動部12と、カラム処理部13と、水平駆動部14と、システム制御部15と、信号処理部16と、データ格納部17といったコンポーネントを含み構成される。
 画素アレイ部11は、水平方向(行方向)及び垂直方向(列方向)にアレイ配列された画素110を構成するフォトダイオード等の光電変換素子群を含み構成される。画素アレイ部11は、各画素110上に結像した入射光の強さに応じた電荷量を電気信号に変換し、画素信号として出力する。画素アレイ部11は、例えば、実際の光を受光可能な領域に配置された有効画素と該領域の外側に配置されメタル等により遮蔽されたダミー画素とを含み得る。なお、画素アレイ部11の各画素110上には入射光を集光するマイクロオンチップレンズやカラーフィルタといった光学系素子が形成される(図示せず)。
 垂直駆動部12は、シフトレジスタやアドレスデコーダ等を含み構成される。垂直駆動部12は、複数の画素駆動線18を介して各画素110に駆動信号等を供給することにより、画素アレイ部11の各画素110を例えば同時に又は行単位等で駆動する。
 カラム処理部13は、画素アレイ部11の画素列(カラム)ごとに垂直信号線(VSL)19を介して各画素から画素信号を読み出して、ノイズ除去処理、相関二重サンプリング(CDS)処理、及びA/D(Analog-to-Digital)変換処理等を行う。カラム処理部13により処理された画素信号は、信号処理部16に出力される。
 水平駆動部14は、シフトレジスタやアドレスデコーダ等を含み構成される。水平駆動部14は、カラム処理部13の画素列に対応する画素110を順番に選択する。この水平駆動部14による選択走査により、カラム処理部13において画素110ごとに信号処理された画素信号が順番に信号処理部16に出力される。
 システム制御部15は、各種のタイミング信号を生成するタイミングジェネレータ等を含み構成される。システム制御部15は、例えば図示しないタイミングジェネレータにより生成されたタイミング信号に基づいて、垂直駆動部12、カラム処理部13、及び水平駆動部14の駆動制御を行なう。
 信号処理部16は、必要に応じてデータ格納部17にデータを一時的に格納しながら、カラム処理部13から供給された画素信号に対して演算処理等の信号処理を行ない、各画素信号に基づく画像信号を出力する。また、信号処理部16は、カラム処理部13から出力されるフラグに従って、信号処理を行う。
 なお、本技術が適用される光検出装置1は、上述したような構成に限られるものではない。例えば、光検出装置1は、データ格納部17がカラム処理部13の後段に配置され、カラム処理部13から出力される画素信号を、データ格納部17を経由して信号処理部16に供給するように構成されても良い。或いは、光検出装置1は、縦続的に接続されたカラム処理部13とデータ格納部17と信号処理部16とが各画素信号を並列的に処理するように構成されても良い。
 図2は、本開示の第1の実施形態に係る光検出装置1の半導体構造の一例を示す部分縦断面図である。同図に示すように、半導体構造20は、概略的には、例えば、配線層21と、半導体層22(半導体基板)と、層間膜23と、オンチップレンズ25とを含み構成される。このような半導体構造20は、例えば、配線層21及び各種のロジック回路(図示せず)を含む第1のシリコン基板と、半導体層22を含む第2のシリコン基板とを一体的に接合することにより構成され得る。
 オンチップレンズ25は、外部から光検出装置1に入射する光を、効率的に集光して半導体層22の対応する画素110に結像するための光学レンズである。本例では、オンチップレンズ25は、典型的には、画素110ごとに配置される。なお、オンチップレンズ25は、例えば、酸化シリコン、窒化シリコン、酸窒化シリコン、有機SOG、ポリイミド系樹脂、又はフッ素系樹脂等から形成される。
 半導体層22は、各画素110を構成するフォトダイオードPD等の光電変換部24及び各種のトランジスタ等の電子素子を含む画素回路群が形成された機能層である。光電変換部24は、オンチップレンズ25を介して入射した光の強さに応じた電荷量を生成し、これを電気信号に変換し、画素信号として出力する。
 光電変換部24は、n型領域241と、p型領域242とにより形成される。なお、半導体層22の入射面に入射した光の一部(例えば近赤外光等)は、入射面(すなわち裏面S1)とは反対側の面(すなわち、おもて面S2)に通過し得る。半導体層22は、半導体製造プロセスによりシリコン基板に作製される。光電変換部24及び各種の電子素子は、配線層21における所定の金属配線パターン211に電気的に接続される。
 また、半導体層22には、各画素110同士を分離する画素間分離部26が形成され得る。画素間分離部26は、例えばエッチング処理により形成されたトレンチ構造からなる。画素間分離部26は、画素110に入射した光が隣接する画素110へ入り込むことを防止する。さらに、半導体層22には、裏面S1側に、光の回折を起こすための掘り込み部27が形成され得る。掘り込み部27は、例えばエッチング処理により形成されたトレンチ構造からなり、トレンチ深さHaが画素間分離部26のトレンチ深さHbより浅い。また、掘り込み部27は、平面視において、半導体層22の裏面S1から開口部線幅Waを有して延在する開口部271と、半導体層22の厚さ方向(図2中では矢印Zで示す方向)の任意の位置に、開口部線幅Waを超える幅Wbの散乱体272とにより構成される。
 配線層21は、半導体層22における各画素110へ電力及び各種の駆動信号を伝達し、また、各画素110から読み出される画素信号を伝達するための金属配線パターン211が形成された層である。配線層21は、典型的には、複数の金属配線パターン211の層が層間絶縁膜を挟み積層されて構成され得る。また、積層された金属配線パターン211は、必要に応じて例えばビアにより電気的に接続される。配線層21は、例えば、アルミニウム(Al)や銅(Cu)等の金属により形成される。
 半導体層22の裏面S1側(光入射面側)には、遮光壁28が設けられる。遮光壁28は、光電変換部24を開口するように格子状に形成されている。すなわち、遮光壁28は、画素間分離部26に対応する位置に形成されている。遮光壁28を構成する材料としては、光を遮光する材料であればよく、例えば、タングステン(W)、アルミニウム(Al)又は銅(Cu)を用いることができる。
 さらに、画素間分離部26の内壁面には、負の固定電荷を発生する固定電荷膜29が成膜される。固定電荷膜29としては、シリコン等の基板上に堆積することにより固定電荷を発生させてピニングを強化させることが可能な材料を用いることが好ましく、負の電荷を有する高屈折率材料膜または高誘電体膜を用いることができる。また、掘り込み部27の内壁面には、負の固定電荷を発生する固定電荷膜30が成膜される。
 図3は、図2のA1-A1’線で破断した場合の、画素110の平面構成を示す図である。1つの画素110において、掘り込み部27の開口部271は、例えば、十字型に形成される。また、掘り込み部27の開口部271は、画素間分離部26と連結される。本開示の第1の実施形態では、複数の画素110がそれぞれ、トレンチアイソレーション構造を有する画素間分離部26で分離されている。つまり、隣接する一方の画素110と他方の画素110との間が、画素間分離部26で分離されている。なお、隣接するとは、平面視で水平方向(列方向)又は垂直方向(行方向)で隣接することを意味する。
 <第1の実施形態の比較例> 
 媒体中を原点からx[cm]まで光が進んだときの光強度I(x)は式(1)のように表される。
Figure JPOXMLDOC01-appb-M000001
 なお、α[/cm]は媒体の吸収係数であり、xは媒体中を光が進んだ距離である。シリコン(Si)のNIR(近赤外光)における吸収係数αは低いためNIR波長の吸収率が低い。そのため一般的なシリコンフォトダイオード(SiPD)を用いた近赤外向けのイメージセンサでは低感度が課題となる。
 式(1)から吸収量を多くする(I(x)を小さくする)には媒体中を進む距離x(光路長)を大きくするとよい。シリコン(Si)厚を厚くすることで光路長を上げる事が可能であるがプロセス的な課題も多い。そこで、シリコン厚を上げずに光路長を伸ばす技術が求められる。その例として、シリコン基板の表面に凹凸構造や、トレンチを設けるなどして光を散乱させ実効光路長を上げる事で高感度化する技術がある。
 <第1の実施形態の解決手段> 
 図4A乃至図4Cは、散乱体構造の深さ依存性を示す図である。図4Aは、散乱体272を設けず、開口部271のみを設けた場合の光の吸収分布を示す。ここで、光の波長は940nmであり、光電変換部24の図4A中白い箇所が光の吸収箇所を表している。図4Bは、図4Aに示す開口部271の先端に散乱体272を設けた場合の光の吸収分布を示す。図4Bでは、図4Aよりも光の吸収分布が広がっている。図4Cは、図4Bよりトレンチが浅い位置に散乱体272を設けた場合の光の吸収分布を示す。本開示の第1の実施形態では、図4Cに示すように、散乱体272を浅い位置に設けることで、光が効果的に散乱する。
 <第1の実施形態による作用効果> 
 以上のように第1の実施形態によれば、光の回折を起こすための掘り込み部27が画素間分離部26より浅く半導体層22の裏面S1に形成されており、掘り込み部27が半導体層22の厚さ方向の任意の深さ位置に開口部271の開口部線幅Waを超える幅Wbの散乱体272を有することにより、従来構造より光が散乱されて実効光路長が伸び、量子効率Qe、つまり感度を向上できる。
 <第1の実施形態の第1の変形例> 
 図5は、本開示の第1の実施形態の第1の変形例に係る光検出装置1Aの半導体構造の一例を示す部分縦断面図である。なお、図5において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第1の実施形態の第1の変形例において、掘り込み部27Aは、半導体層22の厚さ方向の任意の深さ位置に開口部271の開口部線幅Waを超える幅の円形の散乱体273を有している。
 第1の変形例であっても、上記第1の実施形態と同様の作用効果が得られる。
 <第1の実施形態の第2の変形例> 
 図6は、本開示の第1の実施形態の第2の変形例に係る光検出装置1Bの半導体構造の一例を示す部分縦断面図である。なお、図6において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第1の実施形態の第2の変形例において、掘り込み部27Bは、半導体層22の厚さ方向の任意の深さ位置に開口部271の開口部線幅Waを超える幅の矩形状の散乱体274を有している。
 第2の変形例であっても、上記第1の実施形態と同様の作用効果が得られる。
 <第2の実施形態> 
 図7は、本開示の第2の実施形態に係る光検出装置1Cの半導体構造の一例を示す部分縦断面図である。なお、図7において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第2の実施形態において、半導体層22には、裏面S1側に、光の回折を起こすための掘り込み部31が形成され得る。掘り込み部31は、半導体層22の裏面S1から開口部線幅Waを有して延在する開口部311と、半導体層22の厚さ方向の任意の位置に、開口部線幅Waを超える幅Wbの散乱体312とにより構成される。
 ここで、開口部311及び散乱体312の充填材料の屈折率n1、光電変換部24で使用されるシリコン(Si)の屈折率n2とする。屈折率差がa1より大きいほど光が反射するため、開口部311及び散乱体312には、シリコン(Si)との屈折率差(n1とn2との差)がa1より大きい材料が充填される。なお、a1は、0よりも大きい所定の値である。
 <第2の実施形態による作用効果> 
 以上のように第2の実施形態によれば、半導体層22内のシリコン(Si)との屈折率差がa1より大きい材料を掘り込み部31の開口部311及び散乱体312に充填することにより、反射光を元の光電変換部24に反射させて吸収させることができ、感度を向上できる。
 <第3の実施形態> 
 図8は、本開示の第3の実施形態に係る光検出装置1Dの半導体構造の一例を示す部分縦断面図である。なお、図8において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第3の実施形態において、半導体層22には、裏面S1側に、光の回折を起こすための1本以上の開口部からなる掘り込みパターン40が形成され得る。掘り込みパターン40は、例えば、半導体層22の裏面S1から開口部線幅Waを有して延在する開口部411,421,431により構成される。このうち、開口部411の先端には、開口部線幅Waを超える幅Wbの散乱体412が構成される。
 <第3の実施形態による作用効果> 
 以上のように第3の実施形態によれば、上記第1の実施形態と同様の作用効果が得られるとともに、開口部411,421,431からなる掘り込みパターン40を形成することにより、開口部411及び散乱体412から成る画素内トレンチ(掘り込み部)を安定して形成することができる。
 <第4の実施形態> 
 図9Aは、本開示の第4の実施形態に係る光検出装置1E1の画素110の平面構成を示す図である。なお、図9Aにおいて、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込み部51の開口部511は、平面視において、例えば、1つのドット型に形成される。なお、開口部511の先端部に、散乱体を形成するようにしてもよい。
 <第4の実施形態による作用効果> 
 以上のように第4の実施形態によれば、上記第1の実施形態と同様の作用効果が得られる。
 <第4の実施形態の第1の変形例> 
 図9Bは、本開示の第4の実施形態の第1の変形例に係る光検出装置1E2の画素110の平面構成を示す図である。なお、図9Bにおいて、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込みパターン52は、平面視において、例えば、複数(図9Bでは、5つ)のドット型に形成される。つまり、掘り込みパターン52は、5本の開口部521,522,523,524,525により構成される。これら開口部521,522,523,524,525は、等間隔で配置される。
 なお、開口部521,522,523,524,525は、非等間隔で配置されてもよい。また、開口部521,522,523,524,525のうち1本以上の先端部に、散乱体を形成するようにしてもよい。
 <第4の実施形態の第1の変形例による作用効果> 
 以上のように第4の実施形態の第1の変形例によれば、上記第4の実施形態と同様の作用効果が得られる。
 <第4の実施形態の第2の変形例> 
 図9Cは、本開示の第4の実施形態の第2の変形例に係る光検出装置1E3の画素110の平面構成を示す図である。なお、図9Cにおいて、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込み部53の開口部531は、平面視において、例えば、一字のドット型で形成される。なお、開口部531の先端に、散乱体を形成するようにしてもよい。
 <第4の実施形態の第2の変形例による作用効果> 
 以上のように第4の実施形態の第2の変形例によれば、上記第4の実施形態と同様の作用効果が得られる。
 <第5の実施形態> 
 図10Aは、本開示の第5の実施形態に係る光検出装置1F1の画素110の平面構成を示す図である。なお、図10Aにおいて、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込み部61の開口部611は、例えば、1つのライン型に形成される。また、掘り込み部61の開口部611は、画素間分離部26と連結される。なお、開口部611の先端部に、散乱体を形成するようにしてもよい。
 <第5の実施形態による作用効果> 
 以上のように第5の実施形態によれば、上記第1の実施形態と同様の作用効果が得られる。
 <第5の実施形態の第1の変形例> 
 図10Bは、本開示の第5の実施形態の第1の変形例に係る光検出装置1F2の画素110の平面構成を示す図である。なお、図10Bにおいて、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込み部62の開口部621は、例えば、十字のライン型に形成される。また、掘り込み部62の開口部621は、画素間分離部26と連結される。なお、開口部621の先端部に、散乱体を形成するようにしてもよい。
 <第5の実施形態の第1の変形例による作用効果> 
 以上のように第5の実施形態の第1の変形例によれば、上記第5の実施形態と同様の作用効果が得られる。
 <第5の実施形態の第2の変形例> 
 図10Cは、本開示の第5の実施形態の第2の変形例に係る光検出装置1F3の画素110の平面構成を示す図である。なお、図10Cにおいて、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込み部63の開口部631は、例えば、X字のライン型に形成される。また、掘り込み部63の開口部631は、画素間分離部26と連結される。なお、開口部631の先端部に、散乱体を形成するようにしてもよい。
 <第5の実施形態の第2の変形例による作用効果> 
 以上のように第5の実施形態の第2の変形例によれば、上記第5の実施形態と同様の作用効果が得られる。
 <第6の実施形態> 
 図11は、本開示の第6の実施形態に係る光検出装置1Gの画素110の平面構成を示す図である。なお、図11において、上記図3と同一部分には同一符号を付して詳細な説明を省略する。1つの画素110において、掘り込みパターン71は、平面視において、例えば、ドット型とライン型との組み合わせにより形成される。つまり、掘り込みパターン71は、1本のライン型の開口部711と、2本のドット型の開口部712,713により構成される。これら開口部711,712,713は、等間隔で配置される。
 なお、開口部711,712,713は、非等間隔で配置されてもよい。また、開口部711,712,713のうち1本以上の先端に、散乱体を形成するようにしてもよい。
 <第6の実施形態による作用効果> 
 以上のように第6の実施形態によれば、上記第1の実施形態と同様の作用効果が得られるとともに、開口部711,712,713からなる掘り込みパターン71を形成することにより、開口部及び散乱体から成る画素内トレンチ(掘り込み部)を安定して形成することができる。
 <第7の実施形態> 
 図12は、本開示の第7の実施形態に係る光検出装置1Hの半導体構造の一例を示す部分縦断面図である。なお、図12において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第7の実施形態において、半導体層22には、裏面S1側に、入射された光の反射を抑制するモスアイ構造部(凹凸構造体)81が設けられている。
 <第7の実施形態による作用効果> 
 以上のように第7の実施形態によれば、上記第1の実施形態と同様の作用効果が得られるとともに、モスアイ構造部81により、入射された光の反射を抑制でき、これにより入射された光を光電変換部24に吸収させることができ、感度を向上できる。
 <第8の実施形態> 
 図13は、本開示の第8の実施形態に係る光検出装置1Iの半導体構造の一例を示す部分縦断面図である。なお、図13において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 本開示の第8の実施形態において、半導体層22には、裏面S1からおもて面S2に至り貫通する画素間分離部91が形成される。
 <第8の実施形態の比較例> 
 図14は、比較例に係る光検出装置B1の半導体構造の一例を示す部分縦断面図である。なお、図14において、上記図2と同一部分には同一符号を付して詳細な説明を省略する。
 比較例では、画素間分離部92は、半導体層22の裏面S1からおもて面S2までの途中に至り形成される。このため、光電変換部24に入射した光の一部が、光電変換部24を透過して配線層21まで到達し、そこで反射することで、反射光が隣接する画素110に進入する、いわゆる混色悪化のリスクが高まる。
 <第8の実施形態の解決手段> 
 本開示の第8の実施形態では、図13に示すように、半導体層22の裏面S1からおもて面S2に至り貫通する画素間分離部91を形成し、混色を抑制するようにしている。さらに、画素間分離部91には、混色を抑制するために、金属が充填される。金属としては、例えば、アルミニウム(Al)、タングステン(W)、銀(Ag)などが用いられる。
 <第8の実施形態による作用効果> 
 以上のように第8の実施形態によれば、画素間分離部91が半導体層22の裏面S1からおもて面S2まで貫通して形成されるため、配線層21での反射光が、画素間分離部91の光電変換部24側の側面に確実に当たり、その側面で反射して、再び元の光電変換部24に戻るため、反射光が隣接する画素110へ進入することを防止でき、光学混色を抑制できる。また、画素間分離部91に金属を充填することにより、さらに混色を抑制できる。
 <第9の実施形態> 
 本開示の第9の実施形態では、画素間分離部26及び掘り込み部27のHNAエッチングによる形成加工を含む光検出装置1の製造方法について説明する。
 図15A乃至図15Dは、第9の実施形態における光検出装置1の製造方法の工程手順を示す断面図である。
 先ず、配線層21と接合し、裏面S1からおもて面S2に至り開口部1001が形成された半導体層22を用意し、裏面S1側に形成されるp型領域242の任意の深さの位置に、高濃度ボロン層1002をイオン注入で形成する(図15A)。
 次に、開口部1001及び半導体層22の裏面S1に、フォトリソグラフィーを用いてレジスト1003を形成する。そして、レジスト1003をマスクとして用いて、p型領域242及び高濃度ボロン層1002に対してドライエッチング処理を行い、画素内トレンチ1004を形成する(図15B)。
 次に、HNA薬液によるウェットエッチング処理により高濃度ボロン層1002を選択的にエッチングして散乱体1005を形成する(図15C)。さらに、開口部1001に埋め込まれたレジスト1003もウェットエッチング処理によりエッチングして開口部1006を形成する。
 以後、画素内トレンチ1004及び開口部1006に充填剤1007を埋め込み、画素間分離部26及び掘り込み部27を形成する(図15D)。
 <第10の実施形態> 
 本開示の第10の実施形態では、画素間分離部26及び掘り込み部27のAKW薬液のシリコン結晶方位によるエッチングレート依存性を利用した光検出装置1の製造方法について説明する。
 図16A乃至図16Fは、第10の実施形態における光検出装置1の製造方法の工程手順を示す断面図である。
 先ず、配線層21と接合し、裏面S1からおもて面S2に至り開口部1011が形成された半導体層22を用意する(図16A)。そして、開口部1011及び半導体層22の裏面S1に、フォトリソグラフィーを用いてレジスト1012を形成し、レジスト1012をマスクとして用いて、p型領域242に対してドライエッチング処理を行い、画素内トレンチ1013を形成する(図16B)。
 次に、画素内トレンチ1013に対して窒化シリコン(SiN)サイドウォール1014を形成する(図16C)。
 次に、AKWでエッチングにより散乱体形状1015を形成する(図16D)。このとき、シリコン基板の面方位として<111>基板を使用していることが前提条件である。
 次に、HNA薬液によるウェットエッチング処理によりレジスト1012を除去し、開口部1016を形成する(図16E)。
 以後、画素内トレンチ1013及び開口部1016に充填剤1017を埋め込み、画素間分離部26及び掘り込み部27を形成する(図16F)。
 <その他の実施形態> 
 上記のように、本技術は第1から第10の実施形態及び第1の実施形態の第1の変形例及び第2の変形例、第4の実施形態の第1の変形例及び第2の変形例、第5の実施形態の第1の変形例及び第2の変形例によって記載したが、この開示の一部をなす論述及び図面は本技術を限定するものであると理解すべきではない。上記の第1から第10の実施形態が開示する技術内容の趣旨を理解すれば、当業者には様々な代替実施形態、実施例及び運用技術が本技術に含まれ得ることが明らかとなろう。また、第1から第10の実施形態及び第1の実施形態の第1の変形例及び第2の変形例、第4の実施形態の第1の変形例及び第2の変形例、第5の実施形態の第1の変形例及び第2の変形例がそれぞれ開示する構成を、矛盾の生じない範囲で適宜組み合わせることができる。例えば、複数の異なる実施形態がそれぞれ開示する構成を組み合わせてもよく、同一の実施形態の複数の異なる変形例がそれぞれ開示する構成を組み合わせてもよい。
 <電子機器への応用例> 
 上述した光検出装置は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図17は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図17に示される撮像装置2201は、光学系2202、シャッタ装置2203、光検出装置としての固体撮像素子2204、制御回路2205、信号処理回路2206、モニタ2207、および2メモリ2208を備えて構成され、静止画像および動画像を撮像可能である。
 光学系2202は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子2204に導き、固体撮像素子2204の受光面に結像させる。
 シャッタ装置2203は、光学系2202および固体撮像素子2204の間に配置され、制御回路2205の制御に従って、固体撮像素子2204への光照射期間および遮光期間を制御する。
 固体撮像素子2204は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子2204は、光学系2202およびシャッタ装置2203を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子2204に蓄積された信号電荷は、制御回路2205から供給される駆動信号(タイミング信号)に従って転送される。
 制御回路2205は、固体撮像素子2204の転送動作、および、シャッタ装置2203のシャッタ動作を制御する駆動信号を出力して、固体撮像素子2204およびシャッタ装置2203を駆動する。
 信号処理回路2206は、固体撮像素子2204から出力された信号電荷に対して各種の信号処理を施す。信号処理回路2206が信号処理を施すことにより得られた画像(画像データ)は、モニタ2207に供給されて表示されたり、メモリ2208に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置2201においても、上述した固体撮像素子2204に代えて、光検出装置1を適用することが可能となる。
 <移動体への応用例> 
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図18は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図18に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図18の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図19は、撮像部12031の設置位置の例を示す図である。
 図19では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図19には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 なお、本開示は以下のような構成も取ることができる。 
(1)
 外部から受光した光に応じて電気信号を生成可能な複数の画素が行方向及び列方向に配置された半導体基板と、
 前記半導体基板に形成され、隣接する前記画素の間を分離する画素間分離部と、
 前記半導体基板の受光面に形成され、前記画素間分離部より浅く、前記光の回折を起こすための掘り込み部と、を備え、
 前記掘り込み部は、前記半導体基板の受光面側に第1の幅の開口部を有し、前記行方向及び前記列方向と直交する厚さ方向の任意の位置に前記第1の幅を超える第2の幅の散乱体形状を有する、光検出装置。
(2)
 前記掘り込み部は、前記半導体基板の第1の材料との屈折率差が所定の値より大きな第2の材料を充填している、上記(1)に記載の光検出装置。
(3)
 前記画素間分離部は、前記半導体基板の受光面から前記受光面とは反対側の面に至り形成される、上記(1)に記載の光検出装置。
(4)
 前記画素間分離部は、金属を充填している、上記(3)に記載の光検出装置。
(5)
 前記掘り込み部は、前記画素内に1本以上のパターンで形成され、
 前記パターンの一部の掘り込み部は、前記散乱体形状を有する、上記(1)に記載の光検出装置。
(6)
 前記パターンは、平面視において、ドットパターンである、上記(5)に記載の光検出装置。
(7)
 前記パターンは、平面視において、ラインパターンである、上記(5)に記載の光検出装置。
(8)
 前記パターンは、平面視において、ラインパターンとドットパターンの組み合わせである、上記(5)に記載の光検出装置。
(9)
 さらに、入射された光の反射を抑制する、凹凸構造体を備える、上記(1)に記載の光検出装置。
(10)
 外部から受光した光に応じて電気信号を生成可能な複数の画素が行方向及び列方向に配置された半導体基板と、
 前記半導体基板に形成され、隣接する前記画素の間を分離する画素間分離部と、
 前記半導体基板の受光面に形成され、前記画素間分離部より浅く、前記光の回折を起こすための掘り込み部と、を備え、
 前記掘り込み部は、前記半導体基板の受光面側に第1の幅の開口部を有し、前記行方向及び前記列方向と直交する厚さ方向の任意の位置に前記第1の幅を超える第2の幅の散乱体形状を有する、光検出装置を備えた、
電子機器。
1,1A,1B,1C,1D,1E1,1E2,1E3,1F1,1F2,1F3,1G,1H,1I 光検出装置
11 画素アレイ部
12 垂直駆動部
13 カラム処理部
14 水平駆動部
15 システム制御部
16 信号処理部
17 データ格納部
18 画素駆動線
19 垂直信号線(VSL)
20 半導体構造
21 配線層
22 半導体層
23 層間膜
24 光電変換部
25 オンチップレンズ
26 画素間分離部
27,27A,27B,31,51,53,61,62,63 堀り込み部
28 遮光壁
29,30 固定電荷膜
40,52,71 掘り込みパターン
81 モスアイ構造部
91,92 画素間分離部
110 画素
211 金属配線パターン
241 n型領域
242 p型領域
271,311,411,421,431,511,521,522,523,524,525,531,611,621,631,711,712,713,1001,1006、1011,1016 開口部
272,273,274,312,412,1005 散乱体
1002 高濃度ボロン層
1003,1012 レジスト
1004,1013 画素内トレンチ
1007,1017 充填剤
1014 サイドウォール
1015 散乱体形状
2201 撮像装置
2202 光学系
2203 シャッタ装置
2204 固体撮像素子
2205 制御回路
2206 信号処理回路
2207 モニタ
2208 メモリ
12000 車両制御システム
12001 通信ネットワーク
12010 駆動系制御ユニット
12020 ボディ系制御ユニット
12030 車外情報検出ユニット
12031 撮像部
12040 車内情報検出ユニット
12041 運転者状態検出部
12050 統合制御ユニット
12051 マイクロコンピュータ
12052 音声画像出力部
12061 オーディオスピーカ
12062 表示部
12063 インストルメントパネル
12100 車両
12101~12105 撮像部
12111~12114 撮像範囲

Claims (10)

  1.  外部から受光した光に応じて電気信号を生成可能な複数の画素が行方向及び列方向に配置された半導体基板と、
     前記半導体基板に形成され、隣接する前記画素の間を分離する画素間分離部と、
     前記半導体基板の受光面に形成され、前記画素間分離部より浅く、前記光の回折を起こすための掘り込み部と、を備え、
     前記掘り込み部は、前記半導体基板の受光面側に第1の幅の開口部を有し、前記行方向及び前記列方向と直交する厚さ方向の任意の位置に前記第1の幅を超える第2の幅の散乱体形状を有する、光検出装置。
  2.  前記掘り込み部は、前記半導体基板の第1の材料との屈折率差が所定の値より大きな第2の材料を充填している、請求項1に記載の光検出装置。
  3.  前記画素間分離部は、前記半導体基板の受光面から前記受光面とは反対側の面に至り形成される、請求項1に記載の光検出装置。
  4.  前記画素間分離部は、金属を充填している、請求項3に記載の光検出装置。
  5.  前記掘り込み部は、前記画素内に1本以上のパターンで形成され、
     前記パターンの一部の掘り込み部は、前記散乱体形状を有する、請求項1に記載の光検出装置。
  6.  前記パターンは、平面視において、ドットパターンである、請求項5に記載の光検出装置。
  7.  前記パターンは、平面視において、ラインパターンである、請求項5に記載の光検出装置。
  8.  前記パターンは、平面視において、ラインパターンとドットパターンの組み合わせである、請求項5に記載の光検出装置。
  9.  さらに、入射された光の反射を抑制する、凹凸構造体を備える、請求項1に記載の光検出装置。
  10.  外部から受光した光に応じて電気信号を生成可能な複数の画素が行方向及び列方向に配置された半導体基板と、
     前記半導体基板に形成され、隣接する前記画素の間を分離する画素間分離部と、
     前記半導体基板の受光面に形成され、前記画素間分離部より浅く、前記光の回折を起こすための掘り込み部と、を備え、
     前記掘り込み部は、前記半導体基板の受光面側に第1の幅の開口部を有し、前記行方向及び前記列方向と直交する厚さ方向の任意の位置に前記第1の幅を超える第2の幅の散乱体形状を有する、光検出装置を備えた、
    電子機器。
PCT/JP2022/024942 2022-06-22 2022-06-22 光検出装置及び電子機器 WO2023248388A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/024942 WO2023248388A1 (ja) 2022-06-22 2022-06-22 光検出装置及び電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/024942 WO2023248388A1 (ja) 2022-06-22 2022-06-22 光検出装置及び電子機器

Publications (1)

Publication Number Publication Date
WO2023248388A1 true WO2023248388A1 (ja) 2023-12-28

Family

ID=89379617

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024942 WO2023248388A1 (ja) 2022-06-22 2022-06-22 光検出装置及び電子機器

Country Status (1)

Country Link
WO (1) WO2023248388A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015029054A (ja) * 2013-07-03 2015-02-12 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US20180102389A1 (en) * 2016-10-12 2018-04-12 Samsung Electronics Co., Ltd. Image sensor
US20180182806A1 (en) * 2016-12-28 2018-06-28 Samsung Electronics Co., Ltd. Light sensor
US20180219040A1 (en) * 2017-02-01 2018-08-02 Samsung Electronics Co., Ltd. Image sensor and method for fabricating the same
US20190067357A1 (en) * 2017-08-30 2019-02-28 Taiwan Semiconductor Manufacturing Co., Ltd. Increased optical path for long wavelength light by grating structure
US20190296070A1 (en) * 2018-03-20 2019-09-26 Samsung Electronics Co., Ltd. Image sensors with multiple lenses per pixel region
CN112331687A (zh) * 2020-11-30 2021-02-05 联合微电子中心有限责任公司 一种cmos图像传感器及其制作方法
JP2021090022A (ja) * 2019-12-06 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
WO2021131318A1 (ja) * 2019-12-24 2021-07-01 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015029054A (ja) * 2013-07-03 2015-02-12 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US20180102389A1 (en) * 2016-10-12 2018-04-12 Samsung Electronics Co., Ltd. Image sensor
US20180182806A1 (en) * 2016-12-28 2018-06-28 Samsung Electronics Co., Ltd. Light sensor
US20180219040A1 (en) * 2017-02-01 2018-08-02 Samsung Electronics Co., Ltd. Image sensor and method for fabricating the same
US20190067357A1 (en) * 2017-08-30 2019-02-28 Taiwan Semiconductor Manufacturing Co., Ltd. Increased optical path for long wavelength light by grating structure
US20190296070A1 (en) * 2018-03-20 2019-09-26 Samsung Electronics Co., Ltd. Image sensors with multiple lenses per pixel region
JP2021090022A (ja) * 2019-12-06 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
WO2021131318A1 (ja) * 2019-12-24 2021-07-01 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
CN112331687A (zh) * 2020-11-30 2021-02-05 联合微电子中心有限责任公司 一种cmos图像传感器及其制作方法

Similar Documents

Publication Publication Date Title
KR102504887B1 (ko) 촬상 소자, 촬상 소자의 제조 방법 및 전자 기기
JP7395650B2 (ja) 撮像素子および電子機器
CN109997019B (zh) 摄像元件和摄像装置
US20210288192A1 (en) Sensor element and electronic device
CN110199393B (zh) 固态成像元件和电子设备
JP2018198272A (ja) 固体撮像素子および電子機器
WO2021095668A1 (ja) 固体撮像装置およびその製造方法
US20230013149A1 (en) Solid-state image pickup device and electronic apparatus
WO2019078291A1 (ja) 撮像装置
WO2023248388A1 (ja) 光検出装置及び電子機器
WO2023189130A1 (ja) 光検出装置及び電子機器
WO2024057739A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2023233873A1 (ja) 光検出装置及び電子機器
WO2023233872A1 (ja) 光検出装置及び電子機器
JP7261168B2 (ja) 固体撮像装置及び電子機器
WO2023181657A1 (ja) 光検出装置及び電子機器
WO2021153030A1 (ja) 固体撮像装置およびその製造方法
WO2023013554A1 (ja) 光検出器及び電子機器
WO2022270023A1 (ja) 光検出器及び電子機器
WO2023276240A1 (ja) 撮像素子、電子機器
WO2023127512A1 (ja) 撮像装置、電子機器
WO2024057724A1 (ja) 撮像装置、及び電子機器
WO2023013493A1 (ja) 撮像装置及び電子機器
WO2021241243A1 (ja) 固体撮像装置及び光検出方法
TW202416726A (zh) 光檢測裝置及電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22947949

Country of ref document: EP

Kind code of ref document: A1