WO2023229018A1 - 光検出装置 - Google Patents

光検出装置 Download PDF

Info

Publication number
WO2023229018A1
WO2023229018A1 PCT/JP2023/019558 JP2023019558W WO2023229018A1 WO 2023229018 A1 WO2023229018 A1 WO 2023229018A1 JP 2023019558 W JP2023019558 W JP 2023019558W WO 2023229018 A1 WO2023229018 A1 WO 2023229018A1
Authority
WO
WIPO (PCT)
Prior art keywords
convex portion
groove
coating film
photodetection device
sides
Prior art date
Application number
PCT/JP2023/019558
Other languages
English (en)
French (fr)
Inventor
圭介 佐藤
寿章 岩渕
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023229018A1 publication Critical patent/WO2023229018A1/ja

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise

Definitions

  • a semiconductor substrate having a pixel region in which a plurality of pixels that perform photoelectric conversion are arranged;
  • the semiconductor substrate is a groove portion disposed on the outer peripheral side of the pixel region, having a height lower than the pixel region and extending along a plurality of sides;
  • a convex portion disposed on the outer peripheral side of the groove, having a height higher than the groove and extending along the plurality of sides;
  • a photodetecting device is provided, including a coating film that covers the entire surface of the convex portion on the light incident surface side of at least one of the plurality of sides.
  • the distance between the pixel region and the groove portion may be different on at least two sides among the plurality of sides of the semiconductor substrate.
  • the side wall of the convex portion at a location in contact with the groove portion may have a step.
  • the semiconductor substrate includes a pixel region in which a plurality of pixels that perform photoelectric conversion are arranged;
  • the semiconductor substrate is a groove portion disposed outside the pixel region, having a height lower than the pixel region and extending along a plurality of sides; a first convex portion disposed outside the groove portion, having a height higher than the groove portion and extending along the plurality of sides;
  • a side wall of the first convex portion on the side in contact with the groove portion has an uneven structure, The upper surface of the first convex portion is flat.
  • a photodetection device is provided.
  • a predetermined region from the edge of the upper surface continuous to the side wall of the first convex portion on the side in contact with the groove portion may be flat.
  • the outer side wall of the first convex portion is a dicing surface
  • the predetermined region of the upper surface of the first convex portion which is 5 ⁇ m or more away from the dicing surface toward the inside, may be flat.
  • the first convex portion has a laminated structure,
  • the first convex portion includes a coating film disposed in contact with an upper surface, and a silicon layer laminated on the coating film,
  • the reflectance of the coating film may be lower than the reflectance of the silicon layer.
  • FIG. 15B is a plan view of the photodetection device of FIG. 15A.
  • FIG. 7 is a plan view showing a manufacturing process of a photodetecting device according to a modified example of the second embodiment.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 2 is an explanatory diagram showing an example of installation positions of an outside-vehicle information detection section and an imaging section.
  • the photodetector may include components and functions that are not shown or explained. The following description does not exclude components or features not shown or described.
  • the pixel region 2 has a plurality of pixels 8 arranged in a two-dimensional direction (row direction and column direction) on the semiconductor substrate.
  • the semiconductor substrate is, for example, a silicon substrate.
  • the pixel 8 includes a photoelectric conversion element and a pixel circuit (not shown in FIG. 1).
  • the pixel circuit includes a transfer transistor, a reset transistor, a selection transistor, an amplification transistor, and the like, and generates a pixel signal that is a voltage signal corresponding to the amount of charge photoelectrically converted by the photoelectric conversion element.
  • the vertical drive circuit 3 includes, for example, a shift register, and sequentially drives a plurality of row selection lines L1 arranged in the column direction. In this way, the vertical drive circuit 3 selects each pixel 8 in the pixel area 2 in units of rows.
  • the column signal processing circuit 4 is arranged for each pixel column arranged in the column direction. Specifically, although the vertical signal line L2 is arranged for each pixel column, the column signal processing circuit 4 is provided for each corresponding vertical signal line L2.
  • the column signal processing circuit 4 performs CDS (Correlated Double Sampling) processing that detects the potential difference between the reset level of each pixel 8 and the pixel signal level to remove pixel-specific fixed pattern noise, and analog-digital conversion processing. Perform signal processing.
  • the column signal processing circuit 4 outputs digital pixel signals.
  • the horizontal drive circuit 5 includes, for example, a shift register.
  • the horizontal drive circuit 5 sequentially transfers the digital pixel signals output from the column signal processing circuit 4 to the horizontal signal line.
  • An output circuit 6 is connected to the horizontal signal line.
  • the output circuit 6 performs various signal processing on the digital pixel signals on the horizontal signal line and outputs the signals.
  • the signal processing performed by the output circuit 6 includes, for example, buffering, black level adjustment, and column variation correction.
  • the control circuit 7 generates clock signals and control signals that serve as operating standards for the vertical drive circuit 3, column signal processing circuit 4, horizontal drive circuit 5, etc., based on the vertical synchronization signal, horizontal synchronization signal, and master clock signal. generate.
  • the control circuit 7 outputs the generated clock signal and control signal to the vertical drive circuit 3, column signal processing circuit 4, horizontal drive circuit 5, and the like.
  • the entire photodetecting device 1 in FIG. 1 may be formed on one semiconductor substrate, or may be formed on two or more semiconductor substrates, and these semiconductor substrates may be stacked. When stacking a plurality of semiconductor substrates, electrical continuity and bonding between the substrates are performed using Cu--Cu junctions, bumps, vias, and the like.
  • An example of a photodetector 1 having a stacked structure includes a first semiconductor substrate on which a pixel region 2 is arranged, a vertical drive circuit 3, a column signal processing circuit 4, a horizontal drive circuit 5, an output circuit 6, and a control circuit 7.
  • the first step is to laminate the first semiconductor substrate and the second semiconductor substrate.
  • the vertical drive circuit 3, column signal processing circuit 4, horizontal drive circuit 5, output circuit 6, and control circuit 7 may be arranged on the first semiconductor substrate.
  • the first semiconductor substrate may be referred to as a first chip
  • the second semiconductor substrate may be referred to as a second chip.
  • FIG. 2 is a schematic plan view of a portion of the first wafer 11.
  • a plurality of first chips 12 are arranged at regular intervals in a two-dimensional direction on the first wafer 11, and scribe areas 13 are provided in a grid pattern between two adjacent first chips 12. .
  • the scribe area 13 is an area where the wafer is cut by a dicing blade (not shown). More specifically, the first wafer 11 is cut along the thick line area 13a within the scribe area 13.
  • grooves 13b extending along the longitudinal direction of the scribe area 13 are arranged in a grid pattern.
  • the groove portion 13b is arranged closer to the pixel region 2 than the thick line region 13a indicating the cut surface. If the wafer is cut with a dicing blade along the thick line area 13a in the scribe area 13, there is a risk that cracks will appear near the cut surface of the wafer or that some layers will peel off. In order to prevent such cracks and peeling from reaching the pixel region 2, a groove portion 13b is provided in the scribe region 13 between the pixel region 2 and the cut surface. By providing the groove portion 13b in the scribe region 13, cracks and peeling of the cut surface will not reach the pixel region 2.
  • FIG. 3 is a schematic plan view of one cut first chip 12.
  • the first chip 12 shown in FIG. 3 has a rectangular shape, has a pixel area 2 arranged in the center, and has a wire bonding area along two opposing sides (hereinafter referred to as a first side SD1 and a second side SD2).
  • a plurality of pads 14 are arranged.
  • no pads 14 are arranged on two opposing sides (hereinafter referred to as third side SD3 and fourth side SD4) that are 90 degrees different.
  • the above-mentioned scribe area 13 is provided on the first to fourth sides SD1 to SD4 of the first chip 12, but the distance between the scribe area 13 and the pixel area 2 is on the first side SD1 and second side SD2 side. and is different on the third side SD3 and fourth side SD4 sides. More specifically, the distance between the scribe region 13 and the pixel region 2 on the first side SD1 and the second side SD2 is the same as the distance between the scribe region 13 and the pixel region 2 on the third side SD3 and the fourth side SD4. larger than
  • the reason for increasing the distance between the scribe area 13 and the pixel area 2 on the first side SD1 and second side SD2 is to prevent light that is incident on the bonding wire and reflected from entering the pixel area 2. .
  • the pixel area 2 and the scribe area 13 Since the distance from the scribe area 13 is different, the situation in which flare occurs due to the light reflected by the scribe area 13 is different.
  • the distance between the pixel area 2 and the scribe area 13 is small, the light that is incident on the scribe area 13 and reflected hits some obstacle in the camera module and is reflected and enters the pixel area 2. There is a high risk of being exposed.
  • the pixel area 2 and the scribe area 13 are spaced apart, even if the light reflected from the scribe area 13 is reflected by some obstacle, there is a low possibility that the light will enter the pixel area 2.
  • flare countermeasures are taken for the sides SD3 and SD4, on which the wire bonding pads 14 are not arranged, among the plurality of sides forming the scribe area 13.
  • the sides SD1 and SD2 in the scribe area 13 where the wire bonding pads 14 are arranged may also be subjected to flare countermeasures in the same way as the sides where the pads 14 are not arranged.
  • the flare countermeasure adopted in this embodiment is to cover the entire upper surface of at least the sides SD3 and SD4 of the scribe region 13 where the pad 14 is not arranged with a coating film.
  • a so-called anti-reflection film as the coating film, reflection of light incident on the scribe area 13 can be suppressed, and no light will enter the pixel area 2.
  • the pads 14 are arranged on two of the four sides (first side SD1 and second side SD2) of the rectangular first chip 12, but the sides on which the pads 14 are arranged are not necessarily the same. It does not necessarily have to be two opposing sides. Depending on the case, pads 14 may be arranged on only one side, or pads 14 may be arranged on three sides. As described above, in this embodiment, at least the entire area of the side where the pad 14 is not arranged in the scribe area 13 is covered with the coating film.
  • the second chip stacked on the first chip 12 is placed on the opposite side of the light incident direction and does not have the pixel area 2. Therefore, there is no need to cover the scribe area 13 of the second chip.
  • FIG. 4 is a diagram showing a cross-sectional structure of the camera module 20.
  • the camera module 20 in FIG. 4 has a structure in which a plurality of photographing lenses 21 are arranged above the first chip 12 and the second chip 15 that are stacked.
  • the plurality of photographic lenses 21 are supported by a lens holder 22.
  • a lens barrel may be provided to move at least a portion of the photographing lens 21 in the optical axis direction for focus adjustment.
  • the direction of reflection at this time depends on the incident direction of the light and the surface shape of the obstacle, and in some cases the light may enter the pixel area 2. It is difficult to control the direction of reflection by knowing in advance the traveling direction of the light reflected by an obstacle, and in order to suppress the light from entering the pixel area 2, it is necessary to prevent the light from reflecting at the scribe area 13. It is effective to suppress it.
  • FIG. 5 is an enlarged schematic plan view of the scribe region 13 on the side where the pad 14 of the first chip 12 is not arranged.
  • FIG. 6 is a cross-sectional view taken along the line AA in FIG. FIG. 6 shows a cross-sectional structure of a stacked body in which the first chip 12 and the second chip 15 are stacked.
  • the first chip 12 is a laminate in which a first semiconductor substrate 12a and a first wiring layer 12b are stacked.
  • the second chip 15 is a laminate in which a second semiconductor substrate 15a and a second wiring layer 15b are stacked.
  • the groove portion 13b is formed by partially cutting a semiconductor substrate made of silicon, for example.
  • the bottom surface of the trench 13b reaches the first wiring layer 12b, and the first semiconductor substrate 12a is completely removed in the trench 13b.
  • the groove portion 13b may be formed so that a portion of the first semiconductor substrate 12a remains.
  • the height of the groove portion 13b is lower than the height of the pixel region 2.
  • the convex portion 13c includes the first semiconductor substrate 12a, and the height of the convex portion 13c is higher than the height of the groove portion 13b.
  • the height of the convex portion 13c is the same as the height of the pixel region 2. Note that, as shown in FIG. 6, at least a portion of the first semiconductor substrate 12a on the outer peripheral side of the convex portion 13c is removed, and the height is lower than that of the convex portion 13c.
  • a concavo-convex structure 13e is provided on the side wall surface 13d of the convex portion 13c where the convex portion 13c contacts the groove portion 13b.
  • FIG. 5 shows an example in which the uneven structure 13e has a triangular planar shape, the specific shape and size of the uneven structure 13e are not limited.
  • the side wall surface 13d of the convex portion 13c does not necessarily have to have the uneven structure 13e, and may be a flat surface. Furthermore, as shown in FIG. 7, a step may be provided on the side wall surface 13d of the convex portion 13c. When providing a step, an uneven structure 13e may be provided on each step-like surface.
  • the area of the upper surface of the convex portion 13c can be reduced. As the area of the upper surface of the convex portion 13c becomes narrower, light is less likely to enter the upper surface of the convex portion 13c, and reflected light from the upper surface of the convex portion 13c can be suppressed.
  • the side wall surface 13d of the convex portion 13c may have a tapered shape extending obliquely to the normal direction of the light incident surface. By extending the side wall surface 13d in an oblique direction, the area of the upper surface of the convex portion 13c can be reduced. Note that also in the case of FIG. 8, the upper surface of the convex portion 13c is covered with the coating film 23. Further, the side wall surface 13d may be provided with an uneven structure 13e as in FIG. 6.
  • the upper surface of the convex portion 13c is covered with a coating film 23.
  • the reflectance of the coating film 23 is lower than the reflectance of the semiconductor substrate forming the convex portion 13c.
  • the coating film 23 may have a laminated structure, for example.
  • the coating film 23 in FIGS. 6 to 8 shows an example of a two-layer structure.
  • the coating film 23 in FIG. 6 has a laminated structure in which an oxide film 23b is laminated on a flattening film 23a.
  • the flattening film 23a is a film made of, for example, an acrylic thermosetting resin.
  • This flattening film 23a is made of the same material as the flattening film 18 that flattens the upper surface of the color filter layer 17 on the first semiconductor substrate 12a in the pixel region 2, and the flattening film 18 is arranged on the color filter layer 17.
  • a planarization film 23a is placed on the upper surface of the scribe region 13.
  • the oxide film 23b is, for example, an oxide film formed in a low temperature process, and is also called LTO (Low Temperature Oxide).
  • LTO Low Temperature Oxide
  • an oxide film 23b made of LTO is formed on the planarization film 23a in the scribe region 13.
  • the covering film 23 provided in the scribe region 13 is formed in the step of laminating the planarizing film 18 and the LTO 19 on the color filter layer 17 on the first semiconductor substrate 12a in the pixel region 2. Therefore, no additional steps are required and there is no risk of increased manufacturing costs.
  • the reflectance of the oxide film 23b constituting the coating film 23 covering the convex portion 13c in the scribe region 13 is about 1/4 to 1/5 of the reflectance of the semiconductor substrate made of silicon. For example, if the reflectance of a semiconductor substrate made of silicon is about 40 to 50%, the reflectance of the coating film 23 having the oxide film 23b is about 0 to 10%.
  • test terminals 24 may be provided on the side of the scribe area 13 where the pads 14 are not arranged.
  • the test terminal 24 is provided for testing the waveform of a corresponding signal node in the photodetecting device 1 by contacting it with a probe (not shown) during the testing process.
  • a coating film 23 is formed to protect the area around the test terminal 24.
  • the entire area of the side where the pad 14 is not arranged is covered with the coating film 23, the periphery of the test terminal 24 is also covered with the coating film 23. A separate process for covering with is not required.
  • the width of the convex portion 13c is preferably 10 ⁇ m or more.
  • the width of the convex portion 13c is desirably set to 1/2 or more of the distance from the end of the first chip on the groove portion 13b side to the cut surface of the first chip 12.
  • the coating film 23 may be formed also on the uneven structure 13e, but it is not necessary to provide it.
  • the thickness of the coating film 23 is preferably 10 nm or more. In particular, if the thickness of the coating film 23 is 50 nm or more, the reflectance inherent to the material constituting the coating film 23 can be obtained, and the reflectance can be suppressed compared to that of a semiconductor substrate.
  • FIG. 10 is a graph showing the relationship between the thickness of the coating film 23 and the reflectance. The simulation results of reflectance are shown.
  • the horizontal axis represents the film thickness of the LTO 23b
  • the vertical axis represents the reflectance.
  • the standard film thickness of the planarizing film 23a is set to k [nm]
  • the film thickness of the LTO 23b is set from 0 to 0 for each of the planarizing film 23a having 11 different thicknesses from 1.0k to 3.0k.
  • the reflectance of the coating film 23 is shown when the reflectance is changed to 300 nm [nm].
  • the reflectance tends to change periodically as the thickness of the LTO 23b changes, but the reflectance is lowest when the thickness of the LTO 23b is in the range of 50 to 120 [nm]. From this result, it can be seen that the thickness of the LTO 23b is preferably 50 to 120 [nm].
  • the upper surface of the convex portion 13c on the outer circumferential side of the groove portion 13b in the scribe region 13 is covered with the coating film 23, and the reflectance of the coating film 23 is made equal to the reflectance of the semiconductor substrate. Since the thickness is about 1/4 to 1/5, almost no light incident on the convex portion 13c is reflected, and there is a possibility that the light incident on the convex portion 13c is reflected by an obstacle and enters the pixel area 2. This can be prevented and the occurrence of flare can be suppressed.
  • FIG. 11A is a diagram showing an example of a cross-sectional structure of a photodetecting device 100 according to a comparative example that causes flare
  • FIG. 11B is a plan view of the photodetecting device 100 of FIG. 11A.
  • pads 14 for wire bonding are arranged along at least two of the plurality of sides of the pixel region 2.
  • an area including the pixel area 2 and the pad 14 is called a chip area 25, and an area outside the chip area 25 is called a scribe area 13.
  • the scribe area 13 is arranged to surround the chip area 25.
  • the scribe region 13 in one comparative example has a first convex portion 13f, a groove portion 13b, and a second convex portion 13g, which are arranged in an annular manner.
  • the first convex portion 13f is arranged to surround the chip region 25, the second convex portion 13g, and the groove portion 13b.
  • the groove portion 13b is arranged so as to surround the chip region 25 and the second convex portion 13g.
  • the second convex portion 13g is arranged to surround the chip region 25.
  • the side wall 13d of the first convex portion 13f on the side in contact with the groove portion 13b has an uneven structure 13e, as shown in FIG. 11B. Since the light incident on the concavo-convex structure 13e is dispersed and reflected, flare is no longer incident on the pixel region 2.
  • the first convex portion 13f and the second convex portion 13g in the photodetecting device 100 according to a comparative example each have a laminated structure in which a coating film 23 is disposed on the first semiconductor substrate 12a.
  • the first semiconductor substrate 12a is, for example, a silicon substrate
  • the coating film 23 is, for example, an organic film.
  • the coating film 23 is disposed on part of the upper surfaces of the first convex portion 13f and the second convex portion 13g, and a step is provided between the location where the coating film 23 is disposed and the location where the first semiconductor substrate 12a is exposed. It is being There is a possibility that the light incident on this stepped portion becomes flare and enters the pixel region 2 .
  • At least a portion of the light incident on the stepped portion of the first convex portion 13f is reflected at the stepped portion, and then further reflected by the IR cut filter 33, and enters the pixel region 2, as shown by a light ray y1. be done.
  • the light ray y2 is reflected at the step, reflected by the frame 32, and then further reflected by the IR cut filter 33.
  • the light is incident on the pixel area 2.
  • the photodetecting device 1a according to the second embodiment is characterized in that no step is provided near the top surface of the first convex portion 13f.
  • FIG. 13A is a cross-sectional view of the photodetecting device 1a according to the second embodiment
  • FIG. 13B is a plan view of the photodetecting device 1a of FIG. 13A.
  • the photodetection device 1a according to the second embodiment has a scribe region 13 that is different in configuration from the photodetection device 100 according to the comparative example.
  • the scribe region 13 includes a second convex portion 13g disposed so as to surround the chip region 25, a groove portion 13b disposed so as to surround the second convex portion 13g, and a groove portion 13b disposed so as to surround the groove portion 13b. It has a first convex portion 13f located at.
  • the first convex portion 13f and the second convex portion 13g have a higher height than the groove portion 13b.
  • FIG. 13B shows an example in which the first convex portion 13f and the second convex portion 13g are arranged annularly, they do not necessarily have to be annular, and may just extend along a plurality of sides.
  • the side wall 13d of the first convex portion 13f on the side in contact with the groove portion 13b has an uneven structure 13e as shown in FIG. 13B.
  • the upper surface of the first convex portion 13f is flat. By making the upper surface of the first convex portion 13f flat, it is possible to suppress the possibility that light that is incident on the upper surface and reflected will enter the pixel region 2.
  • the entire upper surface of the first convex portion 13f does not necessarily need to be flat. For example, it is desirable to flatten a predetermined region from the edge of the upper surface continuous to the side wall 13d of the first convex portion 13f on the side in contact with the groove portion 13b.
  • the outer side wall surface of the first convex portion 13f is a dicing surface 13h.
  • the predetermined region is, for example, a region on the upper surface of the first convex portion 13f that is 5 ⁇ m or more away from the dicing surface 13h toward the inside.
  • the upper surface of the first convex portion 13f there is a possibility that the surface of the region within 5 ⁇ m from the dicing surface 13h becomes rough during dicing, so the upper surface excluding this region is the above-mentioned predetermined region.
  • the side wall 13d of the first convex portion 13f on the side in contact with the groove portion 13b may be inclined by a predetermined angle or more with respect to the normal direction of the upper surface of the first convex portion 13f.
  • the predetermined angle is an angle such that light incident on the side wall 13d of the first convex portion 13f is reflected by the side wall 13d and does not ultimately enter the pixel region 2.
  • the larger the predetermined angle with respect to the normal direction the more difficult it is for the light incident on the side wall 13d to enter the pixel region 2.
  • the first protrusion 13f in FIG. 13A has a single layer structure and is made of silicon, for example. Since the upper surface of the first convex portion 13f is flat and does not have a step, no light propagates along the paths indicated by the arrow lines y1 and y2 in FIG. 12, and flare can be suppressed.
  • FIG. 14 is a plan view showing the manufacturing process of the photodetecting device 1a according to the second embodiment.
  • the periphery of the pixel region 2 is covered with an organic film 26.
  • the organic film 26 is, for example, an acrylic resin containing polymethyl methacrylate.
  • regions other than the pixel region 2 in the chip region 25 and the entire scribe region 13 are covered with the organic film 26.
  • the organic film 26 may have a two-layer structure of the planarization film 18 and the LTO 19, as described in the first embodiment.
  • the organic film 26 in the region of the pad 14 in the chip region 25 is removed, and the organic film 26 in the scribe region 13 is also removed. Removal of the organic film 26 is performed, for example, by etching treatment.
  • the first semiconductor substrate 12a in the scribe region 13 is partially shaved to form a groove 13b in the scribe region 13. Due to the formation of the groove portion 13b, a second annular convex portion 13g is formed inside the groove portion 13b, and a first annular convex portion 13f is formed outside the groove portion 13b. Furthermore, a concavo-convex structure 13e is formed on the side wall 13d of the groove portion 13b that is in contact with the first convex portion 13f. More specifically, the uneven structure 13e is a plurality of weight bodies arranged along the side wall surface 13d of the first convex portion 13f.
  • the pyramid is a polygonal pyramid such as a triangular pyramid or a square pyramid.
  • the uneven structure 13e can be formed using, for example, DSA (Direct Self-Assembly) technology. Specifically, a diblock copolymer is applied to the side wall surface 13d of the first convex portion 13f in contact with the groove portion 13b. As the diblock copolymer, for example, polystyrene-polymethylmethacrylate (PS-PMMA) can be used. Further, the scribe region 13 and the chip region 25 other than the groove portion 13b are covered with resist.
  • DSA Direct Self-Assembly
  • PS-PMMA polystyrene-polymethylmethacrylate
  • the applied diblock copolymer is irradiated with ultraviolet light.
  • a phase-separated structure of several nanometers to several tens of nanometers is formed due to the repulsion between polystyrene and polymethyl methacrylate. This causes, for example, polymethyl methacrylate to form spheres and polystyrene to crosslink to form an etching plate.
  • the shape and pitch of the phase-separated structure are adjusted by the volume ratio of polystyrene and polymethyl methacrylate.
  • a plurality of cones are formed on the side wall surface 13d of the first convex portion 13f.
  • a moth-eye structure in which many fine cones are arranged on the side wall surface may be formed.
  • an opening for the pad 14 is formed in the chip region 25. Thereafter, it is diced using the dicing surface 13h, which is the end surface of the first convex portion 13f, and is separated into pieces.
  • a test pad (not shown) may be arranged outside the wire bonding pad 14 of the photodetector 1a. Since the pad 14 is formed of a metal material such as aluminum, if dicing is performed at a position overlapping a test pad, a portion of the pad 14 will remain turned up. Since the turned-up pad 14 reflects light, there is a possibility that the light incident on the turned-up pad 14 and reflected may enter the pixel region 2 as a flare. Therefore, it is desirable that the test pad be placed outside the dicing position.
  • the first convex part 13f and the second convex part 13g are made into a laminated structure, and the coating film 23 is arranged so as to be in contact with the upper surfaces of the first convex part 13f and the second convex part 13g, so that the upper surface of the coating film 23 is It may be flat.
  • FIG. 15A is a sectional view of a photodetection device 1b according to a modification of the second embodiment
  • FIG. 15B is a plan view of the photodetection device 1b of FIG. 15A.
  • the photodetecting device 1b in FIGS. 15A and 15B differs from the photodetecting device 1 in FIGS. 13A and 13B in that the first convex portion 13f and the second convex portion 13g have a laminated structure.
  • the first convex portion 13f and the second convex portion 13g have a laminated structure in which a coating film 23 is laminated on the first semiconductor substrate 12a.
  • the reflectance of the coating film 23 is lower than the reflectance of the first semiconductor substrate 12a.
  • the coating film 23 is made of the same material as the organic film 26, for example.
  • first convex portion 13f in FIGS. 15A and 15B does not have a step near the top surface, reflection of light that finally enters the pixel region 2 is difficult to occur.
  • the upper surface of the first convex portion 13f is covered with the coating film 23, light reflection itself is less likely to occur.
  • FIG. 16 is a plan view showing a manufacturing process of a photodetecting device 1b according to a modified example of the second embodiment. First, as shown in FIG. 16A, the periphery of the pixel region 2 is covered with an organic film 26.
  • the organic film 26 in the area of the pad 14 in the chip area 25 is removed.
  • the organic film 26 in the scribe region 13 is removed, but in FIG. 16B, the organic film 26 in the scribe region 13 is left as is.
  • the organic film 26 in the scribe region 13 functions as the covering film 23.
  • a groove 13b is formed in the scribe region 13.
  • a concave-convex structure 13e is formed on the side wall surface 13d of the first convex portion 13f in contact with the groove portion 13b in a process similar to that shown in FIG. 14C.
  • an opening for the pad 14 is formed in the chip region 25.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of transportation such as a car, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility vehicle, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), etc. It may also be realized as a device mounted on the body.
  • FIG. 17 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 7000 includes multiple electronic control units connected via communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside vehicle information detection unit 7400, an inside vehicle information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 connecting these plurality of control units is, for example, a communication network based on any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs calculation processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Equipped with.
  • Each control unit is equipped with a network I/F for communicating with other control units via the communication network 7010, and also communicates with devices or sensors inside and outside the vehicle through wired or wireless communication.
  • a communication I/F is provided for communication.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon receiving section 7650, an in-vehicle device I/F 7660, an audio image output section 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are illustrated.
  • the other control units similarly include a microcomputer, a communication I/F, a storage section, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection section 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotation movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or an operation amount of an accelerator pedal, an operation amount of a brake pedal, or a steering wheel. At least one sensor for detecting angle, engine rotational speed, wheel rotational speed, etc. is included.
  • the drive system control unit 7100 performs arithmetic processing using signals input from the vehicle state detection section 7110, and controls the internal combustion engine, the drive motor, the electric power steering device, the brake device, and the like.
  • the body system control unit 7200 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 7200.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310, which is a power supply source for the drive motor, according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including a secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the external information detection unit 7400 detects information external to the vehicle in which the vehicle control system 7000 is mounted. For example, at least one of an imaging section 7410 and an external information detection section 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle external information detection unit 7420 includes, for example, an environmental sensor for detecting the current weather or weather, or a sensor for detecting other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunlight sensor that detects the degree of sunlight, and a snow sensor that detects snowfall.
  • the surrounding information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging section 7410 and the vehicle external information detection section 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 18 shows an example of the installation positions of the imaging section 7410 and the vehicle external information detection section 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided, for example, in at least one of the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirrors mainly capture images of the sides of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or back door mainly acquires images of the rear of the vehicle 7900.
  • the imaging unit 7918 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 18 shows an example of the imaging range of each of the imaging units 7910, 7912, 7914, and 7916.
  • Imaging range a indicates the imaging range of imaging unit 7910 provided on the front nose
  • imaging ranges b and c indicate imaging ranges of imaging units 7912 and 7914 provided on the side mirrors, respectively
  • imaging range d is The imaging range of an imaging unit 7916 provided in the rear bumper or back door is shown. For example, by superimposing image data captured by imaging units 7910, 7912, 7914, and 7916, an overhead image of vehicle 7900 viewed from above can be obtained.
  • the external information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided at the front, rear, sides, corners, and the upper part of the windshield inside the vehicle 7900 may be, for example, ultrasonic sensors or radar devices.
  • External information detection units 7920, 7926, and 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield inside the vehicle 7900 may be, for example, LIDAR devices.
  • These external information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image of the exterior of the vehicle, and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection section 7420 to which it is connected.
  • the external information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the external information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, etc., and receives information on the received reflected waves.
  • the external information detection unit 7400 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received information.
  • the external information detection unit 7400 may perform environment recognition processing to recognize rain, fog, road surface conditions, etc. based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to the object outside the vehicle based on the received information.
  • the outside-vehicle information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing people, cars, obstacles, signs, characters on the road, etc., based on the received image data.
  • the outside-vehicle information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and also synthesizes image data captured by different imaging units 7410 to generate an overhead image or a panoramic image. Good too.
  • the outside-vehicle information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • a driver condition detection section 7510 that detects the condition of the driver is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that images the driver, a biosensor that detects biometric information of the driver, a microphone that collects audio inside the vehicle, or the like.
  • the biosensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or determine whether the driver is dozing off. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls overall operations within the vehicle control system 7000 according to various programs.
  • An input section 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by, for example, a device such as a touch panel, a button, a microphone, a switch, or a lever that can be inputted by the passenger.
  • the integrated control unit 7600 may be input with data obtained by voice recognition of voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device that uses infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that is compatible with the operation of the vehicle control system 7000. You can.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information using gestures. Alternatively, data obtained by detecting the movement of a wearable device worn by a passenger may be input. Further, the input section 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input section 7800 described above and outputs it to the integrated control unit 7600. By operating this input unit 7800, a passenger or the like inputs various data to the vehicle control system 7000 and instructs processing operations.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, etc. Further, the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I/F7620 supports cellular communication protocols such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), or LTE-A (LTE-Advanced). , or other wireless communication protocols such as wireless LAN (also referred to as Wi-Fi (registered trademark)) or Bluetooth (registered trademark).
  • the general-purpose communication I/F 7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may.
  • the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology to communicate with a terminal located near the vehicle (for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal). You can also connect it with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may.
  • P2P Peer To Peer
  • a terminal located near the vehicle for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal. You can also connect it with
  • the dedicated communication I/F 7630 is a communication I/F that supports communication protocols developed for use in vehicles.
  • the dedicated communication I/F 7630 uses standard protocols such as WAVE (Wireless Access in Vehicle Environment), which is a combination of lower layer IEEE802.11p and upper layer IEEE1609, DSRC (Dedicated Short Range Communications), or cellular communication protocol. May be implemented.
  • the dedicated communication I/F 7630 typically supports vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) communications, a concept that includes one or more of the following:
  • the positioning unit 7640 performs positioning by receiving, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), and determines the latitude, longitude, and altitude of the vehicle. Generate location information including. Note that the positioning unit 7640 may specify the current location by exchanging signals with a wireless access point, or may acquire location information from a terminal such as a mobile phone, PHS, or smartphone that has a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and obtains information such as the current location, traffic jams, road closures, or required travel time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates connections between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 connects to USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile High).
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Mobile High
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or wearable device owned by a passenger, or an information device carried into or attached to the vehicle.
  • the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination. or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I/F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 communicates via at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information obtained. For example, the microcomputer 7610 calculates a control target value for a driving force generating device, a steering mechanism, or a braking device based on acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Good too.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. Coordination control may be performed for the purpose of
  • the microcomputer 7610 controls the driving force generating device, steering mechanism, braking device, etc. based on the acquired information about the surroundings of the vehicle, so that the microcomputer 7610 can drive the vehicle autonomously without depending on the driver's operation. Cooperative control for the purpose of driving etc. may also be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 acquires information through at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680. Based on this, three-dimensional distance information between the vehicle and surrounding objects such as structures and people may be generated, and local map information including surrounding information of the current position of the vehicle may be generated. Furthermore, the microcomputer 7610 may predict dangers such as a vehicle collision, a pedestrian approaching, or entering a closed road, based on the acquired information, and generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio and image output unit 7670 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 7710, a display section 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include, for example, at least one of an on-board display and a head-up display.
  • the display section 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices other than these devices, such as headphones, a wearable device such as a glasses-type display worn by the passenger, a projector, or a lamp.
  • the output device When the output device is a display device, the display device displays results obtained from various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, graphs, etc. Show it visually. Further, when the output device is an audio output device, the audio output device converts an audio signal consisting of reproduced audio data or acoustic data into an analog signal and audibly outputs the analog signal.
  • control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions performed by one of the control units may be provided to another control unit.
  • predetermined arithmetic processing may be performed by any one of the control units.
  • sensors or devices connected to any control unit may be connected to other control units, and multiple control units may send and receive detection information to and from each other via communication network 7010. .
  • a semiconductor substrate having a pixel area in which a plurality of pixels that perform photoelectric conversion are arranged The semiconductor substrate is a groove portion disposed on the outer peripheral side of the pixel region, having a height lower than the pixel region and extending along a plurality of sides; a convex portion disposed on the outer peripheral side of the groove, having a height higher than the groove and extending along the plurality of sides;
  • a photodetector comprising: a coating film that covers the entire surface of the convex portion on the light incident surface side on at least one side among the plurality of sides.
  • the groove portion is arranged to surround the pixel region
  • the side covered with the coating film is a side on which no wire bonding pad is arranged. photodetection device.
  • the interval on the side where the wire bonding pad is arranged is larger than the interval on the side where the wire bonding pad is not arranged,
  • any one of (1) to (9), wherein the side wall of the convex portion in contact with the groove is a surface extending from the bottom surface of the groove to the top surface of the convex portion, and this surface has an uneven structure.
  • the photodetection device according to item 1. (11) The photodetection according to any one of (1) to (9), wherein the side wall of the convex portion in contact with the groove is a flat surface extending from the bottom surface of the groove to the top surface of the convex portion.
  • Device. (12) The photodetecting device according to any one of (1) to (9), wherein the side wall of the convex portion at a location in contact with the groove portion has a step.
  • the photodetection device according to any one of (1) to (12), wherein the coating film has an oxide film having a lower reflectance than the reflectance of the semiconductor substrate.
  • the coating film is The photodetecting device according to (13), which is a laminate in which a flattening film containing a resin and the oxide film are stacked.
  • the planarization film is made of the same material as a film that planarizes the upper surface of a color filter layer disposed on the pixel region.
  • the coating film has a thickness of 50 nm or more and 120 nm or less.
  • a semiconductor substrate having a pixel area in which a plurality of pixels that perform photoelectric conversion are arranged The semiconductor substrate is a groove portion disposed outside the pixel region, having a height lower than the pixel region and extending along a plurality of sides; a first convex portion disposed outside the groove portion, having a height higher than the groove portion and extending along the plurality of sides; A side wall of the first convex portion on the side in contact with the groove portion has an uneven structure, The upper surface of the first convex portion is flat.
  • Photodetection device (18) A predetermined region from the edge of the upper surface continuous to the side wall of the first convex portion on the side in contact with the groove portion is flat; The photodetector according to (17).
  • the outer side wall of the first convex portion is a dicing surface, Of the upper surface of the first convex portion, the predetermined region that is 5 ⁇ m or more inward from the dicing surface is flat;
  • the side wall of the first convex portion on the side in contact with the groove portion is inclined at a predetermined angle or more with respect to the normal direction of the upper surface of the first convex portion.
  • the photodetection device according to any one of (19).
  • the first convex portion has a single layer structure made of silicon;
  • the first convex portion has a laminated structure;
  • the first convex portion includes a coating film disposed in contact with an upper surface, and a silicon layer laminated on the coating film, The reflectance of the coating film is lower than the reflectance of the silicon layer.
  • the photodetector according to any one of (17) to (20). comprising a scribe area arranged to surround the pixel area;
  • the scribe area is a second convex portion disposed inside the groove, having a height higher than the groove and surrounding the pixel region; the groove portion arranged to surround the second convex portion; the first convex portion disposed so as to surround the groove portion;
  • (24) comprising wire bonding pads arranged along at least two sides of the plurality of sides of the pixel region;
  • the scribe area is arranged outside the pad,
  • Photodetector 2 Pixel area, 3 Vertical drive circuit, 4 Column signal processing circuit, 5 Horizontal drive circuit, 6 Output circuit, 7 Control circuit, 8 Pixel, 8a On-chip lens, 11 First wafer, 12 First chip , 12a first semiconductor substrate, 12b first wiring layer, 13 scribe region, 13a bold line region, 13b groove, 13c convex portion, 13d side wall surface, 13e uneven structure, 14 pad, 15 second chip, 15a second semiconductor substrate, 15b second wiring layer, 16 peripheral area, 17 color filter layer, 18 planarization film, 19 LTO, 20 camera module, 21 photographic lens, 22 lens holder, 23 coating film, 23a planarization film, 23b oxide film, 24 test terminal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]画素領域よりも外周側に入射された光を起因とするフレアを抑制する。 [解決手段]光検出装置は、光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備える。前記半導体基板は、前記画素領域よりも外周側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、前記溝部よりも外周側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる凸部と、前記複数の辺のうち、少なくとも一つの辺における前記凸部の光入射面側の表面の全域を覆う被覆膜と、を有する。

Description

光検出装置
 本開示は、半導体装置に関する。
 ウエハからダイシングされた個々の固体撮像装置のスクライブ領域と画素領域との間に、画素領域を取り囲む溝部を設けるとともに、溝部の側壁面に凹凸構造を設けて、溝部の側壁面からの反射光を抑制して、画素領域への不要光の入射によるフレアを防止する技術が開示されている(特許文献1参照)。
国際公開2020/054272A1
 特許文献1の場合、スクライブ領域は画素領域と同様の例えばシリコンで形成されており、反射率が高い。よって、スクライブ領域の上面に入射された光が反射されて迷光となり、レンズモジュール等でさらに反射されて画素領域に入射され、フレアが発生するおそれがある。
 そこで、本開示では、画素領域よりも外周側に入射された光を起因とするフレアを抑制可能な光検出装置を提供するものである。
 上記の課題を解決するために、本開示によれば、
 光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備え、
 前記半導体基板は、
 前記画素領域よりも外周側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、
 前記溝部よりも外周側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる凸部と、
 前記複数の辺のうち、少なくとも一つの辺における前記凸部の光入射面側の表面の全域を覆う被覆膜と、を有する、光検出装置が提供される。
 前記被覆膜の反射率は、前記半導体基板の反射率より低くてもよい。
 前記溝部は、前記画素領域を取り囲むように配置され、
 前記凸部は、前記溝部を取り囲むように配置されてもよい。
 前記凸部の外周側には、前記半導体基板のダイシングされた切断面が配置されてもよい。
 前記半導体基板が有する複数の辺のうち、前記被覆膜で覆われる辺は、ワイヤボンディング用のパッドが配置されない辺であってもよい。
 前記画素領域と前記溝部との間隔は、前記半導体基板における複数の辺のうち、少なくとも二つの辺で異なってもよい。
 ワイヤボンディング用のパッドが配置される辺における前記間隔は、ワイヤボンディング用のパッドが配置されない辺における前記間隔よりも大きく、
 前記被覆膜で覆われる辺は、ワイヤボンディング用のパッドが配置されない辺を含んでもよい。
 前記凸部の高さは、前記画素領域の高さと同一であってもよい。
 前記被覆膜で覆われる辺の一部に配置されるテスト端子を備え、
 前記被覆膜は、前記テスト端子が配置された辺の表面を覆ってもよい。
 前記溝部と接する箇所の前記凸部の側壁は、前記溝部の底面から前記凸部の上面まで延びる面であり、この面は凹凸構造を有してもよい。
 前記溝部と接する箇所の前記凸部の側壁は、前記溝部の底面から前記凸部の上面まで延びる平坦面であってもよい。
 前記溝部と接する箇所の前記凸部の側壁は、段差を有してもよい。
 前記被覆膜は、前記半導体基板の反射率よりも低い反射率の酸化膜を有してもよい。
 前記被覆膜は、
 樹脂を含む平坦化膜と前記酸化膜とを積層させた積層体であってもよい。
 前記平坦化膜は、前記画素領域の上に配置されるカラーフィルタ層の上面を平坦化する膜と同じ材料であってもよい。
 前記被覆膜の膜厚は、50nm以上で120nm以下であってもよい。
 本開示によれば、光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備え、
 前記半導体基板は、
 前記画素領域よりも外側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、
 前記溝部よりも外側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる第1凸部と、を備え、
 前記溝部と接する側の前記第1凸部の側壁は、凹凸構造を有し、
 前記第1凸部の上面は、平坦である、
 光検出装置が提供される。
 前記溝部と接する側の前記第1凸部の側壁に連なる上面の端辺から所定の領域は平坦であってもよい。
 前記第1凸部の外側の側壁は、ダイシング面であり、
 前記第1凸部の上面のうち、前記ダイシング面から内側に向かって5μm以上離れた前記所定の領域は、平坦であってもよい。
 前記溝部と接する側の前記第1凸部の側壁は、前記第1凸部の上面の法線方向に対して所定の角度以上に傾斜していてもよい。
 前記第1凸部は、シリコンを材料とする単層構造であってもよい。
 前記第1凸部は、積層構造であり、
 前記第1凸部は、上面に接するように配置される被覆膜と、前記被覆膜に積層されるシリコン層と、を有し、
 前記被覆膜の反射率は、前記シリコン層の反射率よりも低くてもよい。
 前記画素領域を取り囲むように配置されるスクライブ領域を備え、
 前記スクライブ領域は、
 前記溝部よりも内側に配置され、前記溝部よりも高い高さを有するともに前記画素領域を取り囲むように配置される第2凸部と、
 前記第2凸部を取り囲むように配置される前記溝部と、
 前記溝部を取り囲むように配置される前記第1凸部と、を有してもよい。
 前記画素領域が有する複数の辺のうち、少なくとも二つの辺に沿って配置されるワイヤボンディング用のパッドを備え、
 前記スクライブ領域は、前記パッドよりも外側に配置されてもよい。
一実施形態に係る光検出装置の概略構成を示すブロック図。 第1ウエハの一部分の模式的な平面図。 切断された1個の第1チップの模式的な平面図。 カメラモジュールの断面構造を示す図。 第1チップのパッドが配置されていない辺のスクライブ領域を拡大した模式的な平面図。 図5のA-A線方向の断面図。 凸部の側壁面に段差を設ける場合の断面図。 テーパ状の溝部を設ける場合の断面図。 テスト端子を設ける場合の断面図。 被覆膜の膜厚と反射率の関係を示すグラフ。 一比較例に係る光検出装置の断面構造の一例を示す図。 図11Aの光検出装置の平面図。 フレアの発生要因を説明する図。 第2の実施形態に係る光検出装置の断面図。 図13Aの光検出装置の平面図。 第2の実施形態に係る光検出装置の製造工程を示す平面図。 第2の実施形態の一変形例に係る光検出装置の断面図。 図15Aの光検出装置の平面図。 第2の実施形態の一変形例に係る光検出装置の製造工程を示す平面図。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、図面を参照して、光検出装置の実施形態について説明する。以下では、光検出装置の主要な構成部分を中心に説明するが、光検出装置には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
 図1は一実施形態に係る光検出装置1の概略構成を示すブロック図である。図1の光検出装置1は、裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。
 図1の光検出装置1は、画素領域2と、垂直駆動回路3と、カラム信号処理回路4と、水平駆動回路5と、出力回路6と、制御回路7とを備えている。図1の光検出装置1は、固体撮像装置とも呼ばれる。
 画素領域2は、半導体基板上の二次元方向(行方向及び列方向)に配置された複数の画素8を有する。半導体基板は例えばシリコン基板である。画素8は、図1では不図示の光電変換素子と画素回路とを有する。画素回路は、転送トランジスタ、リセットトランジスタ、選択トランジスタ、増幅トランジスタなどを有し、光電変換素子で光電変換された電荷量に応じた電圧信号である画素信号を生成する。
 垂直駆動回路3は、例えばシフトレジスタを有し、列方向に並ぶ複数の行選択線L1を順次に駆動する。このように、垂直駆動回路3は、画素領域2内の各画素8を行単位で選択する。
 カラム信号処理回路4は、列方向に配置された画素列ごとに配置されている。具体的には、画素列ごとに垂直信号線L2が配置されていろ、カラム信号処理回路4は、対応する垂直信号線L2ごとに設けられている。カラム信号処理回路4は、各画素8のリセットレレベルと画素信号レベルとの電位差を検出して画素固有の固定パターンノイズを除去するCDS(Correlated Double Sampling)処理、及びアナログ-デジタル変換処理などの信号処理を行う。カラム信号処理回路4は、デジタル画素信号を出力する。
 水平駆動回路5は、例えばシフトレジスタを有する。水平駆動回路5は、カラム信号処理回路4から出力されたデジタル画素信号を順次に水平信号線に転送する。水平信号線には出力回路6が接続されている。出力回路6は、水平信号線上のデジタル画素信号に対して種々の信号処理を行った上で出力する。出力回路6が行う信号処理は、例えば、バッファリング、黒レベル調整、列ばらつき補正などである。
 制御回路7は、垂直同期信号、水平同期信号、及びマスタクロック信号に基づいて、垂直駆動回路3、カラム信号処理回路4、及び水平駆動回路5などの動作の基準となるクロック信号と制御信号を生成する。制御回路7は、生成されたクロック信号と制御信号を、垂直駆動回路3、カラム信号処理回路4、及び水平駆動回路5などに出力する。
 図1の光検出装置1の全体は、一つの半導体基板上に形成されてもよいし、2以上の半導体基板上に形成されて、これら半導体基板が積層されてもよい。複数の半導体基板を積層する際には、Cu-Cu接合、バンプ、ビアなどで電気的な導通と基板間の接合が行われる。
 積層構造の光検出装置1の一例は、画素領域2が配置される第1半導体基板と、垂直駆動回路3、カラム信号処理回路4、水平駆動回路5、出力回路6、及び制御回路7が配置される第2半導体基板とを積層することである。なお、垂直駆動回路3、カラム信号処理回路4、水平駆動回路5、出力回路6、及び制御回路7の少なくとも一部を第1半導体基板に配置してもよい。以下、第1半導体基板を第1チップ、第2半導体基板を第2チップと呼ぶことがある。
 第1チップは、第1ウエハから切り出された1個のチップである。第1ウエハには、複数の第1チップが形成されており、ダイシングブレードで個々の第1チップに個片化される。同様に、第2チップは、第2ウエハから切り出された1個のチップである。第2ウエハには、複数の第2チップが形成されており、ダイシングブレードで個々の第2チップに個片化される。
 図2は第1ウエハ11の一部分の模式的な平面図である。第1ウエハ11には、二次元方向に複数の第1チップ12が一定間隔で配置されており、隣接する2つの第1チップ12の間には、スクライブ領域13が格子状に設けられている。スクライブ領域13とは、不図示のダイシングブレードによりウエハを切断する領域である。より具体的には、スクライブ領域13内の太線領域13aに沿って第1ウエハ11が切断される。
 スクライブ領域13には、スクライブ領域13の長手方向に沿って延びる溝部13bが格子状に配置されている。溝部13bは、切断面を示す太線領域13aよりも画素領域2側に配置されている。スクライブ領域13内の太線領域13aに沿ってダイシングブレードでウエハを切断すると、ウエハの切断面付近に亀裂(クラック)が入ったり、一部の層が剥離するおそれがある。このようなクラックや剥離が画素領域2に到達しないように、スクライブ領域13には、画素領域2と切断面の間に溝部13bが設けられている。スクライブ領域13に溝部13bを設けることで、切断面のクラックや剥離が画素領域2まで及ばなくなる。
 図2は、第1ウエハ11の平面図を示しているが、第2ウエハも同様に、隣接する2つの第2チップの間に、溝部13bを有するスクライブ領域13が格子状に配置されている。
 図3は、切断された1個の第1チップ12の模式的な平面図である。図3に示す第1チップ12は、矩形状であり、中央部に画素領域2が配置され、対向する2辺(以下、第1辺SD1及び第2辺SD2)に沿って、ワイヤボンディング用の複数のパッド14が配置されている。また、90度異なる方向の対向する2辺(以下、第3辺SD3及び第4辺SD4)には、パッド14は配置されていない。
 上述したスクライブ領域13は、第1チップ12の第1~第4辺SD1~SD4に設けられているが、スクライブ領域13と画素領域2との間隔は、第1辺SD1及び第2辺SD2側と、第3辺SD3及び第4辺SD4側とでは異なっている。より具体的には、第1辺SD1及び第2辺SD2側におけるスクライブ領域13と画素領域2との間隔は、第3辺SD3及び第4辺SD4側におけるスクライブ領域13と画素領域2との間隔よりも大きい。
 第1辺SD1及び第2辺SD2側におけるスクライブ領域13と画素領域2との間隔を大きくする理由は、ボンディングワイヤに入射されて反射された光が画素領域2に入り込まないようにするためである。
 このように、ワイヤボンディング用のパッド14が配置される第1辺SD1及び第2辺SD2側と、パッド14が配置されない第3辺SD3及び第4辺SD4側では、画素領域2とスクライブ領域13との距離が異なるため、スクライブ領域13で反射された光に起因とするフレアの発生状況が異なる。
 具体的には、画素領域2とスクライブ領域13との間隔が小さい場合には、スクライブ領域13に入射されて反射された光は、カメラモジュール内の何らかの障害物に当たって反射されて画素領域2に入射されるおそれが高くなる。一方、画素領域2とスクライブ領域13との間隔が離れている場合には、スクライブ領域13で反射された光が何らかの障害物で反射されても、画素領域2に入り込むおそれは低くなる。
 そこで、本実施形態では、スクライブ領域13を構成する複数の辺のうち、ワイヤボンディング用のパッド14が配置されていない辺SD3、SD4側についてフレア対策を施す。なお、スクライブ領域13内のワイヤボンディング用のパッド14が配置されている辺SD1、SD2側についても、パッド14が配置されていない辺と同様にフレア対策を施してもよい。
 後述するように、本実施形態が採用するフレア対策は、スクライブ領域13の少なくともパッド14が配置されていない辺SD3、SD4の上面の全域を被覆膜で覆うことである。被覆膜として、いわゆる反射防止膜を採用することにより、スクライブ領域13に入射された光の反射を抑制でき、画素領域2内に光が入り込まなくなる。
 図3では、矩形状の第1チップ12が有する4辺のうち、2辺(第1辺SD1及び第2辺SD2)にパッド14を配置しているが、パッド14が配置される辺は必ずしも対向する2辺とは限らない。場合によっては、1辺だけにパッド14が配置されたり、3辺にパッド14が配置される場合もありうる。上述したように、本実施形態では、スクライブ領域13内の少なくともパッド14が配置されていない辺の全域を被覆膜で覆う。
 第1チップ12に積層される第2チップは、光入射方向の反対側に配置され、また画素領域2を持たない。よって、第2チップのスクライブ領域13を被覆する必要はない。
 積層された第1チップ12及び第2チップは、例えばカメラモジュール20に組み込まれる。図4はカメラモジュール20の断面構造を示す図である。図4のカメラモジュール20は、積層された第1チップ12及び第2チップ15の上方に、複数の撮影レンズ21を配置した構造を備えている。複数の撮影レンズ21は、レンズホルダ22によって支持されている。図4では省略しているが、少なくとも一部の撮影レンズ21を焦点調節のために光軸方向に移動させるレンズバレルを設けてもよい。レンズホルダ22又はレンズバレルに撮影レンズ21を固定する接着部材などの障害物に光が入射されると、反射される。その際の反射方向は、光の入射方向と障害物の表面形状に依存し、場合によっては画素領域2に入り込む。障害物で反射された光の進行方向を事前に把握して反射方向を制御するのは困難であり、画素領域2への光の入射を抑制するには、スクライブ領域13での光の反射を抑制するのが効果的である。
 (第1の実施形態)
 図4において、第1チップ12の周辺領域内のスクライブ領域13に入射された光は反射されて、破線で示すように、カメラモジュール20内のレンズホルダ22等の障害物でさらに反射されて、画素領域2に入り込む可能性がありうる。画素領域2に入り込んだ光はフレアの要因になる。第1の実施形態による光検出装置1は、スクライブ領域13に光が入射されても、スクライブ領域13からの反射光を抑制するようなフレア対策を施すことを特徴とする。
 図5は、第1チップ12のパッド14が配置されていない辺のスクライブ領域13を拡大した模式的な平面図である。また、図6は図5のA-A線方向の断面図である。図6は、第1チップ12と第2チップ15を積層した積層体での断面構造を示している。
 本明細書では、図5に示すように、画素領域2の外周側を周辺領域16と呼ぶ。周辺領域16には、上述したようにスクライブ領域13が設けられている。スクライブ領域13は、図3に示すように第1チップ12の各辺に沿って環状に配置されており、一定の幅を有する。また、スクライブ領域13には、図6に示すように溝部13bと凸部13cとが設けられている。画素領域2には、第1半導体基板12aの上にカラーフィルタ層17が配置され、その上にオンチップレンズ8aが配置されている。このように、溝部13bは画素領域2を取り囲むように配置され、凸部13cは、溝部13bを取り囲むように配置されている。凸部13cの外周側に、第1チップ12のダンシングされた切断面が配置されている。
 図6に示すように、第1チップ12は、第1半導体基板12aと第1配線層12bとを積層した積層体である。また、第2チップ15は、第2半導体基板15aと第2配線層15bとを積層した積層体である。溝部13bは、例えばシリコンからなる半導体基板を部分的に削ることで形成される。図6の例では、溝部13bの底面が第1配線層12bに達しており、溝部13bでは第1半導体基板12aが全て除去されている。一変形例として、第1半導体基板12aの一部が残存するように溝部13bを形成してもよい。
 溝部13bの高さは、画素領域2の高さよりも低い。凸部13cは、第1半導体基板12aを有し、凸部13cの高さは、溝部13bの高さよりも高い。凸部13cの高さは画素領域2の高さと同一である。なお、図6に示すように、凸部13cの外周側の第1半導体基板12aは少なくとも一部が除去されており、凸部13cよりも高さが低くなっている。
 凸部13cが溝部13bに接する箇所の凸部13cの側壁面13dには、図5に示すように凹凸構造13eが設けられている。図5では、平面形状が三角形の凹凸構造13eを設ける例を示しているが、凹凸構造13eの具体的な形状及びサイズは問わない。凹凸構造13eを設けることで、側壁面13dへの入射光を散乱させることができ、側壁面13dからの反射光に基づく光が画素領域2に入りこむおそれを回避できる。
 凸部13cの側壁面13dは、必ずしも凹凸構造13eを有する必要はなく、平坦面でもよい。また、図7に示すように、凸部13cの側壁面13dに段差を設けてもよい。段差を設ける場合、段差状になった各面に凹凸構造13eを設けてもよい。凸部13cの側壁面13dに段差を設けることで、凸部13cの上面の面積を狭くすることができる。凸部13cの上面の面積が狭くなるほど、凸部13cの上面に光が入射されにくくなり、凸部13cの上面からの反射光を抑制できる。
 さらに、凸部13cの側壁面13dは、図8に示すように、光入射面の法線方向に対して斜め方向に延びるテーパ状であってもよい。側壁面13dを斜め方向に延ばすことで、凸部13cの上面の面積を狭くすることができる。なお、図8の場合も、凸部13cの上面は被覆膜23で覆われる。また、側壁面13dには、図6と同様に、凹凸構造13eを設けてもよい。
 図6~図8に示すように、凸部13cの上面は被覆膜23で覆われている。被覆膜23の反射率は、凸部13cを構成する半導体基板の反射率より低い。被覆膜23の反射率を半導体基板の反射率より低くすることで、被覆膜23に入射された光の反射を抑制でき、被覆膜23で反射された光を起因とする反射光が画素領域2に入り込まなくなり、フレアを抑制できる。
 被覆膜23は、例えば積層構造であってもよい。図6~図8の被覆膜23は、二層構造の例を示している。図6の被覆膜23は、平坦化膜23aの上に酸化膜23bを積層した積層構造である。平坦化膜23aは、例えばアクリル系の熱硬化樹脂からなる膜である。この平坦化膜23aは、画素領域2の第1半導体基板12a上のカラーフィルタ層17の上面を平坦化する平坦化膜18と同じ材料であり、カラーフィルタ層17上に平坦化膜18を配置する工程で、スクライブ領域13の上面に平坦化膜23aが配置される。
 酸化膜23bは、例えば、低温工程で形成される酸化膜であり、LTO(Low Temperature Oxide)とも呼ばれる。画素領域2の平坦化膜18の上にLTO19を形成する工程の中で、スクライブ領域13内の平坦化膜23aの上にLTOからなる酸化膜23bが形成される。
 このように、スクライブ領域13に設けられる被覆膜23は、画素領域2内の第1半導体基板12a上のカラーフィルタ層17の上に平坦化膜18とLTO19を積層する工程にて形成されるため、追加の工程が不要であり、製造コストが増加するおそれがない。
 スクライブ領域13内の凸部13cを覆う被覆膜23を構成する酸化膜23bの反射率は、シリコンからなる半導体基板の反射率の1/4~1/5程度である。例えば、シリコンからなる半導体基板の反射率が40~50%程度とすると、酸化膜23bを有する被覆膜23の反射率は0~10%程度である。
 このように、スクライブ領域13内の凸部13cの上面を反射率の低い被覆膜23で覆うため、凸部13cで反射された光を要因とするフレアの発生を抑制できる。
 図9に示すように、スクライブ領域13のパッド14が配置されていない辺には、一つ又は複数のテスト端子24が設けられている場合がある。テスト端子24は、検査工程時に不図示のプローブを接触させて、光検出装置1内の対応する信号ノードの波形を検査するために設けられている。
 テスト端子24には、プローブが繰り返し着脱されるため、テスト端子24の周囲を保護するために、被覆膜23が形成される。本実施形態では、パッド14が配置されていない辺の全域を被覆膜23で覆うため、テスト端子24の周囲も被覆膜23で覆うことになり、テスト端子24の周囲を被覆膜23で覆うための別個の工程が不要となる。
 図6~図8に示したように、スクライブ領域13の断面構造には複数の候補があり、いずれを採用してもよい。凸部13cの幅は10μm以上が望ましい。あるいは、凸部13cの幅は、第1チップの溝部13b側の端部から第1チップ12の切断面までの距離の1/2以上にするのが望ましい。また、凹凸構造13eを設ける場合、凹凸構造13e上にも被覆膜23が形成されていても良いが、設けていなくても良い。
 また、被覆膜23の膜厚が薄すぎると、光を吸収又は散乱できずに反射してしまうおそれがある。本発明者のシミュレーションによると、被覆膜23の膜厚は10nm以上が望ましい。特に、被覆膜23の膜厚が50nm以上あれば、被覆膜23を構成する材料本来の反射率が得られ、半導体基板に比べて反射率を抑制できる。
 図10は被覆膜23の膜厚と反射率の関係を示すグラフであり、被覆膜23を構成するLTO23bと平坦化膜23aの膜厚を種々に変化させた場合の被覆膜23の反射率のシミュレーション結果を示している。図10の横軸はLTO23bの膜厚、縦軸は反射率である。図10には、平坦化膜23aの基準の膜厚をk[nm]として、1.0k~3.0kまで11通りの膜厚の平坦化膜23aのそれぞれについて、LTO23bの膜厚を0~300nm[nm]まで変化させたときの被覆膜23の反射率が図示されている。反射率はLTO23bの膜厚が変化するに従って周期的に変化する傾向にあるが、LTO23bの膜厚が50~120[nm]の範囲のときに反射率が最も低くなる。この結果から、LTO23bの膜厚は50~120[nm]が望ましいことがわかる。
 このように、第1の実施形態では、スクライブ領域13内の溝部13bよりも外周側の凸部13cの上面を被覆膜23で覆い、被覆膜23の反射率を半導体基板の反射率の1/4~1/5程度にするため、凸部13cに入射された光がほとんど反射しなくなり、凸部13cに入射された光が障害物で反射されて画素領域2に入射されるおそれを防止でき、フレアの発生を抑制できる。
 (第2の実施形態)
 図7に示すように、凸部13cの側壁面13dに段差が設けられる場合には、段差に入射された光が反射されて、フレアとして画素領域2に入り込むおそれがある。
 また、第1の実施形態では、パッド14が配置されていない辺に沿って設けられる凸部13cの構造を主に説明したが、パッド14が配置されている辺に沿って設けられる凸部についてもフレアに対する対策が必要である。
 図11Aはフレアを生じさせる一比較例に係る光検出装置100の断面構造の一例を示す図、図11Bは図11Aの光検出装置100の平面図である。
 図11Bに示すように、画素領域2が有する複数の辺のうち、少なくとも二つの辺に沿って、ワイヤボンディング用のパッド14が配置される。本明細書では、画素領域2とパッド14を含む範囲をチップ領域25と呼び、チップ領域25の外側をスクライブ領域13と呼ぶ。スクライブ領域13は、チップ領域25を取り囲むように配置される。
 一比較例におけるスクライブ領域13は、それぞれ環状に配置される第1凸部13f、溝部13b、及び第2凸部13gを有する。第1凸部13fは、チップ領域25、第2凸部13g、及び溝部13bを取り囲むように配置される。溝部13bは、チップ領域25及び第2凸部13gを取り囲むように配置される。第2凸部13gは、チップ領域25を取り囲むように配置される.
 溝部13bと接する側の第1凸部13fの側壁13dは、図11Bに示すように、凹凸構造13eを有する。凹凸構造13eに入射された光は分散されて反射されることから、フレアが画素領域2に入射されなくなる。
 一比較例に係る光検出装置100における第1凸部13fと第2凸部13gはそれぞれ、第1半導体基板12aの上に被覆膜23を配置した積層構造である。第1半導体基板12aは例えばシリコン基板であり、被覆膜23は例えば有機膜である。被覆膜23は、第1凸部13fと第2凸部13gの上面の一部に配置されており、被覆膜23の配置場所と第1半導体基板12aが露出された箇所に段差が設けられている。この段差箇所に入射された光がフレアとなって画素領域2に入射されるおそれがある。
 図12はフレアの発生要因を説明する図である。図12は、一比較例に係る光検出装置100を備えるカメラモジュール200の主要部の断面構造を示す。光検出装置100の支持基板31にフレーム32が取り付けられている。光検出装置100の画素領域2に対向するようにIRカットフィルタ33が配置されている。IRカットフィルタ33は、接着剤34にてフレーム32に接合されている。
 第1凸部13fの段差箇所に入射された光のうち少なくとも一部は、光線y1に示すように、段差箇所で反射された後、IRカットフィルタ33でさらに反射されて、画素領域2に入射される。
 また、第1凸部13fの上面の外周側にも段差がある場合、光線y2に示すように、段差箇所で反射されて、フレーム32で反射された後にIRカットフィルタ33でさらに反射されて、画素領域2に入射される。
 このように、第1凸部13fの上面付近に段差があると、画素領域2にフレアが入射されやすくなる。第2の実施形態に係る光検出装置1aは、第1凸部13fの上面付近に段差を設けないことを特徴とする。
 図13Aは第2の実施形態に係る光検出装置1aの断面図、図13Bは図13Aの光検出装置1aの平面図である。第2の実施形態に係る光検出装置1aは、スクライブ領域13の構成が一比較例に係る光検出装置100と異なる。
 第2の実施形態に係るスクライブ領域13は、チップ領域25を取り囲むように配置される第2凸部13gと、第2凸部13gを取り囲むように配置される溝部13bと、溝部13bを取り囲むように配置される第1凸部13fとを有する。
 第1凸部13f及び第2凸部13gは、溝部13bよりも高い高さを有する。図13Bでは、第1凸部13fと第2凸部13gが環状に配置される例を示したが、必ずしも環状でなくてもよく、複数の辺に沿って延びていればよい。
 溝部13bと接する側の第1凸部13fの側壁13dは、図13Bに示すように凹凸構造13eを有する。第1凸部13fの上面は、平坦である。第1凸部13fの上面を平坦にすることで、上面に入射されて反射された光が画素領域2に入り込むおそれを抑制できる。
 必ずしも第1凸部13fの上面の全域が平坦である必要はない。例えば、溝部13bと接する側の第1凸部13fの側壁13dに連なる上面の端辺から所定の領域を平坦にするのが望ましい。第1凸部13fの外側の側壁面は、ダイシング面13hである。所定の領域とは、例えば、第1凸部13fの上面のうち、ダイシング面13hから内側に向かって5μm以上離れた領域である。第1凸部13fの上面のうち、ダイシング面13hから5μm以内の領域は、ダイシングの際に表面が荒れる可能性があることから、この領域を除いた上面が、上述した所定の領域である。
 溝部13bと接する側の第1凸部13fの側壁13dは、第1凸部13fの上面の法線方向に対して所定の角度以上に傾斜させてもよい。所定の角度とは、第1凸部13fの側壁13dに入射された光が側壁13dで反射されて、最終的に画素領域2に入射されないような角度である。側壁13dで反射された光が直接画素領域2に入射される場合と、IRカットフィルタ33等で再反射された後に画素領域2に入射される場合があり、所定の角度はカメラモジュール20の各部材の配置場所によって変わり得る。一般には、法線方向に対する所定の角度が大きいほど、側壁13dに入射された光は画素領域2に入射されにくくなる。
 図13Aにおける第1凸部13fは単層構造であり、例えばシリコンで形成される。第1凸部13fの上面は平坦であり、段差を持たないため、図12の矢印線y1、y2の経路で伝搬する光が生じなくなり、フレアを抑制できる。
 図14は、第2の実施形態に係る光検出装置1aの製造工程を示す平面図である。まず、図14Aに示すように、画素領域2の周囲を有機膜26で覆う。有機膜26は、例えばポリメチルメタクリレートを含むアクリル樹脂である。図14Aの工程により、チップ領域25内の画素領域2以外の領域と、スクライブ領域13の全域が有機膜26で覆われる。なお、有機膜26は、第1の実施形態で説明したように、平坦化膜18とLTO19の二層構造でもよい。
 次に、図14Bに示すように、チップ領域25内のパッド14の領域の有機膜26を除去するとともに、スクライブ領域13の有機膜26を除去する。有機膜26の除去は、例えばエッチング処理にて行われる。
 次に、図14Cに示すように、スクライブ領域13における第1半導体基板12aを部分的に削ることで、スクライブ領域13に溝部13bを形成する。溝部13bの形成により、溝部13bよりも内側には、環状の第2凸部13gが形成され、溝部13bよりも外側には、環状の第1凸部13fが形成される。また、溝部13bの第1凸部13fに接する側壁13dには、凹凸構造13eが形成される。凹凸構造13eは、より具体的には、第1凸部13fの側壁面13dに沿って配置される複数の錘体である。錘体は、三角錐又は四角錘などの多角錐である。
 凹凸構造13eは、例えば、DSA(Direct Self-Assembly)技術を用いて形成できる。具体的には、溝部13bに接する第1凸部13fの側壁面13dにジブロックコポリマーを塗布する。ジブロックコポリマーとして、例えばポリスチレン-ポリメチルメタクリレート(PS-PMMA:Polystyrene-Polymethylmethacry-late)を採用できる。また、溝部13b以外のスクライブ領域13とチップ領域25をレジストで覆う。
 次に、塗布したジブロックコポリマーに紫外線を照射する。これにより、ポリスチレンとポリメチルメタクリレートとの反発により、数nmから数十nmの相分離構造が形成される。これにより、例えば、ポリメチルメタクリレートがスフィアを形成し、ポリスチレンが架橋してエッチングプレートを形成する。
 相分離構造の形状とピッチは、ポリスチレンとポリメチルメタクリレートとの体積比によって調整される。次に、ポリメチルメタクリレートのスフィアを除去し、ポリスチレンのエッチングプレートを用いて等方性ドライエッチングを行うことで、第1凸部13fの側壁面13dに複数の錘体が形成される。
 第1凸部13fの側壁面13dに複数の錘体を形成する代わりに、側壁面に微細な錐体を数多く配置したモスアイ構造を形成してもよい。
 次に、図14Dに示すように、チップ領域25内にパッド14用の開口部を形成する。その後、第1凸部13fの端面であるダイシング面13hでダイシングされて、個片化される。光検出装置1aのワイヤボンディング用のパッド14よりも外側には、テスト用のパッド(不図示)が配置されることがある。パッド14は、アルミニウムなどの金属材料で形成されるため、テスト用のパッドに重なる位置でダイシングを行うと、パッド14の一部がめくれ上がったまま残存することになる。めくれ上がったパッド14は、光を反射させるため、めくれ上がったパッド14に入射されて反射された光がフレアとして画素領域2に入射されるおそれがある。このため、テスト用のパッドは、ダイシング位置よりも外側に配置するのが望ましい。
 (第2の実施形態の一変形例)
 第1凸部13fと第2凸部13gをそれぞれ積層構造にして、第1凸部13fと第2凸部13gの上面に接するように被覆膜23を配置し、被覆膜23の上面を平坦にしてもよい。
 図15Aは第2の実施形態の一変形例に係る光検出装置1bの断面図、図15Bは図15Aの光検出装置1bの平面図である。図15A及び図15Bの光検出装置1bは、第1凸部13fと第2凸部13gが積層構造である点で、図13A及び図13Bの光検出装置1とは異なる。
 第1凸部13fと第2凸部13gは、第1半導体基板12aの上に被覆膜23を積層させた積層構造である。被覆膜23の反射率は、第1半導体基板12aの反射率よりも低くしている。被覆膜23は、例えば有機膜26と同じ材料である。
 図15A及び図15Bの第1凸部13fは、上面付近に段差を持たないため、最終的に画素領域2に入射される光の反射が起きにくい。これに加えて、第1凸部13fの上面が被覆膜23で覆われているため、光の反射自体が起きにくくなる。
 図16は、第2の実施形態の一変形例に係る光検出装置1bの製造工程を示す平面図である。まず、図16Aに示すように、画素領域2の周囲を有機膜26で覆う。
 次に、図16Bに示すように、チップ領域25内のパッド14の領域の有機膜26を除去する。図14Bでは、スクライブ領域13の有機膜26を除去したが、図16Bでは、スクライブ領域13の有機膜26をそのまま残す。スクライブ領域13の有機膜26は、被覆膜23として機能する。
 次に、図16Cに示すように、スクライブ領域13に溝部13bを形成する。溝部13bに接する第1凸部13fの側壁面13dには、図14Cと同様の工程にて、凹凸構造13eを形成する。
 次に、図16Dに示すように、チップ領域25内にパッド14用の開口部を形成する。
 このように、第2の実施形態では、スクライブ領域13に形成される溝部13bに接する第1凸部13fの上面を平坦にするため、第1凸部13fの上面に入射された光が反射されても、最終的に画素領域2に入射されなくなる。これにより、フレアを抑制できる。
 (応用例)
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図17は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図17に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図17では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図18は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図18には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図17に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図17に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、本技術は以下のような構成を取ることができる。
 (1)光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備え、
 前記半導体基板は、
 前記画素領域よりも外周側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、
 前記溝部よりも外周側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる凸部と、
 前記複数の辺のうち、少なくとも一つの辺における前記凸部の光入射面側の表面の全域を覆う被覆膜と、を有する、光検出装置。
 (2)前記被覆膜の反射率は、前記半導体基板の反射率より低い、(1)に記載の光検出装置。
 (3)前記溝部は、前記画素領域を取り囲むように配置され、
 前記凸部は、前記溝部を取り囲むように配置される、(1)又は(2)に記載の光検出装置。
 (4)前記凸部の外周側には、前記半導体基板のダイシングされた切断面が配置される、(1)乃至(3)のいずれか一項に記載の光検出装置。
 (5)前記半導体基板が有する複数の辺のうち、前記被覆膜で覆われる辺は、ワイヤボンディング用のパッドが配置されない辺である、(1)乃至(4)のいずれか一項に記載の光検出装置。
 (6)前記画素領域と前記溝部との間隔は、前記半導体基板における複数の辺のうち、少なくとも二つの辺で異なる、(1)乃至(5)のいずれか一項に記載の光検出装置。
 (7)ワイヤボンディング用のパッドが配置される辺における前記間隔は、ワイヤボンディング用のパッドが配置されない辺における前記間隔よりも大きく、
 前記被覆膜で覆われる辺は、ワイヤボンディング用のパッドが配置されない辺を含む、(6)に記載の光検出装置。
 (8)前記凸部の高さは、前記画素領域の高さと同一である、(1)乃至(7)のいずれか一項に記載の光検出装置。
 (9)前記被覆膜で覆われる辺の一部に配置されるテスト端子を備え、
 前記被覆膜は、前記テスト端子が配置された辺の表面を覆う、(1)乃至(8)のいずれか一項に記載の光検出装置。
 (10)前記溝部と接する箇所の前記凸部の側壁は、前記溝部の底面から前記凸部の上面まで延びる面であり、この面は凹凸構造を有する、(1)乃至(9)のいずれか一項に記載の光検出装置。
 (11)前記溝部と接する箇所の前記凸部の側壁は、前記溝部の底面から前記凸部の上面まで延びる平坦面である、(1)乃至(9)のいずれか一項に記載の光検出装置。
 (12)前記溝部と接する箇所の前記凸部の側壁は、段差を有する、(1)乃至(9)のいずれか一項に記載の光検出装置。
 (13)前記被覆膜は、前記半導体基板の反射率よりも低い反射率の酸化膜を有する、(1)乃至(12)のいずれか一項に記載の光検出装置。
 (14)前記被覆膜は、
 樹脂を含む平坦化膜と前記酸化膜とを積層させた積層体である、(13)に記載の光検出装置。
 (15)前記平坦化膜は、前記画素領域の上に配置されるカラーフィルタ層の上面を平坦化する膜と同じ材料である、(14)に記載の光検出装置。
 (16)前記被覆膜の膜厚は、50nm以上で120nm以下である、(1)乃至(15)のいずれか一項に記載の光検出装置。
 (17)光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備え、
 前記半導体基板は、
 前記画素領域よりも外側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、
 前記溝部よりも外側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる第1凸部と、を備え、
 前記溝部と接する側の前記第1凸部の側壁は、凹凸構造を有し、
 前記第1凸部の上面は、平坦である、
 光検出装置。
 (18)前記溝部と接する側の前記第1凸部の側壁に連なる上面の端辺から所定の領域は平坦である、
 (17)に記載の光検出装置。
 (19)前記第1凸部の外側の側壁は、ダイシング面であり、
 前記第1凸部の上面のうち、前記ダイシング面から内側に向かって5μm以上離れた前記所定の領域は、平坦である、
 (18)に記載の光検出装置。
 (20)前記溝部と接する側の前記第1凸部の側壁は、前記第1凸部の上面の法線方向に対して所定の角度以上に傾斜している、
 (17)乃至(19)のいずれか一項に記載の光検出装置。
 (21)前記第1凸部は、シリコンを材料とする単層構造である、
 (17)乃至(20)のいずれか一項に記載の光検出装置。
 (22)前記第1凸部は、積層構造であり、
 前記第1凸部は、上面に接するように配置される被覆膜と、前記被覆膜に積層されるシリコン層と、を有し、
 前記被覆膜の反射率は、前記シリコン層の反射率よりも低い、
 (17)乃至(20)のいずれか一項に記載の光検出装置。
 (23)前記画素領域を取り囲むように配置されるスクライブ領域を備え、
 前記スクライブ領域は、
 前記溝部よりも内側に配置され、前記溝部よりも高い高さを有するともに前記画素領域を取り囲むように配置される第2凸部と、
 前記第2凸部を取り囲むように配置される前記溝部と、
 前記溝部を取り囲むように配置される前記第1凸部と、を有する、
 (17)乃至(22)のいずれか一項に記載の光検出装置。
 (24)前記画素領域が有する複数の辺のうち、少なくとも二つの辺に沿って配置されるワイヤボンディング用のパッドを備え、
 前記スクライブ領域は、前記パッドよりも外側に配置される、
 (23)に記載の光検出装置。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 1 光検出装置、2 画素領域、3 垂直駆動回路、4 カラム信号処理回路、5 水平駆動回路、6 出力回路、7 制御回路、8 画素、8a オンチップレンズ、11 第1ウエハ、12 第1チップ、12a 第1半導体基板、12b 第1配線層、13 スクライブ領域、13a 太線領域、13b 溝部、13c 凸部、13d 側壁面、13e 凹凸構造、14 パッド、15 第2チップ、15a 第2半導体基板、15b 第2配線層、16 周辺領域、17 カラーフィルタ層、18 平坦化膜、19 LTO、20 カメラモジュール、21 撮影レンズ、22 レンズホルダ、23 被覆膜、23a 平坦化膜、23b 酸化膜、24 テスト端子

Claims (24)

  1.  光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備え、
     前記半導体基板は、
     前記画素領域よりも外周側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、
     前記溝部よりも外周側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる凸部と、
     前記複数の辺のうち、少なくとも一つの辺における前記凸部の光入射面側の表面の全域を覆う被覆膜と、を有する、光検出装置。
  2.  前記被覆膜の反射率は、前記半導体基板の反射率より低い、請求項1に記載の光検出装置。
  3.  前記溝部は、前記画素領域を取り囲むように配置され、
     前記凸部は、前記溝部を取り囲むように配置される、請求項1に記載の光検出装置。
  4.  前記凸部の外周側には、前記半導体基板のダイシングされた切断面が配置される、請求項1に記載の光検出装置。
  5.  前記半導体基板が有する複数の辺のうち、前記被覆膜で覆われる辺は、ワイヤボンディング用のパッドが配置されない辺である、請求項1に記載の光検出装置。
  6.  前記画素領域と前記溝部との間隔は、前記半導体基板における複数の辺のうち、少なくとも二つの辺で異なる、請求項1に記載の光検出装置。
  7.  ワイヤボンディング用のパッドが配置される辺における前記間隔は、ワイヤボンディング用のパッドが配置されない辺における前記間隔よりも大きく、
     前記被覆膜で覆われる辺は、ワイヤボンディング用のパッドが配置されない辺を含む、請求項6に記載の光検出装置。
  8.  前記凸部の高さは、前記画素領域の高さと同一である、請求項1に記載の光検出装置。
  9.  前記被覆膜で覆われる辺の一部に配置されるテスト端子を備え、
     前記被覆膜は、前記テスト端子が配置された辺の表面を覆う、請求項1に記載の光検出装置。
  10.  前記溝部と接する箇所の前記凸部の側壁は、前記溝部の底面から前記凸部の上面まで延びる面であり、この面は凹凸構造を有する、請求項1に記載の光検出装置。
  11.  前記溝部と接する箇所の前記凸部の側壁は、前記溝部の底面から前記凸部の上面まで延びる平坦面である、請求項1に記載の光検出装置。
  12.  前記溝部と接する箇所の前記凸部の側壁は、段差を有する、請求項1に記載の光検出装置。
  13.  前記被覆膜は、前記半導体基板の反射率よりも低い反射率の酸化膜を有する、請求項1に記載の光検出装置。
  14.  前記被覆膜は、
     樹脂を含む平坦化膜と前記酸化膜とを積層させた積層体である、請求項13に記載の光検出装置。
  15.  前記平坦化膜は、前記画素領域の上に配置されるカラーフィルタ層の上面を平坦化する膜と同じ材料である、請求項14に記載の光検出装置。
  16.  前記被覆膜の膜厚は、50nm以上で120nm以下である、請求項1に記載の光検出装置。
  17.  光電変換を行う複数の画素が配置された画素領域を有する半導体基板を備え、
     前記半導体基板は、
     前記画素領域よりも外側に配置され、前記画素領域よりも低い高さを有するとともに複数の辺に沿って延びる溝部と、
     前記溝部よりも外側に配置され、前記溝部よりも高い高さを有するとともに前記複数の辺に沿って延びる第1凸部と、を備え、
     前記溝部と接する側の前記第1凸部の側壁は、凹凸構造を有し、
     前記第1凸部の上面は、平坦である、
     光検出装置。
  18.  前記溝部と接する側の前記第1凸部の側壁に連なる上面の端辺から所定の領域は平坦である、
     請求項17に記載の光検出装置。
  19.  前記第1凸部の外側の側壁は、ダイシング面であり、
     前記第1凸部の上面のうち、前記ダイシング面から内側に向かって5μm以上離れた前記所定の領域は、平坦である、
     請求項18に記載の光検出装置。
  20.  前記溝部と接する側の前記第1凸部の側壁は、前記第1凸部の上面の法線方向に対して所定の角度以上に傾斜している、
     請求項17に記載の光検出装置。
  21.  前記第1凸部は、シリコンを材料とする単層構造である、
     請求項17に記載の光検出装置。
  22.  前記第1凸部は、積層構造であり、
     前記第1凸部は、上面に接するように配置される被覆膜と、前記被覆膜に積層されるシリコン層と、を有し、
     前記被覆膜の反射率は、前記シリコン層の反射率よりも低い、
     請求項17に記載の光検出装置。
  23.  前記画素領域を取り囲むように配置されるスクライブ領域を備え、
     前記スクライブ領域は、
     前記溝部よりも内側に配置され、前記溝部よりも高い高さを有するともに前記画素領域を取り囲むように配置される第2凸部と、
     前記第2凸部を取り囲むように配置される前記溝部と、
     前記溝部を取り囲むように配置される前記第1凸部と、を有する、
     請求項17に記載の光検出装置。
  24.  前記画素領域が有する複数の辺のうち、少なくとも二つの辺に沿って配置されるワイヤボンディング用のパッドを備え、
     前記スクライブ領域は、前記パッドよりも外側に配置される、
     請求項23に記載の光検出装置。
PCT/JP2023/019558 2022-05-27 2023-05-25 光検出装置 WO2023229018A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-086817 2022-05-27
JP2022086817A JP2023174137A (ja) 2022-05-27 2022-05-27 光検出装置

Publications (1)

Publication Number Publication Date
WO2023229018A1 true WO2023229018A1 (ja) 2023-11-30

Family

ID=88919394

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/019558 WO2023229018A1 (ja) 2022-05-27 2023-05-25 光検出装置

Country Status (2)

Country Link
JP (1) JP2023174137A (ja)
WO (1) WO2023229018A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178496A (ja) * 2011-02-28 2012-09-13 Sony Corp 固体撮像装置、電子機器、半導体装置、固体撮像装置の製造方法
JP2014041867A (ja) * 2012-08-21 2014-03-06 Toshiba Corp 固体撮像装置および固体撮像装置の製造方法
WO2016143553A1 (ja) * 2015-03-11 2016-09-15 ソニー株式会社 固体撮像装置および製造方法、半導体ウェハ、並びに電子機器
WO2020054272A1 (ja) * 2018-09-11 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012178496A (ja) * 2011-02-28 2012-09-13 Sony Corp 固体撮像装置、電子機器、半導体装置、固体撮像装置の製造方法
JP2014041867A (ja) * 2012-08-21 2014-03-06 Toshiba Corp 固体撮像装置および固体撮像装置の製造方法
WO2016143553A1 (ja) * 2015-03-11 2016-09-15 ソニー株式会社 固体撮像装置および製造方法、半導体ウェハ、並びに電子機器
WO2020054272A1 (ja) * 2018-09-11 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器

Also Published As

Publication number Publication date
JP2023174137A (ja) 2023-12-07

Similar Documents

Publication Publication Date Title
US11743604B2 (en) Imaging device and image processing system
WO2020170841A1 (ja) アバランシェフォトダイオードセンサ及び測距装置
JP7420750B2 (ja) 受光素子、固体撮像装置及び測距装置
US10847561B2 (en) Solid-state imaging element and method for manufacturing the same, and electronic device
JP7379425B2 (ja) 固体撮像装置、および電子装置
US20230275058A1 (en) Electronic substrate and electronic apparatus
WO2023229018A1 (ja) 光検出装置
US11101309B2 (en) Imaging element, method for manufacturing imaging element, and electronic device
WO2024048292A1 (ja) 光検出素子、撮像装置、及び車両制御システム
WO2022270110A1 (ja) 撮像装置および電子機器
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2023248346A1 (ja) 撮像装置
WO2024024450A1 (ja) 半導体装置及びその製造方法
WO2023195395A1 (en) Light detection device and electronic apparatus
WO2023203811A1 (ja) 光検出装置
WO2023162651A1 (ja) 受光素子、および電子機器
JP2023152552A (ja) 光検出装置
WO2023067755A1 (ja) 光検出装置、撮像装置および測距装置
JP7426347B2 (ja) 受光素子、固体撮像装置及び測距装置
WO2022249734A1 (ja) 撮像装置および電子機器
WO2024038828A1 (ja) 光検出装置
WO2024111107A1 (ja) 受光素子、撮像素子及び撮像装置
JP2024073899A (ja) 撮像素子
JP2023182874A (ja) 固体撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811890

Country of ref document: EP

Kind code of ref document: A1