WO2022254773A1 - 光検出装置及び電子機器 - Google Patents

光検出装置及び電子機器 Download PDF

Info

Publication number
WO2022254773A1
WO2022254773A1 PCT/JP2022/001573 JP2022001573W WO2022254773A1 WO 2022254773 A1 WO2022254773 A1 WO 2022254773A1 JP 2022001573 W JP2022001573 W JP 2022001573W WO 2022254773 A1 WO2022254773 A1 WO 2022254773A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor layer
region
photoelectric conversion
photodetector
view
Prior art date
Application number
PCT/JP2022/001573
Other languages
English (en)
French (fr)
Inventor
尚史 寺田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2022254773A1 publication Critical patent/WO2022254773A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • the present technology (technology according to the present disclosure) relates to a photodetector and an electronic device, and is particularly effective when applied to a photodetector having a photoelectric conversion region partitioned by a separation region in a semiconductor layer and an electronic device including the same. technology.
  • Photodetection devices such as solid-state imaging devices and ranging sensors divide the photoelectric conversion region of the semiconductor layer into separate regions.
  • an isolation region having a trench structure (trench type isolation region) capable of electrically and optically isolating photoelectric conversion regions adjacent to each other on a two-dimensional plane is employed.
  • the trench isolation region includes a trench provided in the semiconductor layer and an embedded film such as an insulating film or a conductive film embedded in the trench. This trench isolation region usually has a lattice plane pattern.
  • the grid plane pattern includes intersections where trench isolation regions extending in different directions (for example, mutually orthogonal X and Y directions) intersect in a two-dimensional plane.
  • the plane size of the intersections tends to expand more than the area other than the intersections due to the microloading effect when the grooves are formed in the semiconductor layer.
  • the expansion of the intersection reduces the planar size of the photoelectric conversion region surrounded by the trench isolation region, and affects the saturation signal amount Qs. Also, the widening of the intersections becomes more pronounced with the depth of the trench isolation regions.
  • the semiconductor layer between the X-direction trench isolation region and the Y-direction trench isolation region is miniaturized, and the X-direction trench isolation region and the Y-direction trench isolation region are separated. It is necessary to reduce the separation distance.
  • the mechanical strength of the semiconductor layer between the X-direction trench-type isolation region and the Y-direction trench-type isolation region decreases with miniaturization. That is, there is a trade-off relationship between the miniaturization of the semiconductor layer and the mechanical strength between the X-direction trench-type isolation region and the Y-direction trench-type isolation region, and there is room for improvement from the viewpoint of reliability.
  • the purpose of this technology is to improve reliability.
  • a photodetector includes a semiconductor layer having a photoelectric conversion region partitioned by an isolation region including a groove.
  • the isolation region includes a first portion and a second portion adjacent to each other with the semiconductor layer interposed therebetween in plan view, and the semiconductor layer between the first portion and the second portion is the first portion.
  • Including a first side portion on the side of the portion and a second side portion on the side of the second portion, the first side portion and the second side portion have different shapes in a cross-sectional view.
  • a photodetector includes a semiconductor layer having a photoelectric conversion region partitioned by an isolation region including a groove, and two transfer transistors provided in the photoelectric conversion region.
  • the isolation region includes a first portion and a second portion adjacent to each other with the semiconductor layer interposed therebetween in plan view, and the semiconductor layer between the first portion and the second portion is the first portion.
  • Including a first side portion on the side of the portion and a second side portion on the side of the second portion, the first side portion and the second side portion have different shapes in a cross-sectional view.
  • An electronic device includes the photodetector.
  • FIG. 1 is a chip layout diagram showing a configuration example of a solid-state imaging device according to a first embodiment of the present technology
  • FIG. 1 is a block diagram showing a configuration example of a solid-state imaging device according to a first embodiment of the present technology
  • FIG. 3 is a schematic cross-sectional view showing a cross-sectional structure of a pixel array section
  • FIG. 4 is a schematic plan view showing a plane pattern of separation regions in a pixel array section
  • 5 is a schematic plan view showing a first plane pattern included in the plane pattern of FIG. 4
  • FIG. FIG. 6 is a schematic cross-sectional view showing a cross-sectional structure taken along line II-II of FIG.
  • FIG. 5; 5 is a schematic plan view showing a second plane pattern included in the plane pattern of FIG. 4;
  • FIG. FIG. 8 is a schematic cross-sectional view showing a cross-sectional structure taken along line III-III of FIG. 7; It is a principal part typical sectional view which shows the modification of 1st Embodiment. It is a principal part schematic plan view which shows the modification of 1st Embodiment. It is a block diagram showing a configuration example of a ranging sensor according to a second embodiment of the present technology.
  • FIG. 7 is a schematic cross-sectional view of a main part showing a configuration example of a pixel mounted on a distance measuring sensor according to a second embodiment of the present technology; It is a figure showing an equivalent circuit of a pixel carried in a ranging sensor concerning a 2nd embodiment of this art. It is a principal part typical sectional view which shows the modification of 2nd Embodiment.
  • FIG. 11 is a schematic plan view of a main part showing a configuration example of pixels mounted in a solid-state imaging device according to a third embodiment of the present technology; It is a figure showing an example of 1 composition of electronic equipment concerning a 4th embodiment of this art. It is a figure showing an example of 1 composition of electronic equipment concerning a 5th embodiment of this art.
  • the first direction and the second direction which are orthogonal to each other in the same plane, are the X direction and the Y direction, respectively.
  • a third direction orthogonal to each of the second directions is the Z direction.
  • the thickness direction (depth direction) of the semiconductor layer 20 to be described later will be described as the Z direction.
  • CMOS complementary metal oxide semiconductor
  • a solid-state imaging device 1A mainly includes a semiconductor chip 2 having a rectangular two-dimensional planar shape when viewed from above. That is, the solid-state imaging device 1A is mounted on the semiconductor chip 2.
  • FIG. 16 this solid-state imaging device 1A (201) takes in image light (incident light 206) from a subject through an optical lens 202, and measures the light amount of the incident light 206 imaged on the imaging surface. Each pixel is converted into an electric signal and output as a pixel signal.
  • a semiconductor chip 2 on which a solid-state imaging device 1A is mounted has a square-shaped pixel array section 2A provided in the center in a two-dimensional plane including X and Y directions orthogonal to each other, A peripheral portion 2B is provided outside the pixel array portion 2A so as to surround the pixel array portion 2A.
  • the pixel array section 2A is a light receiving surface that receives light condensed by an optical lens (optical system) 202 shown in FIG. 16, for example.
  • a plurality of pixels 3 are arranged in a matrix on a two-dimensional plane including the X direction and the Y direction.
  • the pixels 3 are repeatedly arranged in the X direction and the Y direction that are orthogonal to each other within the two-dimensional plane.
  • a plurality of bonding pads 14 are arranged in the peripheral portion 2B.
  • Each of the plurality of bonding pads 14 is arranged, for example, along each of four sides in the two-dimensional plane of the semiconductor chip 2 .
  • Each of the plurality of bonding pads 14 is an input/output terminal used when electrically connecting the semiconductor chip 2 to an external device.
  • the semiconductor chip 2 has a logic circuit 13 shown in FIG.
  • the logic circuit 13 includes a vertical drive circuit 4, a column signal processing circuit 5, a horizontal drive circuit 6, an output circuit 7, a control circuit 8, and the like, as shown in FIG.
  • the logic circuit 13 is composed of a CMOS (Complementary MOS) circuit having, for example, an n-channel conductivity type MOSFET (Metal Oxide Semiconductor Field Effect Transistor) and a p-channel conductivity type MOSFET as field effect transistors.
  • CMOS Complementary MOS
  • the vertical driving circuit 4 is composed of, for example, a shift register.
  • the vertical drive circuit 4 sequentially selects desired pixel drive lines 10, supplies pulses for driving the pixels 3 to the selected pixel drive lines 10, and drives the pixels 3 in row units. That is, the vertical driving circuit 4 sequentially selectively scans the pixels 3 of the pixel array section 2A in the vertical direction row by row, and outputs signals from the pixels 3 based on the signal charges generated by the photoelectric conversion elements of the pixels 3 according to the amount of received light. is supplied to the column signal processing circuit 5 through the vertical signal line 11 .
  • the column signal processing circuit 5 is arranged, for example, for each column of the pixels 3, and performs signal processing such as noise removal on the signals output from the pixels 3 of one row for each pixel column.
  • the column signal processing circuit 5 performs signal processing such as CDS (Correlated Double Sampling) and AD (Analog Digital) conversion for removing pixel-specific fixed pattern noise.
  • the horizontal driving circuit 6 is composed of, for example, a shift register.
  • the horizontal driving circuit 6 sequentially outputs a horizontal scanning pulse to the column signal processing circuit 5 to select each of the column signal processing circuits 5 in order, and the pixels subjected to the signal processing from each of the column signal processing circuits 5 are selected.
  • a signal is output to the horizontal signal line 12 .
  • the output circuit 7 performs signal processing on pixel signals sequentially supplied from each of the column signal processing circuits 5 through the horizontal signal line 12 and outputs the processed signal.
  • signal processing for example, buffering, black level adjustment, column variation correction, and various digital signal processing can be used.
  • the control circuit 8 generates a clock signal and a control signal that serve as references for the operation of the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, etc. based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock signal. Generate. The control circuit 8 then outputs the generated clock signal and control signal to the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, and the like.
  • Each pixel 3 of the plurality of pixels 3 includes the photoelectric conversion region 27 shown in FIG. 3 and a plurality of pixel transistors (not shown).
  • a plurality of pixel transistors for example, four transistors, a transfer transistor, a reset transistor, a selection transistor, and an amplification transistor, can be employed.
  • the plurality of pixel transistors for example, three transistors excluding the selection transistor may be employed.
  • the semiconductor chip 2 includes a semiconductor layer 20 provided with a plurality of photoelectric conversion regions 27 and first surfaces located on opposite sides of the semiconductor layer 20 in the thickness direction (Z direction). S1 and a color filter layer 40 arranged on the light incident surface side which is the second surface S2 side of the second surface S2.
  • the semiconductor chip 2 further includes a plurality of microlenses 45 (on-chip lenses, wafer lenses) arranged on the light incident surface side of the color filter layer 40 (the side opposite to the semiconductor layer 20 side).
  • the semiconductor chip 2 includes a multilayer wiring layer 30 arranged on the first surface S1 side of the semiconductor layer 20, and a support substrate 34 arranged on the opposite side of the multilayer wiring layer 30 from the semiconductor layer 20 side. more ready.
  • the semiconductor layer 20 is composed of a p-type semiconductor substrate made of single crystal silicon, for example.
  • Each photoelectric conversion region 27 of the plurality of photoelectric conversion regions 27 is arranged in a matrix corresponding to each pixel 3 of the plurality of pixels 3 in the pixel array section 2A.
  • Each photoelectric conversion region 27 is partitioned by an isolation region 24 provided in the semiconductor layer 20 .
  • the separation region 24 extends from the second surface S2 side of the semiconductor layer 20 toward the first surface S1 side, and electrically and optically separates the photoelectric conversion regions 27 adjacent to each other in plan view.
  • the isolation region 24 includes a groove portion 22 extending from the second surface S2 side of the semiconductor layer 20 toward the first surface S1 side, and an insulating film 23 embedded in the groove portion 22 .
  • the isolation region 24 of the first embodiment extends over the second surface S2 and the first surface S1 of the semiconductor layer 20, although not limited thereto.
  • the first surface S1 of the semiconductor layer 20 is sometimes called an element forming surface or main surface, and the second surface S2 side is sometimes called a light incident surface or a rear surface.
  • the solid-state imaging device 1A of the first embodiment photoelectrically converts light incident from the second surface (light incident surface, back surface) S2 of the semiconductor layer 20 in the photoelectric conversion region 27 provided in the semiconductor layer 20.
  • a plan view refers to a case of viewing from a direction along the thickness direction (Z direction) of the semiconductor layer 20 .
  • a cross-sectional view refers to a case where a cross section along the thickness direction (Z direction) of the semiconductor layer 20 is viewed from a direction (X direction or Y direction) orthogonal to the thickness direction (Z direction) of the semiconductor layer 20. .
  • the isolation region 24 a sandwich structure in which both sides of a metal film are sandwiched between insulating films in the trench 22 can also be adopted.
  • each photoelectric conversion region 27 of the plurality of photoelectric conversion regions 27 a p-type well region 21 made of, for example, a p-type semiconductor region and an n-type semiconductor region 21a are configured.
  • a photodiode (PD) element is configured as a photoelectric conversion element, and a transfer transistor is further configured.
  • a plurality of pixels 3 including photoelectric conversion elements and transfer transistors embedded in the semiconductor layer 20 are arranged in a matrix (two-dimensional matrix).
  • the photoelectric conversion region 27 signal charges are generated according to the amount of incident light, and the generated signal charges are accumulated.
  • the n-type semiconductor region 21 a is provided within the p-type well region 21 .
  • the photodiode PD includes a p-type well region 21 and an n-type semiconductor region 21a.
  • the multilayer wiring layer 30 is arranged on the first surface S1 side opposite to the light incident surface (second surface S2) side of the semiconductor layer 20, and includes wiring 32.
  • a plurality of layers are stacked with an interlayer insulating film 31 interposed therebetween.
  • a pixel transistor forming each pixel 3 is driven through the wiring 32 of each wiring layer. Since the multilayer wiring layer 30 is arranged on the side opposite to the light incident surface side (second surface S2 side) of the semiconductor layer 20, the layout of the wiring 32 can be freely set.
  • the color filter layer 40 includes, but is not limited to, a first color filter portion 41 for red (R), a second color filter portion 42 for green (G), and a third color filter portion for blue (B). 43.
  • the first to third color filter sections 41 to 43 are arranged in a matrix corresponding to each pixel 3 of the plurality of pixels 3, that is, each photoelectric conversion region 27 of the plurality of photoelectric conversion regions 27 in the pixel array section 2A. arranged in a shape.
  • the first to third color filter portions 41 to 43 are configured to transmit a specific wavelength of incident light that is to be received by the photoelectric conversion region 27 and allow the transmitted incident light to enter the photoelectric conversion region 27 .
  • the microlenses 45 of the plurality of microlenses 45 are arranged in rows and columns corresponding to the respective photoelectric conversion regions 27 of the plurality of pixels 3, that is, the respective photoelectric conversion regions 27 of the plurality of pixels 3 in the pixel array section 2A. are placed.
  • the microlens 45 collects the irradiation light and efficiently makes the collected light enter the photoelectric conversion region 27 of the semiconductor layer 20 via the color filter layer 40 .
  • a plurality of microlenses 45 constitute a microlens array on the light incident surface side of the color filter layer 40 .
  • the support substrate 34 is provided on the surface of the multilayer wiring layer 30 opposite to the side facing the semiconductor layer 20 .
  • the support substrate 34 is a substrate for securing the strength of the semiconductor layer 20 in the manufacturing stage of the solid-state imaging device 1A.
  • Silicon (Si) for example, can be used as the material of the support substrate 34 .
  • a planarizing film 36, a light shielding film 37 and an adhesive film 38 are laminated in this order from the semiconductor layer 20 side.
  • the planarization film 36 covers the entire light incident surface side of the semiconductor layer 20 in the pixel array section 2A so that the light incident surface side of the semiconductor layer 20 is flat without unevenness.
  • a silicon oxide (SiO 2 ) film for example, can be used as the planarization film 36 .
  • the light-shielding film 37 has a grid-like planar pattern in which the light-receiving surface side of each of the plurality of photoelectric conversion regions 27 is opened so that light from a predetermined pixel 3 does not leak into the adjacent pixel 3 .
  • a tungsten (W) film for example, is used as the light shielding film 37 .
  • the adhesive film 38 is arranged between the flattening film 36 and the light shielding film 37 and the color filter layer 40 and mainly enhances the adhesion between the light shielding film 37 and the color filter layer 40 .
  • a silicon oxide film for example, is used as the adhesive film 38 .
  • the solid-state imaging device 1A having the above configuration, light is irradiated from the microlens 45 side of the semiconductor chip 2, and the irradiated light is individually transmitted through the microlens 45 and the color filter portions 41, 42, and 43. Signal charges are generated by photoelectrically converting light in the photoelectric conversion region 27 . Then, the generated signal charges are output as pixel signals by the vertical signal lines 11 composed of the wirings 32 of the multilayer wiring layer 30 via the pixel transistors formed on the first surface S1 side of the semiconductor layer 20 . Also, the distance to the object is calculated based on the difference between the signal charges generated in the photoelectric conversion region 27 .
  • the separation region 24 includes a first portion 24x extending in the X direction and a second portion 24y extending in the Y direction in plan view.
  • the extending directions of the first portion 24x and the second portion 24y are orthogonal to each other.
  • Each photoelectric conversion region 27 of the plurality of photoelectric conversion regions 27 is partitioned by two second portions 24y of the separation region 24 on both ends in the X direction, and by two first portions 24x of the separation region 24 on both ends in the Y direction. partitioned.
  • Each of the first portion 24x and the second portion 24y included in the isolation region 24 extends over the second surface S2 and the first surface S1 of the semiconductor layer 20.
  • Each of the first portion 24x and the second portion 24y includes a groove portion 22 extending over the second surface S2 and the first surface S1 of the semiconductor layer 20, and an insulating film 23 embedded in the groove portion 22. including.
  • the first portions 24x are repeatedly arranged at predetermined intervals in the X direction in plan view.
  • a plurality of first portions 24x repeatedly arranged in the X direction form an X-direction separation row 25x.
  • the X-direction separation rows 25x are repeatedly arranged at predetermined intervals in the Y-direction in plan view.
  • the Y-direction arrangement pitch of the X-direction separation rows 25x is the same as the Y-direction arrangement pitch of the photoelectric conversion regions 27 as a design value.
  • the X-direction separation column 25x is arranged between two photoelectric conversion columns extending in the X direction and including a plurality of photoelectric conversion regions 27 arranged in the X direction.
  • the first portion 24 x is arranged every two photoelectric conversion regions 27 aligned in the X direction and extends across the two photoelectric conversion regions 27 .
  • the second portions 24y are repeatedly arranged at predetermined intervals in the Y direction in plan view.
  • a plurality of second portions 24y repeatedly arranged in the Y direction form a Y-direction separation row 25y.
  • the Y-direction separation rows 25y are repeatedly arranged at predetermined intervals in the X-direction in plan view.
  • the X-direction arrangement pitch of the Y-direction separation rows 25y is the same as the X-direction arrangement pitch of the photoelectric conversion regions 27 as a design value.
  • the Y-direction separation column 25y is arranged between two photoelectric conversion columns extending in the Y direction, each including a plurality of photoelectric conversion regions 27 arranged in the Y direction.
  • the second portion 24 y is arranged every two photoelectric conversion regions 27 aligned in the Y direction and extends across the two photoelectric conversion regions 27 .
  • the isolation region 24 As shown in FIG. 4, the first portion 24x and the second portion 24y are adjacent to each other with the semiconductor layer 20 interposed therebetween in plan view. In other words, the first portion 24x and the second portion 24y face each other with the semiconductor layer 20 interposed therebetween in plan view. That is, the isolation region 24 includes a first portion 24x and a second portion 25y that are adjacent to each other with the semiconductor layer 20 interposed therebetween in plan view. 5 and a second planar pattern 26a shown in FIG. 26b and .
  • the first planar pattern 26a has an end portion in the longitudinal direction (X direction) of the first portion 24x and an intermediate portion in the longitudinal direction (Y direction) of the second portion 24y with the semiconductor layer 20 therebetween. facing each other.
  • the first portion 24x is arranged on both sides of the second portion 24y in the short direction (width direction: X direction) in a plan view, and is spaced apart from the second portion 24y.
  • the second planar pattern 26b has an end portion in the longitudinal direction (Y direction) of the second portion 24y and an intermediate portion in the longitudinal direction (X direction) of the first portion 24x with the semiconductor layer 20 therebetween. facing each other.
  • the second portions 24y are arranged on both sides of the first portion 24x in the short direction (width direction: Y direction) in a plan view, spaced apart from the first portion 24x.
  • the two photoelectric conversion regions 27 arranged in the Y direction via the first portion 24x of the separation region 24 in plan view are the longitudinal ends of the first portion 24x and the length of the second portion 24y. They are connected to each other through the semiconductor layer 20 between them in the middle of the direction.
  • each photoelectric conversion region 27 of the plurality of photoelectric conversion regions 27 is partitioned by two second portions 24y of the separation regions 24 on both ends in the X direction, and separated by separation regions on both ends in the Y direction. 24 are partitioned by two first portions 24x.
  • the first portion 24x extending in the X direction and the second portion 24y extending in the Y direction are separated from each other in plan view, and the intersection portion where the first portion 24x and the second portion 24y intersect is formed. It has a grid-like plane pattern of the abolished intersection abolished structure.
  • the semiconductor layer 20 between the first portion 24x and the second portion 24y of the isolation region 24 is the first side portion 20y1 on the side of the first portion 24x. and a second side portion 20y2 on the side of the second portion 24y.
  • the second side surface portion 20y2 has a width Wy2 in the same direction as the width Wy1 of the first side surface portion 20y1 in the Y direction in plan view, which is larger than the width Wy1 of the first side surface portion 20y1. is also wider.
  • the Y-direction width Wy1 of the first side portion 20y1 is defined by the Y-direction width of the first separating portion 24x
  • the Y-direction width Wy2 of the second side portion 20y2 is defined by the Y-direction width of the second portion 24y. Defined by the length in the direction.
  • the first side surface portion 20y1 and the second side surface portion 20y2 have different surface shapes.
  • the first side portion 20y1 is formed in a planar shape
  • the second side portion 20y2 is formed in a curved shape.
  • the curved shape of the second side surface portion 20y2 is a concave shape in which the second side surface portion 20y2 is recessed toward the first side surface portion 20y1 .
  • the planar shape of the first side surface portion 20y1 and the curved shape of the second side surface portion 20y2 can be formed by devising the type and conditions of etching when processing the groove portion 22 of the isolation region 24 into the semiconductor layer 20. can be done.
  • the width Wy2 of the second side surface portion 20y2 is wider than the width Wy1 of the first side surface portion 20y1, the second side surface portion 20y2 is more easily curved than the first side surface portion 20y1. be able to.
  • the semiconductor layer 20 between the first portion 24x and the second portion 24y of the isolation region 24 is the first side portion 20x1 on the second portion 24y side. and a second side portion 20x2 on the side of the first portion 24x.
  • the second side surface portion 20x2 has a width Wx2 in the same direction as the width Wx1 in the X direction of the first side surface portion 20x1 in plan view, which is larger than the width Wx1 of the first side surface portion 20x1 . is also wider.
  • the X-direction width Wx1 of the first side portion 20x1 is defined by the X-direction width of the second separating portion 24y
  • the X-direction width Wx2 of the second side portion 20x2 is defined by the X-direction width of the first portion 24x. Defined by the length in the direction. As shown in FIG. 8, the first side portion 20x1 and the second side portion 20x2 have different surface shapes. In the first embodiment, like the first pattern 26a, the first side portion 20x1 is formed in a plane shape, and the second side portion 20x2 is formed in a curved shape.
  • the curved shape of the second side surface portion 20x2 is a concave shape in which the second side surface portion 20x2 is recessed toward the first side surface portion 20x1 .
  • the planar shape of the first side surface portion 20x1 and the curved shape of the second side surface portion 20x2 can also be formed by devising the type and conditions of etching when processing the groove portion 22 of the isolation region 24 into the semiconductor layer 20. be able to.
  • the separation region 24 separates a first portion 24x extending in the X direction and a second portion 24y extending in the Y direction from each other in plan view.
  • a grid plane pattern is formed in which the intersections of the first portion 24x and the second portion 24y are eliminated by spacing them apart. Therefore, in the isolation region 24 of the first embodiment, it is possible to suppress the reduction in the planar size of the photoelectric conversion region 27 due to the influence of the microloading effect when the trench 22 of the isolation region 24 is formed in the semiconductor layer 20. Therefore, it is possible to improve the saturation signal amount Qs.
  • the isolation region 24 has a grid-like plane pattern with no intersections, stress concentration applied to the film embedded in the groove 22 can be alleviated, and film cracking can be suppressed, thereby improving reliability. It becomes possible to plan
  • the semiconductor layer 20 between the first portion 24x and the second portion 24y of the isolation region 24 is, as shown in FIG . and the second side surface portion 20y2 on the side of the second portion 24y.
  • the semiconductor layer 20 between the second portion 24y and the first portion 24x of the isolation region 24 is, as shown in FIG . and the flat shape of the second side surface portion 20x2 on the first portion 24x side.
  • the first side surface portions 20y 1 and 20x 1 have a planar shape
  • the second side surface portions 20y 2 and 20x 2 have a concave curved shape.
  • the first portion 24x of the isolation region 24 is and the second portion 24y can be enhanced in mechanical strength.
  • the reliability can be further improved, and the photoelectric conversion region 27 is maintained while ensuring the mechanical strength of the semiconductor layer 20 between the first portion 24x and the second portion 24y of the isolation region 24. It is possible to promote the miniaturization of
  • the second side portions 20y 2 and 20x 2 of the semiconductor layer 20 between the first portion 24x and the second portion 24y of the isolation region 24 are curved, the second side portions 20y 2 and 20x 2 are curved.
  • the periodicity of the transmitted light that passes through is weakened, and color mixture can be suppressed.
  • the second side portions 20y 2 and 20x 2 are configured to have concave curved shapes.
  • the present technology is not limited to the first embodiment described above.
  • the first side portions 20y 1 and 20x 1 are formed in concave curved shapes
  • the second side portions 20y 2 and 20x 2 may be configured in a planar shape.
  • both the first side surface portions 20y 1 and 20x 1 and the second side surface portions 20y 2 and 20x 2 may be configured with curved shapes having different flatnesses.
  • the first side portions 20y 1 and 20x 1 and the second side portions 20y 2 and 20x 2 are configured with different shapes.
  • the second side surface portions 20y 2 and 20x 2 are configured to have concave curved shapes, but the second side surface portions 20y 2 and 20x 2 are configured to have convex curved shapes. You may
  • the isolation region 24 extending over the second surface S2 and the first surface S1 of the semiconductor layer 20 has been described.
  • the present technology is not limited to the isolation regions 24 shown in FIG. 3 of the first embodiment described above.
  • the present technology is also applied to an isolation region 24A that extends from the second surface S2 side of the semiconductor layer 20 toward the first surface S1 side and is spaced apart from the first surface S1. It is possible.
  • the depth of the isolation region 24A in this case is shallower than the thickness of the semiconductor layer 20 .
  • the separation region extends from the first surface S1 side of the semiconductor layer 20 toward the second surface S2 side and is separated from the second surface S2. It is also possible to apply the present technology to a separation region that Also in this case, the depth of the isolation region 24A is shallower than the thickness of the semiconductor layer 20.
  • the first portions 24x of the isolation regions 24 are repeatedly arranged at predetermined intervals in the X direction, and the second portions 24y of the isolation regions 24 are repeatedly arranged at predetermined intervals in the Y direction.
  • the lattice-like plane pattern of the intersection abolition structure was explained.
  • the present technology is not limited to the grid-like planar pattern of the intersection elimination structure shown in FIG. 4 of the above-described first embodiment.
  • the present technology can also be applied to a grid-like plane pattern of a structure in which the second portions 24y of the separation regions 24 are continuously extended in the Y direction.
  • the isolation region 24 including the first portion 24x and the second portion 24y is expressed, but the first portion 24x is referred to as the first isolation region 24x. , and the second portion 24y may be expressed as the second isolation region 24y.
  • the present technology is called a ToF (Time of Flight) sensor, and can be applied to light detection devices in general, including distance sensors that measure distance.
  • a distance measuring sensor emits irradiation light toward an object, detects the reflected light that is reflected from the surface of the object, and detects the time from when the irradiation light is emitted to when the reflected light is received.
  • the structure of the separation region of this distance measuring sensor the structure of the separation region described above can be adopted.
  • An example in which the present technology (technology according to the present disclosure) is applied to a distance measuring sensor that is a back-illuminated CAPD sensor will be described below with reference to FIGS. 11 to 13 .
  • FIG. 11 is a block diagram showing one configuration example of the distance measuring sensor according to the second embodiment.
  • FIG. 12 is a schematic cross-sectional view of a main part showing one configuration example of a pixel mounted on the distance measuring sensor according to the second embodiment.
  • FIG. 13 is a diagram showing an equivalent circuit of pixels mounted on the distance measuring sensor according to the second embodiment.
  • a distance measuring sensor 50 shown in FIG. 11 is a back-illuminated CAPD sensor, and is provided in an electronic device having a distance measuring function.
  • the distance measuring sensor 50 has a pixel array section 51 formed on a semiconductor substrate (not shown) and a peripheral circuit section integrated on the same semiconductor substrate as the pixel array section 51. It's becoming The peripheral circuit section includes, for example, a vertical drive section 52, a column processing section 53, a horizontal drive section 54, and a system control section 55.
  • FIG. 11 The peripheral circuit section includes, for example, a vertical drive section 52, a column processing section 53, a horizontal drive section 54, and a system control section 55.
  • a signal processing unit 56 and a data storage unit 57 are also provided in the ranging sensor 50 .
  • the signal processing unit 56 and the data storage unit 57 may be mounted on the same board as the distance measuring sensor 50, or may be arranged on a different board from the distance measuring sensor 50. FIG.
  • the pixel array section 51 unit pixels (hereinafter simply referred to as pixels) that generate electric charges corresponding to the amount of received light and output signals corresponding to the electric charges are arranged two-dimensionally in the row and column directions, that is, in a matrix. It has an arranged configuration. That is, the pixel array section 51 has a plurality of pixels that photoelectrically convert incident light and output signals corresponding to the resulting charges.
  • the row direction is the direction in which pixels are arranged in a pixel row (that is, the horizontal direction)
  • the column direction is the direction in which pixels are arranged in a pixel column (that is, the vertical direction). That is, the row direction is the horizontal direction in the drawing, and the column direction is the vertical direction in the drawing.
  • pixel drive lines 58 are wired along the row direction for each pixel row with respect to the matrix-like pixel arrangement, and two vertical signal lines 59 are wired along the column direction for each pixel column. ing.
  • the pixel drive line 58 transmits drive signals for driving when reading out signals from pixels.
  • the pixel drive line 58 is shown as one wiring in FIG. 11, it is not limited to one.
  • One end of the pixel drive line 58 is connected to an output terminal corresponding to each row of the vertical drive section 52 .
  • the vertical driving section 52 is composed of a shift register, an address decoder, etc., and drives each pixel of the pixel array section 51 simultaneously or in units of rows. That is, the vertical drive section 52 constitutes a drive section that controls the operation of each pixel of the pixel array section 51 together with the system control section 55 that controls the vertical drive section 52 .
  • a solid-state imaging device (ranging sensor) used for ranging in the indirect ToF method is often a horizontally elongated pixel array. Therefore, in such a case, the vertical signal line 59 or another vertically long control line may be used as the control line for the elements to be driven at high speed. In this case, for example, a plurality of pixels arranged in the vertical direction are connected to the vertical signal line 59 or another control line elongated in the vertical direction.
  • a drive unit provided separately from the drive unit 52, a horizontal drive unit 54, and the like drive the pixels, that is, drive the CAPD sensor.
  • a signal output from each pixel in the pixel row according to the drive control by the vertical drive section 52 is input to the column processing section 53 through the vertical signal line 59 .
  • the column processing unit 53 performs predetermined signal processing on the signal output from each pixel through the vertical signal line 59, and temporarily holds the pixel signal after the signal processing.
  • the column processing unit 53 performs noise removal processing and AD (Analog to Digital) conversion processing as signal processing.
  • AD Analog to Digital
  • the horizontal driving section 54 is composed of a shift register, an address decoder, etc., and selects unit circuits corresponding to the pixel columns of the column processing section 53 in order. By selective scanning by the horizontal driving section 54, pixel signals that have undergone signal processing for each unit circuit in the column processing section 53 are sequentially output.
  • the system control unit 55 includes a timing generator that generates various timing signals, and controls the vertical driving unit 52, the column processing unit 53, and the horizontal driving unit 54 based on the various timing signals generated by the timing generator. and other drive control.
  • the signal processing unit 56 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing based on the pixel signals output from the column processing unit 53 .
  • the data storage unit 57 temporarily stores data necessary for signal processing in the signal processing unit 56 .
  • Pixels 51a provided in the pixel array section 51 are configured, for example, as shown in FIG.
  • FIG. 12 shows a cross section of one pixel 51a provided in the pixel array section 51.
  • This pixel 51a receives incident light from the outside, particularly infrared light, photoelectrically converts it, and the resulting charge is Outputs a signal according to
  • the pixel 51a has a substrate 61 (semiconductor layer), which is a P-type semiconductor substrate made of a silicon substrate, that is, a P-type semiconductor region, and an on-chip lens 62 formed on the substrate 61, for example.
  • substrate 61 semiconductor layer
  • semiconductor layer is a P-type semiconductor substrate made of a silicon substrate, that is, a P-type semiconductor region, and an on-chip lens 62 formed on the substrate 61, for example.
  • the thickness of the substrate 61 in the vertical direction that is, the thickness in the direction perpendicular to the surface of the substrate 61 is 20 ⁇ m or less.
  • the thickness of the substrate 61 may of course be 20 ⁇ m or more, and the thickness may be determined according to the target characteristics of the solid-state imaging device 11 .
  • the substrate 61 is, for example, a high-resistance P-Epi substrate having a substrate concentration of 1E+13 order or less, and the resistance (resistivity) of the substrate 61 is set to, for example, 500 [ ⁇ cm] or more.
  • the relationship between the substrate concentration and the resistance of the substrate 61 is, for example, the resistance is 2000 [ ⁇ cm] when the substrate concentration is 6.48E+12 [cm3], the resistance is 1000 [ ⁇ cm] when the substrate concentration is 1.30E+13 [cm3], When the substrate concentration is 2.59E+13 [cm3], the resistance is 500 [ ⁇ cm], and when the substrate concentration is 1.30E+14 [cm3], the resistance is 100 [ ⁇ cm].
  • the upper surface of the substrate 61 that is, the surface of the substrate 61 on which the light from the outside is incident (hereinafter also referred to as the incident surface), collects the light incident from the outside and enters the substrate 61 .
  • An on-chip lens 62 for incidence is formed.
  • an inter-pixel light-shielding portion 63-1 and an inter-pixel light-shielding portion 63-2 are formed at the end portion of the pixel 51a on the incident surface of the substrate 61 to prevent color mixture between adjacent pixels. ing.
  • the inter-pixel light-shielding portion 63-1 and the inter-pixel light-shielding portion 63-2 are also simply referred to as the inter-pixel light-shielding portion 63 when there is no particular need to distinguish between them.
  • the incident surface of the substrate 61 is the so-called back surface, and no wiring layer composed of wiring or the like is formed on this back surface.
  • wirings for driving transistors and the like formed in the pixels 51a and wirings for reading out signals from the pixels 51a are formed. Layers are formed by lamination.
  • an oxide film 64 On the side of the substrate 61 opposite to the incident surface, that is, on the inner side of the lower surface in the drawing, there are an oxide film 64, a signal extraction portion 65-1 and a signal extraction portion 65 called Tap. -2 are formed.
  • an oxide film 64 is formed in the central portion of the pixel 51 in the vicinity of the surface of the substrate 61 opposite to the incident surface. 65-2 is formed.
  • the signal extracting portion 65-1 includes an N+ semiconductor region 71-1, which is an N-type semiconductor region, an N ⁇ semiconductor region 72-1 having a lower donor impurity concentration than the N+ semiconductor region 71-1, and a P-type semiconductor region. It has a P+ semiconductor region 73-1 and a P ⁇ semiconductor region 74-1 whose acceptor impurity concentration is lower than that of the P+ semiconductor region 73-1.
  • the donor impurities include, for example, elements belonging to Group 5 of the periodic table of elements such as phosphorus (P) and arsenic (As) for Si
  • the acceptor impurities include, for example, elements for Si.
  • Elements belonging to Group 3 in the periodic table of elements such as boron (B) can be mentioned.
  • An element that serves as a donor impurity is called a donor element
  • an element that serves as an acceptor impurity is called an acceptor element.
  • an N+ semiconductor region 71-1 is formed at a position adjacent to the right side of the oxide film 64 in the figure on the inner surface portion of the surface of the substrate 61 opposite to the incident surface.
  • An N- semiconductor region 72-1 is formed above the N+ semiconductor region 71-1 in the figure so as to cover (enclose) the N+ semiconductor region 71-1.
  • a P+ semiconductor region 73-1 is formed at a position adjacent to the right side of the N+ semiconductor region 71-1 in the drawing, in the inner surface portion of the surface of the substrate 61 opposite to the incident surface.
  • a P ⁇ semiconductor region 74-1 is formed above the P+ semiconductor region 73-1 in the drawing so as to cover (enclose) the P+ semiconductor region 73-1.
  • N+ semiconductor region 71-1 and an N ⁇ semiconductor region 72-1 are formed to surround the P+ semiconductor region 73-1 and P ⁇ semiconductor region 74-1.
  • the signal extracting portion 65-2 includes an N+ semiconductor region 71-2, which is an N-type semiconductor region, an N ⁇ semiconductor region 72-2 having a lower donor impurity concentration than the N+ semiconductor region 71-2, and a P-type semiconductor region. and a P ⁇ semiconductor region 74-2 with a lower acceptor impurity concentration than the P+ semiconductor region 73-2.
  • an N+ semiconductor region 71-2 is formed at a position adjacent to the left side of the oxide film 64 in the drawing, in the inner surface portion of the surface of the substrate 61 opposite to the incident surface. Further, an N- semiconductor region 72-2 is formed above the N+ semiconductor region 71-2 in the figure so as to cover (enclose) the N+ semiconductor region 71-2.
  • a P+ semiconductor region 73-2 is formed at a position adjacent to the left side of the N+ semiconductor region 71-2 in the drawing, in the inner surface portion of the surface of the substrate 61 opposite to the incident surface.
  • a P- semiconductor region 74-2 is formed above the P+ semiconductor region 73-2 in the figure so as to cover (enclose) the P+ semiconductor region 73-2.
  • N+ semiconductor region 71-2 and an N ⁇ semiconductor region 72-2 are formed to surround the P+ semiconductor region 73-2 and P ⁇ semiconductor region 74-2.
  • the signal extracting section 65-1 and the signal extracting section 65-2 are also simply referred to as the signal extracting section 65 when there is no particular need to distinguish them.
  • the N+ semiconductor region 71 is simply referred to as the N- semiconductor region 72-1 and the N- semiconductor region 72-2. If there is no particular need to distinguish between them, they will simply be referred to as the N ⁇ semiconductor regions 72 as well.
  • the P+ semiconductor regions 73 are simply referred to as the P ⁇ semiconductor regions 74-1 and the P ⁇ semiconductor regions 74-2. If there is no particular need to distinguish between them, they will simply be referred to as the P- semiconductor regions 74 as well.
  • an isolation portion 75-1 is formed of an oxide film or the like between the N+ semiconductor region 71-1 and the P+ semiconductor region 73-1 for separating these regions.
  • an isolation portion 75-2 for separating these regions is formed of an oxide film or the like.
  • the separation section 75-1 and the separation section 75-2 are also simply referred to as the separation section 75 when there is no particular need to distinguish between them.
  • the N+ semiconductor region 71 provided on the substrate 61 functions as a charge detection unit for detecting the amount of light incident on the pixel 51a from the outside, that is, the amount of signal carriers generated by photoelectric conversion by the substrate 61.
  • the N ⁇ semiconductor region 72 having a low donor impurity concentration can also be regarded as the charge detection portion.
  • the P+ semiconductor region 73 functions as a voltage applying section for injecting majority carrier current into the substrate 61 , that is, for applying a voltage directly to the substrate 61 to generate an electric field in the substrate 61 .
  • the P ⁇ semiconductor region 74 having a low acceptor impurity concentration can also be regarded as the voltage applying portion.
  • the N + semiconductor region 71-1 is directly connected to an FD (Floating Diffusion) portion (hereinafter also referred to as the FD portion A), which is a floating diffusion region (not shown). are connected to a vertical signal line 59 via an amplification transistor or the like (not shown).
  • FD Floating Diffusion
  • the N + semiconductor region 71-2 is directly connected to another FD section (hereinafter also referred to as an FD section B) that is different from the FD section A, and the FD section B is not shown. It is connected to a vertical signal line 59 via an amplifying transistor or the like.
  • the FD section A and the FD section B are connected to different vertical signal lines 59 .
  • infrared light is emitted from an imaging device provided with the solid-state imaging device 11 toward the object. Then, when the infrared light is reflected by the object and returns to the imaging device as reflected light, the substrate 61 of the solid-state imaging device 11 receives the incident reflected light (infrared light) and photoelectrically converts it.
  • the vertical driving section 52 drives the pixel 51a, and distributes the signal corresponding to the charge obtained by the photoelectric conversion to the FD section A and the FD section B.
  • the pixels 51a are not driven by the vertical driving section 52, but by a separately provided driving section, horizontal driving section 54, etc. via the vertical signal line 59 and other vertically long control lines. You may do so.
  • the vertical driving section 52 applies voltage to the two P+ semiconductor regions 73 via contacts or the like. Specifically, for example, the vertical drive unit 52 applies a voltage of 1.5 V to the P+ semiconductor region 73-1 and a voltage of 0 V to the P+ semiconductor region 73-2.
  • infrared light reflected light
  • the infrared light is photoelectrically converted in the substrate 61 to produce electrons and holes.
  • the resulting electrons are guided by the electric field between the P+ semiconductor regions 73 toward the P+ semiconductor region 73-1 and move into the N+ semiconductor region 71-1.
  • electrons generated by photoelectric conversion are used as signal carriers for detecting a signal corresponding to the amount of infrared light incident on the pixel 51a, that is, the amount of received infrared light.
  • the N+ semiconductor region 71-1 accumulates electric charges corresponding to the electrons that have moved into the N+ semiconductor region 71-1, and this electric charge is accumulated in the FD section A, the amplifying transistor, and the vertical signal line. 29 or the like and detected by the column processing unit 53 .
  • the accumulated charge in the N+ semiconductor region 71-1 is transferred to the FD section A directly connected to the N+ semiconductor region 71-1, and the signal corresponding to the charge transferred to the FD section A is transferred to the amplification transistor or the vertical signal. It is read out by the column processor 53 via line 59 . Then, the read signal is subjected to processing such as AD conversion processing in the column processing section 53 , and the resulting pixel signal is supplied to the signal processing section 26 .
  • This pixel signal is a signal indicating the amount of charge corresponding to the electrons detected by the N+ semiconductor region 71-1, that is, the amount of charge accumulated in the FD portion A.
  • the pixel signal can also be said to be a signal indicating the amount of infrared light received by the pixel 51a.
  • pixel signals corresponding to electrons detected in the N+ semiconductor region 71-2 may also be appropriately used for distance measurement in the same manner as in the case of the N+ semiconductor region 71-1.
  • a voltage is applied to the two P+ semiconductor regions 73 via contacts or the like by the vertical drive unit 22 so that an electric field opposite to the electric field that has been generated in the substrate 61 until now is generated. Specifically, for example, a voltage of 1.5 V is applied to the P+ semiconductor region 73-2, and a voltage of 0 V is applied to the P+ semiconductor region 73-1.
  • infrared light reflected light
  • the infrared light is photoelectrically converted in the substrate 61 to form pairs of electrons and holes.
  • the resulting electrons are guided by the electric field between P+ semiconductor regions 73 toward P+ semiconductor region 73-2 and move into N+ semiconductor region 71-2.
  • the N+ semiconductor region 71-2 accumulates electric charges corresponding to the electrons that have moved into the N+ semiconductor region 71-2. 29 or the like and detected by the column processing unit 53 .
  • the accumulated charges in the N+ semiconductor region 71-2 are transferred to the FD portion B directly connected to the N+ semiconductor region 71-2, and the signals corresponding to the charges transferred to the FD portion B are transferred to the amplifying transistor and the vertical signal. It is read out by the column processor 53 via line 59 . Then, the read signal is subjected to processing such as AD conversion processing in the column processing section 53 , and the resulting pixel signal is supplied to the signal processing section 56 .
  • pixel signals corresponding to electrons detected in the N+ semiconductor region 71-1 may also be appropriately used for distance measurement in the same manner as in the case of the N+ semiconductor region 71-2.
  • the signal processing unit 56 calculates distance information indicating the distance to the object based on these pixel signals. and output to the next stage.
  • a method of distributing signal carriers to different N+ semiconductor regions 71 in this way and calculating distance information based on signals corresponding to those signal carriers is called an indirect ToF method.
  • the distance measurement sensor 50 may be provided with a drive section (block) that functions as a voltage application control section that performs the above.
  • isolation regions 441-1 and 441-2 are provided in the substrate 61.
  • the substrate 61 has a first surface S1 and a second surface S2 located opposite to each other.
  • an isolation region 441-1 and an isolation region 441-2 are formed of a light shielding film or the like.
  • the isolation regions 441-1 and 441-2 are simply referred to as the isolation regions 441 when there is no particular need to distinguish between them.
  • the isolation region 441 when the isolation region 441 is formed, a long trench is formed from the light incident surface side of the substrate 61, that is, the upper surface in the drawing toward the lower direction in the drawing (direction perpendicular to the surface of the substrate 61). , and a light shielding film is embedded in the trench to form an isolation region 441 .
  • the isolation region 441 functions as a pixel isolation region that blocks infrared light that enters the substrate 61 from the incident surface and travels to other pixels adjacent to the pixel 51a.
  • the embedded separation region 441 By forming the embedded separation region 441 in this way, the separation characteristics of infrared light between pixels can be improved, and the occurrence of color mixture can be suppressed.
  • a plurality of photoelectric conversion regions 27 partitioned by separation regions 441 are provided on the substrate 61 .
  • the photoelectric conversion region 27 is provided for each pixel 51a, and the photoelectric conversion region of each pixel 51a includes a signal extracting portion 65-1 including the N+ semiconductor region 71-1 and the P+ semiconductor region 73-1, and the N+ semiconductor region.
  • a signal extracting portion 65-2 including 71-2 and a P+ semiconductor region 73-2 is provided.
  • the isolation region 441 is configured in a grid plane pattern similar to that of the isolation region 24 of the first embodiment described above. That is, in the separation region 441 of the second embodiment as well, referring to FIGS. 5 to 8 of the first embodiment described above, the first portion 24x extending in the X direction and the second portion 24x extending in the Y direction will be explained. In a plan view, the portions 24y are spaced apart from each other to form a grid-like planar pattern in which the intersections of the first portions 24x and the second portions 24y are eliminated. In the first planar pattern 26a, the semiconductor layer 20 (substrate 61) between the first portion 24x and the second portion 24y of the isolation region 24 (isolation region 441) is, as shown in FIG.
  • the shape of the first side portion 20y1 on the side of 24x and the shape of the second side portion 20y2 on the side of the second portion 24y are different.
  • the semiconductor layer 20 between the second portion 24y and the first portion 24x of the isolation region 24 is, as shown in FIG . and the second side surface portion 20x2 on the side of the first portion 24x.
  • the first side surface portions 20y 1 and 20x 1 have a planar shape
  • the second side surface portions 20y 2 and 20x 2 have a concave curved shape.
  • the distance measuring sensor 50 according to the second embodiment can also obtain the same effect as the solid-state imaging device 1A according to the first embodiment.
  • the isolation region 441 of the second embodiment extends from the second surface S2 side of the substrate 61 toward the first surface S1 side, similarly to the isolation region 24A of the modified example 1-1 of the first embodiment. , and is spaced apart from the first surface S1.
  • the depth of the isolation region 441 in this case is shallower than the thickness of the substrate 61 .
  • FIG. 13 is a diagram showing an equivalent circuit of pixels mounted on the distance measuring sensor according to the second embodiment.
  • the pixel 51a includes a transfer transistor 721A, an FD 722A, a reset transistor 723A, an amplification transistor 724A, and a selection transistor 725A for a signal extraction section 65-1 including an N+ semiconductor region 71-1 and a P+ semiconductor region 73-1. have.
  • the pixel 51a includes a transfer transistor 721B, an FD 722B, a reset transistor 723B, an amplification transistor 724B, and a selection transistor for a signal extraction portion 65-2 including an N+ semiconductor region 71-2 and a P+ semiconductor region 73-2. 725B.
  • the vertical drive section 22 applies a predetermined voltage MIX0 (first voltage) to the P+ semiconductor region 73-1, and applies a predetermined voltage MIX1 (second voltage) to the P+ semiconductor region 73-2.
  • MIX0 first voltage
  • MIX1 second voltage
  • one of voltages MIX0 and MIX1 is 1.5V and the other is 0V.
  • the P+ semiconductor regions 73-1 and 73-2 are voltage application units to which the first voltage or the second voltage is applied.
  • the N+ semiconductor regions 71-1 and 71-2 are charge detection units that detect and accumulate charges generated by photoelectric conversion of light incident on the substrate 61.
  • the transfer transistor 721A becomes conductive in response to the activation of the drive signal TRG supplied to the gate electrode, thereby transferring the charges accumulated in the N+ semiconductor region 71-1 to the FD722A.
  • the transfer transistor 721B becomes conductive in response to the activation of the drive signal TRG supplied to its gate electrode, thereby transferring the charges accumulated in the N+ semiconductor region 71-2 to the FD 722B.
  • the FD 722A temporarily holds charges supplied from the N+ semiconductor region 71-1.
  • the FD 722B temporarily holds charges supplied from the N+ semiconductor region 71-2.
  • the FD 722A corresponds to the FD section A described with reference to FIG. 2, and the FD 722B corresponds to the FD section B.
  • the reset transistor 723A becomes conductive in response to the activation of the drive signal RST supplied to the gate electrode, thereby resetting the potential of the FD 722A to a predetermined level (reset voltage VDD).
  • the reset transistor 723B becomes conductive in response to the active state of the drive signal RST supplied to the gate electrode, thereby resetting the potential of the FD 722B to a predetermined level (reset voltage VDD).
  • the amplification transistor 724A has a source electrode connected to the vertical signal line 29A via the selection transistor 725A, thereby connecting the load MOS and the source follower circuit of the constant current source circuit section 726A connected to one end of the vertical signal line 29A.
  • the amplification transistor 724B has its source electrode connected to the vertical signal line 29B via the selection transistor 725B, thereby connecting the load MOS and the source follower circuit of the constant current source circuit section 726B connected to one end of the vertical signal line 29B.
  • the selection transistor 725A is connected between the source electrode of the amplification transistor 724A and the vertical signal line 29A.
  • the selection transistor 725A becomes conductive in response to the activation of the selection signal SEL supplied to the gate electrode, and outputs the pixel signal output from the amplification transistor 724A to the vertical signal line 29A.
  • the selection transistor 725B is connected between the source electrode of the amplification transistor 724B and the vertical signal line 29B.
  • the selection transistor 725B becomes conductive in response to the activation of the selection signal SEL supplied to the gate electrode, and outputs the pixel signal output from the amplification transistor 724B to the vertical signal line 29B.
  • the transfer transistors 721A and 721B, reset transistors 723A and 723B, amplification transistors 724A and 724B, and selection transistors 725A and 725B of the pixel 51a are controlled by the vertical driver 52, for example.
  • the isolation region 441 extending from the second surface S2 side of the substrate 61 toward the first surface S1 side and separated from the first surface S1 has been described.
  • the present technology is not limited to the isolation region 441 shown in FIG. 12 of the second embodiment described above.
  • the present technology can also be applied to isolation regions 471-1 and 471-2 penetrating through the second surface S2 and the first surface S1 of the substrate 61. is.
  • the solid-state imaging device includes pixels 3a shown in FIG.
  • the pixel 3 a has a photoelectric conversion region 28 provided in the semiconductor layer 20 .
  • the photoelectric conversion region 28 is partitioned by a first separation region (pixel separation region) 29 a provided in the semiconductor layer 20 .
  • the photoelectric conversion region 28 includes a first photoelectric conversion section 28L and a second photoelectric conversion section 28R.
  • a second isolation region (in-pixel isolation region) 28b is provided between the first photoelectric conversion portion 28L and the second photoelectric conversion portion 28R.
  • Each of the first photoelectric conversion section 28L and the second photoelectric conversion section 28R is provided with, for example, a photodiode as a photoelectric conversion element.
  • Each of the first separation region 29a and the second separation region 29b is formed in the first separation region 29a and the second separation region 29b on the opposite side from the second surface S2 of the semiconductor layer 20, similarly to the separation region 24 shown in FIG. 3 of the above-described first embodiment. It includes a trench extending toward the surface S1 and an insulating film embedded in the trench.
  • the first separation region 29a has a square annular planar pattern in plan view.
  • the second separation region 29b extends in the Y direction in plan view within the first separation region 29a.
  • the second separation region 29b is separated from the first separation region 29a, and the end of the second separation region 29b faces the first separation region 29a with the semiconductor layer 20 interposed therebetween in plan view.
  • the semiconductor layer 20 between the first isolation region 29a and the second isolation region 29b has a first side portion 20x1 on the side of the second isolation region 29b and a second side portion 20x2 on the side of the first isolation region 29a.
  • the first side portion 20x1 and the second side portion 20x2 have the same configuration as the first side portion 20x1 and the second side portion 20x2 of the above-described first embodiment. That is, in the second side surface portion 20x2 , the width Wx2 in the same direction as the width Wx1 in the X direction of the first side surface portion 20x1 in plan view is wider than the width Wx1 of the first side surface portion 20x1.
  • the first side portion 20x1 is formed in a planar shape
  • the second side portion 20x2 is formed in a curved shape.
  • FIG. 16 is a diagram showing a schematic configuration of an electronic device (for example, camera) according to the fourth embodiment of the present technology.
  • the electronic device 100 includes a solid-state imaging device 101, an optical lens 102, a shutter device 103, a driving circuit 104, and a signal processing circuit 105.
  • This electronic device 100 shows an embodiment in which a solid-state imaging device and a distance measuring sensor according to the embodiment of the present technology are used as a solid-state imaging device 101 in an electronic device (for example, a camera).
  • the optical lens 102 forms an image of image light (incident light 106) from the subject on the imaging surface of the solid-state imaging device 101.
  • image light incident light 106
  • a shutter device 103 controls a light irradiation period and a light shielding period for the solid-state imaging device 101 .
  • a drive circuit 104 supplies drive signals for controlling the transfer operation of the solid-state imaging device 101 and the shutter operation of the shutter device 103 .
  • Signal transfer of the solid-state imaging device 101 is performed by a driving signal (timing signal) supplied from the driving circuit 104 .
  • the signal processing circuit 105 performs various signal processing on signals (pixel signals) output from the solid-state imaging device 101 .
  • the video signal that has undergone signal processing is stored in a storage medium such as a memory, or output to a monitor.
  • the light reflection suppression unit in the solid-state imaging device 101 suppresses light reflection from the light shielding film and the insulating film in contact with the air layer. This can be suppressed, and the image quality can be improved.
  • the electronic device 100 to which the solid-state imaging device of the above-described embodiment can be applied is not limited to cameras, and can be applied to other electronic devices.
  • the present invention may be applied to imaging devices such as camera modules for mobile devices such as mobile phones and tablet terminals.
  • a distance imaging device 201 as an electronic device is configured with an optical system 202, a sensor chip 2X, an image processing circuit 203, a monitor 204, and a memory 205.
  • the distance image device 201 acquires a distance image corresponding to the distance to the subject by receiving the light (modulated light or pulsed light) projected from the light source device 211 toward the subject and reflected by the surface of the subject. can do.
  • the optical system 202 is configured with one or more lenses, guides the image light (incident light) from the subject to the sensor chip 2X, and forms an image on the light receiving surface (sensor section) of the sensor chip 2X.
  • the sensor chip 2X As the sensor chip 2X, the sensor chip (semiconductor chip) on which the solid-state imaging device and the distance measuring sensor of the above-described embodiment are mounted is applied, and the distance obtained from the received light signal (APD OUT) output from the sensor chip 2X is indicated. A distance signal is supplied to the image processing circuit 203 .
  • the image processing circuit 203 performs image processing to construct a distance image based on the distance signal supplied from the sensor chip 2X, and the distance image (image data) obtained by the image processing is supplied to the monitor 204 and displayed. or supplied to the memory 205 to be stored (recorded).
  • the distance imaging device 201 configured as described above, by applying the sensor chip equipped with the solid-state imaging device and the distance measuring sensor of the above-described embodiment, the subject is detected based only on the received light signals from the highly stable pixels. It is possible to calculate the distance to and generate a highly accurate distance image. That is, the distance image device 201 can acquire a more accurate distance image.
  • the sensor chip equipped with the solid-state imaging device and distance measuring sensor of the above-described embodiments can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows. can be used.
  • ⁇ Devices that capture images for viewing purposes such as digital cameras and mobile devices with camera functions
  • Devices used for transportation such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles.
  • Devices used in household appliances such as televisions, refrigerators, air conditioners, etc., endoscopes, and devices that perform blood vessel imaging by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Equipment used for security purposes such as surveillance cameras for crime prevention and cameras for personal authentication ⁇ Skin measuring instruments for photographing the skin and photographing the scalp Equipment used for beauty, such as microscopes used for sports equipment Equipment used for sports, such as action cameras and wearable cameras for sports equipment Cameras for monitoring the condition of fields and crops, etc. , agricultural equipment
  • the photodetector, wherein the first side portion and the second side portion have different shapes in a cross-sectional view.
  • a photodetector an optical lens that forms an image of image light from a subject on an imaging surface of the photodetector, and a signal processing circuit that performs signal processing on a signal output from the photodetector
  • the photodetector is A semiconductor layer having a photoelectric conversion region partitioned by an isolation region including a groove, the isolation region includes a first portion and a second portion adjacent to each other with the semiconductor layer interposed therebetween in plan view; the semiconductor layer between the first portion and the second portion includes a first side portion on the first portion side and a second side portion on the second portion side;
  • the electronic device wherein the first side portion and the second side portion have different shapes in a cross-sectional view.
  • a photodetector an optical lens that forms an image of image light from a subject on an imaging surface of the photodetector, and a signal processing circuit that performs signal processing on a signal output from the photodetector
  • the photodetector is a semiconductor layer having a photoelectric conversion region partitioned by an isolation region including a groove; two transfer transistors provided in the photoelectric conversion region; with the isolation region includes a first portion and a second portion adjacent to each other with the semiconductor layer interposed therebetween in plan view; the semiconductor layer between the first portion and the second portion includes a first side portion on the first portion side and a second side portion on the second portion side;
  • the electronic device wherein the first side portion and the second side portion have different shapes in a cross-sectional view.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

信頼性の向上を図る。光検出装置は、溝部を含む分離領域で区画された光電変換領域を有する半導体層を備え、分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、第1部分と第2部分との間の半導体層は、第1部分側の第1側面部と、第2部分側の第2側面部とを含み、第1側面部及び第2側面部は、平面形状が異なっている。

Description

光検出装置及び電子機器
 本技術(本開示に係る技術)は、光検出装置及び電子機器に関し、特に、半導体層に分離領域で区画された光電変換領域を有する光検出装置及びそれを備えた電子機器に適用して有効な技術に関するものである。
 固体撮像装置や測距センサなどの光検出装置は、半導体層の光電変換領域を分離領域で区画している。分離領域としては、二次元平面において互いに隣り合う光電変換領域間を電気的及び光学的に分離することが可能なトレンチ構造の分離領域(トレンチ型分離領域)が採用されている。このトレン型分離領域は、半導体層に設けられた溝部と、この溝部内に埋め込まれた絶縁膜や導電膜などの埋込膜を含んでいる。そして、このトレンチ型分離領域は、通常、格子状平面パターンになっている。
 格子状平面パターンは、二次元平面において異なる方向(例えば互いに直交するX方向及びY方向)に延伸するトレンチ型分離領域が交差する交差部を含む。このような格子状平面パターンにおいては、半導体層に溝部を形成するときのマイクロローディング効果によって交差部の平面サイズが交差部以外の領域よりも拡張し易い。交差部の拡張は、トレンチ型分離領域で囲まれた光電変換領域の平面サイズを縮小し、飽和信号量Qsに影響する。また、交差部の拡張は、トレンチ型分離領域の深さに伴って顕著になる。
 そこで、二次元平面において、例えばX方向に延伸するトレンチ型分離領域と、Y方向に延伸するトレンチ型分離領域とを離間させて交差部を廃止した交差部廃止構造の格子状平面パターンが特許文献1に開示されている。
特開2021-34598号公報
 ところで、交差部廃止構造の格子状平面パターンでは、Y方向に延伸するトレンチ型分離領域を介して互いに隣り合う光電変換領域間での混色を抑制する必要がある。混色を抑制するためには、X方向のトレンチ型分離領域とY方向のトレンチ型分離領域との間の半導体層を微細化し、X方向のトレンチ型分離領域とY方向のトレンチ型分離領域との離間距離を小さくする必要がある。
 しかしながら、X方向のトレンチ型分離領域とY方向のトレンチ型分離領域との間の半導体層は微細化に伴って機械的強度が低下する。即ち、X方向のトレンチ型分離領域とY方向のトレンチ型分離領域との間における半導体層の微細化と機械的強度はトレードオフの関係にあり、信頼性の観点から改良の余地があった。
 本技術の目的は、信頼性の向上を図ることにある。
 (1)本技術の一態様に係る光検出装置は、溝部を含む分離領域で区画された光電変換領域を有する半導体層を備えている。そして、上記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、上記第1部分と上記第2部分との間の上記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、断面視で上記第1側面部及び上記第2側面部は、形状が異なっている。
 (2)本技術の他の態様に係る光検出装置は、溝部を含む分離領域で区画された光電変換領域を有する半導体層と、上記光電変換領域に設けられた2つの転送トランジスタとを備えている。そして、上記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、上記第1部分と上記第2部分との間の上記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、断面視で上記第1側面部及び上記第2側面部は、形状が異なっている。
 (3)本技術の他の態様に係る電子機器は、上記光検出装置を備えている。
本技術の第1実施形態に係る固体撮像装置の一構成例を示すチップレイアウト図である。 本技術の第1実施形態に係る固体撮像装置の一構成例を示すブロック図である。 画素アレイ部の断面構造を示す模式的断面図である。 画素アレイ部における分離領域の平面パターンを示す模式的平面図である。 図4の平面パターンに含まれる第1平面パターンを示す模式的平面図である。 図5のII-II線に沿った断面構造を示す模式的断面図である。 図4の平面パターンに含まれる第2平面パターンを示す模式的平面図である。 図7のIII-III線に沿った断面構造を示す模式的断面図である。 第1実施形態の変形例を示す要部模式的断面図である。 第1実施形態の変形例を示す要部模式的平面図である。 本技術の第2実施形態に係る測距センサの一構成例を示すブロック図である。 本技術の第2実施形態に係る測距センサに搭載された画素の一構成例を示す要部模式的断面図である。 本技術の第2実施形態に係る測距センサに搭載された画素の等価回路を示す図である。 第2実施形態の変形例を示す要部模式的断面図である。 本技術の第3実施形態に係る固体撮像装置に搭載された画素の一構成例を示す要部模式的平面図である。 本技術の第4実施形態に係る電子機器の一構成例を示す図である。 本技術の第5実施形態に係る電子機器の一構成例を示す図である。
 以下、図面を参照して本技術の実施形態を詳細に説明する。
 以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。
 また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、本明細書中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 また、以下の実施形態は、本技術の技術的思想を具体化するための装置や方法を例示するものであり、構成を下記のものに特定するものではない。即ち、本技術の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本技術の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 また、以下の実施形態では、空間内で互に直交する三方向において、同一平面内で互に直交する第1の方向及び第2の方向をそれぞれX方向、Y方向とし、第1の方向及び第2の方向のそれぞれと直交する第3の方向をZ方向とする。そして、以下の実施形態では、後述する半導体層20の厚さ方向(深さ方向)をZ方向として説明する。
 〔第1実施形態〕
 この第1実施形態では、光検出装置として、裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである固体撮像装置に本技術を適用した一例について説明する。
 <固体撮像装置の全体構成>
 まず、固体撮像装置1Aの全体構成について説明する。
 図1に示すように、本技術の第1実施形態に係る固体撮像装置1Aは、平面視したときの二次元平面形状が方形状の半導体チップ2を主体に構成されている。即ち、固体撮像装置1Aは、半導体チップ2に搭載されている。この固体撮像装置1A(201)は、図16に示すように、光学レンズ202を介して被写体からの像光(入射光206)を取り込み、撮像面上に結像された入射光206の光量を画素単位で電気信号に変換して画素信号として出力する。
 図1に示すように、固体撮像装置1Aが搭載された半導体チップ2は、互いに直交するX方向及びY方向を含む二次元平面において、中央部に設けられた方形状の画素アレイ部2Aと、この画素アレイ部2Aの外側に画素アレイ部2Aを囲むようにして設けられた周辺部2Bとを備えている。
 画素アレイ部2Aは、例えば図16に示す光学レンズ(光学系)202により集光される光を受光する受光面である。そして、画素アレイ部2Aには、X方向及びY方向を含む二次元平面において複数の画素3が行列状に配置されている。換言すれば、画素3は、二次元平面内で互いに直交するX方向及びY方向のそれぞれの方向に繰り返し配置されている。
 図1に示すように、周辺部2Bには、複数のボンディングパッド14が配置されている。複数のボンディングパッド14の各々は、例えば、半導体チップ2の二次元平面における4つの辺の各々の辺に沿って配列されている。複数のボンディングパッド14の各々は、半導体チップ2を外部装置と電気的に接続する際に用いられる入出力端子である。
 半導体チップ2は、図2に示すロジック回路13を備えている。ロジック回路13は、図2に示すように、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6、出力回路7及び制御回路8などを含む。ロジック回路13は、電界効果トランジスタとして、例えば、nチャネル導電型のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)及びpチャネル導電型のMOSFETを有するCMOS(Complementary MOS)回路で構成されている。
 垂直駆動回路4は、例えばシフトレジスタによって構成されている。垂直駆動回路4は、所望の画素駆動線10を順次選択し、選択した画素駆動線10に画素3を駆動するためのパルスを供給し、各画素3を行単位で駆動する。即ち、垂直駆動回路4は、画素アレイ部2Aの各画素3を行単位で順次垂直方向に選択走査し、各画素3の光電変換素子が受光量に応じて生成した信号電荷に基づく画素3からの画素信号を、垂直信号線11を通してカラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素3の列毎に配置されており、1行分の画素3から出力される信号に対して画素列毎にノイズ除去等の信号処理を行う。例えばカラム信号処理回路5は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)及びAD(Analog Digital)変換等の信号処理を行う。
 水平駆動回路6は、例えばシフトレジスタによって構成されている。水平駆動回路6は、水平走査パルスをカラム信号処理回路5に順次出力することによって、カラム信号処理回路5の各々を順番に選択し、カラム信号処理回路5の各々から信号処理が行われた画素信号を水平信号線12に出力させる。
 出力回路7は、カラム信号処理回路5の各々から水平信号線12を通して順次に供給される画素信号に対し、信号処理を行って出力する。信号処理としては、例えば、バッファリング、黒レベル調整、列ばらつき補正、各種デジタル信号処理等を用いることができる。
 制御回路8は、垂直同期信号、水平同期信号、及びマスタクロック信号に基づいて、垂直駆動回路4、カラム信号処理回路5、及び水平駆動回路6等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路8は、生成したクロック信号や制御信号を、垂直駆動回路4、カラム信号処理回路5、及び水平駆動回路6等に出力する。
 複数の画素3の各々の画素3は、図3に示す光電変換領域27と、図示していないが複数の画素トランジスタとを含む。複数の画素トランジスタとしては、例えば、転送トランジスタ、リセットトランジスタ、選択トランジスタ、増幅トランジスタの4つのトランジスタを採用できる。また、複数の画素トランジスタとしては、例えば選択トランジスタを除いた3つのトランジスタを採用してもよい。
 <固体撮像装置の具体的な構成>
 次に、固体撮像装置1Aの具体的な構成について説明する。
 図3に示すように、半導体チップ2は、複数の光電変換領域27が設けられた半導体層20と、この半導体層20の厚さ方向(Z方向)において互いに反対側に位置する第1の面S1及び第2の面S2のうちの第2の面S2側である光入射面側に配置されたカラーフィルタ層40とを備えている。
 また、半導体チップ2は、カラーフィルタ層40の光入射面側(半導体層20側とは反対側)に配置された複数のマイクロレンズ45(オンチップレンズ、ウエハレンズ)を更に備えている。
 また、半導体チップ2は、半導体層20の第1の面S1側に配置された多層配線層30と、この多層配線層30の半導体層20側とは反対側に配置された支持基板34とを更に備えている。
 半導体層20は、例えば単結晶シリコンからなるp型の半導体基板で構成されている。複数の光電変換領域27の各々の光電変換領域27は、画素アレイ部2Aにおいて、複数の画素3の各々の画素3に対応して行列状に配置されている。そして、各光電変換領域27は、半導体層20に設けられた分離領域24によって区画されている。分離領域24は、半導体層20の第2の面S2側から第1の面S1側に向かって延伸し、平面視で互に隣り合う光電変換領域27間を電気的及び光学的に分離している。分離領域24は、半導体層20の第2の面S2側から第1の面S1側に向かって延伸する溝部22と、この溝部22内に埋め込まれた絶縁膜23とを含む。絶縁膜23としては、例えば酸化シリコン膜を用いることができる。この第1実施形態の分離領域24は、これに限定されないが、半導体層20の第2の面S2及び第1の面S1に亘って延伸している。
 ここで、半導体層20の第1の面S1を素子形成面又は主面、第2の面S2側を光入射面又は裏面と呼ぶこともある。この第1実施形態の固体撮像装置1Aは、半導体層20の第2の面(光入射面,裏面)S2側から入射した光を、半導体層20に設けられた光電変換領域27で光電変換する。
 また、平面視とは、半導体層20の厚さ方向(Z方向)に沿う方向から見た場合を指す。また、断面視とは、半導体層20の厚さ方向(Z方向)に沿う断面を半導体層20の厚さ方向(Z方向)と直交する方向(X方向又はY方向)から見た場合を指す。
 なお、分離領域24としては、溝部22内において、金属膜の両側を絶縁膜で挟んだサンドイッチ構造を採用することもできる。
 図3に示すように、複数の光電変換領域27の各々の光電変換領域27には、例えばp型の半導体領域からなるp型のウエル領域21と、n型の半導体領域21aとが構成されている。また、複数の光電変換領域27の各々の光電変換領域27には、詳細に図示していないが、光電変換素子として例えばホトダイオード(PD:Photo Diode)素子が構成され、更に転送トランジスタが構成されている。即ち、画素アレイ部2Aには、半導体層20に埋設された光電変換素子及び転送トランジスタを含む画素3が行列状(二次元マトリクス状)に複数配置されている。光電変換領域27では、入射光の光量に応じた信号電荷が生成され、生成された信号電荷が蓄積される。n型の半導体領域21aはp型のウエル領域21内に設けられている。ホトダイオードPDは、p型のウエル領域21及びn型の半導体領域21aを含む。
 図3に示すように、多層配線層30は、半導体層20の光入射面(第2の面S2)側とは反対側の第1の面S1側に配置されており、配線32を含む配線層が層間絶縁膜31を介して複数段積層された構成になっている。各配線層の配線32を介して各画素3を構成する画素トランジスタが駆動される。多層配線層30は、半導体層20の光入射面側(第2の面S2側)とは反対側に配置されているので、配線32のレイアウトを自由に設定することができる。
 カラーフィルタ層40は、これに限定されないが、例えば、赤色(R)の第1カラーフィルタ部41と、緑色(G)の第2カラーフィルタ部42と、青色(B)の第3カラーフィルタ部43とを含む。この第1~第3カラーフィルタ部41~43は、画素アレイ部2Aにおいて、複数の画素3の各々の画素3、即ち、複数の光電変換領域27の各々の光電変換領域27に対応して行列状に配置されている。第1~第3カラーフィルタ部41~43は、光電変換領域27に受光させたい入射光の特定の波長を透過し、透過させた入射光を光電変換領域27に入射させる構成になっている。
 複数のマイクロレンズ45の各々のマイクロレンズ45は、画素アレイ部2Aにおいて、複数の画素3の各々の画素3、即ち複数の光電変換領域27の各々の光電変換領域27に対応して行列状に配置されている。マイクロレンズ45は、照射光を集光し、集光した光を、カラーフィルタ層40を介して半導体層20の光電変換領域27に効率よく入射させる。複数のマイクロレンズ45は、カラーフィルタ層40の光入射面側においてマイクロレンズアレイを構成している。
 支持基板34は、多層配線層30の半導体層20に面する側とは反対側の面に設けられている。支持基板34は、固体撮像装置1Aの製造段階において、半導体層20の強度を確保するための基板である。支持基板34の材料としては、例えば、シリコン(Si)を用いることができる。
 図3に示すように、半導体層20とカラーフィルタ層40との間には、半導体層20側から平坦化膜36、遮光膜37及び接着膜38がこの順で積層されている。
 平坦化膜36は、半導体層20の光入射面側が凹凸のない平坦面となるように、画素アレイ部2Aにおいて、半導体層20の光入射面側全体を覆っている。平坦化膜36としては、例えば酸化シリコン(SiO)膜を用いることができる。
 遮光膜37は、所定の画素3の光が隣の画素3へ漏れ込まないように、平面視の平面パターンが複数の光電変換領域27のそれぞれの受光面側を開口する格子状平面パターンになっている。この遮光膜37としては、例えばタングステン(W)膜が用いられている。
 接着膜38は、平坦化膜36及び遮光膜37と、カラーフィルタ層40との間に配置され、主に遮光膜37とカラーフィルタ層40との密着性を高めている。接着膜38としては、例えば酸化シリコン膜が用いられている。
 以上の構成を有する固体撮像装置1Aでは、光が半導体チップ2のマイクロレンズ45側から照射され、照射された光がマイクロレンズ45及びカラーフィルタ部41,42,43を個別に透過し、透過した光が光電変換領域27で光電変換されることで、信号電荷が生成される。そして、生成された信号電荷が、半導体層20の第1の面S1側に形成された画素トランジスタを介して、多層配線層30の配線32からなる垂直信号線11によって画素信号として出力される。また、光電変換領域27で生成された信号電荷間の差に基づき、被写体までの間の距離が算出される。
 <分離領域及び光電変換領域>
 次に、分離領域24及び光電変換領域27の具体的な構成について説明する。
 図4に示すように、分離領域24は、平面視でX方向に延伸する第1部分24xと、Y方向に延伸する第2部分24yと、を含む。第1部分24xと第2部分24yとは、各々の延伸方向が直交している。複数の光電変換領域27の各々の光電変換領域27は、X方向の両端側が分離領域24の2つの第2部分24yで区画され、Y方向の両端側が分離領域24の2つの第1部分24xで区画されている。分離領域24に含まれる第1部分24x及び第2部分24yの各々は、半導体層20第2の面S2及び第1の面S1に亘って延伸している。そして、第1部分24x及び第2部分24yの各々は、半導体層20の第2の面S2及び第1の面S1に亘って延伸する溝部22と、この溝部22内に埋め込まれた絶縁膜23とを含む。
 分離領域24において、図4に示すように、第1部分24xは、平面視でX方向に所定の間隔を空けて繰り返し配置されている。そして、X方向に繰り返し配置された複数の第1部分24xは、X方向分離列25xを構成している。このX方向分離列25xは、平面視でY方向に所定の間隔を空けて繰り返し配置されている。X方向分離列25xのY方向配列ピッチは、光電変換領域27のY方向配列ピッチと設計値で同一である。X方向分離列25xは、X方向に配列された複数の光電変換領域27を含んでX方向に延伸する2つの光電変換列の間に配置されている。第1部分24xは、X方向に並ぶ2つの光電変換領域27毎に配置され、この2つの光電変換領域27に亘って延伸している。
 分離領域24において、図4に示すように、第2部分24yは、平面視でY方向に所定の間隔を空けて繰り返し配置されている。そして、Y方向に繰り返し配置された複数の第2部分24yは、Y方向分離列25yを構成している。このY方向分離列25yは、平面視でX方向に所定の間隔を空けて繰り返し配置されている。Y方向分離列25yのX方向配列ピッチは、光電変換領域27のX方向配列ピッチと設計値で同一である。Y方向分離列25yは、Y方向に配列された複数の光電変換領域27を含んでY方向に延伸する2つの光電変換列の間に配置されている。第2部分24yは、Y方向に並ぶ2つの光電変換領域27毎に配置され、この2つの光電変換領域27に亘って延伸している。
 分離領域24において、図4に示すように、第1部分24xと第2部分24yとは、平面視で半導体層20を介して互いに隣り合っている。換言すれば、第1部分24xと第2部分24yとは、平面視で半導体層20を介して互いに向かい合っている。即ち、分離領域24は、平面視で半導体層20を介して互いに隣り合う第1部分24x及び第2部分25yを含んでいる。そして、分離領域24は、第1部分24xと第2部分24yとが半導体層20を介して互いに隣り合う平面パターンとして、図5に示す第1平面パターン26aと、図7に示す第2平面パターン26bと、を含んでいる。
 第1平面パターン26aは、図5に示すように、第1部分24xの長手方向(X方向)の端部が半導体層20を介して第2部分24yの長手方向(Y方向)の中間部と向かい合っている。そして、第1部分24xは、平面視で第2部分24yの短手方向(幅方向:X方向)の両側に第2部24yから離間して配置されている。
 第2平面パターン26bは、図7に示すように、第2部分24yの長手方向(Y方向)の端部が半導体層20を介して第1部分24xの長手方向(X方向)の中間部と向かい合っている。そして、第2部分24yは、平面視で第1部分24xの短手方向(幅方向:Y方向)の両側に第1部24xから離間して配置されている。
 図5に示すように、平面視で分離領域24の第1部分24xを介してY方向に並ぶ2つの光電変換領域27は、第1部分24xの長手方向の端部と第2部分24yの長手方向の中間部との間の半導体層20を介して互いに連結されている。
 また、図7に示すように、平面視で分離領域24の第2部分24yを介してX方向に並ぶ2つの光電変換領域27は、第2部分24yの長手方向の端部と第1部分24xの長手方向の中間部との間の半導体層20を介して互いに連結されている。即ち、複数の光電変換領域27の各々の光電変換領域27は、図4に示すように、X方向の両端側が分離領域24の2つの第2部分24yで区画され、Y方向の両端側が分離領域24の2つの第1部分24xで区画されている。そして、分離領域24は、X方向に延伸する第1部分24xとY方向に延伸する第2部分24yとを平面視で互いに離間させて第1部分24x及び第2部分24yが交差する交差部を廃止した交差部廃止構造の格子状平面パターンになっている。
 第1パターン26aにおいて、図5及び図6に示すように、分離領域24の第1部分24xと第2部分24yとの間の半導体層20は、第1部分24x側の第1側面部20yと、第2部分24y側の第2側面部20yとを含む。
 図5に示すように、第2側面部20yは、平面視で第1側面部20yのY方向の幅Wyと同一方向の幅Wyが第1側面部20yの幅Wyよりも幅広になっている。第1側面部20yのY方向の幅Wyは、第1分離部24xのY方向の幅で規定され、第2側面部20yのY方向の幅Wyは、第2部分24yのY方向の長さで規定される。
 そして、図6に示すように、この第1側面部20y及び第2側面部20yは、面形状が異なっている。この第1実施形態では、第1側面部20yが平面形状で構成され、第2側面部20yが湾曲形状で構成されている。また、この第1実施形態では、第2側面部20yの湾曲形状は、第2側面部20yが第1側面部20y側に窪む凹面形状になっている。この第1側面部20yの平面形状及び第2側面部20yの湾曲形状は、分離領域24の溝部22を半導体層20に加工するときのエッチングの種類や条件を工夫することにより形成することができる。特に、第2側面部20yの幅Wyが第1側面部20y1の幅Wy1よりも幅広の場合、第1側面部20yと比較して第2側面部20yを容易に湾曲形状とすることができる。
 第2パターン26bにおいて、図7及び図8に示すように、分離領域24の第1部分24xと第2部分24yとの間の半導体層20は、第2部分24y側の第1側面部20xと、第1部分24x側の第2側面部20xとを含む。
 図7に示すように、第2側面部20xは、平面視で第1側面部20xのX方向の幅Wxと同一方向の幅Wxが第1側面部20xの幅Wxよりも幅広になっている。第1側面部20xのX方向の幅Wxは、第2分離部24yのX方向の幅で規定され、第2側面部20xのX方向の幅Wxは、第1部分24xのX方向の長さで規定される。
 そして、図8に示すように、この第1側面部20x及び第2側面部20xは、面形状が異なっている。この第1実施形態では、第1パターン26aと同様に、第1側面部20xが平面形状で構成され、第2側面部20xが湾曲形状で構成されている。そして、第1パターン26aと同様に、第2側面部20xの湾曲形状は、第2側面部20xが第1側面部20x側に窪む凹面形状になっている。この第1側面部20xの平面形状及び第2側面部20xの湾曲形状においても、分離領域24の溝部22を半導体層20に加工するときのエッチングの種類や条件を工夫することにより形成することができる。
 <第1実施形態の主な効果>
 次に、この第1実施形態の主な効果について説明する。
 図4に示すように、この第1実施形態に係る固体撮像装置1Aは、分離領域24が、X方向に延伸する第1部分24xとY方向に延伸する第2部分24yとを平面視で互いに離間させて第1部分24xと第2部分24yとの交差部を廃止した格子状平面パターンになっている。したがって、この第1実施形態の分離領域24においては、半導体層20に分離領域24の溝部22を形成するときのマイクロローディング効果の影響による光電変換領域27の平面サイズの縮小を抑制することができるため、飽和信号量Qsを改善することが可能となる。
 また、分離領域24は交差部を廃止した格子状平面パターンになっているので、溝部22に埋め込んだ膜にかかる応力集中を緩和でき、膜割れなどを抑制することができるため、信頼性の向上を図ることが可能となる。
 また、第1平面パターン26aにおいて、分離領域24の第1部分24xと第2部分24yとの間の半導体層20は、図6に示すように、第1部分24x側の第1側面部20yと第2部分24y側の第2側面部20yとの面形状が異なっている。また、第2平面パターン26bにおいて、分離領域24の第2部分24yと第1部分24xとの間の半導体層20は、図8に示すように、第2部分24y側の第1側面部20xと第1部分24x側の第2側面部20xとの平形状が異なっている。この第1実施形態では、第1側面部20y,20xが平面形状であり、第2側面部20y,20xが凹状の湾曲形状になっている。したがって、半導体層20の第1側面部20y,20x及び第2側面部20y,20xの両方が凹状の湾曲形状になっている場合と比較して、分離領域24の第1部分24xと第2部分24yとの間の半導体層20の機械的強度を高めることができる。これにより、信頼性の向上をより一層図ることが可能となると共に、分離領域24の第1部分24xと第2部分24yとの間の半導体層20の機械的強度を確保しつつ光電変換領域27の微細化を促進することが可能となる。
 また、分離領域24の第1部分24xと第2部分24yとの間の半導体層20の第2側面部20y,20xが湾曲形状になっているので、第2側面部20y,20xを透過する透過光の周期性が弱まり、混色を抑制することができる。
 なお、上述の第1実施形態では、分離領域24の第1部分24xと第2部分24yとの間の半導体層20において、第2側面部20y,20xを凹状の湾曲形状で構成した場合について説明した。しかしながら、本技術は、上述の第1実施形態に限定されない。例えば、分離領域24の第1部分24xと第2部分24yとの間の半導体層20において、第1側面部20y,20xを凹状の湾曲形状で構成し、第2側面部20y,20xを平面形状で構成してもよい。また、第1側面部20y,20x及び第2側面部20y,20xの両方を平面度が異なる湾曲形状で構成してもよい。要は、第1側面部20y,20x及び第2側面部20y,20xを異なる形状で構成する。
 また、上述の第1実施形態では、第2側面部20y,20xを凹状の湾曲形状で構成した場合について説明したが、第2側面部20y,20xを凸状の湾曲形状で構成してもよい。
 ≪第1実施形態の変形例≫
 <変形例1-1>
 上述の第1実施形態では、半導体層20の第2の面S2及び第1の面S1に亘って延伸する分離領域24について説明した。しかしながら、本技術は、上述の第1実施形態の図3に示す分離領域24に限定されるものではない。例えば、図9に示すように、半導体層20の第2面S2側から第1の面S1側に向かって延伸し、第1の面S1から離間する分離領域24Aにおいても、本技術を適用することが可能である。この場合の分離領域24Aの深さは、半導体層20の厚さよりも浅くなる。
 また、図示していないが、図9に示す分離領域24Aとは逆で、半導体層20の第1の面S1側から第2の面S2側に向かって延伸し、第2の面S2から離間する分離領域においても、本技術を適用することが可能である。この場合においても、分離領域24Aの深さは、半導体層20の厚さよりも浅くなる。
 <変形例1-2>
 上述の第1実施形態では、分離領域24の第1部分24xがX方向に所定の間隔を空けて繰り返し配置され、分離領域24の第2部分24yがY方向に所定の間隔を空けて繰り返し配置された交差部廃止構造の格子状平面パターンについて説明した。しかしながら、本技術は、上述の第1実施形態の図4に示す交差部廃止構造の格子状平面パターンに限定されるものではない。例えば図10に示すように、分離領域24の第2部分24yがY方向に連続的に延伸する交差部廃止構造の格子状平面パターンにおいても、本技術を適用することが可能である。
 また、図示していないが、図10に示す交差部廃止構造の格子状平面パターンとは逆で、分離領域24の第1部分24xがX方向に連続的に延伸する交差部廃止構造の格子状平面パターンにおいても、本技術を適用することが可能である。
 なお、上述の第1実施形態及び第1実施形態の変形例では、第1部分24x及び第2部分24yを含む分離領域24として表現しているが、第1部分24xを第1分離領域24xと表現し、第2部分24yを第2分離領域24yと表現してもよいことは勿論である。
 〔第2実施形態〕
 本技術は、上述したイメージセンサとしての固体撮像装置の他、ToF(Time of Flight)センサと呼称され、距離を測定する測定する測距センサなども含む光検出装置全般に適用することができる。測距センサは、物体に向かって照射光を発光し、その照射光が物体の表面で反射されて返ってくる反射光を検出し、照射光が発光されてから反射光が受光されるまでの飛行時間に基づいて物体までの距離を算出するセンサである。この測距センサの分離領域の構造として、上述した分離領域の構造を採用することができる。以下、裏面照射型のCAPDセンサである測距センサに本技術(本開示に係る技術)を適用した一例について、図11から図13を用いて説明する。
 図11は、この第2実施形態に係る測距センサの一構成例を示すブロック図である。図12は、この第2実施形態に係る測距センサに搭載された画素の一構成例を示す要部模式的断面図である。図13は、この第2実施形態に係る測距センサに搭載された画素の等価回路を示す図である。
 <測距センサの全体構成>
 図11に示す測距センサ50は、裏面照射型のCAPDセンサであり、測距機能を有する電子機器に設けられている。
 図11に示すように、測距センサ50は、図示せぬ半導体基板上に形成された画素アレイ部51と、画素アレイ部51と同じ半導体基板上に集積された周辺回路部とを有する構成となっている。周辺回路部は、例えば垂直駆動部52、カラム処理部53、水平駆動部54、およびシステム制御部55から構成されている。
 測距センサ50には、さらに信号処理部56およびデータ格納部57も設けられている。なお、信号処理部56およびデータ格納部57は、測距センサ50と同じ基板上に搭載してもよいし、測距センサ50とは別の基板上に配置するようにしてもよい。
 画素アレイ部51は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する単位画素(以下、単に画素とも称する)が行方向および列方向に、すなわち行列状に2次元配置された構成となっている。すなわち、画素アレイ部51は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する画素を複数有している。
 ここで、行方向とは画素行の画素の配列方向(すなわち、水平方向)をいい、列方向とは画素列の画素の配列方向(すなわち、垂直方向)をいう。つまり、行方向は図中、横方向であり、列方向は図中、縦方向である。
 画素アレイ部51において、行列状の画素配列に対して、画素行ごとに画素駆動線58が行方向に沿って配線され、各画素列に2つの垂直信号線59が列方向に沿って配線されている。例えば画素駆動線58は、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図11では、画素駆動線58について1本の配線として示しているが、1本に限られるものではない。画素駆動線58の一端は、垂直駆動部52の各行に対応した出力端に接続されている。
 垂直駆動部52は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部51の各画素を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動部52は、垂直駆動部52を制御するシステム制御部55とともに、画素アレイ部51の各画素の動作を制御する駆動部を構成している。
 なお、間接ToF方式での測距においては、1つの制御線に接続されている、高速駆動させる素子(CAPD素子)の数が高速駆動の制御性や駆動の精度へ影響を及ぼす。間接ToF方式での測距に用いる固体撮像素子(測距センサ)は、水平方向に長い画素アレイとされることが多い。したがって、そのようなときには高速駆動させる素子の制御線に関しては、垂直信号線59や他の垂直方向に長い制御線が用いられるようにしてもよい。この場合、例えば垂直信号線59や垂直方向に長い他の制御線に対して、垂直方向に配列された複数の画素が接続され、それらの垂直信号線59や他の制御線を介して、垂直駆動部52とは別に設けられた駆動部や水平駆動部54等により画素の駆動、すなわちCAPDセンサの駆動が行われる。
 垂直駆動部52による駆動制御に応じて画素行の各画素から出力される信号は、垂直信号線59を通してカラム処理部53に入力される。カラム処理部53は、各画素から垂直信号線59を通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理部53は、信号処理としてノイズ除去処理やAD(Analog to Digital)変換処理などを行う。
 水平駆動部54は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部53の画素列に対応する単位回路を順番に選択する。この水平駆動部54による選択走査により、カラム処理部53において単位回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部55は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、そのタイミングジェネレータで生成された各種のタイミング信号を基に、垂直駆動部52、カラム処理部53、および水平駆動部54などの駆動制御を行う。
 信号処理部56は、少なくとも演算処理機能を有し、カラム処理部53から出力される画素信号に基づいて演算処理等の種々の信号処理を行う。データ格納部57は、信号処理部56での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 <画素の構成>
 次に、画素アレイ部51に設けられた画素の構成例について説明する。画素アレイ部51に設けられた画素51aは、例えば図12に示すように構成される。
 図12は画素アレイ部51に設けられた1つの画素51aの断面を示しており、この画素51aは外部から入射した光、特に赤外光を受光して光電変換し、その結果得られた電荷に応じた信号を出力する。
 画素51aは、例えばシリコン基板、すなわちP型半導体領域からなるP型半導体基板である基板61(半導体層)と、その基板61上に形成されたオンチップレンズ62とを有している。
 例えば基板61は図中、縦方向の厚さ、つまり基板61の面と垂直な方向の厚さが20μm以下となるようになされている。なお、基板61の厚さは20μm以上であっても勿論よく、その厚さは固体撮像素子11の目標とする特性等に応じて定められればよい。
 また、基板61は、例えば1E+13オーダー以下の基板濃度とされた高抵抗のP‐Epi基板などとされ、基板61の抵抗(抵抗率)は例えば500[Ωcm]以上となるようになされている。
 ここで、基板61の基板濃度と抵抗との関係は、例えば基板濃度6.48E+12[cm3]のときに抵抗2000[Ωcm]、基板濃度1.30E+13[cm3]のときに抵抗1000[Ωcm]、基板濃度2.59E+13[cm3]のときに抵抗500[Ωcm]、および基板濃度1.30E+14[cm3]のときに抵抗100[Ωcm]などとされる。
 基板61の図中、上側の表面、つまり基板61における外部からの光が入射する側の面(以下、入射面とも称する)上には、外部から入射した光を集光して基板61内に入射させるオンチップレンズ62が形成されている。
 さらに画素51aでは、基板61の入射面上における画素51aの端部分には、隣接する画素間での混色を防止するための画素間遮光部63-1および画素間遮光部63-2が形成されている。
 この例では、外部からの光はオンチップレンズ62を介して基板61内に入射するが、外部から入射した光がオンチップレンズ62や基板61の一部を通り、基板61における画素51aに隣接して設けられた他の画素の領域に入射しないようになされている。すなわち、外部からオンチップレンズ62に入射し、画素51aと隣接する他の画素内へと向かう光が、画素間遮光部63-1や画素間遮光部63-2で遮光されて、隣接する他の画素内へと入射しないようになされている。以下、画素間遮光部63-1および画素間遮光部63-2を特に区別する必要のない場合、単に画素間遮光部63とも称する。
 測距センサ50は裏面照射型のCAPDセンサであるため、基板61の入射面が、いわゆる裏面となり、この裏面上には配線等からなる配線層は形成されていない。また、基板61における入射面とは反対側の面の部分には、画素51a内に形成されたトランジスタ等を駆動するための配線や、画素51aから信号を読み出すための配線などが形成された配線層が積層により形成されている。
 基板61内における入射面とは反対の面側、すなわち図中、下側の面の内側の部分には、酸化膜64と、Tap(タップ)と呼ばれる信号取り出し部65-1および信号取り出し部65-2とが形成されている。
 この例では、基板61の入射面とは反対側の面近傍における画素51の中心部分に酸化膜64が形成されており、その酸化膜64の両端にそれぞれ信号取り出し部65-1および信号取り出し部65-2が形成されている。
 ここで、信号取り出し部65-1は、N型半導体領域であるN+半導体領域71-1およびN+半導体領域71-1よりもドナー不純物の濃度が低いN-半導体領域72-1と、P型半導体領域であるP+半導体領域73-1およびP+半導体領域73-1よりもアクセプター不純物濃度が低いP-半導体領域74-1とを有している。ここで、ドナー不純物とは、例えばSiに対してのリン(P)やヒ素(As)等の元素の周期表で5族に属する元素が挙げられ、アクセプター不純物とは、例えばSiに対してのホウ素(B)等の元素の周期表で3族に属する元素が挙げられる。ドナー不純物となる元素をドナー元素、アクセプター不純物となる元素をアクセプター元素と称する。
 すなわち、基板61の入射面とは反対側の面の表面内側部分における、酸化膜64の図中、右側に隣接する位置にN+半導体領域71-1が形成されている。また、N+半導体領域71-1の図中、上側に、そのN+半導体領域71-1を覆うように(囲むように)N-半導体領域72-1が形成されている。
 さらに、基板61の入射面とは反対側の面の表面内側部分における、N+半導体領域71-1の図中、右側に隣接する位置にP+半導体領域73-1が形成されている。また、P+半導体領域73-1の図中、上側に、そのP+半導体領域73-1を覆うように(囲むように)P-半導体領域74-1が形成されている。
 なお、ここでは図示はされていないが、より詳細には基板61を基板61の面と垂直な方向から見たときに、P+半導体領域73-1およびP-半導体領域74-1を中心として、それらのP+半導体領域73-1およびP-半導体領域74-1の周囲を囲むように、N+半導体領域71-1およびN-半導体領域72-1が形成されている。
 同様に信号取り出し部65-2は、N型半導体領域であるN+半導体領域71-2およびN+半導体領域71-2よりもドナー不純物の濃度が低いN-半導体領域72-2と、P型半導体領域であるP+半導体領域73-2およびP+半導体領域73-2よりもアクセプター不純物濃度が低いP-半導体領域74-2とを有している。
 すなわち、基板61の入射面とは反対側の面の表面内側部分における、酸化膜64の図中、左側に隣接する位置にN+半導体領域71-2が形成されている。また、N+半導体領域71-2の図中、上側に、そのN+半導体領域71-2を覆うように(囲むように)N-半導体領域72-2が形成されている。
 さらに、基板61の入射面とは反対側の面の表面内側部分における、N+半導体領域71-2の図中、左側に隣接する位置にP+半導体領域73-2が形成されている。また、P+半導体領域73-2の図中、上側に、そのP+半導体領域73-2を覆うように(囲むように)P-半導体領域74-2が形成されている。
 なお、ここでは図示はされていないが、より詳細には基板61を基板61の面と垂直な方向から見たときに、P+半導体領域73-2およびP-半導体領域74-2を中心として、それらのP+半導体領域73-2およびP-半導体領域74-2の周囲を囲むように、N+半導体領域71-2およびN-半導体領域72-2が形成されている。
 以下、信号取り出し部65-1および信号取り出し部65-2を特に区別する必要のない場合、単に信号取り出し部65とも称することとする。
 また、以下、N+半導体領域71-1およびN+半導体領域71-2を特に区別する必要のない場合、単にN+半導体領域71とも称し、N-半導体領域72-1およびN-半導体領域72-2を特に区別する必要のない場合、単にN-半導体領域72とも称することとする。
 さらに、以下、P+半導体領域73-1およびP+半導体領域73-2を特に区別する必要のない場合、単にP+半導体領域73とも称し、P-半導体領域74-1およびP-半導体領域74-2を特に区別する必要のない場合、単にP-半導体領域74とも称することとする。
 また、基板61では、N+半導体領域71-1とP+半導体領域73-1との間には、それらの領域を分離するための分離部75-1が酸化膜等により形成されている。同様にN+半導体領域71-2とP+半導体領域73-2との間にも、それらの領域を分離するための分離部75-2が酸化膜等により形成されている。以下、分離部75-1および分離部75-2を特に区別する必要のない場合、単に分離部75とも称することとする。
 基板61に設けられたN+半導体領域71は、外部から画素51aに入射してきた光の光量、すなわち基板61による光電変換により発生した信号キャリアの量を検出するための電荷検出部として機能する。なお、N+半導体領域71の他に、ドナー不純物濃度が低いN-半導体領域72も含めて電荷検出部とみなすこともできる。また、P+半導体領域73は、多数キャリア電流を基板61に注入するための、すなわち基板61に直接電圧を印加して基板61内に電界を発生させるための電圧印加部として機能する。なお、P+半導体領域73の他に、アクセプター不純物濃度が低いP-半導体領域74も含めて電圧印加部とみなすこともできる。
 画素51aでは、N+半導体領域71-1には、直接、図示せぬ浮遊拡散領域であるFD(Floating Diffusion)部(以下、特にFD部Aとも称する)が接続されており、さらにそのFD部Aは、図示せぬ増幅トランジスタ等を介して垂直信号線59に接続されている。
 同様に、N+半導体領域71-2には、直接、FD部Aとは異なる他のFD部(以下、特にFD部Bとも称する)が接続されており、さらにそのFD部Bは、図示せぬ増幅トランジスタ等を介して垂直信号線59に接続されている。ここで、FD部AとFD部Bとは互いに異なる垂直信号線59に接続されている。
 例えば間接ToF方式により対象物までの距離を測定しようとする場合、固体撮像素子11が設けられた撮像装置から対象物に向けて赤外光が射出される。そして、その赤外光が対象物で反射されて反射光として撮像装置に戻ってくると、固体撮像素子11の基板61は入射してきた反射光(赤外光)を受光して光電変換する。
 このとき、垂直駆動部52は画素51aを駆動させ、光電変換により得られた電荷に応じた信号をFD部AとFD部Bとに振り分ける。なお、上述したように画素51aの駆動は垂直駆動部52ではなく、垂直信号線59や他の垂直方向に長い制御線を介して、別に設けられた駆動部や水平駆動部54等により行われるようにしてもよい。
 例えばあるタイミングでは、垂直駆動部52はコンタクト等を介して2つのP+半導体領域73に電圧を印加する。具体的には、例えば垂直駆動部52はP+半導体領域73-1に1.5Vの電圧を印加し、P+半導体領域73-2には0Vの電圧を印加する。
 すると、基板61における2つのP+半導体領域73の間に電界が発生し、P+半導体領域73-1からP+半導体領域73-2へと電流が流れる。この場合、基板61内の正孔(ホール)はP+半導体領域73-2の方向へと移動することになり、電子はP+半導体領域73-1の方向へと移動することになる。
 したがって、このような状態でオンチップレンズ62を介して外部からの赤外光(反射光)が基板61内に入射し、その赤外光が基板61内で光電変換されて電子と正孔のペアに変換されると、得られた電子はP+半導体領域73間の電界によりP+半導体領域73-1の方向へと導かれ、N+半導体領域71-1内へと移動する。
 この場合、光電変換で発生した電子が、画素51aに入射した赤外光の量、すなわち赤外光の受光量に応じた信号を検出するための信号キャリアとして用いられることになる。
 これにより、N+半導体領域71-1には、N+半導体領域71-1内へと移動してきた電子に応じた電荷が蓄積されることになり、この電荷がFD部Aや増幅トランジスタ、垂直信号線29等を介してカラム処理部53で検出される。
 すなわち、N+半導体領域71-1の蓄積電荷が、そのN+半導体領域71-1に直接接続されたFD部Aに転送され、FD部Aに転送された電荷に応じた信号が増幅トランジスタや垂直信号線59を介してカラム処理部53により読み出される。そして、読み出された信号に対して、カラム処理部53においてAD変換処理等の処理が施され、その結果得られた画素信号が信号処理部26へと供給される。
 この画素信号は、N+半導体領域71-1により検出された電子に応じた電荷量、すなわちFD部Aに蓄積された電荷の量を示す信号となる。換言すれば、画素信号は画素51aで受光された赤外光の光量を示す信号であるともいうことができる。
 なお、このときN+半導体領域71-1における場合と同様にしてN+半導体領域71-2で検出された電子に応じた画素信号も適宜測距に用いられるようにしてもよい。
 また、次のタイミングでは、これまで基板61内で生じていた電界と反対方向の電界が発生するように、垂直駆動部22によりコンタクト等を介して2つのP+半導体領域73に電圧が印加される。具体的には、例えばP+半導体領域73-2に1.5Vの電圧が印加され、P+半導体領域73-1には0Vの電圧が印加される。
 これにより、基板61における2つのP+半導体領域73の間で電界が発生し、P+半導体領域73-2からP+半導体領域73-1へと電流が流れる。
 このような状態でオンチップレンズ62を介して外部からの赤外光(反射光)が基板61内に入射し、その赤外光が基板61内で光電変換されて電子と正孔のペアに変換されると、得られた電子はP+半導体領域73間の電界によりP+半導体領域73-2の方向へと導かれ、N+半導体領域71-2内へと移動する。
 これにより、N+半導体領域71-2には、N+半導体領域71-2内へと移動してきた電子に応じた電荷が蓄積されることになり、この電荷がFD部Bや増幅トランジスタ、垂直信号線29等を介してカラム処理部53で検出される。
 すなわち、N+半導体領域71-2の蓄積電荷が、そのN+半導体領域71-2に直接接続されたFD部Bに転送され、FD部Bに転送された電荷に応じた信号が増幅トランジスタや垂直信号線59を介してカラム処理部53により読み出される。そして、読み出された信号に対して、カラム処理部53においてAD変換処理等の処理が施され、その結果得られた画素信号が信号処理部56へと供給される。
 なお、このときN+半導体領域71-2における場合と同様にしてN+半導体領域71-1で検出された電子に応じた画素信号も適宜測距に用いられるようにしてもよい。
 このようにして、同じ画素51aにおいて互いに異なる期間の光電変換で得られた画素信号が得られると、信号処理部56は、それらの画素信号に基づいて対象物までの距離を示す距離情報を算出し、後段へと出力する。
 このように互いに異なるN+半導体領域71へと信号キャリアを振り分けて、それらの信号キャリアに応じた信号に基づいて距離情報を算出する方法は、間接ToF方式と呼ばれている。
 なお、ここでは垂直駆動部52によりP+半導体領域73への電圧の印加制御が行われる例について説明したが、上述したように垂直駆動部52とは別に、P+半導体領域73への電圧の印加制御を行う電圧印加制御部として機能する駆動部(ブロック)が測距センサ50に設けられてもよい。
 図12に示す画素51aの構成は、基板61内に分離領域441-1および分離領域441-2が設けられている。基板61は、互いに反対側に位置する第1の面S1と第2の面S2とを有する。
 図12に示す画素51aでは、基板61内における画素51aとその画素51aに隣接する他の画素との境界部分、つまり画素51aの図中、左右の端部分に基板61の少なくとも一部を貫通する分離領域441-1および分離領域441-2が遮光膜等により形成されている。なお、以下、分離領域441-1および分離領域441-2を特に区別する必要のない場合、単に分離領域441とも称することとする。
 例えば、分離領域441の形成時には、基板61の光入射面側、つまり図中、上側の面から図中、下方向(基板61の面と垂直な方向)に長い溝(トレンチ)部が形成され、その溝部分に遮光膜が埋め込みにより形成されて分離領域441とされる。この分離領域441は、入射面から基板61内に入射し、画素51aに隣接する他の画素へと向かう赤外光を遮光する画素分離領域として機能する。
 このように埋め込み型の分離領域441を形成することで、画素間における赤外光の分離特性を向上させることができ、混色の発生を抑制することができる。
 基板61には、分離領域441で区画された複数の光電変換領域27が設けられている。光電変換領域27は画素51a毎に設けられ、各画素51aの光電変換領域には、上述したN+半導体領域71-1およびP+半導体領域73-1等を含む信号取り出し部65-1やN+半導体領域71-2およびP+半導体領域73-2等を含む信号取り出し部65-2が設けられている。
 分離領域441は、上述の第1実施形態の分離領域24と同様の格子状平面パターンで構成されている。即ち、この第2実施形態の分離領域441においても、上述の第1実施形態の図5から図8を参照して説明すると、X方向に延伸する第1部分24xとY方向に延伸する第2部分24yとを平面視で互いに離間させて第1部分24xと第2部分24yとの交差部を廃止した格子状平面パターンになっている。そして、第1平面パターン26aにおいて、分離領域24(分離領域441)の第1部分24xと第2部分24yとの間の半導体層20(基板61)は、図6に示すように、第1部分24x側の第1側面部20yと第2部分24y側の第2側面部20yとの形状が異なっている。また、第2平面パターン26bにおいて、分離領域24の第2部分24yと第1部分24xとの間の半導体層20は、図8に示すように、第2部分24y側の第1側面部20xと第1部分24x側の第2側面部20xとの平面形状が異なっている。この第2実施形態においても、第1側面部20y,20xが平面形状であり、第2側面部20y,20xが凹状の湾曲形状になっている。
 この第2実施形態に係る測距センサ50においても、上述の第1実施形態に係る固体撮像装置1Aと同様の効果が得られる。
 なお、この第2実施形態の分離領域441は、上述の第1実施形態の変形例1-1の分離領域24Aと同様に、基板61の第2面S2側から第1の面S1側に向かって延伸し、第1の面S1から離間する構成になっている。この場合の分離領域441の深さは、基板61の厚さよりも浅くなる。
 <画素の等価回路構成>
 図13は、この第2実施形態に係る測距センサに搭載された画素の等価回路を示す図である。 画素51aは、N+半導体領域71-1およびP+半導体領域73-1等を含む信号取り出し部65-1に対して、転送トランジスタ721A、FD722A、リセットトランジスタ723A、増幅トランジスタ724A、及び、選択トランジスタ725Aを有する。
 また、画素51aは、N+半導体領域71-2およびP+半導体領域73-2等を含む信号取り出し部65-2に対して、転送トランジスタ721B、FD722B、リセットトランジスタ723B、増幅トランジスタ724B、及び、選択トランジスタ725Bを有する。
 垂直駆動部22は、P+半導体領域73-1に所定の電圧MIX0(第1の電圧)を印加し、P+半導体領域73-2に所定の電圧MIX1(第2の電圧)を印加する。上述した例では、電圧MIX0およびMIX1の一方が1.5Vで、他方が0Vである。P+半導体領域73-1および73-2は、第1の電圧または第2の電圧が印加される電圧印加部である。
 N+半導体領域71-1および71-2は、基板61に入射された光が光電変換されて生成された電荷を検出して、蓄積する電荷検出部である。
 転送トランジスタ721Aは、ゲート電極に供給される駆動信号TRGがアクティブ状態になるとこれに応答して導通状態になることで、N+半導体領域71-1に蓄積されている電荷をFD722Aに転送する。転送トランジスタ721Bは、ゲート電極に供給される駆動信号TRGがアクティブ状態になるとこれに応答して導通状態になることで、N+半導体領域71-2に蓄積されている電荷をFD722Bに転送する。
 FD722Aは、N+半導体領域71-1から供給された電荷を一時保持する。FD722Bは、N+半導体領域71-2から供給された電荷を一時保持する。FD722Aは、図2を参照して説明したFD部Aに対応し、FD722Bは、FD部Bに対応するものである。
 リセットトランジスタ723Aは、ゲート電極に供給される駆動信号RSTがアクティブ状態になるとこれに応答して導通状態になることで、FD722Aの電位を所定のレベル(リセット電圧VDD)にリセットする。リセットトランジスタ723Bは、ゲート電極に供給される駆動信号RSTがアクティブ状態になるとこれに応答して導通状態になることで、FD722Bの電位を所定のレベル(リセット電圧VDD)にリセットする。なお、リセットトランジスタ723Aおよび723Bがアクティブ状態とされるとき、転送トランジスタ721Aおよび721Bも同時にアクティブ状態とされる。
 増幅トランジスタ724Aは、ソース電極が選択トランジスタ725Aを介して垂直信号線29Aに接続されることにより、垂直信号線29Aの一端に接続されている定電流源回路部726Aの負荷MOSとソースフォロワ回路を構成する。増幅トランジスタ724Bは、ソース電極が選択トランジスタ725Bを介して垂直信号線29Bに接続されることにより、垂直信号線29Bの一端に接続されている定電流源回路部726Bの負荷MOSとソースフォロワ回路を構成する。
 選択トランジスタ725Aは、増幅トランジスタ724Aのソース電極と垂直信号線29Aとの間に接続されている。選択トランジスタ725Aは、ゲート電極に供給される選択信号SELがアクティブ状態になるとこれに応答して導通状態となり、増幅トランジスタ724Aから出力される画素信号を垂直信号線29Aに出力する。
 選択トランジスタ725Bは、増幅トランジスタ724Bのソース電極と垂直信号線29Bとの間に接続されている。選択トランジスタ725Bは、ゲート電極に供給される選択信号SELがアクティブ状態になるとこれに応答して導通状態となり、増幅トランジスタ724Bから出力される画素信号を垂直信号線29Bに出力する。
 画素51aの転送トランジスタ721Aおよび721B、リセットトランジスタ723Aおよび723B、増幅トランジスタ724Aおよび724B、並びに、選択トランジスタ725Aおよび725Bは、例えば、垂直駆動部52によって制御される。
 <第2実施形態の変形例>
 上述の第2実施形態では、基板61の第2面S2側から第1の面S1側に向かって延伸し、第1の面S1から離間する分離領域441について説明した。本技術は、上述の第2実施形態の図12に示す分離領域441に限定されるものではない。例えば、図14に示すように、基板61の第2の面S2及び第1の面S1に亘って貫通する分離領域471-1および分離領域471-2においても、本技術を適用することが可能である。
 〔第3実施形態〕
 個体撮像装置においては、1つのオンチップレンズの下側に光電変換素子を複数個埋め込むことで瞳分割を行う方式があり、例えば一眼レフカメラやスマートフォンなどの電子機器の内蔵カメラ向けに採用されている。また、固体撮像装置には、位相差検出時に、1つのオンチップレンズの下に配置された複数の光電変換素子で光電変換された信号電荷を、それぞれ独立の信号として読み出すことによって位相差検出を行う方式が知られている。この第3実施形態では、2つの光電変換部を含む光電変換領域を備えた固体撮像装置に本技術を提供した一例について説明する。
 この第3実施形態に係る固体撮像装置は、図15に示す画素3aを備えている。
 画素3aは、半導体層20に設けられた光電変換領域28を備えている。光電変換領域28は、半導体層20に設けられた第1分離領域(画素分離領域)29aによって区画されている。
 光電変換領域28は、第1光電変換部28L及び第2光電変換部28Rを含む。第1光電変換部28Lと第2光電変換部28Rとの間には、第2分離領域(画素内分離領域)28bが設けられている。第1光電変換部28L及び第2光電変換部28Rの各々には、光電変換素子として例えばホトダイオードが設けられている。
 第1分離領域29a及び第2分離領域29bの各々は、上述の第1実施形態の図3に示す分離領域24と同様に、半導体層20の第2の面S2側から反対側の第1の面S1側に向かって延伸する溝部と、この溝部内に埋め込まれた絶縁膜とを含む。
 図15に示すように、第1分離領域29aは、平面視で方形状の環状平面パターンになっている。第2分離領域29bは、第1分離領域29a内において、平面視でY方向に延伸している。第2分離領域29bは第1分離領域29aから離間し、平面視で第2分離領域29bの端部が半導体層20を介して第1分離領域29aと向かい合っている。
 第1分離領域29aと第2分離領域29bとの間の半導体層20は、第2分離領域29b側の第1側面部20xと、第1分離領域29a側の第2側面部20xとを含む。この第1側面部20x及び第2側面部20xは、上述の第1実施形態の第1側面部20x及び第2側面部20xと同様の構成になっている。即ち、第2側面部20xは、平面視で第1側面部20xのX方向の幅Wxと同一方向の幅Wxが第1側面部20xの幅Wxよりも幅広になっている。そして、第1側面部20xが平面形状で構成され、第2側面部20xが湾曲形状で構成されている。
 この第3実施形態の係る固体撮像装置においても、上述の第1実施形態と同様の効果が得られる。
 〔第4実施形態〕
 ≪電子機器への応用例≫
 本技術(本開示に係る技術)は、例えば、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置、撮像機能を備えた携帯電話機、又は、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図16は、本技術の第4実施形態に係る電子機器(例えば、カメラ)の概略構成を示す図である。
 図16に示すように、電子機器100は、固体撮像装置101と、光学レンズ102と、シャッタ装置103と、駆動回路104と、信号処理回路105とを備えている。この電子機器100は、固体撮像装置101として、本技術の実形態に係る固体撮像装置及び測距センサを電子機器(例えばカメラ)に用いた場合の実施形態を示す。
 光学レンズ102は、被写体からの像光(入射光106)を固体撮像装置101の撮像面上に結像させる。これにより、固体撮像装置101内に一定期間にわたって信号電荷が蓄積される。シャッタ装置103は、固体撮像装置101への光照射期間及び遮光期間を制御する。駆動回路104は、固体撮像装置101の転送動作及びシャッタ装置103のシャッタ動作を制御する駆動信号を供給する。駆動回路104から供給される駆動信号(タイミング信号)により、固体撮像装置101の信号転送を行なう。信号処理回路105は、固体撮像装置101から出力される信号(画素信号)に各種信号処理を行う。信号処理が行われた映像信号は、メモリ等の記憶媒体に記憶され、或いはモニタに出力される。
 このような構成により、第4実施形態の電子機器100では、固体撮像装置101において光反射抑制部により、遮光膜や、空気層と接する絶縁膜での光反射が抑制させているため、フレを抑制することができ、画質の向上を図ることができる。
 なお、上述の実施形態の固体撮像装置を適用できる電子機器100としては、カメラに限られるものではなく、他の電子機器にも適用することができる。例えば、携帯電話機やタブレット端末等のモバイル機器向けカメラモジュール等の撮像装置に適用してもよい。
 〔第5実施形態〕
 ≪電子機器への応用例≫
 図17に示すように、電子機器としての距離画像機器201は、光学系202、センサチップ2X、画像処理回路203、モニタ204、及びメモリ205を備えて構成される。距離画像機器201は、光源装置211から被写体に向かって投光され、被写体の表面で反射された光(変調光やパルス光)を受光することにより、被写体までの距離に応じた距離画像を取得することができる。
 光学系202は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)をセンサチップ2Xに導き、センサチップ2Xの受光面(センサ部)に結像させる。
 センサチップ2Xとしては、上述した実施形態の固体撮像装置や測距センサを搭載したセンサチップ(半導体チップ)が適用され、センサチップ2Xから出力される受光信号(APD OUT)から求められる距離を示す距離信号が画像処理回路203に供給される。
 画像処理回路203は、センサチップ2Xから供給された距離信号に基づいて距離画像を構築する画像処理を行い、その画像処理により得られた距離画像(画像データ)は、モニタ204に供給されて表示されたり、メモリ205に供給されて記憶(記録)されたりする。
 このように構成された距離画像機器201では、上述した実施形態の固体撮像装置や測距センサが搭載されたセンサチップを適用することで、安定性の高い画素からの受光信号のみに基づいて被写体までの距離を演算し、精度の高い距離画像を生成することが可能となる。すなわち、距離画像機器201は、より正確な距離画像を取得することができる。
 ≪イメージセンサの使用例≫
 上述した実施形態の固体撮像装置や測距センサが搭載されたセンサチップは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 なお、本技術は、以下のような構成としてもよい。
(1)
 溝部を含む分離領域で区画された光電変換領域を有する半導体層を備え、
 前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
 前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
 断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、光検出装置。
(2)
 前記第1側面部は、平面形状であり、前記第2側面部は、湾曲形状である、上記(1)に記載の光検出装置。
(3)
 前記第2側面部は、平面視で前記第1側面部の幅と同一方向の幅が前記第1側面部の幅よりも幅広になっている、上記(1)又は(2)に記載の光検出装置。
(4)
 前記第1部分は、平面視で前記第2部分の幅方向の両側にそれぞれ設けられている、上記(1)から(3)の何れかに記載の光検出装置。
(5)
 前記第1部分は、平面視で第1の方向に延伸し、
 前記第2部分は、平面視で前記第1の方向と直交する第2の方向に延伸している、上記(1)から(4)の何れかに記載の光検出装置。
(6)
 前記分離領域は、前記半導体層の互いに反対側に位置する第1の面及び第2の面のうちの前記第2の面側から前記第1の面側に向かって延伸している、上記(1)から(5)の何れかに記載の光検出装置。
(7)
 前記半導体層の光入射面側に設けられた多層配線層と、
 前記多層配線層の前記半導体層側とは反対側に設けられたマイクロレンズと、
 を更に備えている、上記(1)から(6)の何れかに記載の光検出装置。
(8)
 溝部を含む分離領域で区画された光電変換領域を有する半導体層と、
 前記光電変換領域に設けられた2つの転送トランジスタと、
 を備え、
 前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
 前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
 断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、光検出装置。
(9)
 光検出装置と、被写体からの像光を前記光検出装置の撮像面上に結像させる光学レンズと、前記光検出装置から出力される信号に信号処理を行う信号処理回路と、を備え、
 前記光検出装置は、
 溝部を含む分離領域で区画された光電変換領域を有する半導体層を備え、
 前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
 前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
 断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、電子機器。
(10)
 光検出装置と、被写体からの像光を前記光検出装置の撮像面上に結像させる光学レンズと、前記光検出装置から出力される信号に信号処理を行う信号処理回路と、を備え、
 前記光検出装置は、
 溝部を含む分離領域で区画された光電変換領域を有する半導体層と、
 前記光電変換領域に設けられた2つの転送トランジスタと、
 を備え、
 前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
 前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
 断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、電子機器。
 本技術の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本技術が目的とするものと均等な効果をもたらす全ての実施形態をも含む。さらに、本技術の範囲は、請求項により画される発明の特徴の組み合わせに限定されるものではなく、全ての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。
 1A 固体撮像装置
 2 半導体チップ
 2A 画素アレイ部
 3B 周辺部
 2 半導体チップ
 2A 画素アレイ部
 2B 周辺部
 2C パッド配置部
 3 画素
 4 垂直駆動回路
 5 カラム信号処理回路
 6 水平駆動回路
 7 出力回路
 8 制御回路
 10 画素駆動配線、
 11 垂直信号線
 12 水平信号線
 13 ロジック回路
 14 ボンディングパッド
 20 半導体層
 20x,20y 第1側面部
 20x,20y 第2側面部
 21 p型のウエル領域
 22 溝部
 23 絶縁膜
 24 分離領域
 24x 第1部分
 24y 第2部分
 25x X方向分離列
 25y Y方向分離列
 26a 第1パターン
 26b 第2パターン
 27 光電変換領域
 28 光電変換領域
 28L 第1光電変換部
 28R 第2光電変換部
 29a 第1分離領域
 29b 第2分離領域
 30 多層配線層
 31 層間絶縁膜
 32 配線
 34 支持基板
 36 平坦化膜
 37 遮光膜
 38 接着膜
 40 カラーフィルタ層
 41 赤色(R)の第1カラーフィルタ部
 42 緑(G)色の第2カラーフィルタ部
 43 青色(B)の第3カラーフィルタ部
 45 マイクロレンズ
 50 測距センサ
 51 画素アレイ部
 51a 画素
 61 基板
 62 オンチップレンズ
 65-1,65-2 信号取り出し部
 71-1,71-2,71 N+半導体領域
 73-1,73-2,73 P+半導体領域
 441-1,441-2,441 分離領域
 471-1,472,471 分離領域

Claims (10)

  1.  溝部を含む分離領域で区画された光電変換領域を有する半導体層を備え、
     前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
     前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
     断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、光検出装置。
  2.  前記第1側面部は、平面形状であり、前記第2側面部は、湾曲形状である、請求項1に記載の光検出装置。
  3.  前記第2側面部は、平面視で前記第1側面部の幅と同一方向の幅が前記第1側面部の幅よりも幅広になっている、請求項1に記載の光検出装置。
  4.  前記第1部分は、平面視で前記第2部分の幅方向の両側にそれぞれ設けられている、請求項1に記載の光検出装置。
  5.  前記第1部分は、平面視で第1の方向に延伸し、
     前記第2部分は、平面視で前記第1の方向と直交する第2の方向に延伸している、請求項1に記載の光検出装置。
  6.  前記分離領域は、前記半導体層の互いに反対側に位置する第1の面及び第2の面のうちの前記第2の面側から前記第1の面側に向かって延伸している、請求項1に記載の光検出装置。
  7.  前記半導体層の光入射面側に設けられた多層配線層と、
     前記多層配線層の前記半導体層側とは反対側に設けられたマイクロレンズと、
     を更に備えている、請求項1に記載の光検出装置。
  8.  溝部を含む分離領域で区画された光電変換領域を有する半導体層と、
     前記光電変換領域に設けられた2つの転送トランジスタと、
     を備え、
     前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
     前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
     断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、光検出装置。
  9.  光検出装置と、被写体からの像光を前記光検出装置の撮像面上に結像させる光学レンズと、前記光検出装置から出力される信号に信号処理を行う信号処理回路と、を備え、
     前記光検出装置は、
     溝部を含む分離領域で区画された光電変換領域を有する半導体層を備え、
     前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
     前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
     断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、電子機器。
  10.  光検出装置と、被写体からの像光を前記光検出装置の撮像面上に結像させる光学レンズと、前記光検出装置から出力される信号に信号処理を行う信号処理回路と、を備え、
     前記光検出装置は、
     溝部を含む分離領域で区画された光電変換領域を有する半導体層と、
     前記光電変換領域に設けられた2つの転送トランジスタと、
     を備え、
     前記分離領域は、平面視で前記半導体層を介して互いに隣り合う第1部分及び第2部分を含み、
     前記第1部分と前記第2部分との間の前記半導体層は、前記第1部分側の第1側面部と、前記第2部分側の第2側面部とを含み、
     断面視で前記第1側面部及び前記第2側面部は、形状が異なっている、電子機器。
PCT/JP2022/001573 2021-06-03 2022-01-18 光検出装置及び電子機器 WO2022254773A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021093812A JP2022185900A (ja) 2021-06-03 2021-06-03 光検出装置及び電子機器
JP2021-093812 2021-06-03

Publications (1)

Publication Number Publication Date
WO2022254773A1 true WO2022254773A1 (ja) 2022-12-08

Family

ID=84324064

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001573 WO2022254773A1 (ja) 2021-06-03 2022-01-18 光検出装置及び電子機器

Country Status (2)

Country Link
JP (1) JP2022185900A (ja)
WO (1) WO2022254773A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081015A (ja) * 2005-09-13 2007-03-29 Sony Corp 固体撮像素子及びその製造方法
JP2013243324A (ja) * 2012-05-23 2013-12-05 Sony Corp 撮像素子、および撮像装置
JP2015170732A (ja) * 2014-03-07 2015-09-28 株式会社東芝 レーザ加熱処理方法、及び、固体撮像装置の製造方法
JP2021048158A (ja) * 2019-09-17 2021-03-25 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081015A (ja) * 2005-09-13 2007-03-29 Sony Corp 固体撮像素子及びその製造方法
JP2013243324A (ja) * 2012-05-23 2013-12-05 Sony Corp 撮像素子、および撮像装置
JP2015170732A (ja) * 2014-03-07 2015-09-28 株式会社東芝 レーザ加熱処理方法、及び、固体撮像装置の製造方法
JP2021048158A (ja) * 2019-09-17 2021-03-25 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置

Also Published As

Publication number Publication date
JP2022185900A (ja) 2022-12-15

Similar Documents

Publication Publication Date Title
US11532659B2 (en) Solid-state imaging device, manufacturing method thereof, and electronic device
US20200350358A1 (en) Solid-state imaging device, drive method thereof and electronic apparatus
KR102437162B1 (ko) 이미지 센서
JP7006268B2 (ja) 撮像素子、電子機器、並びに、製造装置および方法
US9123603B2 (en) Photoelectric conversion device and imaging system
TWI495095B (zh) 固態攝像裝置及照相機
CN107851649B (zh) 成像设备、制造方法、半导体设备和电子设备
WO2016098624A1 (ja) 固体撮像素子、撮像装置、および電子機器
JP6732730B2 (ja) 固体撮像素子、駆動方法、および電子機器
JP5326507B2 (ja) 固体撮像装置、固体撮像装置の駆動方法、及び電子機器
JP5320989B2 (ja) 固体撮像装置、及び電子機器
JP6045250B2 (ja) 固体撮像装置および撮像装置
JP2015012127A (ja) 固体撮像素子および電子機器
WO2008065952A1 (fr) Dispositif d'imagerie semi-conducteur, son procédé de fabrication, et dispositif d'informations électroniques
JP2008060476A (ja) 固体撮像装置および電子情報機器
JP2010245100A (ja) 固体撮像素子
JP5677238B2 (ja) 固体撮像装置
WO2022254773A1 (ja) 光検出装置及び電子機器
JP2018006666A (ja) 光電変換装置及び撮像システム
WO2020070887A1 (ja) 固体撮像装置
WO2022158309A1 (ja) 固体撮像装置および電子機器
US20240089619A1 (en) Light detection device and electronic apparatus
US20230232135A1 (en) Solid-state imaging device
US20240170525A1 (en) Sensor device
WO2016163242A1 (ja) 固体撮像素子および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22815534

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22815534

Country of ref document: EP

Kind code of ref document: A1