WO2023243429A1 - 固体撮像素子および電子機器 - Google Patents

固体撮像素子および電子機器 Download PDF

Info

Publication number
WO2023243429A1
WO2023243429A1 PCT/JP2023/020591 JP2023020591W WO2023243429A1 WO 2023243429 A1 WO2023243429 A1 WO 2023243429A1 JP 2023020591 W JP2023020591 W JP 2023020591W WO 2023243429 A1 WO2023243429 A1 WO 2023243429A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixels
image sensor
pixel block
semiconductor substrate
Prior art date
Application number
PCT/JP2023/020591
Other languages
English (en)
French (fr)
Inventor
雅司 尾崎
竜太 渡辺
亮太 長谷川
真明 柳田
利央 深井
麻理子 三浦
和弘 米田
恭佑 伊東
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023243429A1 publication Critical patent/WO2023243429A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to a solid-state image sensor and an electronic device, and particularly relates to a solid-state image sensor and an electronic device that can improve pixel characteristics.
  • CMOS Complementary Metal Oxide Semiconductor
  • Patent Document 1 describes a first separation area that separates photodiodes into which light is incident through the same on-chip lens, and a first separation area which separates photodiodes into which light is incident through different on-chip lenses.
  • a solid-state imaging device is disclosed in which two separation regions have different refractive indexes.
  • conventional solid-state image sensors have a structure in which an element isolation part is provided that extends in the depth direction from the back surface of the semiconductor substrate and is deep enough not to penetrate the semiconductor substrate, which prevents color mixture and blooming from occurring. In some cases, it was not possible to suppress the situation sufficiently. Further, by providing the isolation implant portion on the tip side of the element isolation portion, the area of the photoelectric conversion portion is reduced. Therefore, there is a concern that the pixel characteristics of conventional solid-state image sensing devices may deteriorate, and there is a need to improve the pixel characteristics.
  • the present disclosure has been made in view of this situation, and is intended to improve pixel characteristics.
  • a solid-state image sensor includes a semiconductor substrate in which a photoelectric conversion unit is provided for each pixel, and a filter that is laminated on the light-receiving surface side of the semiconductor substrate and that transmits light of a color that the pixel receives. and an on-chip lens layer laminated on the color filter layer and in which a microlens is arranged for each pixel pair consisting of two pixels of the same color, and the semiconductor substrate includes: a first element isolation section formed penetrating the semiconductor substrate and provided at least in part between the pixels of different colors; A second element isolation section is provided at least between the photoelectric conversion sections of the two pixels forming a pixel pair.
  • An electronic device includes a semiconductor substrate in which a photoelectric conversion section is provided for each pixel, and a filter that is laminated on the light-receiving surface side of the semiconductor substrate and that transmits light of a color that the pixel receives. and an on-chip lens layer that is laminated on the color filter layer and in which a microlens is arranged for each pixel pair consisting of two pixels of the same color, and the semiconductor substrate includes: a first element isolation section formed penetrating the semiconductor substrate and provided at least in part between the pixels of different colors; The solid-state image sensor is provided with at least a second element separation section provided between the photoelectric conversion sections of the two pixels forming a pixel pair.
  • the semiconductor substrate is provided with a photoelectric conversion section for each pixel, and the color filter layer stacked on the light-receiving surface side of the semiconductor substrate includes a filter that transmits light of a color received by the pixel. are arranged for each pixel, and in the on-chip lens layer laminated on the color filter layer, a microlens is arranged for each pixel pair consisting of two pixels of the same color.
  • the semiconductor substrate includes a first element isolation portion that is formed penetrating through the semiconductor substrate and provided at least in part between pixels of different colors, and a first element isolation portion that is dug to a predetermined depth from the light-receiving surface of the semiconductor substrate.
  • a second element isolation section is provided at least between the photoelectric conversion sections of two pixels forming a pixel pair.
  • FIG. 1 is a diagram illustrating a configuration example of a first embodiment of an image sensor to which the present technology is applied.
  • FIG. FIG. 3 is a diagram showing a first layout example of a pixel array. It is a figure which shows the 1st modification of a pixel arrangement. It is a figure which shows the 2nd modification of a pixel arrangement. It is a figure which shows the 3rd modification of a pixel arrangement.
  • FIG. 7 is a diagram showing second to fifth modified examples of the planar layout of pixel pairs.
  • FIG. 7 is a diagram showing sixth and seventh modified examples of the planar layout of pixel pairs.
  • FIG. 7 is a diagram showing a second layout example of a pixel array.
  • FIG. 7 is a cross-sectional view showing a modification of the image sensor.
  • FIG. 3 is a diagram showing an example of a layout of a CF waveguide. It is a figure which shows the modification of the layout of a CF waveguide.
  • FIG. 6 is a diagram illustrating the fact that light also enters a pixel on the opposite side to the side where it enters the microlens.
  • FIG. 7 is a diagram illustrating a configuration example of a second embodiment of an image sensor to which the present technology is applied.
  • FIG. 3 is a cross-sectional view showing a first variation of the image sensor.
  • FIG. 7 is a cross-sectional view showing a second variation of the image sensor.
  • FIG. 7 is a cross-sectional view showing a third variation of the image sensor.
  • FIG. 3 is a diagram showing an example of a layout of a CF waveguide. It is a figure which shows the modification of the layout of a CF waveguide.
  • FIG. 6 is a diagram illustrating the fact that light also enters a pixel on the opposite side to the
  • FIG. 7 is a cross-sectional view showing a fourth variation of the image sensor.
  • FIG. 7 is a cross-sectional view showing fifth to seventh variations of the image sensor.
  • FIG. 7 is a cross-sectional view showing eighth and ninth variations of the image sensor.
  • FIG. 7 is a cross-sectional view showing a tenth variation of the image sensor.
  • FIG. 3 is a diagram showing an example of a lens arrangement of microlenses.
  • FIG. 7 is a diagram showing another example of a lens arrangement of microlenses.
  • 1 is a block diagram showing a configuration example of an imaging device.
  • FIG. It is a figure which shows the example of use which uses an image sensor.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 2 is an explanatory diagram showing an example of installation positions of an outside-vehicle information detection section and an imaging section.
  • FIG. 1A shows a cross-sectional configuration of two adjacent pixels 12-1 and 12-2 among the plurality of pixels 12 included in the image sensor 11.
  • a plurality of pixels 12 are arranged in a matrix, and two pixels 12-1 and 12-2 have a pixel sharing structure in which a plurality of elements (for example, a floating diffusion, an amplification transistor, etc.) are shared. has been adopted. Further, the two pixels 12-1 and 12-2 receive light of the same color.
  • the two pixels 12-1 and 12-2 having the pixel sharing structure and having the same color will be referred to as a pixel pair 41 hereinafter.
  • the image sensor 11 is configured by laminating a color filter layer 22 and an on-chip lens layer 23 on the back side, which is the light-receiving surface, of a semiconductor substrate 21, and a wiring layer (not shown) is laminated on the front side of the semiconductor substrate 21. configured.
  • a photoelectric conversion section 31 that photoelectrically converts received light is provided on the semiconductor substrate 21 for each pixel 12.
  • an FFTI 32 which is a first element isolation section for isolating the pixels 12-1 and 12-2 forming the pixel pair 41 from other adjacent pixels 12, is provided on the pixel 12-1. 1 and 12-2.
  • a DTI 33 which is a second element isolation section for separating the photoelectric conversion section 31-1 of the pixel 12-1 and the photoelectric conversion section 31-2 of the pixel 12-2, is provided. It is provided between the section 31-1 and the photoelectric conversion section 31-2.
  • the FFTI (Front Full Trench Isolation) 32 is constructed by filling a trench with an insulating material such as SiO2, which is dug from the surface side of the semiconductor substrate 21 and formed to penetrate the semiconductor substrate 21.
  • the DTI (Deep Trench Isolation) 33 is configured by filling a deep trench formed by digging from the back side of the semiconductor substrate 21 with an insulating material such as SiO2.
  • a separation implant portion 34 is provided in the semiconductor substrate 21 from the tip of the DTI 33 to near the surface of the semiconductor substrate 21, and an FD portion 35 is provided in the separation implant portion 34.
  • the isolation implant portion 34 is a region provided by implanting impurities and electrically isolates the photoelectric conversion portions 31 from each other.
  • the FD (Floating Diffusion) section 35 temporarily accumulates the charge transferred from the photoelectric conversion section 31, converts the charge into a pixel signal via an amplification transistor (not shown), and outputs the pixel signal.
  • a transfer transistor 36-1 is provided between the photoelectric conversion section 31-1 and the FD section 35, and a transfer transistor 36-1 is provided between the photoelectric conversion section 31-2 and the FD section 35. 36-2 is provided.
  • the transfer transistor 36-1 transfers the charges accumulated in the photoelectric conversion section 31-1 to the FD section 35, and the transfer transistor 36-2 transfers the charges accumulated in the photoelectric conversion section 31-2 to the FD section 35. Transfer to.
  • the color filter layer 22 is provided with filters 37-1 and 37-2 that transmit the light of the colors that the pixels 12-1 and 12-2 receive. As described above, since the pixels 12-1 and 12-2 forming the pixel pair 41 receive light of the same color, the filters 37-1 and 37-2 transmit the light of the same color.
  • the on-chip lens layer 23 is provided with one microlens 38 for each pixel pair 41, and the two pixels 12-1 and 12-2 share one microlens 38. .
  • FIG. 1B shows an example of a planar layout of a pixel pair 41 consisting of two pixels 12-1 and 12-2, viewed from the front side of the semiconductor substrate 21.
  • the FFTI 32 is formed so as to surround the outer periphery of the pixel pair 41, and is provided between the pixel 12-1 and the pixel 12-2 so that both ends are in contact with the FFTI 32.
  • a DTI 33 is formed, and an FD section 35 is arranged at the center of the DTI 33.
  • FIG. 1C shows a first modification of the planar layout.
  • the FFTI 32 is formed so as to surround the outer periphery of the pixel pair 41a, and is provided between the pixel 12a-1 and the pixel 12a-2 so that both ends are in contact with the FFTI 32.
  • a DTI 33 is formed, and an FD section 35a is arranged near one end of the DTI 33 (in the illustrated example, near a lower end).
  • the image sensor 11 configured in this manner can suppress the occurrence of color mixture and blooming with other adjacent pixel pairs 41, and can also expand the area of the photoelectric conversion unit 31 in the pixel 12. Can be done.
  • the image sensor 11 can suppress the light transmitted through the semiconductor substrate 21 from passing through by separating the pixel pairs 41 using the FFTI 32, and also prevent the light transmitted through the semiconductor substrate 21 from passing through the photoelectric conversion section 31. It is possible to suppress overflow of saturated charges. Further, in the image sensor 11, there is no need to provide a separate implant portion 34 that surrounds the outer periphery of the pixels 12-1 and 12-2. Therefore, the image sensor 11 can suppress the occurrence of color mixture and blooming, and can expand the area of the photoelectric conversion section 31, thereby improving the characteristics of the pixel 12.
  • FIG. 2 shows a first layout example of the pixel array 51 employed in the image sensor 11.
  • a plurality of pixel arrays 51 are repeatedly arranged in the row direction and the column direction, with the pixel array 51 as shown in FIG. 2 as a unit.
  • a pixel block 52 is formed for each pixel 12 of the same color, and four pixel blocks 52 are combined.
  • the pixel array 51 is configured such that a pixel block 52Gr is arranged at the upper left, a pixel block 52R is arranged at the upper right, a pixel block 52B is arranged at the lower left, and a pixel block 52Gb is arranged at the lower left.
  • pixel block 52Gr ten pixels 12Gr-1 to 12Gr-10 that receive green light are arranged in a first arrangement pattern.
  • pixel block 52R eight pixels 12R-1 to 12R-8 that receive red light are arranged in a second arrangement pattern.
  • pixel block 52B eight pixels 12B-1 to 12B-8 that receive blue light are arranged in a second arrangement pattern.
  • pixel block 52Gb ten pixels 12Gb-1 to 12Gb-10 that receive green light are arranged in a first arrangement pattern.
  • the first arrangement pattern four pixels 12-1 to 12-4 are arranged in the first row, two pixels 12-5 and 12-6 are arranged in the second row, Four pixels 12-7 to 12-10 are arranged in the third row, and the right and left sides are concave toward the inside.
  • two pixels 12-1 and 12-2 are arranged in the first row, four pixels 12-3 to 12-6 are arranged in the second row, and the third row
  • Two pixels 12-7 and 12-8 are arranged in the shape where the right side and the left side are convex toward the outside.
  • the concavities on the right and left sides of the first arrangement pattern become convex on the right and left sides of the second arrangement pattern.
  • the pixel array 51 is configured so as to fit into the area.
  • an FFTI 32 is provided to surround the outer periphery of the two pixels 12 forming the pixel pair 41, and a DTI 33 is provided between the two pixels 12 forming the pixel pair 41. It consists of
  • the pixel Pixel pair 41 includes pixel 12Gr-7 and pixel 12Gr-8, and pixel 12Gr-9 and pixel 12Gr-10.
  • FFTIs 32 are provided to surround the outer peripheries of the pixel 12Gr-9 and the pixel 12Gr-10, respectively. Furthermore, between pixel 12Gr-1 and pixel 12Gr-2, between pixel 12Gr-3 and pixel 12Gr-4, between pixel 12Gr-5 and pixel 12Gr-6, and between pixel 12Gr-7 and pixel 12Gr-8.
  • a DTI 33 is provided between the pixel 12Gr-9 and the pixel 12Gr-10. Also, in the pixel block 52Gb in which the pixels 12Gb are arranged in the first arrangement pattern, the FFTI 32 and the DTI 33 are provided similarly to the pixel block 52Gr.
  • the pixel 12R-1 and the pixel 12R-2, the pixel 12R-3 and the pixel 12R-4, the pixel 12R-5 and the pixel 12R-6, and , pixel 12R-7, and pixel 12R-8 each form a pixel pair 41.
  • FFTIs 32 are provided so as to surround the outer periphery. Further, between the pixel 12R-1 and the pixel 12R-2, between the pixel 12R-3 and the pixel 12R-4, between the pixel 12R-5 and the pixel 12R-6, and between the pixel 12R-7 and the pixel 12R -8, a DTI 33 is provided respectively. Also, in the pixel block 52B in which the pixels 12B are arranged in the second arrangement pattern, the FFTI 32 and the DTI 33 are provided similarly to the pixel block 52R.
  • the pixel array 51 having such a configuration can suppress the occurrence of color mixture and blooming with other adjacent pixel pairs 41, and can enhance the effect of expanding the area of the photoelectric conversion unit 31.
  • FIG. 3 shows a first modification of the pixel array 51.
  • the pixel array 51a includes a pixel block 52Gr, a pixel block 52R, a pixel block 52B, and a pixel block 52Gb, similar to the pixel array 51 in FIG. Furthermore, in the pixel array 51a, pixel pairs 41 are provided, similar to the pixel array 51 in FIG.
  • FFTIs 32 are arranged between pixels 12 of different colors, and DTIs 33 are arranged between pixels 12 other than where FFTIs 32 are arranged.
  • the FFTIs 32 are arranged along the boundaries of the pixel block 52Gr, pixel block 52R, pixel block 52B, and pixel block 52Gb. Furthermore, in the pixel array 51a, between pixels 12Gr in a pixel block 52Gr, between pixels 12R in a pixel block 52R, between pixels 12B in a pixel block 52B, and between pixels 12Gb in a pixel block 52Gb.
  • a DTI 33 is also arranged.
  • the pixel array 51a having such a configuration can enhance the effect of suppressing color mixture and blooming between adjacent pixel pairs 41 of other colors, and can also expand the area of the photoelectric conversion unit 31. can. Further, in the pixel array 51a, variations among the pixels 12 can also be suppressed.
  • FIG. 4 shows a second modification of the pixel array 51.
  • the pixel array 51b is provided with a pixel block 52Gr, a pixel block 52R, a pixel block 52B, and a pixel block 52Gb, similar to the pixel array 51 in FIG. Furthermore, in the pixel array 51b, pixel pairs 41 are provided, similar to the pixel array 51 in FIG.
  • the FFTIs 32 are arranged between the pixels 12 of different colors and between the left and right adjacent pixel pairs 41 of the same color, and between the pixels 12 other than the locations where the FFTIs 32 are arranged.
  • a DTI 33 is arranged.
  • the FFTIs 32 are arranged along the boundaries of the pixel block 52Gr, pixel block 52R, pixel block 52B, and pixel block 52Gb, and the pixel pairs 41 adjacent to each other on the left and right within each pixel block 52 An FFTI 32 is also placed between them.
  • a DTI 33 is arranged at a location where an FFTI 32 is not provided.
  • the pixel array 51b having such a configuration can suppress the occurrence of color mixture and blooming between adjacent pixel pairs 41 of other colors, and can expand the area of the photoelectric conversion unit 31. Furthermore, compared to the pixel array 51a, the pixel array 51b can suppress differences in characteristics between the pixels 12 of the same color.
  • FIG. 5 shows a third modification of the pixel array 51.
  • the pixel array 51c is provided with a pixel block 52Gr, a pixel block 52R, a pixel block 52B, and a pixel block 52Gb, similar to the pixel array 51 in FIG. Furthermore, in the pixel array 51c, pixel pairs 41 are provided, similar to the pixel array 51 in FIG.
  • FFTIs 32 are arranged along the boundary between the pixel block 52R and the pixel block 52B, and DTIs 33 are arranged at locations where FFTIs 32 are not arranged.
  • the pixel array 51c has a different configuration from the pixel array 51a in FIG. 3 in that the DTI 33 is arranged at a location where the pixel block 52Gr and the pixel block 52Gb are adjacent to each other.
  • the FFTI 32 is arranged in the pixel array 51a of FIG. 3, whereas the pixel array 51c In this case, DTI33 is arranged.
  • the pixel array 51c having such a configuration can improve the cracking resistance of the semiconductor substrate 21 compared to the pixel array 51a of FIG.
  • the FFTIs 32 are arranged continuously in a straight line, whereas in the pixel array 51c, the DTIs 33 are arranged partially, which improves the strength.
  • the pixel array 51c allows easy arrangement of pixel transistors as the number of DTIs 33 increases.
  • FIG. 6A shows a second modification of the planar layout of the pixel pair 41.
  • the pixel pair 41b includes a convex portion that surrounds the outer periphery of the pixel pair 41b and protrudes downward from the center of the upper side toward between the pixel 12b-1 and the pixel 12b-2, and the pixel 12b.
  • the FFTI 32b is formed such that the convex portions protruding upward from the center of the lower side toward between the pixels 12b-1 and 12b-2 face each other.
  • the FD section 35 is arranged in the gap between the protrusions of the FFTI 32b facing each other between the pixel 12b-1 and the pixel 12b-2.
  • the pixel pair 41b with such a planar layout can be more effective in suppressing color mixture between the pixel 12b-1 and the pixel 12b-2 than the pixel pair 41 shown in FIG.
  • FIG. 6B shows a third modification of the planar layout of the pixel pair 41.
  • the pixel pair 41c includes a convex portion that surrounds the outer periphery of the pixel pair 41c and protrudes downward from the center of the upper side toward between the pixel 12c-1 and the pixel 12c-2, and
  • the FFTI 32c is formed such that the convex portions protruding upward from the center of the lower side toward between the pixels 12c-1 and 12c-2 face each other.
  • the DTI 33c and the FD section 35 are arranged in the gap between the convex portions of the FFTI 32c facing each other between the pixel 12c-1 and the pixel 12c-2.
  • the pixel pair 41c with such a planar layout can further enhance the effect of suppressing color mixture between the pixel 12c-1 and the pixel 12c-2 than the pixel pair 41b shown in FIG. 6A.
  • FIG. 6C shows a fourth modification of the planar layout of the pixel pair 41.
  • the pixel pair 41d is provided with a convex portion that surrounds the outer periphery of the pixel pair 41d and protrudes downward from the center of the upper side toward between the pixel 12d-1 and the pixel 12d-2.
  • An FFTI 32d is formed in the FFTI 32d.
  • the FD section 35d is arranged in the gap between the convex part of the FFTI 32d that protrudes downward from the center of the upper side toward between the pixel 12d-1 and the pixel 12d-2, and the lower side of the FFTI 32d. .
  • the FD section 35d is arranged close to the lower side of the FFTI 32d, and the transfer transistor 36d-1 and the transfer transistor 36d-2 are also arranged close to the FFTI 32d according to the arrangement of the FD section 35d. It is placed near the bottom of the .
  • the pixel pair 41d with such a planar layout can be more effective in suppressing color mixture between the pixel 12d-1 and the pixel 12d-2 than the pixel pair 41 shown in FIG. Furthermore, the pixel pair 41d can alleviate the electric field between the transfer transistors 36d-1 and 36d-2 and the FD section 35d more than the pixel pair 41b shown in FIG. 6A.
  • FIG. 6D shows a fifth modification of the planar layout of the pixel pair 41.
  • the pixel pair 41e is provided with a convex portion that surrounds the outer periphery of the pixel pair 41e and protrudes downward from the center of the upper side toward between the pixel 12e-1 and the pixel 12e-2.
  • An FFTI 32e is formed in the FFTI 32e.
  • the DTI 33e and the FD section 35e are arranged in the gap between the convex part of the FFTI 32e that protrudes downward from the center of the upper side toward the pixel 12e-1 and the pixel 12e-2, and the lower side of the FFTI 32e. ing.
  • the FD section 35e is arranged closer to the lower side of the FFTI 32e, and the transfer transistor 36e-1 and the transfer transistor 36e-2 are also moved closer to the FFTI 32e according to the arrangement of the FD section 35e. It is placed near the bottom of the .
  • the pixel pair 41e with such a planar layout can be more effective in suppressing color mixture between the pixel 12e-1 and the pixel 12e-2 than the pixel pair 41d shown in FIG. 6C.
  • the pixel pair 41e can further relax the electric field between the transfer transistors 36e-1 and 36e-2 and the FD section 35e than the pixel pair 41c shown in FIG. 6B.
  • FIG. 7A shows a sixth modification of the planar layout of the pixel pair 41.
  • an FFTI 32f is provided so as to surround the upper side, left side, center, and right side of the pixel pair 41f, an FFTI 32f is provided on the lower side of the pixel 12f-1, and an FFTI 32f is provided on the lower side of the pixel 12f-1.
  • the FFTIs 32f provided on the lower sides of the FFTIs 2 and 32f are arranged independently without being connected at the corners.
  • the pixel pair 41f having such a planar layout can alleviate the electric field between the transfer transistors 36f-1 and 36f-2 and the FD section 35f more than the pixel pair 41d shown in FIG. 6C. Can be done.
  • FIG. 7B shows a seventh modification of the planar layout of the pixel pair 41.
  • the FFTI 32g is provided so as to surround the upper side, left side, center, and right side of the pixel pair 41g, the FFTI 32g is provided on the lower side of the pixel 12g-1, and the FFTI 32g is provided on the lower side of the pixel 12g-1.
  • the FFTIs 32g provided on the lower sides of the FFTIs 2 and 32g are arranged independently without being connected at the corners.
  • the FFTI 32g provided on the lower side of the pixel 12g-1 and the FFTI 32g provided on the lower side of the pixel 12g-2, and on the tip side of the FFTI 32g provided in the center of the pixel pair 41g.
  • a DTI 33g and an FD section 35g are arranged.
  • FIG. 7C shows an arrangement example in which pixel pairs 41g are repeatedly arranged. As shown in FIG. 7C, the pixel pairs 41g can be arranged by reversing the vertical direction for each row and shifting one pixel at a time in the left and right direction.
  • the pixel pair 41g with such a planar layout can further enhance the effect of suppressing color mixture between the pixel 12g-1 and the pixel 12g-2 than the pixel pair 41f shown in FIG. 7A.
  • FIG. 8 shows a second layout example of the planar layout of the pixel array 51 employed in the image sensor 11.
  • a plurality of pixel arrays 51-2 are repeatedly arranged in the row and column directions, with each pixel array 51-2 as shown in FIG. 8 being a unit.
  • a pixel block 53 is configured for each pixel 12 of the same color, and is configured by combining four pixel blocks 53.
  • the pixel array 51-2 is configured such that a pixel block 53Gr is arranged at the upper left, a pixel block 53R is arranged at the upper right, a pixel block 53B is arranged at the lower left, and a pixel block 53Gb is arranged at the lower left.
  • the pixel block 53Gr four pixels 12Gr-1 to 12Gr-4 that receive green light are arranged in a 2 ⁇ 2 arrangement pattern.
  • the pixel block 53R four pixels 12R-1 to 12R-4 that receive red light are arranged in a 2 ⁇ 2 arrangement pattern.
  • the pixel block 53B four pixels 12B-1 to 12B-4 that receive blue light are arranged in a 2 ⁇ 2 arrangement pattern.
  • the pixel block 53Gb four pixels 12Gb-1 to 12Gb-4 that receive green light are arranged in a 2 ⁇ 2 arrangement pattern.
  • the FFTI 32 is provided so as to surround the outer periphery of the four pixels 12 constituting the pixel block 53, and the DTI 33 is provided between the four pixels 12 constituting the pixel block 53. It consists of That is, in the pixel array 51-2, the FFTI 32 is provided between the pixels 12 of different colors, and the DTI 33 is provided between the pixels 12 of the same color.
  • FIG. 9 is a sectional view showing a modification of the image sensor 11. As shown in FIG.
  • FIG. 9 shows an example of a cross-sectional configuration of two adjacent pixels 12-1 and 12-2 among the plurality of pixels 12 included in the image sensor 11a.
  • the same components as the image sensor 11 in FIG. 1 are denoted by the same reference numerals, and detailed explanation thereof will be omitted.
  • a semiconductor substrate 21 and an on-chip lens layer 23 are configured similarly to the image sensor 11 in FIG.
  • the color filter layer 22a has a different configuration from the image sensor 11 in FIG.
  • the color filter layer 22a is configured with a CF (color filter) waveguide 39 provided so as to surround the outer periphery of the filters 37-1 and 37-2 forming the pixel pair 41.
  • the CF waveguide 39 is provided between the pixels 12-1 and 12-2 and other adjacent pixels 12 in order to suppress the mixing of light in the color filter layer 22a. That is, by providing the CF waveguide 39, the image sensor 11a suppresses the light incident on the pixels 12-1 and 12-2 from entering other adjacent pixels 12 via the color filter layer 22a. At the same time, it is possible to suppress light that has entered other adjacent pixels 12 from entering the pixels 12-1 and 12-2 via the color filter layer 22a.
  • the image sensor 11a configured in this manner can suppress color mixture and blooming, expand the area of the photoelectric conversion section 31, and suppress color mixture in the color filter layer 22a. The occurrence of can be suppressed. As a result, the image sensor 11a can further improve the characteristics of the pixels 12.
  • FIG. 10 shows an example of the layout of the CF waveguide 39 provided in the color filter layer 22a.
  • pixel block 52Gr pixel block 52R, pixel block 52B, and pixel block 52Gb similar to those in FIG. 2 are shown, and pixel pairs 41 are set as described above.
  • a layout can be adopted in which the CF waveguide 39 is provided between the filters 37 of mutually adjacent pixel pairs 41. That is, the CF waveguide 39 is arranged along the boundary between each adjacent pixel pair 41.
  • FIG. 11 shows a modification of the layout of the CF waveguide 39.
  • a layout may be adopted in which the CF waveguide 39a is provided only between the filters 37 of adjacent pixels 12 of different colors. That is, the CF waveguide 39a is arranged along the boundaries of each of the pixel block 52Gr, pixel block 52R, pixel block 52B, and pixel block 52Gb.
  • the CF waveguide 39a By using the CF waveguide 39a with such a planar layout, it is possible to suppress light from entering through the color filter layer 22a between the pixel block 52Gr, the pixel block 52R, the pixel block 52B, and the pixel block 52Gb. can do.
  • the image sensor 11 is configured so that the two pixels 12-1 and 12-2 forming the pixel pair 41 use one microlens 38.
  • the light is incident only on the pixel 12 on the side where it is incident on the microlens 38. That is, the light incident on the pixel 12-1 side of the microlens 38 is incident only on the pixel 12-1 side of the semiconductor substrate 21, and the light incident on the pixel 12-2 side of the microlens 38 is incident only on the pixel 12-1 side of the semiconductor substrate 21.
  • the light should be incident only on the pixel 12-2 side.
  • the microlens 38 is designed so that a condensing spot is provided near the surface of the semiconductor substrate 21, the light will also enter the pixel 12 on the opposite side to the side where the light is incident on the microlens 38. Sometimes.
  • the light (dotted chain arrow) incident on the pixel 12-1 side of the microlens 38 may also enter the pixel 12-2 side of the semiconductor substrate 21, and
  • the light (dashed arrow) that has entered the pixel 12-2 side of the lens 38 may also enter the pixel 12-1 side of the semiconductor substrate 21.
  • the light incident on the pixel 12R-4 on the right of the pixel 12R-3 enters the pixel 12R-3, causing the output of the pixel 12R-3 to have a brighter value than originally.
  • an output difference occurs between the pixel 12R-3 and the pixel 12Gr-4 located above the pixel 12R-3.
  • an output difference occurs between the pixel 12R-3 and the pixel 12Gb-10 located below the pixel 12R-3.
  • the microlens 38 is designed so that the condensing spot is provided at a position at a predetermined depth below the surface of the semiconductor substrate 21.
  • a condensing spot is provided at a position.
  • the curvature of the microlens 381 be less than 0.0018. Furthermore, it is more preferable that the curvature of the microlens 381 is 0.0014 or less.
  • the image sensor 11b 1 can be configured such that light is incident only on the pixel 12 on the side where it is incident on the microlens 38 1 . That is, the light incident on the pixel 12-1 side of the microlens 381 is incident only on the pixel 12-1 side of the semiconductor substrate 21, and the light incident on the pixel 12-2 side of the microlens 381 is The light is incident only on the pixel 12-2 side of the semiconductor substrate 21.
  • the image sensor 11b 1 can be configured such that the light incident on the microlens 38 1 on the side of each pixel 12 is incident only on the side of the pixel 12 of each semiconductor substrate 21.
  • dark areas and bright areas are created vertically along the boundary between the pixel block 52Gr and the pixel block 52R and the boundary between the pixel block 52B and the pixel block 52Gb.
  • a condensing spot is provided at a position that is a predetermined depth below the surface.
  • the curvature of the microlens 382 be 0.0014 or more, and the height of the microlens 382 be 500 nm or less.
  • the curvature of the microlens 382 is 0.0018 or more and the height of the microlens 382 is 120 nm or less.
  • the image sensor 11b2 allows light to be directed only to the pixel 12 on the side where it is incident on the microlens 382 . can be made incident. That is, the light incident on the pixel 12-1 side of the microlens 382 is incident only on the pixel 12-1 side of the semiconductor substrate 21, and the light incident on the pixel 12-2 side of the microlens 382 is incident on the pixel 12-1 side of the semiconductor substrate 21. The light is incident only on the pixel 12-2 side of the semiconductor substrate 21. Furthermore, since the microlens 38 2 can improve the separation ratio compared to the microlens 38 1 , the imaging device 11b 2 can focus the light spot more easily than the imaging device 11b 1 using the microlens 38 1 . It can be made shallow.
  • the image sensor 11b 2 like the image sensor 11b 1 , allows the light incident on the microlens 38 2 on the side of each pixel 12 to be incident only on the side of the pixel 12 of each semiconductor substrate 21. Therefore, deterioration of image quality can be suppressed.
  • a light shielding film 61 made of metal is provided so as to be laminated on the back surface of the semiconductor substrate 21.
  • the light shielding film 61 is provided so as to surround the pixel pair 41 in plan view, and can suppress the occurrence of color mixture between adjacent pixel pairs 41.
  • FIG. 14 is a cross-sectional view showing a configuration example of the first variation of the image sensor 11b.
  • the image sensor 11b-1 is configured by laminating a color filter layer 22 and an on-chip lens layer 23b-1 on the back side of a semiconductor substrate 21.
  • an FFTI 32 for separating the pixels 12-1 and 12-2 forming the pixel pair 41 from other adjacent pixel pairs 41 surrounds the outer periphery of the pixels 12-1 and 12-2. It is set up like this.
  • a DTI 33 for separating the pixel 12-1 and the pixel 12-2 is provided between the pixels 12-1 and 12-2 on the semiconductor substrate 21.
  • a light shielding film 61 is provided so as to be laminated on the back surface of the semiconductor substrate 21 so as to surround the outer periphery of the pixels 12-1 and 12-2 forming the pixel pair 41, similarly to the FFTI 32.
  • filters 37-1 and 37-2 of the same color are provided for each pixel 12-1 and 12-2 forming a pixel pair 41.
  • a CF waveguide 39 is provided so as to surround the outer periphery.
  • pixels 12R-1 and 12R-2 are provided with red filters 37R-1 and 37R-2
  • pixels 12G-1 and 12G-2 are provided with green filters 37G-1 and 37R-2.
  • the pixels 12B-1 and 12B-2 are provided with blue filters 37B-1 and 37B-2.
  • the on-chip lens layer 23b-1 is provided with microlenses 38 having different curvatures depending on the color of light received by each pixel pair 41. That is, the microlens 38R of the pixel pair 41R that receives red light, the microlens 38G of the pixel pair 41G that receives green light, and the microlens 38B of the pixel pair 41B that receives blue light each have different curvatures. There is.
  • the microlens 38R, the microlens 38G, and the microlens 38B are arranged according to their respective colors so that the depths of the condensed spots can be aligned at a predetermined depth below the surface of the semiconductor substrate 21.
  • Curvature is set. In the illustrated example, the curvatures are set so that the microlens 38R is the highest, the microlens 38G is the next highest, and the microlens 38B is the lowest.
  • the image sensor 11b-1 optimizes the configuration for each color so that the light incident on the microlens 38 on the side of each pixel 12 is incident only on the side of the pixel 12 of each semiconductor substrate 21. can do. Furthermore, in the image sensor 11b-1, the balance of separation ratio can also be optimized.
  • FIG. 15 is a cross-sectional view showing a configuration example of a second variation of the image sensor 11b.
  • the same components as those in the image sensor 11b-1 shown in FIG. 14 are designated by the same reference numerals, and detailed explanation thereof will be omitted.
  • the image sensor 11b-2 is configured by laminating the color filter layer 22 and the on-chip lens layer 23b-2 on the back side of the semiconductor substrate 21, similar to the image sensor 11b-1 in FIG.
  • the on-chip lens layer 23b-2 of the image sensor 11b-2 is provided with microlenses 38 having different lens heights depending on the color of light received by each pixel pair 41. That is, the microlens 38R of the pixel pair 41R that receives red light, the microlens 38G of the pixel pair 41G that receives green light, and the microlens 38B of the pixel pair 41B that receives blue light each have a lens height. It's different.
  • the microlens 38R, the microlens 38G, and the microlens 38B are arranged according to their respective colors so that the depths of the condensed spots can be aligned at a predetermined depth below the surface of the semiconductor substrate 21.
  • Lens height is set. In the illustrated example, the lens heights are set so that the microlens 38R is the highest, the microlens 38G is the next highest, and the microlens 38B is the lowest.
  • the image sensor 11b-2 optimizes the configuration for each color so that the light incident on the microlens 38 on the side of each pixel 12 is incident only on the side of the pixel 12 of each semiconductor substrate 21. can do. Furthermore, in the image sensor 11b-2, the balance of separation ratio can also be optimized.
  • FIG. 16 is a cross-sectional view showing a configuration example of a third variation of the image sensor 11b.
  • the same components as those in the image sensor 11b-1 shown in FIG. 14 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the image sensor 11b-3 is configured by laminating the color filter layer 22 and the on-chip lens layer 23b-3 on the back side of the semiconductor substrate 21, similar to the image sensor 11b-1 in FIG.
  • nano-level fine structures made of various materials such as dielectrics, metal oxides, and metals are arranged at a predetermined pitch.
  • a metalens 42 is used.
  • the on-chip lens layer 23b-3 of the image sensor 11b-3 is provided with a metalens 42 in which structures are arranged at different pitches depending on the color of light received by each pixel pair 41. That is, the metalens 42R of the pixel pair 41R that receives red light, the metalens 42G of the pixel pair 41G that receives green light, and the metalens 42B of the pixel pair 41B that receives blue light have different structure pitches. There is.
  • the metalens 42R, the metalens 42G, and the metalens 42B are arranged in structures according to their respective colors so that the depths of the condensed spots can be aligned at a predetermined depth below the surface of the semiconductor substrate 21.
  • Pitch is designed.
  • the pitches of these structures are designed so that the microlens 38R is the widest, the microlens 38G is the next widest, and the microlens 38B is the narrowest.
  • the image sensor 11b-3 optimizes the configuration for each color so that the light incident on the metalens 42 on the side of each pixel 12 is incident only on the side of the pixel 12 of each semiconductor substrate 21. be able to. Furthermore, in the image sensor 11b-3, the balance of separation ratio can also be optimized.
  • FIG. 17A is a cross-sectional view showing a configuration example of a fourth variation of the image sensor 11b.
  • the same components as those in the image sensor 11b in FIG. 13 are designated by the same reference numerals, and detailed explanation thereof will be omitted.
  • the image sensor 11b-4 is configured by laminating a color filter layer 22b-4 and an on-chip lens layer 23 on the back side of the semiconductor substrate 21, similar to the image sensor 11b in FIG.
  • the color filter layer 22b-4 of the image sensor 11b-4 includes the filter 37-1 and the filter 37-1, as well as the CF waveguide 39 provided so as to surround the outer periphery of the filter 37-1 and the filter 37-2.
  • a CF waveguide 62 is also provided between the waveguide 37-2 and the waveguide 37-2.
  • the CF waveguide 62 is formed with the same height and width as the CF waveguide 39.
  • a light shielding film 61 is also provided between the pixel 12-1 and the pixel 12-2 so as to be laminated on the back surface of the semiconductor substrate 21.
  • the image sensor 11b-4 ensures that the light incident on the microlens 38 on the pixel 12 side is directed only to the pixel 12 side of each semiconductor substrate 21. It can be made to be incident. Thereby, the image sensor 11b-4 can suppress output differences between pixels 12 arranged in the same column.
  • the CF waveguide 62 is formed so that both ends thereof are in contact with the CF waveguide 39 when viewed from above.
  • the CF waveguide 62 is formed such that both ends thereof are separated from the CF waveguide 39 in plan view, as shown in FIG. 17C.
  • the configuration of these CF waveguides 62 can be selected depending on, for example, the degree to which light is prevented from entering the other pixel 12 and the balance between the separation ratio and Qe.
  • the height of the CF waveguide 62 can be changed, and the design of the presence or absence of the light shielding film 61 can be changed. Changes can be made easily.
  • FIG. 18A is a cross-sectional view showing a configuration example of a fifth variation of the image sensor 11b.
  • the same components as those in the image sensor 11b-4 shown in FIG. 17 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the image sensor 11b-5 is configured with a CF waveguide 62a provided between the filter 37-1 and the filter 37-2.
  • the CF waveguide 62a is formed to have a different height from the CF waveguide 39, and in the illustrated example, is formed to be lower than the CF waveguide 39.
  • the height of the CF waveguide 62a can be adjusted depending on the degree to which light is prevented from entering the other pixel 12 and the balance between the separation ratio and Qe. can.
  • FIG. 18B is a cross-sectional view showing a configuration example of a sixth variation of the image sensor 11b.
  • the same components as those in the image sensor 11b-4 in FIG. 17 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the image sensor 11b-6 is configured with a CF waveguide 62b provided between the filter 37-1 and the filter 37-2.
  • the CF waveguide 62b is formed to have a width different from that of the CF waveguide 39, and in the illustrated example, the CF waveguide 62b is formed to have a narrower width than the CF waveguide 39.
  • the width of the CF waveguide 62b can be adjusted depending on the degree to which light is prevented from entering the other pixel 12 and the balance between the separation ratio and Qe. .
  • FIG. 18C is a cross-sectional view showing a configuration example of a seventh variation of the image sensor 11b.
  • the same components as those in the image sensor 11b-4 in FIG. 17 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the image sensor 11b-7 is configured with a CF waveguide 62 provided between the filter 37-1 and the filter 37-2.
  • the image sensor 11b-7 is configured such that the light shielding film 61 is not provided between the pixel 12-1 and the pixel 12-2.
  • the image sensor 11b-7 has a configuration in which the light shielding film 61 is not provided between the pixel 12-1 and the pixel 12-2, thereby suppressing light from entering the other pixel 12. At the same time, a decrease in Qe due to absorption in the light shielding film 61 can be suppressed.
  • FIG. 19A is a cross-sectional view showing a configuration example of an eighth variation of the image sensor 11b.
  • the same components as those in the image sensor 11b in FIG. 13 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the image sensor 11b-8 is configured by laminating a color filter layer 22 and an on-chip lens layer 23 on the back side of a semiconductor substrate 21b-8.
  • the semiconductor substrate 21b-8 of the image sensor 11b-8 is configured such that the DTI 33 is provided with a widened portion 63 near the back surface of the semiconductor substrate 21b-8.
  • the widened portion 63 is formed to have a stepped shape with respect to the DTI 33 .
  • the image sensor 11b-8 can suppress incident light from entering the other pixel 12 by widening only the vicinity of the back surface of the DTI 33 with the widening portion 63. Thereby, the image sensor 11b-8 can suppress the occurrence of an output difference between the pixels 12 arranged in the same column.
  • FIG. 19B is a cross-sectional view showing a configuration example of a ninth variation of the image sensor 11b.
  • the same components as those in the image sensor 11b in FIG. 13 are designated by the same reference numerals, and detailed description thereof will be omitted.
  • the image sensor 11b-9 is configured by laminating a color filter layer 22 and an on-chip lens layer 23 on the back side of a semiconductor substrate 21b-9.
  • the semiconductor substrate 21b-9 of the image sensor 11b-9 is configured such that the DTI 33 is provided with a widened portion 63a near the back surface of the semiconductor substrate 21b-9.
  • the widened portion 63a is formed to have a tapered shape relative to the DTI 33.
  • the image sensor 11b-9 can suppress incident light from entering the other pixel 12 by widening only the vicinity of the back surface of the DTI 33 with the widening portion 63a. Thereby, the image sensor 11b-9 can suppress the occurrence of an output difference between the pixels 12 arranged in the same column.
  • FIG. 20 is a cross-sectional view showing a configuration example of a tenth variation of the image sensor 11b.
  • the same components as those in the image sensor 11b in FIG. 13 are designated by the same reference numerals, and detailed explanation thereof will be omitted.
  • the image sensor 11b-10 is configured by laminating a color filter layer 22 and an on-chip lens layer 23 on the back side of a semiconductor substrate 21b-10.
  • the semiconductor substrate 21b-10 of the image sensor 11b-10 is configured such that a modified refractive index material 64 having a different refractive index from the DTI 33 at a deep position is embedded in the DTI 33 near the back surface of the semiconductor substrate 21b-10. That is, in the image sensor 11b-10, the DTI 33 is configured such that the refractive index of the modified refractive index material 64 embedded near the surface of the semiconductor substrate 21b-10 is different from the refractive index of the material embedded deeper than near the surface.
  • a material with a different refractive index such as PDAS (Phosphorus Doped Amorphous Silicon), is added to the semiconductor substrate 21b-10. It can be embedded near the back side of the .
  • PDAS Phosphorus Doped Amorphous Silicon
  • the position where scattering occurs in the trench can be made deeper, and the distance over which light is absorbed before scattering occurs becomes longer. Become.
  • the light incident on the pixel 12-1 side of the microlens 38 is incident only on the pixel 12-1 side of the semiconductor substrate 21b-10, and the light incident on the pixel 12-2 side of the microlens 38 is incident on the pixel 12-1 side of the semiconductor substrate 21b-10.
  • the light is incident only on the pixel 12-2 side of the substrate 21b-10.
  • the image sensor 11b-10 can suppress the occurrence of an output difference between the pixels 12 arranged in the same column.
  • ⁇ Microlens lens arrangement> The lens arrangement of the microlenses 38 will be described with reference to FIGS. 21 and 22.
  • FIGS. 21 and 22 pixel blocks 52Gr, pixel blocks 52R, pixel blocks 52B, and pixel blocks 52Gb similar to those in FIG. 2 are shown, and pixel pairs 41 are set as described above.
  • a microlens 38 is arranged for every pixel pair 41.
  • the modified microlenses 72 are arranged in some of the pixel pairs 41, and the microlenses 38 are arranged in the other pixel pairs 41.
  • the deformed microlens 72 includes a deformed microlens 72-1 whose shape goes from the upper left to the lower right, and a deformed microlens 72-2 whose shape goes from the upper right to the lower left.
  • the deformed microlens 72-1 includes pixel Gr-9 and pixel Gr-10, which are the lower right pixel pair 41 of the pixel block 52Gr, and pixel Gb, which is the upper left pixel pair 41 of the pixel block 52Gb. -1 and pixel Gb-2. That is, the deformed microlens 72-1 includes a microlens 38 shared by pixel Gr-9 and pixel Gr-10, a microlens 38 shared by pixel Gb-1 and pixel Gb-2, and pixel Gr-10. -10 and pixel Gb-1 have an optical effect as if they were superimposed.
  • the deformed microlens 72-2 has pixel Gr-7 and pixel Gr-8, which are the lower left pixel pair 41 of the pixel block 52Gr, and pixel Gb, which is the upper right pixel pair 41 of the pixel block 52Gb. -3 and pixel Gb-4. That is, the deformed microlens 72-2 includes a microlens 38 shared by pixel Gr-7 and pixel Gr-8, a microlens 38 shared by pixel Gb-3 and pixel Gb-4, and a microlens 38 shared by pixel Gb-3 and pixel Gb-4. It has an optical effect as if the microlenses 38 shared by pixel Gb-7 and pixel Gb-4 were superimposed.
  • the deformed microlens 72-1 can suppress the signal difference that occurs between the pixel Gr-10 and the pixel Gb-1
  • the deformed microlens 72-2 can suppress the signal difference between the pixel Gr-10 and the pixel Gb-1.
  • a signal difference that occurs between Gr-7 and pixel Gb-4 can be suppressed.
  • a portion of the light incident on the pixels Gr or Gb arranged in the vertical direction is transferred to the pixel Gr or the pixel Gb by the modified microlens 72 which is deformed so that the two microlenses 38 facing in the horizontal direction are also connected in the vertical direction.
  • the light will be incident on each pixel Gb.
  • the image sensor 11 as described above can be applied to various electronic devices, such as an imaging system such as a digital still camera or a digital video camera, a mobile phone with an imaging function, or other equipment with an imaging function. Can be done.
  • an imaging system such as a digital still camera or a digital video camera
  • a mobile phone with an imaging function or other equipment with an imaging function. Can be done.
  • FIG. 23 is a block diagram showing a configuration example of an imaging device installed in an electronic device.
  • the imaging device 101 includes an optical system 102, an image sensor 103, a signal processing circuit 104, a monitor 105, and a memory 106, and is capable of capturing still images and moving images.
  • the optical system 102 is configured with one or more lenses, guides image light (incident light) from the subject to the image sensor 103, and forms an image on the light-receiving surface (sensor section) of the image sensor 103.
  • the image sensor 103 As the image sensor 103, the image sensor 11 described above is applied. Electrons are accumulated in the image sensor 103 for a certain period of time depending on the image formed on the light-receiving surface via the optical system 102. A signal corresponding to the electrons accumulated in the image sensor 103 is then supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signals output from the image sensor 103.
  • An image (image data) obtained by signal processing performed by the signal processing circuit 104 is supplied to a monitor 105 for display, or supplied to a memory 106 for storage (recording).
  • the imaging device 101 configured in this way, by applying the above-described imaging element 11, it is possible to capture, for example, a higher quality image.
  • FIG. 24 is a diagram showing an example of use of the above-described image sensor (imaging device).
  • the above-described image sensor can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as described below.
  • ⁇ Digital cameras, mobile devices with camera functions, and other devices that take images for viewing purposes Devices used for transportation, such as in-vehicle sensors that take pictures of the rear, surroundings, and interior of the car, surveillance cameras that monitor moving vehicles and roads, and distance sensors that measure the distance between vehicles, etc.
  • Devices used for transportation such as in-vehicle sensors that take pictures of the rear, surroundings, and interior of the car, surveillance cameras that monitor moving vehicles and roads, and distance sensors that measure the distance between vehicles, etc.
  • User gestures Devices used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate devices according to the gestures.
  • - Endoscopes devices that perform blood vessel imaging by receiving infrared light, etc.
  • Devices used for medical and healthcare purposes - Devices used for security, such as surveillance cameras for crime prevention and cameras for person authentication - Skin measurement devices that take pictures of the skin, and devices that take pictures of the scalp - Devices used for beauty purposes, such as microscopes for skin care.
  • - Devices used for sports such as action cameras and wearable cameras.
  • - Cameras, etc. used to monitor the condition of fields and crops. , equipment used for agricultural purposes
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. It's okay.
  • FIG. 25 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated as the functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 26 is a diagram showing an example of the installation position of the imaging section 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at, for example, the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the imaging unit 12105 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 26 shows an example of the imaging range of the imaging units 12101 to 12104.
  • An imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • an imaging range 12114 shows the imaging range of the imaging unit 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. By determining the following, it is possible to extract, in particular, the closest three-dimensional object on the path of vehicle 12100, which is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as vehicle 12100, as the preceding vehicle. can. Furthermore, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceed
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the audio image output unit 12052 creates a rectangular outline for emphasis on the recognized pedestrian.
  • the display unit 12062 is controlled to display the .
  • the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 and the like among the configurations described above.
  • By applying the technology according to the present disclosure to the imaging unit 12031 and the like it is possible to obtain a photographed image that is easier to see, thereby making it possible to reduce driver fatigue.
  • the present technology can also have the following configuration.
  • the semiconductor substrate includes: a first element isolation section formed penetrating the semiconductor substrate and provided at least in a portion between the pixels of different colors; a second element isolation section that is formed by being dug to a predetermined depth from the light-receiving surface of the semiconductor substrate and that is provided at least between the photoelectric conversion sections of the two pixels forming the pixel pair.
  • Solid-state image sensor (2) The first element isolation section is provided surrounding the outer periphery of the pixel pair, The solid-state imaging device according to (1) above, wherein the second element isolation section is provided only between the two pixels forming the pixel pair. (3) A pixel block is formed for each of the predetermined number of pixels of the same color, The solid-state imaging device according to (1) or (2) above, wherein the pixel array is repeatedly arranged in the row direction and the column direction, with a pixel array consisting of a combination of four pixel blocks as a unit.
  • the pixel blocks include a first pixel block in which the pixels of a predetermined color are arranged in a first arrangement pattern, and a second pixel block in which the pixels of a color different from the color are arranged in a second arrangement pattern.
  • the solid-state image sensor according to (3) above including a pixel block.
  • the green pixel is arranged in the first pixel block, and the red or blue pixel is arranged in the second pixel block,
  • the solid-state imaging device according to (4) above, wherein the number of pixels arranged in the first pixel block is greater than the number of pixels arranged in the second pixel block.
  • the pixel block in which 10 green pixels are arranged in a first arrangement pattern is arranged in the upper left, and the pixel block in which 8 red pixels are arranged in a second arrangement pattern.
  • the pixel block was placed at the top right, and the 8 blue pixels were placed in a second placement pattern.
  • the pixel block was placed at the bottom left, and the 10 green pixels were placed in a first placement pattern.
  • the first element isolation section is provided along a boundary of the pixel block,
  • the first element isolation section is provided along the boundary of the pixel block, and is provided between the left and right adjacent pixel pairs within the pixel block,
  • the second element isolation section is provided between the pixels in the pixel block and at a location where the first element isolation section is not provided.
  • a solid-state imaging device described in the above. (9) The green pixel is arranged in the first pixel block, and the red or blue pixel is arranged in the second pixel block, the first element isolation section is provided along a boundary of the second pixel block, The solid-state imaging device according to any one of (4) to (6) above, wherein the second element isolation section is provided at a location where the first element isolation section is not provided.
  • the color filter layer is provided with a waveguide that suppresses mixing of light in the color filter layer between the adjacent filters of different colors.
  • solid-state image sensor According to any one of (1) to (12) above, the microlens is designed to have a curvature and a lens height such that a condensing spot is provided at a position at a predetermined depth below the surface of the semiconductor substrate. solid-state image sensor. (14) The solid-state imaging device according to (13) above, wherein the curvature or the lens height of the microlens is designed for each color of the pixel.
  • a metalens in which fine structures are arranged at a predetermined pitch is used, The solid-state imaging device according to (13) above, wherein the pitch of the metalens is designed for each color of the pixel.
  • the color filter layer is provided with a waveguide that suppresses mixing of light in the color filter layer between the filters of the pixel pair.
  • Solid-state image sensor is provided.
  • the second element isolation section is configured such that the refractive index of the material buried near the surface of the semiconductor substrate is different from the refractive index of the material buried deeper than near the surface.
  • the four pixels constitute the pixel pair including the pixels that are vertically adjacent to each other in the green pixel block arranged at the upper left and the green pixel block arranged at the lower right.
  • a deformed microlens is commonly used which has an optical effect such that the microlens used in each pixel pair and the microlens shared by the vertically adjacent pixels are superimposed.
  • a semiconductor substrate in which a photoelectric conversion section is provided for each pixel; a color filter layer laminated on the light-receiving surface side of the semiconductor substrate, in which a filter that transmits light of a color received by the pixel is arranged for each pixel; an on-chip lens layer laminated on the color filter layer and in which a microlens is arranged for each pixel pair consisting of two pixels of the same color;
  • the semiconductor substrate includes: a first element isolation section formed penetrating the semiconductor substrate and provided at least in a portion between the pixels of different colors; a second element isolation section that is formed by being dug to a predetermined depth from the light-receiving surface of the semiconductor substrate and that is provided at least between the photoelectric conversion sections of the two pixels forming the pixel pair.

Abstract

本開示は、画素特性の向上を図ることができるようにする固体撮像素子および電子機器に関する。 半導体基板には、画素ごとに光電変換部が設けられ、カラーフィルタ層には、画素が受光する色の光を透過するフィルタが画素ごとに配置され、オンチップレンズ層には、同色の2つの画素からなる画素ペアごとにマイクロレンズが配置されている。そして、半導体基板を貫通して形成され、異色の画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、半導体基板の受光面から所定の深さまで掘り込んで形成され、画素ペアとなっている2つの画素の光電変換部どうしの間に少なくとも設けられる第2の素子分離部とが、半導体基板に設けられる。本技術は、例えば、裏面照射型のCMOSイメージセンサに適用できる。

Description

固体撮像素子および電子機器
 本開示は、固体撮像素子および電子機器に関し、特に、画素特性の向上を図ることができるようにした固体撮像素子および電子機器に関する。
 従来、裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子では、画素ごとに設けられている光電変換部を分離するために素子分離部が設けられている。
 例えば、特許文献1には、同じオンチップレンズを介して光が入射されるフォトダイオードを分離する第1の分離領域と、異なるオンチップレンズを介して光が入射されるフォトダイオードを分離する第2の分離領域とで、屈折率が異なる固体撮像素子が開示されている。
国際公開第2020/175195号
 ところで、従来の固体撮像素子では、半導体基板の裏面から深さ方向に延びるように、半導体基板を貫通しない程度の深さの素子分離部が設けられる構造であったため、混色やブルーミングなどの発生を十分に抑制することができないことがあった。また、素子分離部の先端側に分離インプラ部を設けることによって、光電変換部の領域が縮小することになっていた。そのため、従来の固体撮像素子では、画素特性が低下することが懸念されており、画素特性を向上させることが求められている。
 本開示は、このような状況に鑑みてなされたものであり、画素特性の向上を図ることができるようにするものである。
 本開示の一側面の固体撮像素子は、画素ごとに光電変換部が設けられる半導体基板と、前記半導体基板の受光面側に積層され、前記画素が受光する色の光を透過するフィルタが前記画素ごとに配置されるカラーフィルタ層と、前記カラーフィルタ層に積層され、同色の2つの前記画素からなる画素ペアごとにマイクロレンズが配置されるオンチップレンズ層とを備え、前記半導体基板には、前記半導体基板を貫通して形成され、異色の前記画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、前記半導体基板の受光面から所定の深さまで掘り込んで形成され、前記画素ペアとなっている2つの前記画素の前記光電変換部どうしの間に少なくとも設けられる第2の素子分離部とが設けられる。
 本開示の一側面の電子機器は、画素ごとに光電変換部が設けられる半導体基板と、前記半導体基板の受光面側に積層され、前記画素が受光する色の光を透過するフィルタが前記画素ごとに配置されるカラーフィルタ層と、前記カラーフィルタ層に積層され、同色の2つの前記画素からなる画素ペアごとにマイクロレンズが配置されるオンチップレンズ層とを有し、前記半導体基板には、前記半導体基板を貫通して形成され、異色の前記画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、前記半導体基板の受光面から所定の深さまで掘り込んで形成され、前記画素ペアとなっている2つの前記画素の前記光電変換部どうしの間に少なくとも設けられる第2の素子分離部とが設けられる固体撮像素子を備える。
 本開示の一側面においては、半導体基板には、画素ごとに光電変換部が設けられ、半導体基板の受光面側に積層されるカラーフィルタ層には、画素が受光する色の光を透過するフィルタが画素ごとに配置され、カラーフィルタ層に積層されるオンチップレンズ層には、同色の2つの画素からなる画素ペアごとにマイクロレンズが配置される。そして、半導体基板には、半導体基板を貫通して形成され、異色の画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、半導体基板の受光面から所定の深さまで掘り込んで形成され、画素ペアとなっている2つの画素の光電変換部どうしの間に少なくとも設けられる第2の素子分離部とが設けられる。
本技術を適用した撮像素子の第1の実施の形態の構成例について説明する図である。 画素配列の第1のレイアウト例を示す図である。 画素配列の第1の変形例を示す図である。 画素配列の第2の変形例を示す図である。 画素配列の第3の変形例を示す図である。 画素ペアの平面レイアウトの第2乃至第5の変形例を示す図である。 画素ペアの平面レイアウトの第6および第7の変形例を示す図である。 画素配列の第2のレイアウト例を示す図である。 撮像素子の変形例を示す断面図である。 CF導波路のレイアウトの一例を示す図である。 CF導波路のレイアウトの変形例を示す図である。 マイクロレンズに入射した側とは逆側の画素にも光が入り込んでしまうことについて説明する図である。 本技術を適用した撮像素子の第2の実施の形態の構成例について説明する図である。 撮像素子の第1のバリエーションを示す断面図である。 撮像素子の第2のバリエーションを示す断面図である。 撮像素子の第3のバリエーションを示す断面図である。 撮像素子の第4のバリエーションを示す断面図である。 撮像素子の第5乃至第7のバリエーションを示す断面図である。 撮像素子の第8および第9のバリエーションを示す断面図である。 撮像素子の第10のバリエーションを示す断面図である。 マイクロレンズのレンズ配列の一例を示す図である。 マイクロレンズのレンズ配列の他の一例を示す図である。 撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <撮像素子の第1の構成例>
 図1乃至図11を参照して、本技術を適用した撮像素子の第1の実施の形態について説明する。
 図1のAには、撮像素子11が有する複数の画素12のうちの、隣接する2つの画素12-1および12-2における断面的な構成が示されている。
 例えば、撮像素子11では、複数の画素12が行列状に配置されており、2つの画素12-1および12-2で複数の素子(例えば、フローティングディフュージョンや増幅トランジスタなど)を共有する画素共有構造が採用されている。また、2つの画素12-1および12-2は、同じ色の光を受光する。このように、画素共有構造となっていて、かつ、同色の2つの画素12-1および12-2のことを、以下、画素ペア41と称する。
 撮像素子11は、半導体基板21の受光面である裏面側に、カラーフィルタ層22およびオンチップレンズ層23が積層されて構成され、半導体基板21の表面側に、図示しない配線層が積層されて構成される。
 半導体基板21には、受光した光を光電変換する光電変換部31が画素12ごとに設けられている。また、半導体基板21には、画素ペア41となっている画素12-1および12-2を、隣接する他の画素12から分離するための第1の素子分離部であるFFTI32が、画素12-1および12-2の外周を囲うように設けられている。また、半導体基板21には、画素12-1の光電変換部31-1と画素12-2の光電変換部31-2とを分離するための第2の素子分離部であるDTI33が、光電変換部31-1および光電変換部31-2の間に設けられている。
 FFTI(Front Full Trench Isolation)32は、半導体基板21の表面側から掘り込まれて、半導体基板21を貫通するように形成されたトレンチに、SiO2などの絶縁材料が埋め込まれて構成される。DTI(Deep Trench Isolation)33は、半導体基板21の裏面側から掘り込まれて形成された深いトレンチに、SiO2などの絶縁材料が埋め込まれて構成される。
 また、半導体基板21には、DTI33の先端から半導体基板21の表面の近傍まで、分離インプラ部34が設けられており、分離インプラ部34にFD部35が設けられている。分離インプラ部34は、不純物を注入することによって設けられ、光電変換部31どうしの間を電気的に分離する領域である。FD(Floating Diffusion)部35は、光電変換部31から転送されてくる電荷を一時的に蓄積して、図示しない増幅トランジスタを介して、その電荷を画素信号に変換して出力する。
 また、半導体基板21の表面には、光電変換部31-1とFD部35との間に転送トランジスタ36-1が設けられるとともに、光電変換部31-2とFD部35との間に転送トランジスタ36-2が設けられている。転送トランジスタ36-1は、光電変換部31-1に蓄積されている電荷をFD部35に転送し、転送トランジスタ36-2は、光電変換部31-2に蓄積されている電荷をFD部35に転送する。
 カラーフィルタ層22には、画素12-1および12-2が受光する色の光を透過するフィルタ37-1および37-2が設けられている。上述したように、画素ペア41となっている画素12-1および12-2は同じ色の光を受光するため、フィルタ37-1および37-2は、同じ色の光を透過する。
 オンチップレンズ層23には、画素ペア41ごとに、1つのマイクロレンズ38が設けられており、2つの画素12-1および12-2で、1つのマイクロレンズ38を共有する構成となっている。
 図1のBには、2つの画素12-1および12-2からなる画素ペア41を、半導体基板21を表面側から平面視した平面レイアウトの一例が示されている。図1のBに示すように、画素ペア41では、画素ペア41の外周を囲うようにFFTI32が形成され、画素12-1と画素12-2との間に設けられ両端がFFTI32に接するようにDTI33が形成され、DTI33の中央となる位置にFD部35が配置されている。
 また、図1のCには、平面レイアウトの第1の変形例が示されている。図1のCに示すように、画素ペア41aでは、画素ペア41aの外周を囲うようにFFTI32が形成され、画素12a-1と画素12a-2との間に設けられ両端がFFTI32に接するようにDTI33が形成され、DTI33の一方の端部近傍(図示する例では、下側の端部近傍)に寄せられた位置にFD部35aが配置されている。
 このように構成される撮像素子11は、隣接する他の画素ペア41との間で混色およびブルーミングが発生することを抑制することができるとともに、画素12における光電変換部31の領域を拡大することができる。
 例えば、従来、画素12の分離をDTI33のみで行うような構成では、隣接する他の画素ペア41との間で、半導体基板21を透過した光がDTI33の先端を通り抜けることによって混色が発生することや、光電変換部31で飽和した電荷がDTI33の先端から溢れ出すことによってブルーミングが発生することなどが懸念されていた。また、従来、画素12の分離をDTI33のみで行うような構成では、画素12-1および12-2の外周を囲うように分離インプラ部34を設ける必要があり、分離インプラ部34を設ける領域に応じて光電変換部31を設けることができる領域が縮小することになっていた。
 このような従来の構成と比較して、撮像素子11は、FFTI32によって画素ペア41どうしを分離することによって、半導体基板21を透過した光が通り抜けることを抑制することができるとともに、光電変換部31で飽和した電荷が溢れ出すことを抑制することができる。また、撮像素子11は、画素12-1および12-2の外周を囲うような分離インプラ部34を設ける必要もない。従って、撮像素子11は、混色およびブルーミングの発生を抑制し、光電変換部31の領域を拡大することができる結果、画素12の特性の向上を図ることができる。
 図2には、撮像素子11で採用される画素配列51の第1のレイアウト例が示されている。
 撮像素子11では、図2に示すような画素配列51を単位として、複数の画素配列51が行方向および列方向に繰り返して配置される。
 図2に示すように、画素配列51では、同色の画素12ごとに画素ブロック52が形成されており、4つの画素ブロック52が組み合わされて構成される。例えば、画素配列51は、画素ブロック52Grが左上に配置され、画素ブロック52Rが右上に配置され、画素ブロック52Bが左下に配置され、画素ブロック52Gbが左下に配置されて構成される。
 画素ブロック52Grでは、緑色の光を受光する10個の画素12Gr-1乃至12Gr-10が第1の配置パターンで配置されている。画素ブロック52Rでは、赤色の光を受光する8個の画素12R-1乃至12R-8が第2の配置パターンで配置されている。画素ブロック52Bでは、青色の光を受光する8個の画素12B-1乃至12B-8が第2の配置パターンで配置されている。画素ブロック52Gbでは、緑色の光を受光する10個の画素12Gb-1乃至12Gb-10が第1の配置パターンで配置されている。
 図示するように、第1の配置パターンは、1行目に4個の画素12-1乃至12-4が配置され、2行目に2個の画素12-5および12-6が配置され、3行目に4個の画素12-7乃至12-10が配置されており、右辺および左辺が内側に向かって凹となる形状となっている。また、第2の配置パターンは、1行目に2個の画素12-1および12-2が配置され、2行目に4個の画素12-3乃至12-6が配置され、3行目に2個の画素12-7および12-8が配置されており、右辺および左辺が外側に向かって凸となる形状となっている。従って、第1の配置パターンと第2の配置パターンとが左右に並んで配置されることにより、第1の配置パターンの右辺および左辺の凹に、第2の配置パターンの右辺および左辺の凸が入り込むように、画素配列51が構成される。
 さらに、画素配列51は、画素ペア41となっている2個の画素12の外周を囲うようにFFTI32が設けられ、画素ペア41となっている2個の画素12どうしの間にDTI33が設けられて構成される。
 例えば、第1の配置パターンで画素12Grが配置される画素ブロック52Grでは、画素12Gr-1および画素12Gr-2、画素12Gr-3および画素12Gr-4、画素12Gr-5および画素12Gr-6、画素12Gr-7および画素12Gr-8、並びに、画素12Gr-9および画素12Gr-10が、それぞれ画素ペア41となっている。
 従って、画素12Gr-1および画素12Gr-2の外周、画素12Gr-3および画素12Gr-4の外周、画素12Gr-5および画素12Gr-6の外周、画素12Gr-7および画素12Gr-8の外周、並びに、画素12Gr-9および画素12Gr-10の外周を、それぞれ囲うようにFFTI32が設けられている。さらに、画素12Gr-1と画素12Gr-2との間、画素12Gr-3と画素12Gr-4との間、画素12Gr-5と画素12Gr-6との間、画素12Gr-7と画素12Gr-8との間、および、画素12Gr-9と画素12Gr-10との間に、それぞれDTI33が設けられている。また、第1の配置パターンで画素12Gbが配置される画素ブロック52Gbにおいても、画素ブロック52Grと同様に、FFTI32およびDTI33が設けられている。
 また、第2の配置パターンで画素12Rが配置される画素ブロック52Rでは、画素12R-1および画素12R-2、画素12R-3および画素12R-4、画素12R-5および画素12R-6、並びに、画素12R-7および画素12R-8が、それぞれ画素ペア41となっている。
 従って、画素12R-1および画素12R-2の外周、画素12R-3および画素12R-4の外周、画素12R-5および画素12R-6の外周、並びに、画素12R-7および画素12R-8の外周を、それぞれ囲うようにFFTI32が設けられている。さらに、画素12R-1と画素12R-2との間、画素12R-3と画素12R-4との間、画素12R-5と画素12R-6との間、および、画素12R-7と画素12R-8との間に、それぞれDTI33が設けられている。また、第2の配置パターンで画素12Bが配置される画素ブロック52Bにおいても、画素ブロック52Rと同様に、FFTI32およびDTI33が設けられている。
 このような構成の画素配列51は、隣接する他の画素ペア41との間における混色およびブルーミングの発生を抑制するとともに、光電変換部31の領域を拡大する効果を高めることができる。
 図3には、画素配列51の第1の変形例が示されている。
 図3に示すように、画素配列51aでは、図2の画素配列51と同様に、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbが設けられている。また、画素配列51aでは、図2の画素配列51と同様に、画素ペア41が設けられている。
 そして、画素配列51aでは、異色の画素12どうしの間にFFTI32が配置され、FFTI32が配置されている個所以外の画素12どうしの間にはDTI33が配置されている。
 つまり、画素配列51aでは、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbの境界に沿うようにFFTI32が配置されている。また、画素配列51aでは、画素ブロック52Gr内における画素12Grどうしの間、画素ブロック52R内における画素12Rどうしの間、画素ブロック52B内における画素12Bどうしの間、画素ブロック52Gb内における画素12Gbどうしの間にも、DTI33が配置されている。
 このような構成の画素配列51aは、隣接する他の色の画素ペア41との間における混色およびブルーミングの発生を抑制する効果を高めることができるとともに、光電変換部31の領域を拡大することができる。また、画素配列51aでは、画素12間のバラつきも抑制することができる。
 図4は、画素配列51の第2の変形例が示されている。
 図4に示すように、画素配列51bは、図2の画素配列51と同様に、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbが設けられている。また、画素配列51bでは、図2の画素配列51と同様に、画素ペア41が設けられている。
 そして、画素配列51bでは、異色の画素12どうしの間、および、左右に隣接する同色の画素ペア41どうしの間に、FFTI32が配置され、FFTI32が配置されている個所以外の画素12どうしの間にはDTI33が配置されている。
 つまり、画素配列51bでは、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbの境界に沿うようにFFTI32が配置されるとともに、それぞれの画素ブロック52内において左右に隣接する画素ペア41どうしの間にもFFTI32が配置されている。また、画素配列51bでは、画素ブロック52Gr内における画素12Grどうしの間、画素ブロック52R内における画素12Rどうしの間、画素ブロック52B内における画素12Bどうしの間、画素ブロック52Gb内における画素12Gbどうしの間であって、FFTI32が設けられていない個所にDTI33が配置されている。
 このような構成の画素配列51bは、隣接する他の色の画素ペア41との間における混色およびブルーミングの発生を抑制することができるとともに、光電変換部31の領域を拡大することができる。さらに、画素配列51bは、画素配列51aと比較して、同色の画素12間で特性差分が生じることを抑制することができる。
 図5は、画素配列51の第3の変形例が示されている。
 図5に示すように、画素配列51cは、図2の画素配列51と同様に、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbが設けられている。また、画素配列51cでは、図2の画素配列51と同様に、画素ペア41が設けられている。
 そして、画素配列51cでは、画素ブロック52Rおよび画素ブロック52Bの境界に沿ってFFTI32が配置されており、FFTI32が配置されていない個所にDTI33が配置されている。
 例えば、画素配列51cは、画素ブロック52Grと画素ブロック52Gbとが隣接する個所にDTI33が配置されている点で、図3の画素配列51aと異なる構成となっている。つまり、画素Gr-7と画素Gb-4との間や、画素Gr-10と画素Gb-1との間において、図3の画素配列51aではFFTI32が配置されていたのに対し、画素配列51cではDTI33が配置されている。
 このような構成の画素配列51cは、図3の画素配列51aと比較して、半導体基板21の割れ耐性の向上を図ることができる。つまり、図3の画素配列51aでは、FFTI32が連続的に直線で配置されていた個所において、画素配列51cでは、部分的にDTI33が配置される構成となっていることによって強度が向上することになる。また、画素配列51cは、DTI33が増えるのに伴って、画素トランジスタの配置を容易に行うことができる。
 図6および図7を参照して、画素ペア41の平面レイアウトの変形例について説明する。
 図6のAには、画素ペア41の平面レイアウトの第2の変形例が示されている。
 図6のAに示すように、画素ペア41bでは、画素ペア41bの外周を囲うとともに、画素12b-1および画素12b-2の間に向かって上辺中央から下方に突出する凸部と、画素12b-1および画素12b-2の間に向かって下辺中央から上方に突出する凸部とが、互いに向かい合って設けられるようにFFTI32bが形成されている。そして、画素ペア41bでは、画素12b-1および画素12b-2の間で向かい合うFFTI32bの凸部どうしの隙間に、FD部35が配置されている。
 このような平面レイアウトの画素ペア41bは、図1に示した画素ペア41よりも、画素12b-1および画素12b-2の間における混色を抑制する効果を高めることができる。
 図6のBには、画素ペア41の平面レイアウトの第3の変形例が示されている。
 図6のBに示すように、画素ペア41cでは、画素ペア41cの外周を囲うとともに、画素12c-1および画素12c-2の間に向かって上辺中央から下方に突出する凸部と、画素12c-1および画素12c-2の間に向かって下辺中央から上方に突出する凸部とが、互いに向かい合って設けられるようにFFTI32cが形成されている。そして、画素ペア41cでは、画素12c-1および画素12c-2の間で向かい合うFFTI32cの凸部どうしの隙間に、DTI33cおよびFD部35が配置されている。
 このような平面レイアウトの画素ペア41cは、図6のAに示した画素ペア41bよりも、画素12c-1および画素12c-2の間における混色を抑制する効果をさらに高めることができる。
 図6のCには、画素ペア41の平面レイアウトの第4の変形例が示されている。
 図6のCに示すように、画素ペア41dでは、画素ペア41dの外周を囲うとともに、画素12d-1および画素12d-2の間に向かって上辺中央から下方に突出する凸部が設けられるようにFFTI32dが形成されている。そして、画素ペア41dでは、画素12d-1および画素12d-2の間に向かって上辺中央から下方に突出するFFTI32dの凸部と、FFTI32dの下辺との隙間に、FD部35dが配置されている。このように、画素ペア41dでは、FD部35dは、FFTI32dの下辺近傍に寄せられて配置されており、転送トランジスタ36d-1および転送トランジスタ36d-2も、FD部35dの配置に応じて、FFTI32dの下辺近傍に寄せられて配置されている。
 このような平面レイアウトの画素ペア41dは、図1に示した画素ペア41よりも、画素12d-1および画素12d-2の間における混色を抑制する効果を高めることができる。さらに、画素ペア41dは、図6のAに示した画素ペア41bよりも、転送トランジスタ36d-1および転送トランジスタ36d-2とFD部35dとの間の電界を緩和することができる。
 図6のDには、画素ペア41の平面レイアウトの第5の変形例が示されている。
 図6のDに示すように、画素ペア41eでは、画素ペア41eの外周を囲うとともに、画素12e-1および画素12e-2の間に向かって上辺中央から下方に突出する凸部が設けられるようにFFTI32eが形成されている。そして、画素ペア41eでは、画素12e-1および画素12e-2の間に向かって上辺中央から下方に突出するFFTI32eの凸部と、FFTI32eの下辺との隙間に、DTI33eおよびFD部35eが配置されている。このように、画素ペア41eでは、FD部35eは、FFTI32eの下辺近傍に寄せられて配置されており、転送トランジスタ36e-1および転送トランジスタ36e-2も、FD部35eの配置に応じて、FFTI32eの下辺近傍に寄せられて配置されている。
 このような平面レイアウトの画素ペア41eは、図6のCに示した画素ペア41dよりも、画素12e-1および画素12e-2の間における混色を抑制する効果を高めることができる。また、画素ペア41eは、図6のBに示した画素ペア41cよりも、転送トランジスタ36e-1および転送トランジスタ36e-2とFD部35eとの間の電界を、より緩和することができる。
 図7のAには、画素ペア41の平面レイアウトの第6の変形例が示されている。
 図7のAに示すように、画素ペア41fでは、画素ペア41fの上辺、左辺、中央、および右辺を囲うように設けられるFFTI32fと、画素12f-1の下辺に設けられるFFTI32fと、画素12f-2の下辺に設けられるFFTI32fとが、それぞれ角部で接続されずに独立して配置されている。そして、画素ペア41fでは、画素12f-1の下辺に設けられるFFTI32fと、画素12f-2の下辺に設けられるFFTI32fとの隙間であって、画素ペア41fの中央に設けられるFFTI32fの先端側に、FD部35fが配置されている。
 このような平面レイアウトの画素ペア41fは、図6のCに示した画素ペア41dよりも、転送トランジスタ36f-1および転送トランジスタ36f-2とFD部35fとの間の電界を、より緩和することができる。
 図7のBには、画素ペア41の平面レイアウトの第7の変形例が示されている。
 図7のBに示すように、画素ペア41gでは、画素ペア41gの上辺、左辺、中央、および右辺を囲うように設けられるFFTI32gと、画素12g-1の下辺に設けられるFFTI32gと、画素12g-2の下辺に設けられるFFTI32gとが、それぞれ角部で接続されずに独立して配置されている。そして、画素ペア41gでは、画素12g-1の下辺に設けられるFFTI32gと、画素12g-2の下辺に設けられるFFTI32gとの隙間であって、画素ペア41gの中央に設けられるFFTI32gの先端側に、DTI33gおよびFD部35gが配置されている。
 また、画素ペア41gでは、FFTI32gの右下および左下の隙間に、1行下に配置される他の画素ペア41gのDTI33gおよびFD部35gを配置することができる。図7のCには、画素ペア41gが繰り返して配置された配置例が示されている。図7のCに示すように、画素ペア41gは、1行ごとに上下の向きを反転させ、かつ、左右方向に1画素ずつずらして配置することができる。
 このような平面レイアウトの画素ペア41gは、図7のAに示した画素ペア41fよりも、画素12g-1および画素12g-2の間における混色を抑制する効果をさらに高めることができる。
 図8には、撮像素子11で採用される画素配列51の平面レイアウトの第2のレイアウト例が示されている。
 撮像素子11では、図8に示すような画素配列51-2を単位として、複数の画素配列51-2が行方向および列方向に繰り返して配置されている。
 図8に示すように、画素配列51-2では、同色の画素12ごとに画素ブロック53が構成されており、4つの画素ブロック53が組み合わされて構成される。例えば、画素配列51-2は、画素ブロック53Grが左上に配置され、画素ブロック53Rが右上に配置され、画素ブロック53Bが左下に配置され、画素ブロック53Gbが左下に配置されて構成される。
 画素ブロック53Grでは、緑色の光を受光する4個の画素12Gr-1乃至12Gr-4が2×2配置パターンで配置されている。画素ブロック53Rでは、赤色の光を受光する4個の画素12R-1乃至12R-4が2×2配置パターンで配置されている。画素ブロック53Bでは、青色の光を受光する4個の画素12B-1乃至12B-4が2×2配置パターンで配置されている。画素ブロック53Gbでは、緑色の光を受光する4個の画素12Gb-1乃至12Gb-4が2×2配置パターンで配置されている。
 そして、画素配列51-2は、画素ブロック53を構成する4個の画素12の外周を囲うようにFFTI32が設けられ、画素ブロック53を構成する4個の画素12どうしの間にDTI33が設けられて構成される。つまり、画素配列51-2では、異色の画素12どうしの間にFFTI32が設けられ、同色の画素12どうしの間にDTI33が設けられている。
 このような平面レイアウトの画素配列51-2においても、図2の画素配列51と同様に、隣接する他の色の画素ペア41との間における混色およびブルーミングの発生を抑制するとともに、光電変換部31の領域を拡大する効果を高めることができる。
 <撮像素子の変形例>
 図9は、撮像素子11の変形例を示す断面図である。
 図9には、撮像素子11aが有する複数の画素12のうちの、隣接する2つの画素12-1および12-2の断面的な構成例が示されている。なお、図9に示す撮像素子11aにおいて、図1の撮像素子11と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図9に示すように、撮像素子11aでは、半導体基板21およびオンチップレンズ層23が、図1の撮像素子11と同様に構成される。そして、撮像素子11Aでは、カラーフィルタ層22aが、図1の撮像素子11と異なる構成となっている。
 カラーフィルタ層22aは、画素ペア41となっているフィルタ37-1および37-2の外周を囲うように、CF(Color Filter)導波路39が設けられて構成される。CF導波路39は、画素12-1および12-2と、隣接する他の画素12との間で、カラーフィルタ層22aにおける光の混入を抑制するために設けられる。即ち、撮像素子11aは、CF導波路39を設けることによって、画素12-1および12-2に入射した光が、カラーフィルタ層22aを介して、隣接する他の画素12に入射することを抑制するとともに、隣接する他の画素12に入射した光が、カラーフィルタ層22aを介して、画素12-1および12-2に入射することを抑制することができる。
 このように構成される撮像素子11aは、図1の撮像素子11と同様に、混色およびブルーミングの発生を抑制し、光電変換部31の領域を拡大することができるとともに、カラーフィルタ層22aにおける混色の発生を抑制することができる。その結果、撮像素子11aは、さらに画素12の特性の向上を図ることができる。
 図10には、カラーフィルタ層22aに設けられるCF導波路39のレイアウトの一例が示されている。
 図10では、図2と同様の画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbが示されており、上述したように画素ペア41が設定されている。
 図10に示すように、CF導波路39は、互いに隣接する画素ペア41どうしのフィルタ37の間に設けられるようなレイアウトを採用することができる。即ち、隣接する画素ペア41それぞれの境界に沿って、CF導波路39が配置される。
 このような平面レイアウトのCF導波路39を用いることによって、画素ペア41どうしの間で、カラーフィルタ層22aを介して光が混入することを抑制することができる。
 図11には、CF導波路39のレイアウトの変形例が示されている。
 図11に示すように、CF導波路39aは、互いに隣接する異色の画素12のどうしのフィルタ37の間にのみ設けられるようなレイアウトを採用することができる。即ち、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbそれぞれの境界に沿って、CF導波路39aが配置される。
 このような平面レイアウトのCF導波路39aを用いることによって、画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbどうしの間で、カラーフィルタ層22aを介して光が混入することを抑制することができる。
 <撮像素子の第2の構成例>
 図12乃至図21を参照して、本技術を適用した撮像素子の第2の実施の形態について説明する。
 上述したように、撮像素子11は、画素ペア41を構成する2つの画素12-1および12-2で、1つのマイクロレンズ38を用いるように構成される。このとき、マイクロレンズ38に入射した側の画素12にだけ光が入射することが理想的である。即ち、マイクロレンズ38の画素12-1側に入射した光は、半導体基板21の画素12-1側にだけ入射し、マイクロレンズ38の画素12-2側に入射した光は、半導体基板21の画素12-2側にだけ入射することが理想的である。
 しかしながら、半導体基板21の表面近傍に集光スポットが設けられるようにマイクロレンズ38が設計されている場合には、マイクロレンズ38に入射した側とは逆側の画素12にも光が入り込んでしまうことがある。
 即ち、図12のAに示すように、マイクロレンズ38の画素12-1側に入射した光(一点鎖線の矢印)が、半導体基板21の画素12-2側にも入り込んでしまうことや、マイクロレンズ38の画素12-2側に入射した光(破線の矢印)が、半導体基板21の画素12-1側にも入り込んでしまうことがある。
 これにより、例えば、図12のBの左側に示すように、画素ブロック52Grと画素ブロック52Rとの境界、および、画素ブロック52Bと画素ブロック52Gbの境界に沿って縦方向に、暗部と明部との境界がある画像が撮像される場合について説明する。この場合、図12のBの右側に示すように、暗部と明部との境界に沿って上下方向に並ぶ画素12どうしに出力差が生じてしまい、テクスチャのある画像と誤認識されること(以下、誤つなぎと称する)が懸念される。
 例えば、画素12R-3に対して、右隣にある画素12R-4に入射した光が入り込んでしまうことで、画素12R-3の出力が、本来よりも明るい値になってしまう。その結果、画素12R-3と、画素12R-3の上隣にある画素12Gr-4とで出力差が生じてしまう。同様に、画素12R-3と、画素12R-3の下隣にある画素12Gb-10とで出力差が生じてしまう。
 そこで、本技術を適用した第2の実施の形態の撮像素子11bは、半導体基板21の表面よりも所定の深さとなる位置に集光スポットが設けられるようにマイクロレンズ38が設計される。
 例えば、図13のAに示す撮像素子11bでは、レンズ形状を低曲率化する第1の設計手法に基づいてマイクロレンズ38が形成されており、半導体基板21の表面よりも所定の深さとなる位置に集光スポットが設けられる。例えば、第1の設計手法では、マイクロレンズ38の曲率を0.0018未満とすることが好ましい。さらに、マイクロレンズ38の曲率を0.0014以下とすることが、より好適である。
 このように、マイクロレンズ38の曲率を低くすることで、撮像素子11bは、マイクロレンズ38に入射した側の画素12にだけ光が入射されるような構成とすることができる。即ち、マイクロレンズ38の画素12-1側に入射した光は、半導体基板21の画素12-1側にだけ入射されるとともに、マイクロレンズ38の画素12-2側に入射した光は、半導体基板21の画素12-2側にだけ入射される。
 以上のように、撮像素子11bは、それぞれの画素12側のマイクロレンズ38に入射した光が、それぞれの半導体基板21の画素12側にだけ入射されるように構成することができる。これにより、例えば、図12のBの左側に示すように、画素ブロック52Grと画素ブロック52Rとの境界、および、画素ブロック52Bと画素ブロック52Gbの境界に沿って縦方向に、暗部と明部との境界がある画像が撮像される場合であっても、誤つなぎの発生を抑制することができる。つまり、暗部と明部との境界に沿って上下方向に並ぶ画素12どうしに出力差が生じることを抑制することができ、テクスチャのある画像と誤認識されることを回避して、画質の悪化を抑制することができる。
 また、図13のBに示す撮像素子11bでは、レンズ形状を高曲率化かつレンズ高さを低背化する第2の設計手法に基づいてマイクロレンズ38が形成されており、半導体基板21の表面よりも所定の深さとなる位置に集光スポットが設けられる。例えば、第2の設計手法では、マイクロレンズ38の曲率を0.0014以上とし、かつ、マイクロレンズ38の高さを500nm以下とすることが好ましい。さらに、マイクロレンズ38の曲率を0.0018以上とし、かつ、マイクロレンズ38の高さを120nm以下とすることが、より好適である。
 このように、マイクロレンズ38の曲率を高くし、かつ、マイクロレンズ38のレンズ高さを低くすることで、撮像素子11bは、マイクロレンズ38に入射した側の画素12にだけ光を入射させることができる。即ち、マイクロレンズ38の画素12-1側に入射した光は、半導体基板21の画素12-1側にだけ入射されるとともに、マイクロレンズ38の画素12-2側に入射した光は、半導体基板21の画素12-2側にだけ入射される。また、マイクロレンズ38は、マイクロレンズ38と比較して分離比を向上させることができるので、撮像素子11bは、マイクロレンズ38を用いた撮像素子11bよりも、集光スポットを浅くしてもよい。
 以上のように、撮像素子11bは、撮像素子11bと同様に、それぞれの画素12側のマイクロレンズ38に入射した光が、それぞれの半導体基板21の画素12側にだけ入射されるように構成することができ、画質の悪化を抑制することができる。
 なお、図示するように、撮像素子11bでは、半導体基板21の裏面に積層するように、金属により構成される遮光膜61が設けられている。例えば、遮光膜61は、FFTI32と同様に、平面視して画素ペア41の周囲を囲うように設けられており、隣接する画素ペア41どうしの混色の発生を抑制することができる。
 <撮像素子のバリエーション>
 図14乃至図20を参照して、撮像素子11bのバリエーションについて説明する。
 図14は、撮像素子11bの第1のバリエーションの構成例を示す断面図である。
 図14に示すように、撮像素子11b-1は、半導体基板21の裏面側に、カラーフィルタ層22およびオンチップレンズ層23b-1が積層されて構成される。
 半導体基板21には、画素ペア41となっている画素12-1および12-2を、隣接する他の画素ペア41から分離するためのFFTI32が、画素12-1および12-2の外周を囲うように設けられている。半導体基板21には、画素12-1と画素12-2とを分離するためのDTI33が、画素12-1および12-2の間に設けられている。また、半導体基板21の裏面に積層するように、FFTI32と同様に、画素ペア41となっている画素12-1および12-2の外周を囲うように遮光膜61が設けられている。
 カラーフィルタ層22には、画素ペア41となっている画素12-1および12-2ごとに、同色のフィルタ37-1および37-2が設けられており、フィルタ37-1および37-2の外周を囲うようにCF導波路39が設けられている。図示するように、画素12R-1および12R-2には、赤色のフィルタ37R-1および37R-2が設けられており、画素12G-1および12G-2には、緑色のフィルタ37G-1および37G-2が設けられており、画素12B-1および12B-2には、青色のフィルタ37B-1および37B-2が設けられている。
 オンチップレンズ層23b-1には、それぞれの画素ペア41が受光する光の色に応じて異なる曲率のマイクロレンズ38が設けられる。即ち、赤色の光を受光する画素ペア41Rのマイクロレンズ38R、緑色の光を受光する画素ペア41Gのマイクロレンズ38G、青色の光を受光する画素ペア41Bのマイクロレンズ38Bは、それぞれ曲率が異なっている。
 例えば、マイクロレンズ38R、マイクロレンズ38G、およびマイクロレンズ38Bは、半導体基板21の表面よりも所定の深さとなる位置に集光スポットの深さを揃えることができるように、それぞれの色に応じて曲率が設定されている。図示する例では、マイクロレンズ38Rが最も高く、マイクロレンズ38Gが次に高く、マイクロレンズ38Bが最も低くなるように、それらの曲率が設定されている。
 これにより、撮像素子11b-1は、それぞれの画素12側のマイクロレンズ38に入射した光が、それぞれの半導体基板21の画素12側にだけ入射されるようにする構成を、色ごとに最適化することができる。また、撮像素子11b-1では、分離比のバランスも最適化することができる。
 図15は、撮像素子11bの第2のバリエーションの構成例を示す断面図である。なお、図15に示す撮像素子11b-2において、図14の撮像素子11b-1と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 即ち、撮像素子11b-2は、図14の撮像素子11b-1と同様に、半導体基板21の裏面側に、カラーフィルタ層22およびオンチップレンズ層23b-2が積層されて構成される。
 そして、撮像素子11b-2のオンチップレンズ層23b-2には、それぞれの画素ペア41が受光する光の色に応じて異なるレンズ高さのマイクロレンズ38が設けられる。即ち、赤色の光を受光する画素ペア41Rのマイクロレンズ38R、緑色の光を受光する画素ペア41Gのマイクロレンズ38G、青色の光を受光する画素ペア41Bのマイクロレンズ38Bは、それぞれレンズ高さが異なっている。
 例えば、マイクロレンズ38R、マイクロレンズ38G、およびマイクロレンズ38Bは、半導体基板21の表面よりも所定の深さとなる位置に集光スポットの深さを揃えることができるように、それぞれの色に応じてレンズ高さが設定される。図示する例では、マイクロレンズ38Rが最も高く、マイクロレンズ38Gが次に高く、マイクロレンズ38Bが最も低くなるように、それらのレンズ高さが設定されている。
 これにより、撮像素子11b-2は、それぞれの画素12側のマイクロレンズ38に入射した光が、それぞれの半導体基板21の画素12側にだけ入射されるようにする構成を、色ごとに最適化することができる。また、撮像素子11b-2では、分離比のバランスも最適化することができる。
 図16は、撮像素子11bの第3のバリエーションの構成例を示す断面図である。なお、図16に示す撮像素子11b-3において、図14の撮像素子11b-1と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 即ち、撮像素子11b-3は、図14の撮像素子11b-1と同様に、半導体基板21の裏面側に、カラーフィルタ層22およびオンチップレンズ層23b-3が積層されて構成される。
 また、撮像素子11b-3では、通常のマイクロレンズ38に替えて、例えば、誘電体や、金属酸化物、金属など様々な材料により構成されるナノレベルの微細な構造物が所定のピッチで配置されるメタレンズ42が使用されている。そして、そして、撮像素子11b-3のオンチップレンズ層23b-3には、それぞれの画素ペア41が受光する光の色に応じて異なるピッチで構造物が配置されたメタレンズ42が設けられる。即ち、赤色の光を受光する画素ペア41Rのメタレンズ42R、緑色の光を受光する画素ペア41Gのメタレンズ42G、青色の光を受光する画素ペア41Bのメタレンズ42Bは、それぞれ構造物のピッチが異なっている。
 例えば、メタレンズ42R、メタレンズ42G、およびメタレンズ42Bは、半導体基板21の表面よりも所定の深さとなる位置に集光スポットの深さを揃えることができるように、それぞれの色に応じて構造物のピッチが設計される。図示する例では、マイクロレンズ38Rが最も広く、マイクロレンズ38Gが次に広く、マイクロレンズ38Bが最も狭くなるように、それらの構造物のピッチが設計されている。
 これにより、撮像素子11b-3は、それぞれの画素12側のメタレンズ42に入射した光が、それぞれの半導体基板21の画素12側にだけ入射されるようにする構成を、色ごとに最適化することができる。また、撮像素子11b-3では、分離比のバランスも最適化することができる。
 図17のAは、撮像素子11bの第4のバリエーションの構成例を示す断面図である。なお、図17に示す撮像素子11b-4において、図13の撮像素子11bと共通する構成については同一の符号を付し、その詳細な説明は省略する。
 即ち、撮像素子11b-4は、図13の撮像素子11bと同様に、半導体基板21の裏面側に、カラーフィルタ層22b-4およびオンチップレンズ層23が積層されて構成される。
 そして、撮像素子11b-4のカラーフィルタ層22b-4には、フィルタ37-1およびフィルタ37-2の外周を囲うように設けられているCF導波路39と同様に、フィルタ37-1とフィルタ37-2との間にもCF導波路62が設けられている。CF導波路62は、CF導波路39と同じ高さおよび幅で形成される。また、半導体基板21の裏面に積層するように、画素12-1と画素12-2との間にも遮光膜61が設けられている。
 このように、撮像素子11b-4は、CF導波路62および遮光膜61を設けることによって、画素12側のマイクロレンズ38に入射した光が、それぞれの半導体基板21の画素12側にだけ確実に入射されるようにすることができる。これにより、撮像素子11b-4は、同じ列に配置される画素12に出力差が生じることを抑制することができる。
 例えば、CF導波路62は、図17のBに示すように、平面視して両端がCF導波路39に接するように形成される。または、CF導波路62は、図17のCに示すように、平面視して両端がCF導波路39から離れるように形成される。これらのCF導波路62の構成は、例えば、他方の画素12に光が入射してしまうことを抑制する度合いと、分離比やQeとのバランスに応じて選択することができる。また、図17のCに示すように、CF導波路62の両端がCF導波路39から離れるように形成することで、CF導波路62の高さの設計変更や、遮光膜61の有無の設計変更などを容易に行うことができる。
 図18のAは、撮像素子11bの第5のバリエーションの構成例を示す断面図である。なお、図18のAに示す撮像素子11b-5において、図17の撮像素子11b-4と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 撮像素子11b-5は、撮像素子11b-4と同様に、フィルタ37-1とフィルタ37-2との間にCF導波路62aが設けられて構成される。そして、CF導波路62aは、CF導波路39と異なる高さになるように、図示する例では、CF導波路39よりも低くなるように形成されている。
 例えば、撮像素子11b-5では、CF導波路62aの高さは、他方の画素12に光が入射してしまうことを抑制する度合いと、分離比やQeとのバランスに応じて調整することができる。
 図18のBは、撮像素子11bの第6のバリエーションの構成例を示す断面図である。なお、図18のBに示す撮像素子11b-6において、図17の撮像素子11b-4と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 撮像素子11b-6は、撮像素子11b-4と同様に、フィルタ37-1とフィルタ37-2との間にCF導波路62bが設けられて構成される。そして、CF導波路62bは、CF導波路39と異なる幅になるように、図示する例では、CF導波路39よりも幅が狭くなるように形成されている。
 例えば、撮像素子11b-6では、CF導波路62bの幅は、他方の画素12に光が入射してしまうことを抑制する度合いと、分離比やQeとのバランスに応じて調整することができる。
 図18のCは、撮像素子11bの第7のバリエーションの構成例を示す断面図である。なお、図18のCに示す撮像素子11b-7において、図17の撮像素子11b-4と共通する構成については同一の符号を付し、その詳細な説明は省略する。
 撮像素子11b-7は、撮像素子11b-4と同様に、フィルタ37-1とフィルタ37-2との間にCF導波路62が設けられて構成される。そして、撮像素子11b-7では、画素12-1と画素12-2との間には遮光膜61が設けられない構成となっている。
 例えば、撮像素子11b-7は、画素12-1と画素12-2との間に遮光膜61が設けられない構成とすることで、他方の画素12に光が入射してしまうことを抑制しつつ、遮光膜61での吸収によるQeの低下を抑制することができる。
 図19のAは、撮像素子11bの第8のバリエーションの構成例を示す断面図である。なお、図19のAに示す撮像素子11b-8において、図13の撮像素子11bと共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図19のAに示すように、撮像素子11b-8は、半導体基板21b-8の裏面側に、カラーフィルタ層22およびオンチップレンズ層23が積層されて構成される。
 そして、撮像素子11b-8の半導体基板21b-8は、半導体基板21b-8の裏面付近において、DTI33に拡幅部63が設けられて構成される。拡幅部63は、DTI33に対して段差を有した形状となるように形成される。
 このように、撮像素子11b-8は、DTI33の裏面付近だけを拡幅部63で幅広にすることで、入射光が他方の画素12に入射してしまうことを抑制することができる。これにより、撮像素子11b-8は、同じ列に配置される画素12に出力差が生じることを抑制することができる。
 図19のBは、撮像素子11bの第9のバリエーションの構成例を示す断面図である。なお、図19のBに示す撮像素子11b-9において、図13の撮像素子11bと共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図19のBに示すように、撮像素子11b-9は、半導体基板21b-9の裏面側に、カラーフィルタ層22およびオンチップレンズ層23が積層されて構成される。
 そして、撮像素子11b-9の半導体基板21b-9は、半導体基板21b-9の裏面付近において、DTI33に拡幅部63aが設けられて構成される。拡幅部63aは、DTI33に対してテーパを有した形状となるように形成される。
 このように、撮像素子11b-9は、DTI33の裏面付近だけを拡幅部63aで幅広にすることで、入射光が他方の画素12に入射してしまうことを抑制することができる。これにより、撮像素子11b-9は、同じ列に配置される画素12に出力差が生じることを抑制することができる。
 なお、図19のAに示すような形状の拡幅部63と、図19のBに示すような拡幅部63aとのどちらを選択するかは、プロセス難易度に応じて決定することができる。
 図20は、撮像素子11bの第10のバリエーションの構成例を示す断面図である。なお、図20に示す撮像素子11b-10において、図13の撮像素子11bと共通する構成については同一の符号を付し、その詳細な説明は省略する。
 図20に示すように、撮像素子11b-10は、半導体基板21b-10の裏面側に、カラーフィルタ層22およびオンチップレンズ層23が積層されて構成される。
 そして、撮像素子11b-10の半導体基板21b-10は、半導体基板21b-10の裏面付近におけるDTI33に、深い位置のDTI33とは屈折率が異なる異屈折率材料64が埋め込まれて構成される。即ち、撮像素子11b-10では、DTI33は、半導体基板21b-10の表面付近に埋め込まれる異屈折率材料64の屈折率が、その表面付近よりも深い位置に埋め込まれる材料の屈折率と異なるように構成される。例えば、DTI33を形成する際に、半導体基板21b-10に対してトレンチを掘り込んで埋め戻しをする工程において、PDAS(Phosphorus Doped Amorphous Silicon)などの屈折率の異なる材料を、半導体基板21b-10の裏面付近で埋め込むことができる。
 例えば、半導体基板21b-10に形成したトレンチ表面の屈折率をシリコンに近づけることで、そのトレンチでの散乱が起こる位置を深くすることができ、散乱が起こるまでに光が吸収される距離が長くなる。その結果、マイクロレンズ38の画素12-1側に入射した光は、半導体基板21b-10の画素12-1側にだけ入射し、マイクロレンズ38の画素12-2側に入射した光は、半導体基板21b-10の画素12-2側にだけ入射することになる。これにより、撮像素子11b-10は、同じ列に配置される画素12に出力差が生じることを抑制することができる。
 <マイクロレンズのレンズ配列>
 図21および図22を参照して、マイクロレンズ38のレンズ配列について説明する。
 図21および図22では、図2と同様の画素ブロック52Gr、画素ブロック52R、画素ブロック52B、および画素ブロック52Gbが示されており、上述したように画素ペア41が設定されている。
 図21に示すレンズ配列71では、全ての画素ペア41ごとにマイクロレンズ38が配置されている。
 これに対し、図22に示すレンズ配列71aでは、一部の画素ペア41に変形マイクロレンズ72が配置され、それ以外の画素ペア41にマイクロレンズ38が配置されている。
 図示するように、変形マイクロレンズ72には、左上から右下に向かうような形状の変形マイクロレンズ72-1と、右上から左下に向かうような形状の変形マイクロレンズ72-2とがある。
 例えば、変形マイクロレンズ72-1は、画素ブロック52Grの右下の画素ペア41となっている画素Gr-9および画素Gr-10と、画素ブロック52Gbの左上の画素ペア41となっている画素Gb-1および画素Gb-2とで共通して用いられる。即ち、変形マイクロレンズ72-1は、画素Gr-9および画素Gr-10で共有するようなマイクロレンズ38、画素Gb-1および画素Gb-2で共有するようなマイクロレンズ38、並びに、画素Gr-10および画素Gb-1で共有するようなマイクロレンズ38が重ね合わされたような光学的な効果を備える。
 同様に、変形マイクロレンズ72-2は、画素ブロック52Grの左下の画素ペア41となっている画素Gr-7および画素Gr-8と、画素ブロック52Gbの右上の画素ペア41となっている画素Gb-3および画素Gb-4とで共通して用いられる。即ち、変形マイクロレンズ72-2は、画素Gr-7および画素Gr-8で共有するようなマイクロレンズ38、画素Gb-3および画素Gb-4で共有するようなマイクロレンズ38、並びに、画素Gr-7および画素Gb-4で共有するようなマイクロレンズ38が重ね合わされたような光学的な効果を備える。
 例えば、図21に示したレンズ配列71では、画素Gr-10および画素Gb-1の間、または、画素Gr-7および画素Gb-4の間で、本来では同じ信号量となって欲しい場合でも信号差が発生してしまい、横方向にテクスチャがあるような画像が撮像されることがある。
 これに対し、レンズ配列71aでは、変形マイクロレンズ72-1によって、画素Gr-10および画素Gb-1の間で生じるような信号差を抑制することができ、変形マイクロレンズ72-2によって、画素Gr-7および画素Gb-4の間で生じるような信号差を抑制することができる。
 つまり、横方向に向かう2個のマイクロレンズ38が縦方向にも繋がるように変形させた変形マイクロレンズ72によって、縦方向に並ぶ画素Grまたは画素Gbに入射した光の一部が、画素Grおよび画素Gbにそれぞれ入射することになる。これにより、縦方向に並ぶ画素Grと画素Gbとの間で生じる出力差を低減させることができ、縦テクスチャが横テクスチャに誤認識されてしまうことを回避することができる。
 <電子機器の構成例>
 上述したような撮像素子11は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図23は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図23に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述した撮像素子11が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した撮像素子11を適用することで、例えば、より高画質な画像を撮像することができる。
 <イメージセンサの使用例>
 図24は、上述のイメージセンサ(撮像素子)を使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図25は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図25に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図25の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図26は、撮像部12031の設置位置の例を示す図である。
 図26では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図26には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。撮像部12031等に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 画素ごとに光電変換部が設けられる半導体基板と、
 前記半導体基板の受光面側に積層され、前記画素が受光する色の光を透過するフィルタが前記画素ごとに配置されるカラーフィルタ層と、
 前記カラーフィルタ層に積層され、同色の2つの前記画素からなる画素ペアごとにマイクロレンズが配置されるオンチップレンズ層と
 を備え、
 前記半導体基板には、
  前記半導体基板を貫通して形成され、異色の前記画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、
  前記半導体基板の受光面から所定の深さまで掘り込んで形成され、前記画素ペアとなっている2つの前記画素の前記光電変換部どうしの間に少なくとも設けられる第2の素子分離部と
 が設けられる
 固体撮像素子。
(2)
 前記第1の素子分離部は、前記画素ペアの外周を囲って設けられ、
 前記第2の素子分離部は、前記画素ペアとなっている2つの前記画素どうしの間にのみ設けられる
 上記(1)に記載の固体撮像素子。
(3)
 所定数の同色の前記画素ごとに画素ブロックが形成されており、
 4つの前記画素ブロックの組み合わせからなる画素配列を単位として、前記画素配列が行方向および列方向に繰り返して配置される
 上記(1)または(2)に記載の固体撮像素子。
(4)
 前記画素ブロックは、所定の色の前記画素が第1の配置パターンで配置される第1の画素ブロックと、前記色とは異なる色の前記画素が第2の配置パターンで配置される第2の画素ブロックとを含む
 上記(3)に記載の固体撮像素子。
(5)
 前記第1の画素ブロックには緑色の前記画素が配置され、前記第2の画素ブロックには赤色または青色の前記画素が配置されており、
 前記第1の画素ブロックに配置される前記画素の個数が、前記第2の画素ブロックに配置される前記画素の個数より多い
 上記(4)に記載の固体撮像素子。
(6)
 前記画素配列は、10個の緑色の前記画素が第1の配置パターンで配置された前記画素ブロックが左上に配置され、8個の赤色の前記画素が第2の配置パターンで配置された前記画素ブロックが右上に配置され、8個の青色の前記画素が第2の配置パターンで配置された前記画素ブロックが左下に配置され、10個の緑色の前記画素が第1の配置パターンで配置された前記画素ブロックが右下に配置されている
 上記(5)に記載の固体撮像素子。
(7)
 前記第1の素子分離部は、前記画素ブロックの境界に沿って設けられ、
 前記第2の素子分離部は、前記画素ブロック内における前記画素どうしの間に設けられる
 上記(3)から(6)までのいずれかに記載の固体撮像素子。
(8)
 前記第1の素子分離部は、前記画素ブロックの境界に沿って設けられるとともに、前記画素ブロック内において左右に隣接する前記画素ペアどうしの間に設けられ、
 前記第2の素子分離部は、前記画素ブロック内における前記画素どうしの間であって、前記第1の素子分離部が設けられていない個所に設けられる
 上記(3)から(6)までのいずれかに記載の固体撮像素子。
(9)
 前記第1の画素ブロックには緑色の前記画素が配置され、前記第2の画素ブロックには赤色または青色の前記画素が配置されており、
 前記第1の素子分離部は、前記第2の画素ブロックの境界に沿って設けられ、
 前記第2の素子分離部は、前記第1の素子分離部が設けられていない個所に設けられる
 上記(4)から(6)までのいずれかに記載の固体撮像素子。
(10)
 前記画素ブロックは、4個の同色の前記画素が2×2配置パターンで配置されており、 前記画素配列は、緑色の前記画素ブロックが左上に配置され、赤色の前記画素ブロックが右上に配置され、青色の前記画素ブロックが左下に配置され、緑色の前記画素ブロックが右下に配置されており、
 前記第1の素子分離部は、前記画素ブロックの境界に沿って設けられ、
 前記第2の素子分離部は、前記画素ブロック内における前記画素どうしの間に設けられる
 上記(3)に記載の固体撮像素子。
(11)
 前記カラーフィルタ層には、互いに隣接する前記画素ペアの前記フィルタどうしの間に、前記カラーフィルタ層での光の混入を抑制する導波路が設けられる
 上記(1)から(10)までのいずれかに記載の固体撮像素子。
(12)
 前記カラーフィルタ層には、互いに隣接する異色の前記フィルタどうしの間に、前記カラーフィルタ層での光の混入を抑制する導波路が設けられる
 上記(1)から(10)までのいずれかに記載の固体撮像素子。
(13)
 前記マイクロレンズは、前記半導体基板の表面よりも所定の深さとなる位置に集光スポットが設けられるように曲率およびレンズ高さが設計される
 上記(1)から(12)までのいずれかに記載の固体撮像素子。
(14)
 前記マイクロレンズは、前記画素の色ごとに、前記曲率または前記レンズ高さが設計される
 上記(13)に記載の固体撮像素子。
(15)
 前記マイクロレンズに替えて、微細構造物が所定のピッチで配置されるメタレンズが使用され、
 前記メタレンズは、前記画素の色ごとに、前記ピッチが設計される
 上記(13)に記載の固体撮像素子。
(16)
 前記カラーフィルタ層には、前記画素ペアの前記フィルタどうしの間に、前記カラーフィルタ層での光の混入を抑制する導波路が設けられる
 上記(13)から(15)までのいずれかに記載の固体撮像素子。
(17)
 前記半導体基板の表面付近において、前記第2の素子分離部に拡幅部が設けられる
 上記(13)から(16)までのいずれかに記載の固体撮像素子。
(18)
 前記第2の素子分離部は、前記半導体基板の表面付近に埋め込まれる材料の屈折率が、その表面付近よりも深い位置に埋め込まれる材料の屈折率と異なって構成される
 上記(13)から(17)までのいずれかに記載の固体撮像素子。
(19)
 前記画素配列で、左上に配置される緑色の前記画素ブロックおよび右下に配置される緑色の前記画素ブロックで縦方向に隣接する前記画素どうしを含む前記画素ペアとなっている4つの前記画素で、それぞれの前記画素ペアで用いられる前記マイクロレンズと、縦方向に隣接する前記画素で共有するようなマイクロレンズとが重ね合わされたような光学的な効果を備える変形マイクロレンズが共通して用いられる
 上記(6)に記載の固体撮像素子。
(20)
 画素ごとに光電変換部が設けられる半導体基板と、
 前記半導体基板の受光面側に積層され、前記画素が受光する色の光を透過するフィルタが前記画素ごとに配置されるカラーフィルタ層と、
 前記カラーフィルタ層に積層され、同色の2つの前記画素からなる画素ペアごとにマイクロレンズが配置されるオンチップレンズ層と
 を有し、
 前記半導体基板には、
  前記半導体基板を貫通して形成され、異色の前記画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、
  前記半導体基板の受光面から所定の深さまで掘り込んで形成され、前記画素ペアとなっている2つの前記画素の前記光電変換部どうしの間に少なくとも設けられる第2の素子分離部と
 が設けられる
 固体撮像素子を備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 撮像素子, 12 画素, 21 半導体基板, 22 カラーフィルタ層, 23 オンチップレンズ層, 31 光電変換部, 32 FFTI, 33 DTI, 34 分離インプラ部, 35 FD部, 36 転送トランジスタ, 37 フィルタ, 38 マイクロレンズ, 39 CF導波路, 41 画素ペア, 42 メタレンズ, 51 画素配列, 52および53 画素ブロック, 61 遮光膜, 62 CF導波路, 63 拡幅部, 64 異屈折率材料, 71 レンズ配列, 72 変形マイクロレンズ

Claims (20)

  1.  画素ごとに光電変換部が設けられる半導体基板と、
     前記半導体基板の受光面側に積層され、前記画素が受光する色の光を透過するフィルタが前記画素ごとに配置されるカラーフィルタ層と、
     前記カラーフィルタ層に積層され、同色の2つの前記画素からなる画素ペアごとにマイクロレンズが配置されるオンチップレンズ層と
     を備え、
     前記半導体基板には、
      前記半導体基板を貫通して形成され、異色の前記画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、
      前記半導体基板の受光面から所定の深さまで掘り込んで形成され、前記画素ペアとなっている2つの前記画素の前記光電変換部どうしの間に少なくとも設けられる第2の素子分離部と
     が設けられる
     固体撮像素子。
  2.  前記第1の素子分離部は、前記画素ペアの外周を囲って設けられ、
     前記第2の素子分離部は、前記画素ペアとなっている2つの前記画素どうしの間にのみ設けられる
     請求項1に記載の固体撮像素子。
  3.  所定数の同色の前記画素ごとに画素ブロックが形成されており、
     4つの前記画素ブロックの組み合わせからなる画素配列を単位として、前記画素配列が行方向および列方向に繰り返して配置される
     請求項1に記載の固体撮像素子。
  4.  前記画素ブロックは、所定の色の前記画素が第1の配置パターンで配置される第1の画素ブロックと、前記色とは異なる色の前記画素が第2の配置パターンで配置される第2の画素ブロックとを含む
     請求項3に記載の固体撮像素子。
  5.  前記第1の画素ブロックには緑色の前記画素が配置され、前記第2の画素ブロックには赤色または青色の前記画素が配置されており、
     前記第1の画素ブロックに配置される前記画素の個数が、前記第2の画素ブロックに配置される前記画素の個数より多い
     請求項4に記載の固体撮像素子。
  6.  前記画素配列は、10個の緑色の前記画素が第1の配置パターンで配置された前記画素ブロックが左上に配置され、8個の赤色の前記画素が第2の配置パターンで配置された前記画素ブロックが右上に配置され、8個の青色の前記画素が第2の配置パターンで配置された前記画素ブロックが左下に配置され、10個の緑色の前記画素が第1の配置パターンで配置された前記画素ブロックが右下に配置されている
     請求項5に記載の固体撮像素子。
  7.  前記第1の素子分離部は、前記画素ブロックの境界に沿って設けられ、
     前記第2の素子分離部は、前記画素ブロック内における前記画素どうしの間に設けられる
     請求項3に記載の固体撮像素子。
  8.  前記第1の素子分離部は、前記画素ブロックの境界に沿って設けられるとともに、前記画素ブロック内において左右に隣接する前記画素ペアどうしの間に設けられ、
     前記第2の素子分離部は、前記画素ブロック内における前記画素どうしの間であって、前記第1の素子分離部が設けられていない個所に設けられる
     請求項3に記載の固体撮像素子。
  9.  前記第1の画素ブロックには緑色の前記画素が配置され、前記第2の画素ブロックには赤色または青色の前記画素が配置されており、
     前記第1の素子分離部は、前記第2の画素ブロックの境界に沿って設けられ、
     前記第2の素子分離部は、前記第1の素子分離部が設けられていない個所に設けられる
     請求項4に記載の固体撮像素子。
  10.  前記画素ブロックは、4個の同色の前記画素が2×2配置パターンで配置されており、 前記画素配列は、緑色の前記画素ブロックが左上に配置され、赤色の前記画素ブロックが右上に配置され、青色の前記画素ブロックが左下に配置され、緑色の前記画素ブロックが右下に配置されており、
     前記第1の素子分離部は、前記画素ブロックの境界に沿って設けられ、
     前記第2の素子分離部は、前記画素ブロック内における前記画素どうしの間に設けられる
     請求項3に記載の固体撮像素子。
  11.  前記カラーフィルタ層には、互いに隣接する前記画素ペアの前記フィルタどうしの間に、前記カラーフィルタ層での光の混入を抑制する導波路が設けられる
     請求項1に記載の固体撮像素子。
  12.  前記カラーフィルタ層には、互いに隣接する異色の前記フィルタどうしの間に、前記カラーフィルタ層での光の混入を抑制する導波路が設けられる
     請求項1に記載の固体撮像素子。
  13.  前記マイクロレンズは、前記半導体基板の表面よりも所定の深さとなる位置に集光スポットが設けられるように曲率およびレンズ高さが設計される
     請求項1に記載の固体撮像素子。
  14.  前記マイクロレンズは、前記画素の色ごとに、前記曲率または前記レンズ高さが設計される
     請求項13に記載の固体撮像素子。
  15.  前記マイクロレンズに替えて、微細構造物が所定のピッチで配置されるメタレンズが使用され、
     前記メタレンズは、前記画素の色ごとに、前記ピッチが設計される
     請求項13に記載の固体撮像素子。
  16.  前記カラーフィルタ層には、前記画素ペアの前記フィルタどうしの間に、前記カラーフィルタ層での光の混入を抑制する導波路が設けられる
     請求項13に記載の固体撮像素子。
  17.  前記半導体基板の表面付近において、前記第2の素子分離部に拡幅部が設けられる
     請求項13に記載の固体撮像素子。
  18.  前記第2の素子分離部は、前記半導体基板の表面付近に埋め込まれる材料の屈折率が、その表面付近よりも深い位置に埋め込まれる材料の屈折率と異なって構成される
     請求項13に記載の固体撮像素子。
  19.  前記画素配列で、左上に配置される緑色の前記画素ブロックおよび右下に配置される緑色の前記画素ブロックで縦方向に隣接する前記画素どうしを含む前記画素ペアとなっている4つの前記画素で、それぞれの前記画素ペアで用いられる前記マイクロレンズと、縦方向に隣接する前記画素で共有するようなマイクロレンズとが重ね合わされたような光学的な効果を備える変形マイクロレンズが共通して用いられる
     請求項6に記載の固体撮像素子。
  20.  画素ごとに光電変換部が設けられる半導体基板と、
     前記半導体基板の受光面側に積層され、前記画素が受光する色の光を透過するフィルタが前記画素ごとに配置されるカラーフィルタ層と、
     前記カラーフィルタ層に積層され、同色の2つの前記画素からなる画素ペアごとにマイクロレンズが配置されるオンチップレンズ層と
     を有し、
     前記半導体基板には、
      前記半導体基板を貫通して形成され、異色の前記画素どうしの間の少なくとも一部に設けられる第1の素子分離部と、
      前記半導体基板の受光面から所定の深さまで掘り込んで形成され、前記画素ペアとなっている2つの前記画素の前記光電変換部どうしの間に少なくとも設けられる第2の素子分離部と
     が設けられる
     固体撮像素子を備える電子機器。
PCT/JP2023/020591 2022-06-13 2023-06-02 固体撮像素子および電子機器 WO2023243429A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-094868 2022-06-13
JP2022094868 2022-06-13

Publications (1)

Publication Number Publication Date
WO2023243429A1 true WO2023243429A1 (ja) 2023-12-21

Family

ID=89191235

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/020591 WO2023243429A1 (ja) 2022-06-13 2023-06-02 固体撮像素子および電子機器

Country Status (1)

Country Link
WO (1) WO2023243429A1 (ja)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007132866A1 (ja) * 2006-05-16 2007-11-22 Sharp Kabushiki Kaisha 固体撮像装置およびその製造方法、電子情報機器
WO2013100036A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 カラー撮像素子
JP2014011239A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 固体撮像装置および固体撮像装置の製造方法
US20160043119A1 (en) * 2014-08-05 2016-02-11 Kyung Ho Lee Image pixel, image sensor including the same, and image processing system including the same
JP2016111184A (ja) * 2014-12-05 2016-06-20 凸版印刷株式会社 カラー固体撮像素子、その製造方法、及びフォトマスク
JP2018201015A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器
US20190132506A1 (en) * 2017-10-30 2019-05-02 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor
JP2020043435A (ja) * 2018-09-07 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020175195A1 (ja) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020230675A1 (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
US20210112201A1 (en) * 2019-10-10 2021-04-15 Samsung Electronics Co., Ltd. Zoomable image sensor and image sensing method
US20210118932A1 (en) * 2019-10-21 2021-04-22 Samsung Electronics Co., Ltd. Image sensor and image sensing method with improved sensitivity
WO2022091576A1 (ja) * 2020-10-28 2022-05-05 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022130888A1 (ja) * 2020-12-16 2022-06-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007132866A1 (ja) * 2006-05-16 2007-11-22 Sharp Kabushiki Kaisha 固体撮像装置およびその製造方法、電子情報機器
WO2013100036A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 カラー撮像素子
JP2014011239A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 固体撮像装置および固体撮像装置の製造方法
US20160043119A1 (en) * 2014-08-05 2016-02-11 Kyung Ho Lee Image pixel, image sensor including the same, and image processing system including the same
JP2016111184A (ja) * 2014-12-05 2016-06-20 凸版印刷株式会社 カラー固体撮像素子、その製造方法、及びフォトマスク
JP2018201015A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器
US20190132506A1 (en) * 2017-10-30 2019-05-02 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor
JP2020043435A (ja) * 2018-09-07 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020175195A1 (ja) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020230675A1 (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
US20210112201A1 (en) * 2019-10-10 2021-04-15 Samsung Electronics Co., Ltd. Zoomable image sensor and image sensing method
US20210118932A1 (en) * 2019-10-21 2021-04-22 Samsung Electronics Co., Ltd. Image sensor and image sensing method with improved sensitivity
WO2022091576A1 (ja) * 2020-10-28 2022-05-05 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2022130888A1 (ja) * 2020-12-16 2022-06-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Similar Documents

Publication Publication Date Title
JP7316764B2 (ja) 固体撮像装置、及び電子機器
WO2019131122A1 (ja) 固体撮像装置、距離計測装置、及び製造方法
CN109997019B (zh) 摄像元件和摄像装置
US20210288192A1 (en) Sensor element and electronic device
US20240038791A1 (en) Solid-state imaging device and electronic apparatus
JP2018198272A (ja) 固体撮像素子および電子機器
JP7225195B2 (ja) 受光素子および測距モジュール
CN110959194A (zh) 固态摄像器件及电子设备
WO2021095668A1 (ja) 固体撮像装置およびその製造方法
KR20220099974A (ko) 수광 소자, 측거 모듈
WO2023243429A1 (ja) 固体撮像素子および電子機器
WO2020110695A1 (ja) 受光素子および電子機器
WO2023013554A1 (ja) 光検出器及び電子機器
WO2023153107A1 (ja) 固体撮像装置
WO2023127512A1 (ja) 撮像装置、電子機器
WO2023286391A1 (ja) 受光装置、電子機器及び受光方法
WO2022004445A1 (ja) 撮像素子、撮像装置、電子機器
WO2021153030A1 (ja) 固体撮像装置およびその製造方法
WO2023171129A1 (ja) 固体撮像装置
WO2024057739A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2022269997A1 (ja) 固体撮像装置および電子機器
WO2023153108A1 (ja) 固体撮像装置
WO2023248388A1 (ja) 光検出装置及び電子機器
JP7281895B2 (ja) 撮像素子および電子機器
KR102663338B1 (ko) 촬상 소자 및 촬상 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23823722

Country of ref document: EP

Kind code of ref document: A1