WO2022138097A1 - 固体撮像装置およびその製造方法 - Google Patents

固体撮像装置およびその製造方法 Download PDF

Info

Publication number
WO2022138097A1
WO2022138097A1 PCT/JP2021/044625 JP2021044625W WO2022138097A1 WO 2022138097 A1 WO2022138097 A1 WO 2022138097A1 JP 2021044625 W JP2021044625 W JP 2021044625W WO 2022138097 A1 WO2022138097 A1 WO 2022138097A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
solid
pixel separation
substrate
state image
Prior art date
Application number
PCT/JP2021/044625
Other languages
English (en)
French (fr)
Inventor
純平 山元
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP21910247.2A priority Critical patent/EP4270451A1/en
Priority to CN202180085150.5A priority patent/CN116670804A/zh
Priority to JP2022572071A priority patent/JPWO2022138097A1/ja
Priority to US18/257,921 priority patent/US20240006446A1/en
Priority to KR1020237019258A priority patent/KR20230123941A/ko
Publication of WO2022138097A1 publication Critical patent/WO2022138097A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • H01L27/14616Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor characterised by the channel of the transistor, e.g. channel having a doping gradient
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14638Structures specially adapted for transferring the charges across the imager perpendicular to the imaging plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Definitions

  • This disclosure relates to a solid-state image sensor and a method for manufacturing the same.
  • a pixel separation groove that surrounds these photoelectric conversion units in a ring shape may be provided in the substrate for each photoelectric conversion unit.
  • an insulating film such as an oxide film and a light-shielding film such as a metal film are often embedded in order as a pixel separation portion.
  • the ratio of the size of the insulating film to the size of the photoelectric conversion unit becomes large, the size of the photoelectric conversion unit is too small, and the size of the pixel separation groove is too large. Is a problem. For example, if the size of the photoelectric conversion unit is too small, the performance such as the dark current characteristics of the photoelectric conversion unit deteriorates.
  • the present disclosure provides a solid-state image sensor capable of preferably forming a pixel separation portion in the pixel separation groove, and a method for manufacturing the same.
  • the solid-state image sensor on the first aspect of the present disclosure includes a first substrate including a first semiconductor substrate, a plurality of photoelectric conversion units provided in the first semiconductor substrate, and the photoelectric in the first semiconductor substrate.
  • a pixel separation unit provided between the conversion units is provided, and the interface between the side surface of the pixel separation unit and the first semiconductor substrate has a ⁇ 100 ⁇ surface.
  • the pixel separating portion may include an insulating film. This makes it possible to form, for example, a thin insulating film for the pixel separation portion, and as a result, the size of the pixel separation portion can be reduced.
  • the pixel separation portion may further include a light-shielding film. This makes it possible to form a thick light-shielding film for the pixel separation portion, for example, by forming a thin insulating film for the pixel separation portion.
  • the insulating film may contain an element contained in the first semiconductor substrate and oxygen. This makes it possible to form an insulating film by, for example, oxidizing the side surface of the first semiconductor substrate.
  • the insulating film is provided at the first portion having the first film thickness in a plan view and the corner portion of the pixel separation portion, and is thicker than the first film thickness. It may include a second portion having a film thickness of 2. This makes it possible, for example, to limit the thick portion of the insulating film to the corner portion of the pixel separation portion and reduce the overall film thickness of the insulating film.
  • the pixel separation portion is parallel to a plurality of first portions extending in a first direction parallel to the surface of the first semiconductor substrate in a plan view and parallel to the surface of the first semiconductor substrate. It may include a plurality of second portions extending in the second direction. This makes it possible to realize, for example, a pixel separation portion having a mesh-like planar shape.
  • the plan view may correspond to a state in which the light incident surface of the first semiconductor substrate is viewed.
  • the thick portion of the insulating film is limited to the corner portion of the pixel separation portion, and the overall film thickness of the insulating film can be reduced. It becomes.
  • the first or second direction may be parallel to the ⁇ 100> direction of the first semiconductor substrate.
  • the side surface of the first semiconductor substrate parallel to the first or second direction, it is possible to make the side surface of the first semiconductor substrate a ⁇ 100 ⁇ surface.
  • the pixel separation portion may be provided in the pixel separation groove penetrating the first semiconductor substrate. This makes it possible to suitably form a pixel separation portion in the pixel separation groove penetrating the first semiconductor substrate, for example.
  • the pixel separation portion may be provided in a pixel separation groove that does not penetrate the first semiconductor substrate. This makes it possible to suitably form a pixel separation portion in the pixel separation groove that does not penetrate the first semiconductor substrate, for example.
  • the solid-state image sensor on the first side surface is provided with a first insulating layer provided on the side opposite to the light incident surface of the first substrate and a second insulating layer provided so as to face the first insulating layer.
  • a second substrate including a semiconductor substrate is further provided, and the second substrate may include a transistor. This makes it possible to use, for example, a second semiconductor substrate suitable for a transistor while using a first semiconductor substrate suitable for a pixel separation portion.
  • the pixel separation portion is parallel to a plurality of first portions extending in a first direction parallel to the surface of the first semiconductor substrate in a plan view and parallel to the surface of the first semiconductor substrate. It may include a plurality of second portions extending in the second direction. This makes it possible to realize, for example, a pixel separation portion having a mesh-like planar shape.
  • the first or second direction is parallel to the ⁇ 110> direction of the second semiconductor substrate, and the transistor is an n-type having a channel direction parallel to the ⁇ 110> direction. It may be a flat transistor. This makes it possible to use, for example, a second semiconductor substrate suitable for an n-type planar transistor.
  • the first or second direction is parallel to the ⁇ 100> direction of the second semiconductor substrate
  • the transistor is a fin which is a ⁇ 100 ⁇ plane of the second semiconductor substrate.
  • a fin-type transistor having a side wall and having a channel direction parallel to the first or second direction may be used. This makes it possible to suitably form a fin-type transistor in a second substrate whose first or second direction is parallel to the ⁇ 100> direction, for example.
  • the first or second direction is parallel to the ⁇ 100> direction of the second semiconductor substrate, and the transistor is a p-type having a channel direction parallel to the ⁇ 100> direction. It may be a flat transistor. This makes it possible to use, for example, a second semiconductor substrate suitable for a p-type planar transistor.
  • the first or second direction is parallel to the ⁇ 110> direction of the second semiconductor substrate
  • the transistor is a fin which is a ⁇ 100 ⁇ plane of the second semiconductor substrate.
  • a fin-type transistor having a side wall and having channel directions non-parallel to the first and second directions may be used. This makes it possible to suitably form a fin-type transistor in a second semiconductor substrate whose first or second direction is parallel to the ⁇ 110> direction, for example.
  • the solid-state image sensor on the second side of the present disclosure includes a first substrate including a first semiconductor substrate, a plurality of photoelectric conversion units provided in the first semiconductor substrate, and the photoelectric in the first semiconductor substrate.
  • a pixel separation unit provided between the conversion units is provided, the pixel separation unit includes an insulating film, and the insulating film has a first portion having a first film thickness in a plan view and a pixel separation unit. It includes a second portion provided at a corner portion and having a second film thickness thicker than the first film thickness.
  • the size of the pixel separation portion can be reduced, and the pixel separation portion can be suitably formed in the pixel separation groove.
  • the thick portion of the insulating film for the pixel separation portion can be limited to the corner portion of the pixel separation portion, and the overall film thickness of the insulating film for the inside of the pixel separation portion can be reduced.
  • a plurality of photoelectric conversion units are formed in a first semiconductor substrate of a first substrate, and pixels are separated between the photoelectric conversion units in the first semiconductor substrate.
  • the pixel separation portion includes forming a portion, and the pixel separation portion is formed so that the interface between the side surface of the pixel separation portion and the first semiconductor substrate has a ⁇ 100 ⁇ plane.
  • the size of the pixel separation portion can be reduced, and the pixel separation portion can be suitably formed in the pixel separation groove.
  • the pixel separation portion may be formed so as to include an insulating film.
  • an insulating film for example, a thin insulating film can be formed on the side surface of the first substrate, and as a result, the size of the pixel separation portion can be reduced.
  • the insulating film is provided at the first portion having the first film thickness in a plan view and the corner portion of the pixel separation portion, and is thicker than the first film thickness. It may be formed so as to include a second portion having a film thickness of 2. This makes it possible, for example, to limit the thick portion of the insulating film to the corner portion of the pixel separation portion and reduce the overall film thickness of the insulating film.
  • FIG. 1 is a block diagram showing a configuration of a solid-state image sensor according to the first embodiment.
  • the solid-state image sensor of FIG. 1 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, which includes a pixel array region 2 having a plurality of pixels 1, a control circuit 3, a vertical drive circuit 4, and a plurality of column signal processes. It includes a circuit 5, a horizontal drive circuit 6, an output circuit 7, a plurality of vertical signal lines 8, and a horizontal signal line 9.
  • CMOS Complementary Metal Oxide Semiconductor
  • Each pixel 1 includes a photodiode that functions as a photoelectric conversion unit and a MOS transistor that functions as a pixel transistor.
  • Examples of pixel transistors are transfer transistors, reset transistors, amplification transistors, selection transistors, and the like. These pixel transistors may be shared by some pixels 1.
  • the pixel array area 2 has a plurality of pixels 1 arranged in a two-dimensional array.
  • the pixel array region 2 is an effective pixel region that receives light and performs photoelectric conversion to amplify and output the signal charge generated by the photoelectric conversion, and a black reference pixel that outputs optical black as a reference for the black level. Includes areas and.
  • the black reference pixel region is arranged on the outer peripheral portion of the effective pixel region.
  • the control circuit 3 generates various signals that serve as reference for the operation of the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, etc., based on the vertical sync signal, the horizontal sync signal, the master clock, and the like.
  • the signal generated by the control circuit 3 is, for example, a clock signal or a control signal, and is input to the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, and the like.
  • the vertical drive circuit 4 includes, for example, a shift register, and scans each pixel 1 in the pixel array area 2 in a row unit in the vertical direction.
  • the vertical drive circuit 4 further supplies a pixel signal based on the signal charge generated by each pixel 1 to the column signal processing circuit 5 through the vertical signal line 8.
  • the column signal processing circuit 5 is arranged, for example, for each column of the pixel 1 in the pixel array area 2, and the signal processing of the signal output from the pixel 1 for one row is based on the signal from the black reference pixel area. Do it for each row. Examples of this signal processing are denoising and signal amplification.
  • the horizontal drive circuit 6 includes, for example, a shift register, and supplies pixel signals from each column signal processing circuit 5 to the horizontal signal line 9.
  • the output circuit 7 performs signal processing on the signal supplied from each column signal processing circuit 5 through the horizontal signal line 9, and outputs the signal to which this signal processing has been performed.
  • FIG. 2 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the first embodiment.
  • the solid-state image sensor of the present embodiment includes a semiconductor substrate 11, a photoelectric conversion unit 12, an n-type semiconductor region 13, a p-type semiconductor region 14, a pixel separation groove 21, and pixels. It includes a separation portion 22, an insulating film 23, a light-shielding film 24, a light-shielding film 25, a flattening film 26, a color filter 27, an on-chip lens 28, a substrate 31, and an insulating layer 32.
  • the semiconductor substrate 11 is an example of the first semiconductor substrate of the present disclosure.
  • the solid-state image sensor of the present embodiment further includes a substrate 11'including a semiconductor substrate 11 and an insulating film 23. The substrate 11'is an example of the first substrate of the present disclosure.
  • a in FIG. 2 shows an X-axis, a Y-axis, and a Z-axis that are perpendicular to each other.
  • the X and Y directions correspond to the horizontal direction (horizontal direction), and the Z direction corresponds to the vertical direction (vertical direction). Further, the + Z direction corresponds to the upward direction, and the ⁇ Z direction corresponds to the downward direction.
  • the ⁇ Z direction may or may not exactly coincide with the direction of gravity.
  • One of the X and Y directions is an example of the first direction of the present disclosure, and the other of the X and Y directions is an example of the second direction of the present disclosure.
  • FIG. 2B is a plan view showing the structure of the substrate (wafer) 11 before dicing.
  • FIG. 2C is a cross-sectional view showing the structure of the pixel separation groove 21 and the pixel separation portion 22.
  • the semiconductor substrate 11 is, for example, a silicon substrate.
  • the surface (lower surface) in the ⁇ Z direction of the semiconductor substrate 11 is the surface of the semiconductor substrate 11
  • the surface (upper surface) in the + Z direction of the semiconductor substrate 11 is the back surface of the semiconductor substrate 11. Since the solid-state image sensor of this embodiment is a back-illuminated type, the back surface of the semiconductor substrate 11 is the light incident surface (light receiving surface) of the semiconductor substrate 11.
  • the back surface of the semiconductor substrate 11 is an example of the first surface of the present disclosure
  • the front surface of the semiconductor substrate 11 is an example of the second surface of the present disclosure.
  • a and C in FIG. 2 show a solid-state image sensor manufactured by dicing a semiconductor substrate 11, while B in FIG. 2 shows a semiconductor substrate 11 before dicing.
  • the semiconductor substrate 11 shown in FIG. 2B includes a plurality of chip regions 11a and a dicing region 11b.
  • the chip region 11a has a square or rectangular planar shape.
  • the dicing region 11b has a planar shape that encloses these chip regions 11a in an annular shape for each chip region 11a.
  • the semiconductor substrate 11 is divided into these chip regions 11a, and one solid-state imaging device is manufactured from each chip region 11a.
  • B in FIG. 2 further shows the notch N of the semiconductor substrate 11.
  • a notch N is provided on the end face of the semiconductor substrate 11 in the ⁇ Y direction.
  • the four sides of each chip region 11a extend in the X or Y direction.
  • the dicing region 11b has a mesh-like planar shape including a plurality of linear portions extending in the X direction and a plurality of linear portions extending in the Y direction.
  • the semiconductor substrate 11 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and is a ⁇ 100> notch substrate (45 ° notch substrate).
  • the direction from the notch of the substrate toward the center of the substrate is the ⁇ 100> direction. Therefore, in the semiconductor substrate 11 of the present embodiment, the + Y direction in the semiconductor substrate 11 is the ⁇ 100> direction.
  • the arrow A shown in FIG. 2B indicates the ⁇ 110> direction in the semiconductor substrate 11. In B of FIG. 2, the inclination of the arrow A with respect to the + Y direction is 45 °.
  • FIG. 3 is a plan view for explaining the structure of the solid-state image sensor of the first embodiment.
  • a of FIG. 3 shows a ⁇ 100> notch substrate (45 ° notch substrate) which is the semiconductor substrate 11 of the present embodiment as in B of FIG. 2, and B of FIG. 3 is a comparison of the present embodiment.
  • the ⁇ 110> notch substrate (0 ° notch substrate) which is the example semiconductor substrate 11 is shown.
  • the direction from the notch of the substrate toward the center of the substrate is the ⁇ 110> direction. Therefore, in the semiconductor substrate 11 of this comparative example, the + Y direction in the semiconductor substrate 11 is the ⁇ 110> direction.
  • the arrow A shown in FIG. 3B indicates the ⁇ 110> direction in the semiconductor substrate 11.
  • the inclination of the arrow A with respect to the + Y direction is 0 °.
  • the semiconductor substrate 11 shown in FIG. 3B also has a front surface and a back surface which are ⁇ 100 ⁇ surfaces.
  • the photoelectric conversion unit 12 is provided in the semiconductor substrate 11 for each pixel 1.
  • a in FIG. 2 shows one photoelectric conversion unit 12 included in one pixel 1.
  • the photoelectric conversion unit 12 includes an n-type semiconductor region 13 provided in the semiconductor substrate 11 and a p-type semiconductor region 14 provided around the n-type semiconductor region 13 in the semiconductor substrate 11.
  • a photodiode is realized by a pn junction between the n-type semiconductor region 13 and the p-type semiconductor region 14, and the photodiode converts light into a charge.
  • the photoelectric conversion unit 12 receives light from the back surface side of the semiconductor substrate 11, generates a signal charge according to the amount of the received light, and stores the generated signal charge in the n-type semiconductor region 13.
  • the pixel separation groove 21 is provided in the semiconductor substrate 11, and specifically, is provided between the photoelectric conversion units 12 of the pixels 1 adjacent to each other.
  • the pixel separation groove 21 of the present embodiment penetrates the inside of the semiconductor substrate 11 from the back surface side of the semiconductor substrate 11 to the front surface side of the semiconductor substrate 11.
  • the pixel separation unit 22 is provided in the pixel separation groove 21, and includes the insulating film 23 and the light-shielding film 24 in order.
  • the insulating film 23 is provided on the side surface and the bottom surface of the pixel separation groove 21, and the light-shielding film 24 is provided on the side surface and the bottom surface of the pixel separation groove 21 via the insulating film 23.
  • the insulating film 23 is, for example, a silicon oxide film. Since the insulating film 23 of the present embodiment is formed by oxidizing the side surface of the semiconductor substrate 11, it contains a Si (silicon) element derived from the semiconductor substrate 11 and an O (oxygen) element derived from oxidation. I'm out.
  • the light-shielding film 24 is a film containing a metal element such as W (tungsten), Al (aluminum), or Cu (copper), and has a function of blocking light.
  • FIG. 2 shows a cross section of the pixel separation groove 21 and the pixel separation portion 22.
  • the pixel separation groove 21 includes a plurality of first linear portions 21a extending in the X direction in a plan view and a plurality of second linear portions 21b extending in the Y direction in a plan view. One of these first linear portions 21a and one of these second linear portions 21b are shown.
  • the pixel separation unit 22 includes a plurality of first linear portions 22a extending in the X direction in a plan view and a plurality of second linear portions 22b extending in the Y direction in a plan view, and is shown in FIG. C indicates one of these first linear portions 22a and one of these second linear portions 22b.
  • first linear portion 22a and the second linear portion 22b is an example of the first portion of the pixel separation portion of the present disclosure, and the other of the first linear portion 22a and the second linear portion 22b is the present. It is an example of the second part of the pixel separation part of the disclosure.
  • the above-mentioned plan view of the present embodiment corresponds to a state in which the light incident surface of the semiconductor substrate 11 is viewed.
  • C in FIG. 2 further shows a side surface S1 extending in the X direction and a side surface S2 extending in the Y direction as side surfaces of the semiconductor substrate 11 in the pixel separation groove 21.
  • C in FIG. 2 further shows a corner portion C between the side surface S1 and the side surface S2 as a corner portion of the semiconductor substrate 11 in the pixel separation groove 21.
  • the corner portion C corresponds to the corner portion of the pixel separation portion 22.
  • the insulating film 23 of the present embodiment includes a first portion 23a formed on the side surface S1 and the side surface S2, and a second portion 23b formed on the corner portion C, and is a film of the second portion 23b in a plan view.
  • the thickness (T2) is thicker than the film thickness (T1) of the first portion 23a.
  • the corner portion C is located in the second portion 23b.
  • the film thickness of the first portion 23a is an example of the first film thickness of the present disclosure
  • the film thickness of the second portion 23b is an example of the second film thickness of the present disclosure.
  • the present embodiment is compared with the above comparative example. Since the semiconductor substrate 11 of the above comparative example is a ⁇ 110> notch substrate, the side surface S1 and the side surface S2 are ⁇ 110 ⁇ surfaces. On the other hand, since the semiconductor substrate 11 of the present embodiment is a ⁇ 100> notch substrate, the side surface S1 and the side surface S2 are ⁇ 100 ⁇ surfaces. In general, the ⁇ 110 ⁇ surface of a silicon substrate is more easily oxidized than the ⁇ 100 ⁇ surface of a silicon substrate. Therefore, in the above comparative example, the first portion 23a becomes thicker, and as a result, the size of the photoelectric conversion unit 12 becomes smaller and the size of the pixel separation unit 22 becomes larger.
  • the first portion 23a becomes thin, and as a result, the size of the photoelectric conversion unit 12 becomes large and the size of the pixel separation unit 22 becomes small. Therefore, according to the present embodiment, it is possible to suppress the deterioration of the performance of the photoelectric conversion unit 12 due to the reduction in the size of the photoelectric conversion unit 12.
  • the side surface S1 and the side surface S2 of the present embodiment are ⁇ 100 ⁇ planes, and the interface between the side surface of the pixel separation portion 22 and the semiconductor substrate 11 of the present embodiment has a ⁇ 100 ⁇ plane.
  • the planar shape of the corner portion C is generally not a perfect right angle but a curved shape. Therefore, a small ⁇ 110 ⁇ surface is formed in the corner portion C of the present embodiment, and the corner portion C of the present embodiment is more easily oxidized than the side surface S1 and the side surface S2. As a result, the film thickness of the second portion 23b of the present embodiment is thicker than the film thickness of the first portion 23a. According to the present embodiment, since the thick portion of the insulating film 23 can be limited to the corner portion C, the overall film thickness of the insulating film 23 can be reduced.
  • the insulating film 23 of the present embodiment may be formed by, for example, radical oxidation.
  • the film thickness of the first portion 23a and the film thickness of the second portion 23b can be made the same, and not only the film thickness of the first portion 23a but also the film thickness of the second portion 23b can be reduced. It will be possible.
  • FIG. 4 is another cross-sectional view showing the structure of the solid-state image sensor of the first embodiment.
  • FIG. 4 shows a vertical cross section of three pixels 1 in the pixel array region 2 of FIG.
  • the solid-state image sensor of the present embodiment includes a plurality of photoelectric conversion units 12, and includes a pixel separation groove 21 and a pixel separation unit 22 between the photoelectric conversion units 12 adjacent to each other.
  • FIG. 5 is another cross-sectional view showing the structure of the solid-state image sensor of the first embodiment.
  • FIG. 4 shows a cross section of the entire four pixels 1 and a part of the twelve pixels 1 in the pixel array region 2 of FIG.
  • the solid-state image sensor of the present embodiment includes a plurality of photoelectric conversion units 12, and the pixel separation unit 22 surrounds these photoelectric conversion units 12 in a ring shape for each photoelectric conversion unit 12. It has a mesh-like planar shape. Therefore, each photoelectric conversion unit 12 is provided between two first linear portions 22a adjacent to each other in the Y direction, and is provided between two second linear portions 22b adjacent to each other in the X direction. ing.
  • the light-shielding film 25 is provided on the pixel separation portion 22 outside the semiconductor substrate 11.
  • the light-shielding film 25 is a film containing a metal element such as W (tungsten), Al (aluminum), or Cu (copper), and has a function of blocking light.
  • the light-shielding film 25 may be formed at the same time as the light-shielding film 24.
  • the flattening film 26 is formed on the semiconductor substrate 11 via a light-shielding film 25 so as to cover the back surface (upper surface) of the semiconductor substrate 11, whereby the surface on the back surface of the semiconductor substrate 11 is flat. ..
  • the flattening film 26 is, for example, an organic film such as a resin film.
  • the color filter 27 has a function of transmitting light having a predetermined wavelength, and is formed on the flattening film 26 for each pixel 1.
  • the color filters 27 for red (R), green (G), and blue (B) are arranged above the photoelectric conversion unit 12 of the red, green, and blue pixels 1, respectively.
  • the color filter 27 for infrared light may be arranged above the photoelectric conversion unit 12 of the infrared light pixel 1. The light transmitted through the color filter 27 is incident on the photoelectric conversion unit 12 via the flattening film 26.
  • the on-chip lens 28 has a function of condensing incident light, and is formed on the color filter 27 for each pixel 1.
  • the light collected by the on-chip lens 28 is incident on the photoelectric conversion unit 12 via the color filter 27 and the flattening film 26.
  • Each on-chip lens 28 of the present embodiment is made of a material that allows light to pass through, and the on-chip lenses 27 are connected to each other via this material.
  • the substrate 31 is provided on the surface (lower surface) of the semiconductor substrate 11 via the insulating layer 32, and is provided, for example, in order to secure the strength of the semiconductor substrate 11.
  • the substrate 31 is, for example, a semiconductor substrate such as a silicon substrate.
  • the substrate 31 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and is a ⁇ 110> notch substrate (0 ° notch substrate).
  • the insulating layer 32 is, for example, a laminated film including a silicon oxide film and another insulating film.
  • the light incident on the on-chip lens 28 is condensed by the on-chip lens 28, transmitted through the color filter 27, and incident on the photoelectric conversion unit 12.
  • the photoelectric conversion unit 12 converts this light into an electric charge by photoelectric conversion to generate a signal charge.
  • the signal charge is output as a pixel signal via the vertical signal line 8 of FIG.
  • 6 to 8 are cross-sectional views showing a method of manufacturing the solid-state image sensor of the first embodiment.
  • the n-type semiconductor region 13 and the p-type semiconductor region 14 of each photoelectric conversion unit 12 are formed in the semiconductor substrate 11, and the insulating layer 32 is formed on the semiconductor substrate 11 (A in FIG. 6). In this way, a plurality of photoelectric conversion units 12 are formed in the semiconductor substrate 11.
  • the step shown in FIG. 6A is performed with the front surface of the semiconductor substrate 11 facing up and the back surface of the semiconductor substrate 11 facing down.
  • the semiconductor substrate 11 is turned upside down (B in FIG. 6). As a result, the front surface of the semiconductor substrate 11 faces downward, and the back surface of the semiconductor substrate 11 faces upward. Next, the semiconductor substrate 11 is adhered to the surface (upper surface) of the substrate 31 via the insulating layer 32 (B in FIG. 6).
  • the pixel separation groove 21 is formed in the semiconductor substrate 11 by dry etching (A in FIG. 7).
  • the pixel separation groove 21 of the present embodiment is formed so as to penetrate the semiconductor substrate 11 and reach the insulating layer 32. Further, the pixel separation groove 21 of the present embodiment is formed so as to have a mesh-like planar shape that surrounds the plurality of photoelectric conversion units 12 in a ring shape for each photoelectric conversion unit 12, and the photoelectric conversion units 12 are adjacent to each other. Formed between.
  • the insulating film 23 and the light-shielding film 24 are sequentially formed in the pixel separation groove 21 (B in FIG. 7).
  • the pixel separation portion 22 including the insulating film 23 and the light-shielding film 24 is formed in the pixel separation groove 21.
  • the insulating film 23 is formed on the side surface and the bottom surface of the pixel separation groove 21, and the light-shielding film 24 is formed on the side surface and the bottom surface of the pixel separation groove 21 via the insulating film 23.
  • the semiconductor substrate 11 of this embodiment is a ⁇ 100> notch substrate
  • the side surface of the semiconductor substrate 11 in the pixel separation groove 21 is a ⁇ 100 ⁇ surface. Therefore, according to the present embodiment, the insulating film 23 is formed on the side surface of the semiconductor substrate 11 in the pixel separation groove 21 by oxidation, so that the first portion 23a having a thin film thickness and the second portion 23a having a thick film thickness are formed.
  • the insulating film 23 including the portion 23b can be formed (see C in FIG. 2).
  • the light-shielding film 25 and the flattening film 26 are sequentially formed on the semiconductor substrate 11 (A in FIG. 8).
  • the light-shielding film 25 is formed on the pixel separation portion 22, and the flattening film 26 is formed on the semiconductor substrate 11 so as to cover the light-shielding film 25.
  • the color filter 27 and the on-chip lens 28 are sequentially formed on the flattening film 26 above each photoelectric conversion unit 12 (B in FIG. 8). Then, by cutting the semiconductor substrate 11 at the dicing region 11b, the semiconductor substrate 11 is divided into individual chip regions 11a (see B in FIG. 2). In this way, the solid-state image sensor of the present embodiment is manufactured.
  • the pixel separation portion 22 of the present embodiment is formed by forming the insulating film 23 on the side surface of the semiconductor substrate 11 which is the ⁇ 100 ⁇ plane. Therefore, according to the present embodiment, the pixel separation portion 22 can be suitably formed in the pixel separation groove 21, for example, the size of the pixel separation portion 22 can be reduced by thinning the insulating film 23. It will be possible.
  • the semiconductor substrate 11 of the present embodiment is a Si ⁇ 100 ⁇ substrate whose front surface, back surface, or ⁇ 100 ⁇ surface thereof, and is a ⁇ 110> notch substrate in which the + Y direction is the ⁇ 110> direction.
  • the meanings of the above-mentioned reference numerals ⁇ xyz ⁇ and reference numeral ⁇ xyz> will be supplemented by taking the Si ⁇ 111 ⁇ substrate and the ⁇ 110> direction as an example.
  • the Si ⁇ 111 ⁇ substrate in the present disclosure is a substrate or wafer made of a silicon single crystal and having a crystal plane represented by ⁇ 111 ⁇ in the Miller index notation.
  • the Si ⁇ 111 ⁇ substrate in the present disclosure also includes a substrate or wafer whose crystal orientation is deviated by several degrees, for example, a substrate or wafer deviated by several degrees from the ⁇ 111 ⁇ plane in the nearest [110] direction. Further, it also includes a silicon single crystal grown on a part or the entire surface of these substrates or wafers by an epitaxial method or the like.
  • the ⁇ 111 ⁇ plane is a crystal plane equivalent to each other in symmetry, which is a (111) plane, a (-111) plane, a (1-11) plane, a (11-1) plane, and a (-) plane. It is a general term for the 1-11) plane, the (-11-1) plane, the (1-1-1) plane, and the (1-1-1) plane. Therefore, the description of the Si ⁇ 111 ⁇ substrate in the specification of the present disclosure may be read as, for example, a Si (1-11) substrate.
  • the bar sign for expressing the negative index of the Miller index is substituted with a negative sign.
  • the ⁇ 110> direction in the description of the present disclosure is the [110] direction, the [101] direction, the [011] direction, the [-110] direction, and [1-10], which are crystal plane directions equivalent to each other in symmetry.
  • FIG. 9 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the second embodiment.
  • FIG. 9 shows a vertical cross section of one pixel 1 in the pixel array region 2 in FIG. 1, similar to A in FIG.
  • FIG. 9B is a plan view showing the structure of the substrate (wafer) 11 before dicing, similar to FIG. 2B.
  • FIG. 9C is a cross-sectional view showing the structure of the pixel separation groove 21 and the pixel separation portion 22 as in FIG. 2C.
  • the solid-state image sensor of the present embodiment has the same components as the solid-state image sensor of the first embodiment.
  • the pixel separation groove 21 of the present embodiment is provided on the back surface (upper surface) side of the semiconductor substrate 11 so as not to penetrate the semiconductor substrate 11.
  • the structure of the present embodiment can be adopted, for example, when the pixel separation groove 21 does not need to penetrate the semiconductor substrate 11 or when it is desirable that the pixel separation groove 21 does not penetrate the semiconductor substrate 11.
  • the solid-state image sensor of this embodiment is manufactured, for example, by forming a pixel separation groove 21 that does not penetrate the semiconductor substrate 11 in the step shown in FIG. 7A.
  • the pixel separation groove 21 of the present embodiment may include both a portion penetrating the semiconductor substrate 11 and a portion not penetrating the semiconductor substrate 11.
  • FIG. 10 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the third embodiment.
  • a in FIG. 10 shows a vertical cross section of one pixel 1 in the pixel array region 2 in FIG. 1, similar to A in FIG.
  • the semiconductor substrate 33, the insulating layer 34, the gate electrode 35 of the transistor Tr1, the gate electrode 36 of the transistor Tr2, and the plug It includes a 41, an insulating film 42, a plug 43, and a wiring layer 44.
  • the insulating layer 32 includes an insulating film 32a that functions as a gate insulating film of the transistor Tr1 and an interlayer insulating film 32b, and the insulating layer 34 is an interlayer insulating film 34a that functions as a gate insulating film of the transistor Tr2. It contains a film 34b and the like.
  • the insulating layer 32 is an example of the first insulating layer of the present disclosure
  • the semiconductor substrate 33 is an example of the second semiconductor substrate of the present disclosure.
  • the solid-state imaging device of the present embodiment further includes a substrate 33'including a semiconductor substrate 33, an insulating layer 34, a gate electrode 36, a plug 41, an insulating film 42, a plug 43, and a wiring layer 44.
  • the substrate 33' is an example of the second substrate of the present disclosure.
  • FIG. 10B is a plan view showing the structure of the semiconductor substrate 33 and the gate electrode 36.
  • the insulating layer 32 includes an insulating film 32a and an interlayer insulating film 32b which are sequentially provided on the surface (lower surface) of the semiconductor substrate 11.
  • the insulating film 32a is, for example, a silicon oxide film.
  • the interlayer insulating film 32b is, for example, a laminated film including a silicon oxide film and another insulating film.
  • the semiconductor substrate 33 is provided on the lower surface of the insulating layer 32.
  • the semiconductor substrate 33 is, for example, a silicon substrate.
  • the insulating layer 34 includes an insulating film 34a and an interlayer insulating film 34b which are sequentially provided on the surface (lower surface) of the semiconductor substrate 33.
  • the insulating film 34a is, for example, a silicon oxide film.
  • the interlayer insulating film 34b is, for example, a laminated film including a silicon oxide film and another insulating film.
  • the substrate 31 is provided on the lower surface of the insulating layer 34.
  • the solid-state image sensor of the present embodiment includes the semiconductor substrate 33 in addition to the semiconductor substrate 11 and the substrate 31. Similar to the semiconductor substrate 11 of the first embodiment, the semiconductor substrate 11 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and has a ⁇ 100> notch substrate (45 ° notch substrate). It has become. On the other hand, the semiconductor substrate 33 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and is a ⁇ 110> notch substrate (0 ° notch substrate). Therefore, in the semiconductor substrate 33 of the present embodiment, the + Y direction in the semiconductor substrate 33 is the ⁇ 110> direction, as in the semiconductor substrate 11 of the comparative example shown in FIG. 3B.
  • the gate electrode 35 of the transistor Tr1 is provided on the surface (lower surface) of the semiconductor substrate 11 via an insulating film 32a, and is covered with the interlayer insulating film 32b.
  • the transistor Tr1 is, for example, a pixel transistor such as a transfer transistor.
  • the gate electrode 35 is, for example, a semiconductor layer or a metal layer.
  • the transistor Tr1 further includes a source diffusion layer and a drain diffusion layer (not shown) provided in the substrate 31.
  • the gate electrode 36 of the transistor Tr2 is provided on the surface (lower surface) of the semiconductor substrate 33 via an insulating film 34a, and is covered with the interlayer insulating film 34b.
  • the transistor Tr2 is, for example, a pixel transistor such as an amplification transistor.
  • the gate electrode 36 is, for example, a semiconductor layer or a metal layer.
  • the transistor Tr2 further includes a source diffusion layer 33a and a drain diffusion layer 33b provided in the semiconductor substrate 33.
  • the transistor Tr2 of the present embodiment is an n-type planar transistor, and includes a source diffusion layer 33a and a drain diffusion layer 33b arranged in the X direction, and a gate electrode 36 extending in the Y direction (B in FIG. 10). Therefore, the channel direction of the transistor Tr2 of the present embodiment is the + X direction and is parallel to the ⁇ 110> direction.
  • the performance of the n-type planar transistor is improved by making the channel direction parallel to the ⁇ 110> direction of the silicon substrate.
  • the semiconductor substrate 33 of this embodiment is a ⁇ 110> notch substrate as described above. Therefore, according to the present embodiment, by forming the source diffusion layer 33a and the drain diffusion layer 33b arranged in the X direction in the semiconductor substrate 33, the channel direction can be made parallel to the ⁇ 110> direction. This makes it possible to improve the performance of the transistor Tr2.
  • the wiring layer 44 is provided below the gate electrode 36 in the interlayer insulating film 34b.
  • the plug 43 is provided in the interlayer insulating film 34b, and electrically connects the wiring layer 44 and the gate electrode 36.
  • the plug 41 is provided in the insulating layer 34, the semiconductor substrate 33, and the insulating layer 32, and electrically connects the wiring layer 44 and the semiconductor substrate 11. As a result, the transistor Tr2 is electrically connected to the semiconductor substrate 11.
  • the plug 41 is provided in the semiconductor substrate 33 via the insulating film 42.
  • the solid-state image sensor of the present embodiment includes the semiconductor substrate 33 which is the ⁇ 110> notch substrate in addition to the semiconductor substrate 11 which is the ⁇ 100> notch substrate. Therefore, according to the present embodiment, it is possible to suitably form the n-type planar transistor (transistor Tr2) on the surface of the semiconductor substrate 33 while appropriately forming the pixel separation portion 32 in the semiconductor substrate 11.
  • transistor Tr2 n-type planar transistor
  • FIG. 11 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the fourth embodiment.
  • a in FIG. 11 shows a vertical cross section of one pixel 1 in the pixel array region 2 in FIG. 1, similar to A in FIG. FIG. 11B is a plan view showing the structure of the semiconductor substrate 33 and the gate electrode 36, similarly to FIG. 10B.
  • the solid-state image sensor of the present embodiment has the same components as the solid-state image sensor of the third embodiment.
  • the semiconductor substrate 33 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and is a ⁇ 100> notch substrate (45 ° notch substrate). Therefore, in the semiconductor substrate 33 of the present embodiment, the + Y direction in the semiconductor substrate 33 is the ⁇ 100> direction.
  • the transistor Tr2 of the present embodiment is a fin type transistor, and the gate electrode 36 of the transistor Tr2 has a flat surface portion 36a provided outside the semiconductor substrate 33 and a plurality of fin portions 36b provided inside the semiconductor substrate 33. And include.
  • the transistor Tr2 of the present embodiment includes a plurality of source diffusion layers 33a and a plurality of drain diffusion layers 33b in the semiconductor substrate 33, and the source diffusion layer 33a and the drain diffusion layer 33b. Are lined up in the X direction.
  • the gate electrode 36 of the present embodiment includes a plurality of fin portions 36b in the semiconductor substrate 33, and these fin portions 36b extend in the Y direction. Therefore, the channel direction of the transistor Tr2 of the present embodiment is the + X direction, which is parallel to the ⁇ 100> direction, and the fin side wall of the transistor Tr2 of the present embodiment is a semiconductor substrate extending in the Y direction. It is the side surface of 33, and is the ⁇ 100 ⁇ side surface.
  • the performance of the fin type transistor is improved by using the fin side wall as the ⁇ 100 ⁇ surface of the silicon substrate.
  • the semiconductor substrate 33 of this embodiment is a ⁇ 100> notch substrate as described above. Therefore, according to the present embodiment, by forming the fin portion 36b extending in the Y direction in the semiconductor substrate 33, it is possible to make the fin side wall a ⁇ 100 ⁇ plane, thereby improving the performance of the transistor Tr2. It becomes possible.
  • FIG. 12 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the modified example of the fourth embodiment.
  • a and B in FIG. 12 correspond to A and B in FIG. 11, respectively.
  • the solid-state imaging device of this modification has a structure in which the semiconductor substrate 33 and the insulating layer 34 are removed from the solid-state imaging device of the fourth embodiment, and the transistor Tr2 is not the surface of the semiconductor substrate 33 but the semiconductor substrate 11. It is formed on the surface. Therefore, the gate insulating film of the transistor Tr2 is replaced with the insulating film 32a from the insulating film 34a, and the diffusion layer of the transistor Tr2 is from the source diffusion layer 33a and the drain diffusion layer 33b in the semiconductor substrate 33 to the inside of the semiconductor substrate 11. It has been replaced by the source diffusion layer 11c and the drain diffusion layer 11d. According to this modification, the performance of the transistor Tr2 can be improved by using the semiconductor substrate 11 instead of the semiconductor substrate 33.
  • the solid-state image sensor of the present embodiment includes the semiconductor substrate 33 which is the ⁇ 100> notch substrate in addition to the semiconductor substrate 11 which is the ⁇ 100> notch substrate. Therefore, according to the present embodiment, it is possible to suitably form the fin type transistor (transistor Tr2) on the surface of the semiconductor substrate 33 while appropriately forming the pixel separation portion 32 in the semiconductor substrate 11.
  • the fin-type transistor may be formed on the surface of the semiconductor substrate 11 as in the above modification.
  • FIG. 13 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor according to the fifth embodiment.
  • FIG. 13 shows a vertical cross section of one pixel 1 in the pixel array region 2 in FIG. 1, similarly to A in FIG.
  • FIG. 13B is a plan view showing the structure of the semiconductor substrate 33 and the gate electrode 36, similarly to FIG. 10B.
  • the solid-state image sensor of the present embodiment has the same components as the solid-state image sensor of the third embodiment.
  • the semiconductor substrate 33 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and is a ⁇ 100> notch substrate (45 ° notch substrate). Therefore, in the semiconductor substrate 33 of the present embodiment, the + Y direction in the semiconductor substrate 33 is the ⁇ 100> direction.
  • the transistor Tr2 of the present embodiment is a p-type planar transistor, and includes a source diffusion layer 33a and a drain diffusion layer 33b arranged in the X direction, and a gate electrode 36 extending in the Y direction (B in FIG. 13). Therefore, the channel direction of the transistor Tr2 of the present embodiment is the + X direction and is parallel to the ⁇ 100> direction.
  • the performance of the p-type planar transistor is improved by making the channel direction parallel to the ⁇ 100> direction of the silicon substrate.
  • the semiconductor substrate 33 of this embodiment is a ⁇ 100> notch substrate as described above. Therefore, according to the present embodiment, by forming the source diffusion layer 33a and the drain diffusion layer 33b arranged in the X direction in the semiconductor substrate 33, the channel direction can be made parallel to the ⁇ 100> direction. This makes it possible to improve the performance of the transistor Tr2.
  • FIG. 14 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the modified example of the fifth embodiment.
  • a and B in FIG. 14 correspond to A and B in FIG. 13, respectively.
  • the solid-state imaging device of this modification has a structure in which the semiconductor substrate 33 and the insulating layer 34 are removed from the solid-state imaging device of the fifth embodiment, and the transistor Tr2 is not the surface of the semiconductor substrate 33 but the semiconductor substrate 11. It is formed on the surface. Therefore, the gate insulating film of the transistor Tr2 is replaced with the insulating film 32a from the insulating film 34a, and the diffusion layer of the transistor Tr2 is from the source diffusion layer 33a and the drain diffusion layer 33b in the semiconductor substrate 33 to the inside of the semiconductor substrate 11. It has been replaced by the source diffusion layer 11c and the drain diffusion layer 11d. According to this modification, the performance of the transistor Tr2 can be improved by using the semiconductor substrate 11 instead of the semiconductor substrate 33.
  • the solid-state image sensor of the present embodiment includes the semiconductor substrate 33 which is the ⁇ 100> notch substrate in addition to the semiconductor substrate 11 which is the ⁇ 100> notch substrate. Therefore, according to the present embodiment, it is possible to suitably form the p-type planar transistor (transistor Tr2) on the surface of the semiconductor substrate 33 while appropriately forming the pixel separation portion 32 in the semiconductor substrate 11.
  • the p-type planar transistor may be formed on the surface of the semiconductor substrate 11 as in the above modification.
  • FIG. 15 is a cross-sectional view and a plan view showing the structure of the solid-state image sensor of the sixth embodiment.
  • a in FIG. 15 shows a vertical cross section of one pixel 1 in the pixel array region 2 in FIG. 1, similar to A in FIG. FIG. 15B is a plan view showing the structure of the semiconductor substrate 33 and the gate electrode 36, similarly to FIG. 10B.
  • the solid-state image sensor of the present embodiment has the same components as the solid-state image sensor of the third embodiment.
  • the semiconductor substrate 33 of the present embodiment has a front surface and a back surface which are ⁇ 100 ⁇ planes, and is a ⁇ 110> notch substrate (0 ° notch substrate). Therefore, in the semiconductor substrate 33 of the present embodiment, the + Y direction in the semiconductor substrate 33 is the ⁇ 110> direction.
  • the transistor Tr2 of the present embodiment is a fin type transistor, and the gate electrode 36 of the transistor Tr2 has a flat surface portion 36a provided outside the semiconductor substrate 33 and a plurality of fin portions 36b provided inside the semiconductor substrate 33. And include.
  • the transistor Tr2 of the present embodiment includes a plurality of source diffusion layers 33a and a plurality of drain diffusion layers 33b in the semiconductor substrate 33, and the source diffusion layer 33a and the drain diffusion layer 33b. Are lined up in a direction inclined by + 45 ° with respect to the + X direction.
  • the gate electrode 36 of the present embodiment includes a plurality of fin portions 36b in the semiconductor substrate 33, and these fin portions 36b are tilted by + 45 ° with respect to the + Y direction. It extends in the same direction.
  • the channel direction of the transistor Tr2 of the present embodiment is a direction inclined by + 45 ° with respect to the + X direction, is parallel to the ⁇ 100> direction, and is a fin side wall of the transistor Tr2 of the present embodiment. Is a side surface of the semiconductor substrate 33 extending in a direction inclined by + 45 ° with respect to the + Y direction, and is a ⁇ 100 ⁇ surface.
  • the performance of the fin type transistor is improved by using the fin side wall as the ⁇ 100 ⁇ surface of the silicon substrate.
  • the semiconductor substrate 33 of this embodiment is a ⁇ 110> notch substrate as described above. Therefore, according to the present embodiment, by forming the fin portion 36b extending in the above direction in the semiconductor substrate 33, the fin side wall can be made into a ⁇ 100 ⁇ plane, thereby improving the performance of the transistor Tr2. It is possible to make it.
  • the planar shape of each pixel 1 of the present embodiment is a square (or rectangle) having two sides extending in the X direction and two sides extending in the Y direction.
  • the length of the fin portion 36b is the maximum, and is about the length of one side of the planar shape of each pixel 1.
  • the length of the fin portion 36b is the maximum, which is about ⁇ 2 times the length of one side of the planar shape of each pixel 1.
  • the solid-state image sensor of the present embodiment includes the semiconductor substrate 33 which is the ⁇ 110> notch substrate in addition to the semiconductor substrate 11 which is the ⁇ 100> notch substrate. Therefore, according to the present embodiment, it is possible to suitably form the fin type transistor (transistor Tr2) on the surface of the semiconductor substrate 33 while appropriately forming the pixel separation portion 32 in the semiconductor substrate 11.
  • transistor Tr2 the fin type transistor
  • the channel direction of the transistor Tr2 of the present embodiment may be tilted by + ⁇ with respect to the + X direction (0 ° ⁇ ⁇ 90 °). Further, the fin portion 36b of the present embodiment may extend in a direction inclined by + ⁇ with respect to the + Y direction. The value of ⁇ may be an angle other than 45 °.
  • FIG. 16 is a block diagram showing a configuration example of an electronic device.
  • the electrical device shown in FIG. 16 is a camera 100.
  • the camera 100 includes an optical unit 101 including a lens group and the like, an image pickup device 102 which is a solid-state image pickup device according to any one of the first to sixth embodiments, and a DSP (Digital Signal Processor) circuit 103 which is a camera signal processing circuit.
  • the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, the operation unit 107, and the power supply unit 108 are connected to each other via the bus line 109.
  • the optical unit 101 captures incident light (image light) from the subject and forms an image on the image pickup surface of the image pickup device 102.
  • the image pickup apparatus 102 converts the amount of incident light imaged on the image pickup surface by the optical unit 101 into an electric signal in pixel units, and outputs the light amount as a pixel signal.
  • the DSP circuit 103 performs signal processing on the pixel signal output by the image pickup device 102.
  • the frame memory 104 is a memory for storing one screen of a moving image or a still image captured by the image pickup apparatus 102.
  • the display unit 105 includes a panel-type display device such as a liquid crystal panel or an organic EL panel, and displays a moving image or a still image captured by the image pickup device 102.
  • the recording unit 106 records a moving image or a still image captured by the image pickup apparatus 102 on a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 107 issues operation commands for various functions of the camera 100 under the operation of the user.
  • the power supply unit 108 appropriately supplies various power sources that serve as operating power sources for the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, and the operation unit 107 to these supply targets.
  • the solid-state image sensor can be applied to various other products.
  • the solid-state imaging device may be mounted on various moving objects such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots.
  • FIG. 17 is a block diagram showing a configuration example of a mobile control system.
  • the mobile control system shown in FIG. 17 is a vehicle control system 200.
  • the vehicle control system 200 includes a plurality of electronic control units connected via the communication network 201.
  • the vehicle control system 200 includes a drive system control unit 210, a body system control unit 220, an outside information detection unit 230, an in-vehicle information detection unit 240, and an integrated control unit 250.
  • FIG. 17 further shows a microcomputer 251, an audio image output unit 252, and an in-vehicle network I / F (Interface) 253 as components of the integrated control unit 250.
  • the drive system control unit 210 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 210 includes a driving force generating device for generating a driving force of a vehicle such as an internal combustion engine and a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering wheel of the vehicle. It functions as a control device such as a steering mechanism that adjusts the angle and a braking device that generates braking force for the vehicle.
  • the body system control unit 220 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 220 functions as a control device such as a smart key system, a keyless entry system, a power window device, and various lamps (for example, a headlamp, a back lamp, a brake lamp, a winker, and a fog lamp).
  • a radio wave transmitted from a portable device that substitutes for a key or a signal of various switches may be input to the body system control unit 220.
  • the body system control unit 220 receives such radio wave or signal input and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the outside information detection unit 230 detects information outside the vehicle equipped with the vehicle control system 200.
  • an image pickup unit 231 is connected to the vehicle outside information detection unit 230.
  • the vehicle outside information detection unit 230 causes the image pickup unit 231 to capture an image of the outside of the vehicle, and receives the captured image from the image pickup unit 231.
  • the vehicle outside information detection unit 230 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received image.
  • the image pickup unit 231 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 231 can output an electric signal as an image or can output it as distance measurement information.
  • the light received by the image pickup unit 231 may be visible light or invisible light such as infrared light.
  • the image pickup unit 231 includes the solid-state image pickup device according to any one of the first to sixth embodiments.
  • the in-vehicle information detection unit 240 detects information inside the vehicle equipped with the vehicle control system 200.
  • a driver state detection unit 241 that detects the state of the driver is connected to the in-vehicle information detection unit 240.
  • the driver state detection unit 241 includes a camera that images the driver, and the in-vehicle information detection unit 240 has a degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 241. May be calculated, or it may be determined whether or not the driver has fallen asleep.
  • This camera may include the solid-state image sensor according to any one of the first to sixth embodiments, and may be, for example, the camera 100 shown in FIG.
  • the microcomputer 251 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the information detection unit 230 outside the vehicle or the information inside the vehicle 240, and controls the drive system.
  • a control command can be output to the unit 210.
  • the microcomputer 251 is a coordinated control for the purpose of realizing ADAS (Advanced Driver Assistance System) functions such as vehicle collision avoidance, impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, collision warning, and lane deviation warning. It can be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 251 controls the driving force generator, the steering mechanism, or the braking device based on the information around the vehicle acquired by the vehicle exterior information detection unit 230 or the vehicle interior information detection unit 240, thereby controlling the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 251 can output a control command to the body system control unit 220 based on the information outside the vehicle acquired by the vehicle outside information detection unit 230.
  • the microcomputer 251 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 230, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 252 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 261, a display unit 262, and an instrument panel 263 are shown as such an output device.
  • the display unit 262 may include, for example, an onboard display or a head-up display.
  • FIG. 18 is a plan view showing a specific example of the set position of the image pickup unit 231 of FIG.
  • the vehicle 300 shown in FIG. 18 includes image pickup units 301, 302, 303, 304, and 305 as the image pickup unit 231.
  • the image pickup units 301, 302, 303, 304, and 305 are provided, for example, at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 300.
  • the image pickup unit 301 provided in the front nose mainly acquires an image in front of the vehicle 300.
  • the image pickup unit 302 provided in the left side mirror and the image pickup section 303 provided in the right side mirror mainly acquire an image of the side of the vehicle 300.
  • the image pickup unit 304 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 300.
  • the image pickup unit 305 provided on the upper part of the windshield in the vehicle interior mainly acquires an image in front of the vehicle 300.
  • the image pickup unit 305 is used, for example, to detect a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 18 shows an example of the imaging range of the imaging units 301, 302, 303, 304 (hereinafter referred to as “imaging unit 301 to 304”).
  • the imaging range 311 indicates the imaging range of the imaging unit 301 provided on the front nose.
  • the image pickup range 312 indicates the image pickup range of the image pickup unit 302 provided on the left side mirror.
  • the image pickup range 313 indicates the image pickup range of the image pickup unit 303 provided on the right side mirror.
  • the image pickup range 314 indicates the image pickup range of the image pickup unit 304 provided on the rear bumper or the back door. For example, by superimposing the image data captured by the image pickup units 301 to 304, a bird's-eye view image of the vehicle 300 viewed from above can be obtained.
  • the imaging range 311, 312, 313, 314 will be referred to as "imaging range 311 to 314".
  • At least one of the image pickup units 301 to 304 may have a function of acquiring distance information.
  • at least one of the image pickup units 301 to 304 may be a stereo camera including a plurality of image pickup devices, or may be an image pickup device having pixels for phase difference detection.
  • the microcomputer 251 (FIG. 17) has a distance to each three-dimensional object within the imaging range 311 to 314 based on the distance information obtained from the imaging units 301 to 304, and a temporal change of this distance (vehicle 300). Relative velocity to) is calculated. Based on these calculation results, the microcomputer 251 is the closest three-dimensional object on the traveling path of the vehicle 300, and is a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in almost the same direction as the vehicle 300. , Can be extracted as a preceding vehicle.
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 251 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. As described above, according to this example, it is possible to perform coordinated control for the purpose of automatic driving or the like that autonomously travels without the operation of the driver.
  • the microcomputer 251 classifies three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 301 to 304. It can be extracted and used for automatic avoidance of obstacles. For example, the microcomputer 251 distinguishes obstacles around the vehicle 300 into obstacles that can be seen by the driver of the vehicle 300 and obstacles that are difficult to see. Then, the microcomputer 251 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 251 is used via the audio speaker 261 or the display unit 262. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 210, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 301 to 304 may be an infrared camera that detects infrared rays.
  • the microcomputer 251 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured images of the imaging units 301 to 304. Such recognition of a pedestrian is, for example, whether or not the pedestrian is a pedestrian by performing a procedure for extracting feature points in the captured images of the image pickup units 301 to 304 as an infrared camera and a pattern matching process on a series of feature points showing the outline of the object. It is performed by the procedure for determining.
  • the audio image output unit 252 When the microcomputer 251 determines that a pedestrian is present in the captured images of the imaging units 301 to 304 and recognizes the pedestrian, the audio image output unit 252 has a square contour line for emphasizing the recognized pedestrian.
  • the display unit 262 is controlled so as to superimpose and display. Further, the audio image output unit 252 may control the display unit 262 so as to display an icon or the like indicating a pedestrian at a desired position.
  • FIG. 19 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 19 illustrates how the surgeon (doctor) 531 is performing surgery on patient 532 on patient bed 533 using the endoscopic surgery system 400.
  • the endoscopic surgery system 400 includes an endoscope 500, other surgical tools 510 such as an abdominal tube 511 and an energy treatment tool 512, and a support arm device 520 that supports the endoscope 500.
  • a cart 600 equipped with various devices for endoscopic surgery.
  • the endoscope 500 is composed of a lens barrel 501 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 532, and a camera head 502 connected to the base end of the lens barrel 501.
  • the endoscope 500 configured as a so-called rigid mirror having a rigid lens barrel 501 is shown, but the endoscope 500 may be configured as a so-called flexible mirror having a flexible lens barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 501.
  • a light source device 603 is connected to the endoscope 500, and the light generated by the light source device 603 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 501, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 532 through the lens.
  • the endoscope 500 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 502, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 601.
  • the CCU 601 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 500 and the display device 602. Further, the CCU 601 receives an image signal from the camera head 502, and performs various image processing on the image signal for displaying an image based on the image signal, such as a development process (demosaic process).
  • a development process demosaic process
  • the display device 602 displays an image based on the image signal processed by the CCU 601 under the control of the CCU 601.
  • the light source device 603 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 500.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 604 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 400 via the input device 604.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 500.
  • the treatment tool control device 605 controls the drive of the energy treatment tool 512 for cauterizing tissue, incising, sealing a blood vessel, or the like.
  • the pneumoperitoneum device 606 gas in the body cavity through the pneumoperitoneum tube 511 in order to inflate the body cavity of the patient 532 for the purpose of securing the field of view by the endoscope 500 and securing the work space of the operator. Is sent.
  • the recorder 607 is a device capable of recording various information related to surgery.
  • the printer 608 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 603 that supplies the irradiation light to the endoscope 500 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 603 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 502 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 603 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 502 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 603 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating the excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 603 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 20 is a block diagram showing an example of the functional configuration of the camera head 502 and CCU601 shown in FIG.
  • the camera head 502 includes a lens unit 701, an image pickup unit 702, a drive unit 703, a communication unit 704, and a camera head control unit 705.
  • the CCU 601 has a communication unit 711, an image processing unit 712, and a control unit 713.
  • the camera head 502 and the CCU 601 are communicably connected to each other by a transmission cable 700.
  • the lens unit 701 is an optical system provided at a connection portion with the lens barrel 501.
  • the observation light taken in from the tip of the lens barrel 501 is guided to the camera head 502 and incident on the lens unit 701.
  • the lens unit 701 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 702 is composed of an image pickup element.
  • the image pickup element constituting the image pickup unit 702 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 702 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 531 to more accurately grasp the depth of the living tissue in the surgical site.
  • the image pickup unit 702 is composed of a multi-plate type, a plurality of lens units 701 may be provided corresponding to each image pickup element.
  • the image pickup unit 702 is, for example, the solid-state image pickup device according to any one of the first to sixth embodiments.
  • the image pickup unit 702 does not necessarily have to be provided on the camera head 502.
  • the image pickup unit 702 may be provided inside the lens barrel 501 immediately after the objective lens.
  • the drive unit 703 is composed of an actuator, and the zoom lens and the focus lens of the lens unit 701 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 705. As a result, the magnification and focus of the image captured by the image pickup unit 702 can be adjusted as appropriate.
  • the communication unit 704 is configured by a communication device for transmitting and receiving various information to and from the CCU 601.
  • the communication unit 704 transmits the image signal obtained from the image pickup unit 702 as RAW data to the CCU 601 via the transmission cable 700.
  • the communication unit 704 receives a control signal for controlling the drive of the camera head 502 from the CCU 601 and supplies the control signal to the camera head control unit 705.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the image pickup conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 713 of the CCU 601 based on the acquired image signal. good.
  • the endoscope 500 is equipped with a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 705 controls the drive of the camera head 502 based on the control signal from the CCU 601 received via the communication unit 704.
  • the communication unit 711 is composed of a communication device for transmitting and receiving various information to and from the camera head 502.
  • the communication unit 711 receives an image signal transmitted from the camera head 502 via the transmission cable 700.
  • the communication unit 711 transmits a control signal for controlling the drive of the camera head 502 to the camera head 502.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 712 performs various image processing on the image signal which is the RAW data transmitted from the camera head 502.
  • the control unit 713 performs various controls related to the imaging of the surgical site and the like by the endoscope 500 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 713 generates a control signal for controlling the drive of the camera head 502.
  • control unit 713 causes the display device 602 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 712.
  • the control unit 713 may recognize various objects in the captured image by using various image recognition techniques.
  • the control unit 713 detects a surgical tool such as forceps, a specific biological part, bleeding, mist when using the energy treatment tool 512, etc. by detecting the shape, color, etc. of the edge of the object included in the captured image. Can be recognized.
  • the control unit 713 displays the captured image on the display device 602
  • the control unit 713 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgery support information and presenting it to the surgeon 531 it is possible to reduce the burden on the surgeon 531 and to ensure that the surgeon 531 can proceed with the surgery.
  • the transmission cable 700 connecting the camera head 502 and the CCU 601 is an electric signal cable compatible with electric signal communication, an optical fiber compatible with optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 700, but the communication between the camera head 502 and the CCU 601 may be performed wirelessly.
  • the first substrate including the first semiconductor substrate and A plurality of photoelectric conversion units provided in the first semiconductor substrate, and A pixel separation unit provided between the photoelectric conversion units in the first semiconductor substrate is provided.
  • a solid-state image pickup device having a ⁇ 100 ⁇ surface at the interface between the side surface of the pixel separation portion and the first semiconductor substrate.
  • the insulating film is provided at a first portion having a first film thickness in a plan view and a second portion provided at a corner portion of the pixel separation portion and having a second film thickness thicker than the first film thickness.
  • the pixel separation portion includes a plurality of first portions extending in a first direction parallel to the surface of the first semiconductor substrate in a plan view, and a plurality of second portions extending in a second direction parallel to the surface of the first semiconductor substrate.
  • the solid-state imaging device according to (1) which includes a portion.
  • the pixel separation portion includes a plurality of first portions extending in a first direction parallel to the surface of the first semiconductor substrate in a plan view, and a plurality of second portions extending in a second direction parallel to the surface of the first semiconductor substrate.
  • the first or second direction is parallel to the ⁇ 110> direction of the second semiconductor substrate.
  • the first or second direction is parallel to the ⁇ 100> direction of the second semiconductor substrate.
  • the first or second direction is parallel to the ⁇ 100> direction of the second semiconductor substrate.
  • the first or second direction is parallel to the ⁇ 110> direction of the second semiconductor substrate.
  • the first substrate including the first semiconductor substrate and A plurality of photoelectric conversion units provided in the first semiconductor substrate, and A pixel separation unit provided between the photoelectric conversion units in the first semiconductor substrate is provided.
  • the pixel separation portion includes an insulating film and contains an insulating film.
  • the insulating film is provided at a first portion having a first film thickness in a plan view and a second portion provided at a corner portion of the pixel separation portion and having a second film thickness thicker than the first film thickness.
  • a solid-state image sensor including.
  • a plurality of photoelectric conversion units are formed in the first semiconductor substrate of the first substrate, and a plurality of photoelectric conversion units are formed.
  • a pixel separation section is formed between the photoelectric conversion sections in the first semiconductor substrate.
  • the insulating film is provided at a first portion having a first film thickness in a plan view and a second portion provided at a corner portion of the pixel separation portion and having a second film thickness thicker than the first film thickness.
  • Pixel 2 Pixel array area 3: Control circuit, 4: Vertical drive circuit, 5: Column signal processing circuit, 6: Horizontal drive circuit, 7: Output circuit, 8: Vertical signal line, 9: Horizontal signal line, 11: Semiconductor substrate, 11': Substrate, 11a: Chip region, 11b: Dicing region, 11c: Source diffusion layer, 11d: Drain diffusion layer, 12: photoelectric conversion unit, 13: n-type semiconductor region, 14: p-type semiconductor region, 21: Pixel separation groove, 21a: 1st linear portion, 21b: 2nd linear portion, 22: Pixel separation part, 22a: 1st linear part, 22b: 2nd linear part, 23: Insulating film, 23a: 1st part, 23b: 2nd part, 24: Light-shielding film, 25: light-shielding film, 26: flattening film, 27: color filter, 28: on-chip lens, 31: substrate, 32: insulating layer, 32a: insulating film, 32b: interlayer insulating film, 31

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]画素分離溝内に好適に画素分離部を形成可能な固体撮像装置およびその製造方法を提供する。 [解決手段]本開示の固体撮像装置は、第1基板と、前記第1基板内に設けられた複数の光電変換部と、前記第1基板内で前記光電変換部間に設けられ、{100}面である前記第1基板の側面に設けられた画素分離部とを備える。

Description

固体撮像装置およびその製造方法
 本開示は、固体撮像装置およびその製造方法に関する。
 固体撮像装置の画素サイズが縮小されると、ある画素の光電変換部内に入射するはずの光が別の画素の光電変換部内に入射して、画素間でクロストークが生じるおそれがある。そこで、これらの光電変換部を各光電変換部ごとに環状に包囲する画素分離溝が、基板内に設けられる場合がある。
特開2013-175494号公報 特開2018-148116号公報
 画素分離溝内には、画素分離部として、酸化膜などの絶縁膜と、金属膜などの遮光膜とが順に埋め込まれることが多い。この場合、固体撮像装置の画素サイズが縮小されると、光電変換部のサイズに対する絶縁膜のサイズの比率が大きくなり、光電変換部のサイズが小さすぎることや、画素分離溝のサイズが大きすぎることが問題となる。例えば光電変換部のサイズが小さすぎると、光電変換部の暗電流特性などの性能が低下してしまう。
 そこで、本開示は、画素分離溝内に好適に画素分離部を形成可能な固体撮像装置およびその製造方法を提供する。
 本開示の第1の側面の固体撮像装置は、第1半導体基板を含む第1基板と、前記第1半導体基板内に設けられた複数の光電変換部と、前記第1半導体基板内で前記光電変換部間に設けられた画素分離部とを備え、前記画素分離部の側面と前記第1半導体基板との界面は、{100}面を有する。これにより例えば、画素分離部のサイズを縮小することが可能となるなど、画素分離溝内に好適に画素分離部を形成することが可能となる。
 また、この第1の側面において、前記画素分離部は、絶縁膜を含んでいてもよい。これにより例えば、画素分離部用に薄い絶縁膜を形成することが可能となり、その結果、画素分離部のサイズを縮小することが可能となる。
 また、この第1の側面において、前記画素分離部はさらに、遮光膜を含んでいてもよい。これにより例えば、画素分離部用に薄い絶縁膜を形成することで、画素分離部用に厚い遮光膜を形成することが可能となる。
 また、この第1の側面において、前記絶縁膜は、前記第1半導体基板に含まれる元素と、酸素とを含んでいてもよい。これにより例えば、第1半導体基板の側面を酸化することで、絶縁膜を形成することが可能となる。
 また、この第1の側面において、前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含んでいてもよい。これにより例えば、絶縁膜の厚い部分を画素分離部の角部に限定して、絶縁膜の全体的な膜厚を薄くすることが可能となる。
 また、この第1の側面において、前記画素分離部は、平面視で前記第1半導体基板の表面に平行な第1方向に延びる複数の第1部分と、前記第1半導体基板の表面に平行な第2方向に延びる複数の第2部分とを含んでいてもよい。これにより例えば、網目状の平面形状を有する画素分離部を実現することが可能となる。
 また、この第1の側面において、前記平面視は、前記第1半導体基板の光入射面を視た状態に当たってもよい。これにより例えば、第1半導体基板をその厚さ方向に視た場合において、絶縁膜の厚い部分を画素分離部の角部に限定して、絶縁膜の全体的な膜厚を薄くすることが可能となる。
 また、この第1の側面において、前記第1または第2方向は、前記第1半導体基板の<100>方向と平行でもよい。これにより例えば、第1半導体基板の側面を第1または第2方向と平行にすることで、第1半導体基板の側面を{100}面とすることが可能となる。
 また、この第1の側面において、前記画素分離部は、前記第1半導体基板を貫通する画素分離溝内に設けられていてもよい。これにより例えば、第1半導体基板を貫通する画素分離溝内に好適に画素分離部を形成することが可能となる。
 また、この第1の側面において、前記画素分離部は、前記第1半導体基板を貫通しない画素分離溝内に設けられていてもよい。これにより例えば、第1半導体基板を貫通しない画素分離溝内に好適に画素分離部を形成することが可能となる。
 また、この第1の側面の固体撮像装置は、前記第1基板の光入射面とは反対側に設けられた第1絶縁層と、前記第1絶縁層と対向するように設けられた第2半導体基板を含む第2基板とをさらに備え、前記第2基板は、トランジスタを含んでいてもよい。これにより例えば、画素分離部に適した第1半導体基板を用いつつ、トランジスタに適した第2半導体基板を用いることが可能となる。
 また、この第1の側面において、前記画素分離部は、平面視で前記第1半導体基板の表面に平行な第1方向に延びる複数の第1部分と、前記第1半導体基板の表面に平行な第2方向に延びる複数の第2部分とを含んでいてもよい。これにより例えば、網目状の平面形状を有する画素分離部を実現することが可能となる。
 また、この第1の側面において、前記第1または第2方向は、前記第2半導体基板の<110>方向に平行であり、前記トランジスタは、<110>方向に平行なチャネル方向を有するn型平面トランジスタでもよい。これにより例えば、n型平面トランジスタに適した第2半導体基板を用いることが可能となる。
 また、この第1の側面において、前記第1または第2方向は、前記第2半導体基板の<100>方向に平行であり、前記トランジスタは、前記第2半導体基板の{100}面であるフィン側壁を有し、前記第1または第2方向に平行なチャネル方向を有するフィン型トランジスタでもよい。これにより例えば、第1または第2方向が<100>方向に平行な第2基板内に、フィン型トランジスタを好適に形成することが可能となる。
 また、この第1の側面において、前記第1または第2方向は、前記第2半導体基板の<100>方向に平行であり、前記トランジスタは、<100>方向に平行なチャネル方向を有するp型平面トランジスタでもよい。これにより例えば、p型平面トランジスタに適した第2半導体基板を用いることが可能となる。
 また、この第1の側面において、前記第1または第2方向は、前記第2半導体基板の<110>方向に平行であり、前記トランジスタは、前記第2半導体基板の{100}面であるフィン側壁を有し、前記第1および第2方向に非平行なチャネル方向を有するフィン型トランジスタでもよい。これにより例えば、第1または第2方向が<110>方向に平行な第2半導体基板内に、フィン型トランジスタを好適に形成することが可能となる。
 本開示の第2の側面の固体撮像装置は、第1半導体基板を含む第1基板と、前記第1半導体基板内に設けられた複数の光電変換部と、前記第1半導体基板内で前記光電変換部間に設けられた画素分離部とを備え、前記画素分離部は、絶縁膜を含み、 前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含む。これにより例えば、画素分離部のサイズを縮小することが可能となるなど、画素分離溝内に好適に画素分離部を形成することが可能となる。例えば、画素分離部用の絶縁膜の厚い部分を画素分離部の角部に限定して、画素分離部内用の絶縁膜の全体的な膜厚を薄くすることが可能となる。
 本開示の第3の側面の固体撮像装置の製造方法は、第1基板の第1半導体基板内に複数の光電変換部を形成し、前記第1半導体基板内で前記光電変換部間に画素分離部を形成することを含み、前記画素分離部は、前記画素分離部の側面と前記第1半導体基板との界面が、{100}面を有するように形成される。これにより例えば、画素分離部のサイズを縮小することが可能となるなど、画素分離溝内に好適に画素分離部を形成することが可能となる。
 また、この第3の側面において、前記画素分離部は、絶縁膜を含むように形成されてもよい。これにより例えば、第1基板の側面に薄い絶縁膜を形成することが可能となり、その結果、画素分離部のサイズを縮小することが可能となる。
 また、この第3の側面において、前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含むように形成されてもよい。これにより例えば、絶縁膜の厚い部分を画素分離部の角部に限定して、絶縁膜の全体的な膜厚を薄くすることが可能となる。
第1実施形態の固体撮像装置の構成を示すブロック図である。 第1実施形態の固体撮像装置の構造を示す断面図と平面図である。 第1実施形態の固体撮像装置の構造を説明するための平面図である。 第1実施形態の固体撮像装置の構造を示す別の断面図である。 第1実施形態の固体撮像装置の構造を示す別の断面図である。 第1実施形態の固体撮像装置の製造方法を示す断面図(1/3)である。 第1実施形態の固体撮像装置の製造方法を示す断面図(2/3)である。 第1実施形態の固体撮像装置の製造方法を示す断面図(3/3)である。 第2実施形態の固体撮像装置の構造を示す断面図と平面図である。 第3実施形態の固体撮像装置の構造を示す断面図と平面図である。 第4実施形態の固体撮像装置の構造を示す断面図と平面図である。 第4実施形態の変形例の固体撮像装置の構造を示す断面図と平面図である。 第5実施形態の固体撮像装置の構造を示す断面図と平面図である。 第5実施形態の変形例の固体撮像装置の構造を示す断面図と平面図である。 第6実施形態の固体撮像装置の構造を示す断面図と平面図である。 電子機器の構成例を示すブロック図である。 移動体制御システムの構成例を示すブロック図である。 図17の撮像部の設定位置の具体例を示す平面図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施形態を、図面を参照して説明する。
 (第1実施形態)
 図1は、第1実施形態の固体撮像装置の構成を示すブロック図である。
 図1の固体撮像装置は、CMOS(Complementary Metal Oxide Semiconductor)型のイメージセンサであり、複数の画素1を有する画素アレイ領域2と、制御回路3と、垂直駆動回路4と、複数のカラム信号処理回路5と、水平駆動回路6と、出力回路7と、複数の垂直信号線8と、水平信号線9とを備えている。
 各画素1は、光電変換部として機能するフォトダイオードと、画素トランジスタとして機能するMOSトランジスタとを備えている。画素トランジスタの例は、転送トランジスタ、リセットトランジスタ、増幅トランジスタ、選択トランジスタなどである。これらの画素トランジスタは、いくつかの画素1により共有されていてもよい。
 画素アレイ領域2は、2次元アレイ状に配置された複数の画素1を有している。画素アレイ領域2は、光を受光して光電変換を行い、光電変換により生成された信号電荷を増幅して出力する有効画素領域と、黒レベルの基準となる光学的黒を出力する黒基準画素領域とを含んでいる。一般に、黒基準画素領域は有効画素領域の外周部に配置されている。
 制御回路3は、垂直同期信号、水平同期信号、マスタクロックなどに基づいて、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6などの動作の基準となる種々の信号を生成する。制御回路3により生成される信号は、例えばクロック信号や制御信号であり、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6などに入力される。
 垂直駆動回路4は、例えばシフトレジスタを備えており、画素アレイ領域2内の各画素1を行単位で垂直方向に走査する。垂直駆動回路4はさらに、各画素1が生成した信号電荷に基づく画素信号を、垂直信号線8を通してカラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素アレイ領域2内の画素1の列ごとに配置されており、1行分の画素1から出力された信号の信号処理を、黒基準画素領域からの信号に基づいて列ごとに行う。この信号処理の例は、ノイズ除去や信号増幅である。
 水平駆動回路6は、例えばシフトレジスタを備えており、各カラム信号処理回路5からの画素信号を水平信号線9に供給する。
 出力回路7は、各カラム信号処理回路5から水平信号線9を通して供給される信号に対し信号処理を行い、この信号処理が行われた信号を出力する。
 図2は、第1実施形態の固体撮像装置の構造を示す断面図と平面図である。
 図2のAは、図1の画素アレイ領域2内の1つの画素1の縦断面を示している。本実施形態の固体撮像装置は、図2のAに示すように、半導体基板11と、光電変換部12と、n型半導体領域13と、p型半導体領域14と、画素分離溝21と、画素分離部22と、絶縁膜23と、遮光膜24と、遮光膜25と、平坦化膜26と、カラーフィルタ27と、オンチップレンズ28と、基板31と、絶縁層32とを備えている。半導体基板11は、本開示の第1半導体基板の例である。本実施形態の固体撮像装置はさらに、半導体基板11と絶縁膜23とを含む基板11’を備えている。基板11’は、本開示の第1基板の例である。
 図2のAは、互いに垂直なX軸、Y軸、およびZ軸を示している。X方向およびY方向は横方向(水平方向)に相当し、Z方向は縦方向(垂直方向)に相当する。また、+Z方向は上方向に相当し、-Z方向は下方向に相当する。-Z方向は、厳密に重力方向に一致していてもよいし、厳密には重力方向に一致していなくてもよい。X方向およびY方向の一方は、本開示の第1方向の例であり、X方向およびY方向の他方は、本開示の第2方向の例である。
 以下、図2のAを参照して、本実施形態の固体撮像装置の構造について説明する。この説明の中で、図2のBおよびCも適宜参照する。図2のBは、ダイシング前の基板(ウェハ)11の構造を示す平面図である。図2のCは、画素分離溝21や画素分離部22の構造を示す横断面図である。
 半導体基板11は例えば、シリコン基板である。図2のAでは、半導体基板11の-Z方向の面(下面)が、半導体基板11の表面であり、半導体基板11の+Z方向の面(上面)が、半導体基板11の裏面である。本実施形態の固体撮像装置は、裏面照射型であるため、半導体基板11の裏面が、半導体基板11の光入射面(受光面)となる。半導体基板11の裏面は、本開示の第1面の例であり、半導体基板11の表面は、本開示の第2面の例である。
 図2のAおよびCは、半導体基板11をダイシングして製造された固体撮像装置を示しているが、図2のBは、ダイシング前の半導体基板11を示している。図2のBに示す半導体基板11は、複数のチップ領域11aと、ダイシング領域11bとを含んでいる。チップ領域11aは、正方形または長方形の平面形状を有している。ダイシング領域11bは、これらのチップ領域11aを各チップ領域11aごとに環状に包囲する平面形状を有している。本実施形態では、半導体基板11をダイシング領域11bで切断することで、半導体基板11がこれらのチップ領域11aに分割され、各チップ領域11aから1つの固体撮像装置が製造される。
 図2のBはさらに、半導体基板11のノッチNを示している。図2のBでは、半導体基板11の-Y方向の端面にノッチNが設けられている。各チップ領域11aの4つの辺は、X方向またはY方向に延びている。ダイシング領域11bは、X方向に延びる複数の線状部分と、Y方向に延びる複数の線状部分とを含む網目状の平面形状を有している。
 本実施形態の半導体基板11は、{100}面である表面および裏面を有しており、かつ、<100>ノッチ基板(45°ノッチ基板)となっている。<100>ノッチ基板では、基板のノッチから基板の中心に向かう方向が、<100>方向となっている。よって、本実施形態の半導体基板11では、半導体基板11内の+Y方向が、<100>方向となっている。図2のBに示す矢印Aは、半導体基板11内の<110>方向を示している。図2のBでは、+Y方向に対する矢印Aの傾きが、45°となっている。
 図3は、第1実施形態の固体撮像装置の構造を説明するための平面図である。図3のAは、図2のBと同様に、本実施形態の半導体基板11である<100>ノッチ基板(45°ノッチ基板)を示しており、図3のBは、本実施形態の比較例の半導体基板11である<110>ノッチ基板(0°ノッチ基板)を示している。<110>ノッチ基板では、基板のノッチから基板の中心に向かう方向が、<110>方向となっている。よって、本比較例の半導体基板11では、半導体基板11内の+Y方向が、<110>方向となっている。図3のBに示す矢印Aは、半導体基板11内の<110>方向を示している。図3のBでは、+Y方向に対する矢印Aの傾きが、0°となっている。なお、図3のBに示す半導体基板11も、{100}面である表面および裏面を有している。
 引き続き図2のAを参照して、本実施形態の固体撮像装置の構造を説明する。 
 光電変換部12は、半導体基板11内に各画素1ごとに設けられている。図2のAは、1つの画素1に含まれる1つの光電変換部12を示している。光電変換部12は、半導体基板11内に設けられたn型半導体領域13と、半導体基板11内でn型半導体領域13の周囲に設けられたp型半導体領域14とを含んでいる。光電変換部12では、n型半導体領域13とp型半導体領域14との間のpn接合によりフォトダイオードが実現されており、フォトダイオードが光を電荷に変換する。光電変換部12は、半導体基板11の裏面側から光を受光し、受光した光の光量に応じた信号電荷を生成し、生成した信号電荷をn型半導体領域13に蓄積する。
 画素分離溝21は、半導体基板11内に設けられており、具体的には、互いに隣接する画素1同士の光電変換部12間に設けられている。本実施形態の画素分離溝21は、半導体基板11の裏面側から半導体基板11の表面側へと半導体基板11内を貫通している。
 画素分離部22は、画素分離溝21内に設けられており、絶縁膜23と遮光膜24とを順に含んでいる。絶縁膜23は、画素分離溝21の側面および底面に設けられており、遮光膜24は、画素分離溝21の側面および底面に絶縁膜23を介して設けられている。絶縁膜23は例えば、酸化シリコン膜である。本実施形態の絶縁膜23は、半導体基板11の側面などを酸化することで形成されるため、半導体基板11に由来するSi(シリコン)元素と、酸化に由来するO(酸素)元素とを含んでいる。遮光膜24は例えば、W(タングステン)、Al(アルミニウム)、またはCu(銅)といった金属元素を含む膜であり、光を遮光する作用を有している。
 図2のCは、画素分離溝21や画素分離部22の横断面を示している。画素分離溝21は、平面視でX方向に延びる複数の第1線状部分21aと、平面視でY方向に延びる複数の第2線状部分21bとを含んでおり、図2のCは、これらの第1線状部分21aのうちの1つと、これらの第2線状部分21bのうちの1つとを示している。同様に、画素分離部22は、平面視でX方向に延びる複数の第1線状部分22aと、平面視でY方向に延びる複数の第2線状部分22bとを含んでおり、図2のCは、これらの第1線状部分22aのうちの1つと、これらの第2線状部分22bのうちの1つとを示している。第1線状部分22aおよび第2線状部分22bの一方は、本開示の画素分離部の第1部分の例であり、第1線状部分22aおよび第2線状部分22bの他方は、本開示の画素分離部の第2部分の例である。なお、本実施形態の上述の平面視は、半導体基板11の光入射面を視た状態に当たる。
 図2のCはさらに、画素分離溝21内における半導体基板11の側面として、X方向に延びる側面S1と、Y方向に延びる側面S2とを示している。図2のCはさらに、画素分離溝21内における半導体基板11の角部として、側面S1と側面S2との間の角部Cを示している。角部Cは、画素分離部22の角部に相当する。本実施形態の絶縁膜23は、側面S1や側面S2に形成された第1部分23aと、角部Cに形成された第2部分23bとを含んでおり、平面視で第2部分23bの膜厚(T2)が、第1部分23aの膜厚(T1)より厚くなっている。角部Cは、第2部分23b内に位置している。第1部分23aの膜厚は、本開示の第1の膜厚の例であり、第2部分23bの膜厚は、本開示の第2の膜厚の例である。
 ここで、本実施形態と上記比較例とを比較する。上記比較例の半導体基板11は、<110>ノッチ基板であるため、側面S1や側面S2が、{110}面となる。一方、本実施形態の半導体基板11は、<100>ノッチ基板であるため、側面S1や側面S2が、{100}面となる。一般に、シリコン基板の{110}面は、シリコン基板の{100}面に比べて酸化されやすい。そのため、上記比較例では第1部分23aが厚くなり、その結果、光電変換部12のサイズが小さくなり、画素分離部22のサイズが大きくなる。一方、本実施形態では第1部分23aが薄くなり、その結果、光電変換部12のサイズが大きくなり、画素分離部22のサイズが小さくなる。よって、本実施形態によれば、光電変換部12のサイズの縮小による光電変換部12の性能の低下を抑制することが可能となる。以上のように、本実施形態の側面S1や側面S2は{100}面であり、本実施形態の画素分離部22の側面と半導体基板11との界面は{100}面を有している。
 図2のCに示すように、角部Cの平面形状は一般に、完全な直角にはならず、曲線状になる。そのため、本実施形態の角部Cには、小さな{110}面が生じ、本実施形態の角部Cは、側面S1や側面S2に比べて酸化されやすくなる。その結果、本実施形態の第2部分23bの膜厚は、第1部分23aの膜厚より厚くなる。本実施形態によれば、絶縁膜23の厚い部分を角部Cに限定することができるため、絶縁膜23の全体的な膜厚を薄くすることが可能となる。
 なお、本実施形態の絶縁膜23は、例えばラジカル酸化により形成してもよい。これにより、第1部分23aの膜厚と第2部分23bの膜厚とを同じにすることが可能となり、第1部分23aの膜厚だけでなく第2部分23bの膜厚も薄くすることが可能となる。
 図4は、第1実施形態の固体撮像装置の構造を示す別の断面図である。図4は、図1の画素アレイ領域2内の3つの画素1の縦断面を示している。図4に示すように、本実施形態の固体撮像装置は、複数の光電変換部12を備えており、互いに隣接する光電変換部12間に画素分離溝21や画素分離部22を備えている。
 図5は、第1実施形態の固体撮像装置の構造を示す別の断面図である。図4は、図1の画素アレイ領域2内の4つの画素1の全体および12個の画素1の一部の横断面を示している。図5に示すように、本実施形態の固体撮像装置は、複数の光電変換部12を備えており、画素分離部22は、これらの光電変換部12を各光電変換部12ごとに環状に包囲する網目状の平面形状を有している。よって、各光電変換部12は、Y方向に互いに隣接する2つの第1線状部分22a間に設けられており、かつ、X方向に互いに隣接する2つの第2線状部分22b間に設けられている。
 引き続き図2のAを参照して、本実施形態の固体撮像装置の構造を説明する。 
 遮光膜25は、半導体基板11外にて画素分離部22上に設けられている。遮光膜25は例えば、W(タングステン)、Al(アルミニウム)、またはCu(銅)といった金属元素を含む膜であり、光を遮光する作用を有している。遮光膜25は、遮光膜24と同時に形成されてもよい。
 平坦化膜26は、半導体基板11の裏面(上面)を覆うように半導体基板11上に遮光膜25を介して形成されており、これにより半導体基板11の裏面上の面が平坦となっている。平坦化膜26は例えば、樹脂膜などの有機膜である。
 カラーフィルタ27は、所定の波長の光を透過させる作用を有し、平坦化膜26上に各画素1ごとに形成されている。例えば、赤色(R)、緑色(G)、青色(B)用のカラーフィルタ27がそれぞれ、赤色、緑色、青色の画素1の光電変換部12の上方に配置されている。さらに、赤外光用のカラーフィルタ27が、赤外光の画素1の光電変換部12の上方に配置されていてもよい。カラーフィルタ27を透過した光は、平坦化膜26を介して光電変換部12に入射する。
 オンチップレンズ28は、入射した光を集光する作用を有し、カラーフィルタ27上に各画素1ごとに形成されている。オンチップレンズ28により集光された光は、カラーフィルタ27と平坦化膜26とを介して光電変換部12に入射する。本実施形態の各オンチップレンズ28は、光が透過する材料で形成されており、オンチップレンズ27同士は、この材料を介して互いにつながっている。
 基板31は、半導体基板11の表面(下面)に絶縁層32を介して設けられており、例えば、半導体基板11の強度を確保するために設けられている。基板31は例えば、シリコン基板などの半導体基板である。本実施形態の基板31は、{100}面である表面および裏面を有しており、かつ、<110>ノッチ基板(0°ノッチ基板)となっている。絶縁層32は例えば、酸化シリコン膜とその他の絶縁膜とを含む積層膜である。
 本実施形態では、オンチップレンズ28に入射した光が、オンチップレンズ28により集光され、カラーフィルタ27を透過し、光電変換部12へと入射する。光電変換部12は、この光を光電変換により電荷に変換して、信号電荷を生成する。信号電荷は、図1の垂直信号線8を介して、画素信号として出力される。
 図6から図8は、第1実施形態の固体撮像装置の製造方法を示す断面図である。
 まず、半導体基板11内に、各光電変換部12のn型半導体領域13とp型半導体領域14とを形成し、半導体基板11上に、絶縁層32を形成する(図6のA)。このようにして、半導体基板11内に複数の光電変換部12が形成される。図6のAに示す工程は、半導体基板11の表面を上向きにし、半導体基板11の裏面を下向きにした状態で行われる。
 次に、半導体基板11の上下を反転させる(図6のB)。その結果、半導体基板11の表面が下向きになり、半導体基板11の裏面が上向きになる。次に、基板31の表面(上面)に、絶縁層32を介して半導体基板11を接着する(図6のB)。
 次に、半導体基板11内にドライエッチングにより画素分離溝21を形成する(図7のA)。本実施形態の画素分離溝21は、半導体基板11を貫通して絶縁層32に到達するように形成される。また、本実施形態の画素分離溝21は、上記複数の光電変換部12を各光電変換部12ごとに環状に包囲する網目状の平面形状を有するように形成され、互いに隣接する光電変換部12間に形成される。
 次に、画素分離溝21内に絶縁膜23と遮光膜24とを順に形成する(図7のB)。これにより、絶縁膜23と遮光膜24とを含む画素分離部22が、画素分離溝21内に形成される。絶縁膜23は、画素分離溝21の側面および底面に形成され、遮光膜24は、画素分離溝21の側面および底面に絶縁膜23を介して形成される。
 本実施形態の半導体基板11は、<100>ノッチ基板であるため、画素分離溝21内の半導体基板11の側面が、{100}面となる。よって、本実施形態によれば、画素分離溝21内の半導体基板11の側面に絶縁膜23を酸化により形成することで、薄い膜厚を有する第1部分23aと、厚い膜厚を有する第2部分23bとを含む絶縁膜23を形成することができる(図2のCを参照)。
 次に、半導体基板11上に、遮光膜25と平坦化膜26とを順に形成する(図8のA)。遮光膜25は、画素分離部22上に形成され、平坦化膜26は、半導体基板11上に遮光膜25を覆うように形成される。
 次に、各光電変換部12の上方において、平坦化膜26上にカラーフィルタ27とオンチップレンズ28とを順に形成する(図8のB)。その後、半導体基板11をダイシング領域11bで切断することで、半導体基板11が個々のチップ領域11aへと分割される(図2のBを参照)。このようにして、本実施形態の固体撮像装置が製造される。
 以上のように、本実施形態の画素分離部22は、{100}面である半導体基板11の側面に絶縁膜23を形成することで形成される。よって、本実施形態によれば、例えば絶縁膜23の薄膜化により画素分離部22のサイズを縮小することが可能となるなど、画素分離溝21内に好適に画素分離部22を形成することが可能となる。
 なお、本実施形態の半導体基板11は、その表面や裏面や{100}面であるSi{100}基板であり、+Y方向が<110>方向である<110>ノッチ基板である。以下、上記の符号{xyz}や符号<xyz>の意味について、Si{111}基板と<110>方向とを例として補足する。
 本開示におけるSi{111}基板とは、シリコン単結晶からなり、ミラー指数の表記において{111}で表される結晶面を有する基板またはウェハである。本開示におけるSi{111}基板は、結晶方位が数度ずれた、例えば{111}面から最近接の[110]方向へ数度ずれた基板またはウェハも含む。さらに、これらの基板またはウェハ上の一部または全面にエピタキシャル法等によりシリコン単結晶を成長させたものをも含む。
 また、本開示の表記において{111}面は、対称性において互いに等価な結晶面である(111)面、(-111)面、(1-11)面、(11-1)面、(-1-11)面、(-11-1)面、(1-1-1)面および(-1-1-1)面の総称である。したがって、本開示の明細書等におけるSi{111}基板という記載を、例えばSi(1-11)基板と読み替えてもよい。ここで、ミラー指数の負方向の指数を表記するためのバー符号はマイナス符号で代用している。
 また、本開示の記載における<110>方向は、対称性において互いに等価な結晶面方向である[110]方向、[101]方向、[011]方向、[-110]方向、[1-10]方向、[-101]方向、[10-1]方向、[0-11]方向、[01-1]方向、[-1-10]方向、[-10-1]方向および[0-1-1]方向の総称であり、いずれかに読み替えてもよい。
 (第2実施形態)
 図9は、第2実施形態の固体撮像装置の構造を示す断面図と平面図である。
 図9のAは、図2のAと同様に、図1の画素アレイ領域2内の1つの画素1の縦断面を示している。図9のBは、図2のBと同様に、ダイシング前の基板(ウェハ)11の構造を示す平面図である。図9のCは、図2のCと同様に、画素分離溝21や画素分離部22の構造を示す横断面図である。
 本実施形態の固体撮像装置は、図9のAからCに示すように、第1実施形態の固体撮像装置と同じ構成要素を備えている。ただし、本実施形態の画素分離溝21は、半導体基板11の裏面(上面)側に、半導体基板11を貫通しないように設けられている。本実施形態の構造は例えば、画素分離溝21が半導体基板11を貫通する必要がない場合や、画素分離溝21が半導体基板11を貫通しないことが望ましい場合に採用可能である。本実施形態の固体撮像装置は例えば、図7のAに示す工程で、半導体基板11を貫通しない画素分離溝21を形成することで製造される。
 なお、本実施形態の画素分離溝21は、半導体基板11を貫通している部分と、半導体基板11を貫通していない部分の両方を含んでいてもよい。
 (第3実施形態)
 図10は、第3実施形態の固体撮像装置の構造を示す断面図と平面図である。
 図10のAは、図2のAと同様に、図1の画素アレイ領域2内の1つの画素1の縦断面を示している。本実施形態の固体撮像装置は、第1実施形態の固体撮像装置の構成要素に加え、半導体基板33と、絶縁層34と、トランジスタTr1のゲート電極35と、トランジスタTr2のゲート電極36と、プラグ41と、絶縁膜42と、プラグ43と、配線層44とを備えている。また、絶縁層32は、トランジスタTr1のゲート絶縁膜として機能する絶縁膜32aと、層間絶縁膜32bとを含み、絶縁層34は、トランジスタTr2のゲート絶縁膜として機能する絶縁膜34aと、層間絶縁膜34bとを含んでいる。絶縁層32は、本開示の第1絶縁層の例であり、半導体基板33は、本開示の第2半導体基板の例である。本実施形態の固体撮像装置はさらに、半導体基板33、絶縁層34、ゲート電極36、プラグ41、絶縁膜42、プラグ43、および配線層44を含む基板33’を備えている。基板33’は、本開示の第2基板の例である。
 以下、図10のAを参照して、本実施形態の固体撮像装置の構造について説明する。この説明の中で、図10のBも適宜参照する。図10のBは、半導体基板33やゲート電極36の構造を示す平面図である。
 絶縁層32は、半導体基板11の表面(下面)に順に設けられた絶縁膜32aおよび層間絶縁膜32bを含んでいる。絶縁膜32aは例えば、酸化シリコン膜である。層間絶縁膜32bは例えば、酸化シリコン膜とその他の絶縁膜とを含む積層膜である。半導体基板33は、絶縁層32の下面に設けられている。半導体基板33は例えば、シリコン基板である。絶縁層34は、半導体基板33の表面(下面)に順に設けられた絶縁膜34aおよび層間絶縁膜34bを含んでいる。絶縁膜34aは例えば、酸化シリコン膜である。層間絶縁膜34bは例えば、酸化シリコン膜とその他の絶縁膜とを含む積層膜である。基板31は、絶縁層34の下面に設けられている。
 このように、本実施形態の固体撮像装置は、半導体基板11および基板31に加え、半導体基板33を備えている。本実施形態の半導体基板11は、第1実施形態の半導体基板11と同様に、{100}面である表面および裏面を有しており、かつ、<100>ノッチ基板(45°ノッチ基板)となっている。一方、本実施形態の半導体基板33は、{100}面である表面および裏面を有しており、かつ、<110>ノッチ基板(0°ノッチ基板)となっている。よって、本実施形態の半導体基板33では、図3のBに示す上記比較例の半導体基板11と同様に、半導体基板33内の+Y方向が、<110>方向となっている。
 トランジスタTr1のゲート電極35は、半導体基板11の表面(下面)に絶縁膜32aを介して設けられており、層間絶縁膜32bで覆われている。トランジスタTr1は例えば、転送トランジスタなどの画素トランジスタである。ゲート電極35は例えば、半導体層または金属層である。トランジスタTr1はさらに、基板31内に設けられたソース拡散層およびドレイン拡散層(不図示)を備えている。
 トランジスタTr2のゲート電極36は、半導体基板33の表面(下面)に絶縁膜34aを介して設けられており、層間絶縁膜34bで覆われている。トランジスタTr2は例えば、増幅トランジスタなどの画素トランジスタである。ゲート電極36は例えば、半導体層または金属層である。トランジスタTr2はさらに、図10のBに示すように、半導体基板33内に設けられたソース拡散層33aおよびドレイン拡散層33bを備えている。
 本実施形態のトランジスタTr2は、n型平面トランジスタであり、X方向に並んだソース拡散層33aおよびドレイン拡散層33bと、Y方向に延びるゲート電極36とを備えている(図10のB)。よって、本実施形態のトランジスタTr2のチャネル方向は、+X方向となっており、<110>方向に平行となっている。
 n型平面トランジスタの性能は、チャネル方向をシリコン基板の<110>方向に平行にすることで向上する。一方、本実施形態の半導体基板33は、上述のように<110>ノッチ基板となっている。よって、本実施形態によれば、X方向に並んだソース拡散層33aおよびドレイン拡散層33bを半導体基板33内に形成することで、チャネル方向を<110>方向に平行にすることが可能となり、これによりトランジスタTr2の性能を向上させることが可能となる。
 引き続き図10のAを参照して、本実施形態の固体撮像装置の構造を説明する。
 配線層44は、層間絶縁膜34b内にてゲート電極36の下方に設けられている。プラグ43は、層間絶縁膜34b内に設けられており、配線層44とゲート電極36とを電気的に接続している。プラグ41は、絶縁層34、半導体基板33、および絶縁層32内に設けられており、配線層44と半導体基板11とを電気的に接続している。これにより、トランジスタTr2が半導体基板11と電気的に接続されている。なお、プラグ41は、半導体基板33内に絶縁膜42を介して設けられている。
 以上のように、本実施形態の固体撮像装置は、<100>ノッチ基板である半導体基板11に加えて、<110>ノッチ基板である半導体基板33を備えている。よって、本実施形態によれば、半導体基板11内に画素分離部32を好適に形成しつつ、半導体基板33の表面にn型平面トランジスタ(トランジスタTr2)を好適に形成することが可能となる。
 (第4実施形態)
 図11は、第4実施形態の固体撮像装置の構造を示す断面図と平面図である。
 図11のAは、図10のAと同様に、図1の画素アレイ領域2内の1つの画素1の縦断面を示している。図11のBは、図10のBと同様に、半導体基板33やゲート電極36の構造を示す平面図である。
 本実施形態の固体撮像装置は、図11のAおよびBに示すように、第3実施形態の固体撮像装置と同じ構成要素を備えている。ただし、本実施形態の半導体基板33は、{100}面である表面および裏面を有しており、かつ、<100>ノッチ基板(45°ノッチ基板)となっている。よって、本実施形態の半導体基板33では、半導体基板33内の+Y方向が、<100>方向となっている。また、本実施形態のトランジスタTr2は、フィン型トランジスタであり、トランジスタTr2のゲート電極36は、半導体基板33外に設けられた平面部分36aと、半導体基板33内に設けられた複数のフィン部分36bとを含んでいる。
 本実施形態のトランジスタTr2は、図11のBに示すように、複数のソース拡散層33aと複数のドレイン拡散層33bとを半導体基板33内に備えており、ソース拡散層33aとドレイン拡散層33bとがX方向に並んでいる。また、本実施形態のゲート電極36は、図11のBに示すように、複数のフィン部分36bを半導体基板33内に備えており、これらのフィン部分36bがY方向に延びている。よって、本実施形態のトランジスタTr2のチャネル方向は、+X方向となっており、<100>方向に平行となっており、かつ、本実施形態のトランジスタTr2のフィン側壁は、Y方向に延びる半導体基板33の側面となっており、{100}面となっている。
 フィン型トランジスタの性能は、フィン側壁をシリコン基板の{100}面とすることで向上する。一方、本実施形態の半導体基板33は、上述のように<100>ノッチ基板となっている。よって、本実施形態によれば、Y方向に延びるフィン部分36bを半導体基板33内に形成することで、フィン側壁を{100}面とすることが可能となり、これによりトランジスタTr2の性能を向上させることが可能となる。
 図12は、第4実施形態の変形例の固体撮像装置の構造を示す断面図と平面図である。
 図12のAおよびBはそれぞれ、図11のAおよびBに対応している。本変形例の固体撮像装置は、第4実施形態の固体撮像装置から半導体基板33および絶縁層34を除いた構造を有しており、トランジスタTr2が、半導体基板33の表面ではなく半導体基板11の表面に形成されている。よって、トランジスタTr2のゲート絶縁膜は、絶縁膜34aから絶縁膜32aに置き換えられており、トランジスタTr2の拡散層は、半導体基板33内のソース拡散層33aおよびドレイン拡散層33bから、半導体基板11内のソース拡散層11cおよびドレイン拡散層11dに置き換えられている。本変形例によれば、半導体基板33の代わりに半導体基板11を使用することで、トランジスタTr2の性能を向上させることが可能となる。
 以上のように、本実施形態の固体撮像装置は、<100>ノッチ基板である半導体基板11に加えて、<100>ノッチ基板である半導体基板33を備えている。よって、本実施形態によれば、半導体基板11内に画素分離部32を好適に形成しつつ、半導体基板33の表面にフィン型トランジスタ(トランジスタTr2)を好適に形成することが可能となる。なお、このフィン型トランジスタは、上記変形例のように半導体基板11の表面に形成してもよい。
 (第5実施形態)
 図13は、第5実施形態の固体撮像装置の構造を示す断面図と平面図である。
 図13のAは、図10のAと同様に、図1の画素アレイ領域2内の1つの画素1の縦断面を示している。図13のBは、図10のBと同様に、半導体基板33やゲート電極36の構造を示す平面図である。
 本実施形態の固体撮像装置は、図13のAおよびBに示すように、第3実施形態の固体撮像装置と同じ構成要素を備えている。ただし、本実施形態の半導体基板33は、{100}面である表面および裏面を有しており、かつ、<100>ノッチ基板(45°ノッチ基板)となっている。よって、本実施形態の半導体基板33では、半導体基板33内の+Y方向が、<100>方向となっている。
 本実施形態のトランジスタTr2は、p型平面トランジスタであり、X方向に並んだソース拡散層33aおよびドレイン拡散層33bと、Y方向に延びるゲート電極36とを備えている(図13のB)。よって、本実施形態のトランジスタTr2のチャネル方向は、+X方向となっており、<100>方向に平行となっている。
 p型平面トランジスタの性能は、チャネル方向をシリコン基板の<100>方向に平行にすることで向上する。一方、本実施形態の半導体基板33は、上述のように<100>ノッチ基板となっている。よって、本実施形態によれば、X方向に並んだソース拡散層33aおよびドレイン拡散層33bを半導体基板33内に形成することで、チャネル方向を<100>方向に平行にすることが可能となり、これによりトランジスタTr2の性能を向上させることが可能となる。
 図14は、第5実施形態の変形例の固体撮像装置の構造を示す断面図と平面図である。
 図14のAおよびBはそれぞれ、図13のAおよびBに対応している。本変形例の固体撮像装置は、第5実施形態の固体撮像装置から半導体基板33および絶縁層34を除いた構造を有しており、トランジスタTr2が、半導体基板33の表面ではなく半導体基板11の表面に形成されている。よって、トランジスタTr2のゲート絶縁膜は、絶縁膜34aから絶縁膜32aに置き換えられており、トランジスタTr2の拡散層は、半導体基板33内のソース拡散層33aおよびドレイン拡散層33bから、半導体基板11内のソース拡散層11cおよびドレイン拡散層11dに置き換えられている。本変形例によれば、半導体基板33の代わりに半導体基板11を使用することで、トランジスタTr2の性能を向上させることが可能となる。
 以上のように、本実施形態の固体撮像装置は、<100>ノッチ基板である半導体基板11に加えて、<100>ノッチ基板である半導体基板33を備えている。よって、本実施形態によれば、半導体基板11内に画素分離部32を好適に形成しつつ、半導体基板33の表面にp型平面トランジスタ(トランジスタTr2)を好適に形成することが可能となる。なお、このp型平面トランジスタは、上記変形例のように半導体基板11の表面に形成してもよい。
 (第6実施形態)
 図15は、第6実施形態の固体撮像装置の構造を示す断面図と平面図である。
 図15のAは、図10のAと同様に、図1の画素アレイ領域2内の1つの画素1の縦断面を示している。図15のBは、図10のBと同様に、半導体基板33やゲート電極36の構造を示す平面図である。
 本実施形態の固体撮像装置は、図15のAおよびBに示すように、第3実施形態の固体撮像装置と同じ構成要素を備えている。ただし、本実施形態の半導体基板33は、{100}面である表面および裏面を有しており、かつ、<110>ノッチ基板(0°ノッチ基板)となっている。よって、本実施形態の半導体基板33では、半導体基板33内の+Y方向が、<110>方向となっている。また、本実施形態のトランジスタTr2は、フィン型トランジスタであり、トランジスタTr2のゲート電極36は、半導体基板33外に設けられた平面部分36aと、半導体基板33内に設けられた複数のフィン部分36bとを含んでいる。
 本実施形態のトランジスタTr2は、図15のBに示すように、複数のソース拡散層33aと複数のドレイン拡散層33bとを半導体基板33内に備えており、ソース拡散層33aとドレイン拡散層33bとが、+X方向に対して+45°傾いた方向に並んでいる。また、本実施形態のゲート電極36は、図15のBに示すように、複数のフィン部分36bを半導体基板33内に備えており、これらのフィン部分36bが、+Y方向に対して+45°傾いた方向に延びている。よって、本実施形態のトランジスタTr2のチャネル方向は、+X方向に対して+45°傾いた方向となっており、<100>方向に平行となっており、かつ、本実施形態のトランジスタTr2のフィン側壁は、+Y方向に対して+45°傾いた方向に延びる半導体基板33の側面となっており、{100}面となっている。
 フィン型トランジスタの性能は、フィン側壁をシリコン基板の{100}面とすることで向上する。一方、本実施形態の半導体基板33は、上述のように<110>ノッチ基板となっている。よって、本実施形態によれば、上記の方向に延びるフィン部分36bを半導体基板33内に形成することで、フィン側壁を{100}面とすることが可能となり、これによりトランジスタTr2の性能を向上させることが可能となる。
 本実施形態の各画素1の平面形状は、X方向に延びる2つの辺と、Y方向に延びる2つの辺とを有する正方形(または長方形)となっている。第4実施形態のトランジスタTr2のようにフィン部分36bがY方向に延びる場合、フィン部分36bの長さは最大で、各画素1の平面形状の一辺の長さ程度となる。一方、本実施形態のトランジスタTr2のようにフィン部分36bが斜め方向に延びる場合、フィン部分36bの長さは最大で、各画素1の平面形状の一辺の長さの√2倍程度となる。このように、本実施形態によれば、フィン部分36bの長さを長くすることが可能となり、これによりトランジスタTr2の性能をさらに向上させることが可能となる。
 以上のように、本実施形態の固体撮像装置は、<100>ノッチ基板である半導体基板11に加えて、<110>ノッチ基板である半導体基板33を備えている。よって、本実施形態によれば、半導体基板11内に画素分離部32を好適に形成しつつ、半導体基板33の表面にフィン型トランジスタ(トランジスタTr2)を好適に形成することが可能となる。
 なお、本実施形態のトランジスタTr2のチャネル方向は、+X方向に対して+θだけ傾いた方向となっていてもよい(0°<θ<90°)。また、本実施形態のフィン部分36bは、+Y方向に対して+θだけ傾いた方向に延びていてもよい。このθの値は、45°以外の角度でもよい。
 (応用例)
 図16は、電子機器の構成例を示すブロック図である。図16に示す電気機器は、カメラ100である。
 カメラ100は、レンズ群などを含む光学部101と、第1~第6実施形態のいずれかの固体撮像装置である撮像装置102と、カメラ信号処理回路であるDSP(Digital Signal Processor)回路103と、フレームメモリ104と、表示部105と、記録部106と、操作部107と、電源部108とを備えている。また、DSP回路103、フレームメモリ104、表示部105、記録部106、操作部107、および電源部108は、バスライン109を介して相互に接続されている。
 光学部101は、被写体からの入射光(像光)を取り込んで、撮像装置102の撮像面上に結像する。撮像装置102は、光学部101により撮像面上に結像された入射光の光量を画素単位で電気信号に変換して、画素信号として出力する。
 DSP回路103は、撮像装置102により出力された画素信号について信号処理を行う。フレームメモリ104は、撮像装置102で撮像された動画または静止画の1画面を記憶しておくためのメモリである。
 表示部105は、例えば液晶パネルや有機ELパネルなどのパネル型表示装置を含んでおり、撮像装置102で撮像された動画または静止画を表示する。記録部106は、撮像装置102で撮像された動画または静止画を、ハードディスクや半導体メモリなどの記録媒体に記録する。
 操作部107は、ユーザによる操作の下に、カメラ100が持つ様々な機能について操作指令を発する。電源部108は、DSP回路103、フレームメモリ104、表示部105、記録部106、および操作部107の動作電源となる各種の電源を、これらの供給対象に対して適宜供給する。
 撮像装置102として、第1~第6実施形態のいずれかの固体撮像装置を使用することで、良好な画像の取得が期待できる。
 当該固体撮像装置は、その他の様々な製品に応用することができる。例えば、当該固体撮像装置は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットなどの種々の移動体に搭載されてもよい。
 図17は、移動体制御システムの構成例を示すブロック図である。図17に示す移動体制御システムは、車両制御システム200である。
 車両制御システム200は、通信ネットワーク201を介して接続された複数の電子制御ユニットを備える。図17に示した例では、車両制御システム200は、駆動系制御ユニット210と、ボディ系制御ユニット220と、車外情報検出ユニット230と、車内情報検出ユニット240と、統合制御ユニット250とを備えている。図17はさらに、統合制御ユニット250の構成部として、マイクロコンピュータ251と、音声画像出力部252と、車載ネットワークI/F(Interface)253とを示している。
 駆動系制御ユニット210は、各種プログラムに従って、車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット210は、内燃機関や駆動用モータなどの車両の駆動力を発生させるための駆動力発生装置や、駆動力を車輪に伝達するための駆動力伝達機構や、車両の舵角を調節するステアリング機構や、車両の制動力を発生させる制動装置などの制御装置として機能する。
 ボディ系制御ユニット220は、各種プログラムに従って、車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット220は、スマートキーシステム、キーレスエントリシステム、パワーウィンドウ装置、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー、フォグランプ)などの制御装置として機能する。この場合、ボディ系制御ユニット220には、鍵を代替する携帯機から発信される電波または各種スイッチの信号が入力され得る。ボディ系制御ユニット220は、このような電波または信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプなどを制御する。
 車外情報検出ユニット230は、車両制御システム200を搭載した車両の外部の情報を検出する。車外情報検出ユニット230には、例えば撮像部231が接続される。車外情報検出ユニット230は、撮像部231に車外の画像を撮像させると共に、撮像された画像を撮像部231から受信する。車外情報検出ユニット230は、受信した画像に基づいて、人、車、障害物、標識、路面上の文字などの物体検出処理または距離検出処理を行ってもよい。
 撮像部231は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部231は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。撮像部231が受光する光は、可視光であってもよいし、赤外線などの非可視光であってもよい。撮像部231は、第1~第6実施形態のいずれかの固体撮像装置を含んでいる。
 車内情報検出ユニット240は、車両制御システム200を搭載した車両の内部の情報を検出する。車内情報検出ユニット240には例えば、運転者の状態を検出する運転者状態検出部241が接続される。例えば、運転者状態検出部241は、運転者を撮像するカメラを含み、車内情報検出ユニット240は、運転者状態検出部241から入力される検出情報に基づいて、運転者の疲労度合いまたは集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。このカメラは、第1~第6実施形態のいずれかの固体撮像装置を含んでいてもよく、例えば、図16に示すカメラ100でもよい。
 マイクロコンピュータ251は、車外情報検出ユニット230または車内情報検出ユニット240で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構、または制動装置の制御目標値を演算し、駆動系制御ユニット210に対して制御指令を出力することができる。例えば、マイクロコンピュータ251は、車両の衝突回避、衝撃緩和、車間距離に基づく追従走行、車速維持走行、衝突警告、レーン逸脱警告などのADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ251は、車外情報検出ユニット230または車内情報検出ユニット240で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構、または制動装置を制御することにより、運転者の操作によらずに自律的に走行する自動運転などを目的とした協調制御を行うことができる。
 また、マイクロコンピュータ251は、車外情報検出ユニット230で取得される車外の情報に基づいて、ボディ系制御ユニット220に対して制御指令を出力することができる。例えば、マイクロコンピュータ251は、車外情報検出ユニット230で検知した先行車または対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替えるなどの防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部252は、車両の搭乗者または車外に対して視覚的または聴覚的に情報を通知することが可能な出力装置に、音声および画像のうちの少なくとも一方の出力信号を送信する。図17の例では、このような出力装置として、オーディオスピーカ261、表示部262、およびインストルメントパネル263が示されている。表示部262は例えば、オンボードディスプレイまたはヘッドアップディスプレイを含んでいてもよい。
 図18は、図17の撮像部231の設定位置の具体例を示す平面図である。
 図18に示す車両300は、撮像部231として、撮像部301、302、303、304、305を備えている。撮像部301、302、303、304、305は例えば、車両300のフロントノーズ、サイドミラー、リアバンパ、バックドア、車室内のフロントガラスの上部などの位置に設けられる。
 フロントノーズに備えられる撮像部301は、主として車両300の前方の画像を取得する。左のサイドミラーに備えられる撮像部302と、右のサイドミラーに備えられる撮像部303は、主として車両300の側方の画像を取得する。リアバンパまたはバックドアに備えられる撮像部304は、主として車両300の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部305は、主として車両300の前方の画像を取得する。撮像部305は例えば、先行車両、歩行者、障害物、信号機、交通標識、車線などの検出に用いられる。
 図18は、撮像部301、302、303、304(以下「撮像部301~304」と表記する)の撮像範囲の例を示している。撮像範囲311は、フロントノーズに設けられた撮像部301の撮像範囲を示す。撮像範囲312は、左のサイドミラーに設けられた撮像部302の撮像範囲を示す。撮像範囲313は、右のサイドミラーに設けられた撮像部303の撮像範囲を示す。撮像範囲314は、リアバンパまたはバックドアに設けられた撮像部304の撮像範囲を示す。例えば、撮像部301~304で撮像された画像データが重ね合わせられることにより、車両300を上方から見た俯瞰画像が得られる。以下、撮像範囲311、312、313、314を「撮像範囲311~314」と表記する。
 撮像部301~304の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部301~304の少なくとも1つは、複数の撮像装置を含むステレオカメラであってもよいし、位相差検出用の画素を有する撮像装置であってもよい。
 例えば、マイクロコンピュータ251(図17)は、撮像部301~304から得られた距離情報を基に、撮像範囲311~314内における各立体物までの距離と、この距離の時間的変化(車両300に対する相対速度)を算出する。マイクロコンピュータ251は、これらの算出結果に基づいて、車両300の進行路上にある最も近い立体物で、車両300とほぼ同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を、先行車として抽出することができる。さらに、マイクロコンピュータ251は、先行車の手前にあらかじめ確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように、この例によれば、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ251は、撮像部301~304から得られた距離情報を基に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ251は、車両300の周辺の障害物を、車両300のドライバが視認可能な障害物と、視認困難な障害物とに識別する。そして、マイクロコンピュータ251は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ261や表示部262を介してドライバに警報を出力することや、駆動系制御ユニット210を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部301~304の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ251は、撮像部301~304の撮像画像中に歩行者が存在するか否かを判定することで、歩行者を認識することができる。かかる歩行者の認識は例えば、赤外線カメラとしての撮像部301~304の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順により行われる。マイクロコンピュータ251が、撮像部301~304の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部252は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部262を制御する。また、音声画像出力部252は、歩行者を示すアイコン等を所望の位置に表示するように表示部262を制御してもよい。
 図19は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図19では、術者(医師)531が、内視鏡手術システム400を用いて、患者ベッド533上の患者532に手術を行っている様子が図示されている。図示するように、内視鏡手術システム400は、内視鏡500と、気腹チューブ511やエネルギー処置具512等の、その他の術具510と、内視鏡500を支持する支持アーム装置520と、内視鏡下手術のための各種の装置が搭載されたカート600と、から構成される。
 内視鏡500は、先端から所定の長さの領域が患者532の体腔内に挿入される鏡筒501と、鏡筒501の基端に接続されるカメラヘッド502と、から構成される。図示する例では、硬性の鏡筒501を有するいわゆる硬性鏡として構成される内視鏡500を図示しているが、内視鏡500は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒501の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡500には光源装置603が接続されており、当該光源装置603によって生成された光が、鏡筒501の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者532の体腔内の観察対象に向かって照射される。なお、内視鏡500は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド502の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)601に送信される。
 CCU601は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡500及び表示装置602の動作を統括的に制御する。さらに、CCU601は、カメラヘッド502から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置602は、CCU601からの制御により、当該CCU601によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置603は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡500に供給する。
 入力装置604は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置604を介して、内視鏡手術システム400に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡500による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置605は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具512の駆動を制御する。気腹装置606は、内視鏡500による視野の確保及び術者の作業空間の確保の目的で、患者532の体腔を膨らめるために、気腹チューブ511を介して当該体腔内にガスを送り込む。レコーダ607は、手術に関する各種の情報を記録可能な装置である。プリンタ608は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡500に術部を撮影する際の照射光を供給する光源装置603は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置603において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド502の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置603は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド502の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置603は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置603は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図20は、図19に示すカメラヘッド502及びCCU601の機能構成の一例を示すブロック図である。
 カメラヘッド502は、レンズユニット701と、撮像部702と、駆動部703と、通信部704と、カメラヘッド制御部705と、を有する。CCU601は、通信部711と、画像処理部712と、制御部713と、を有する。カメラヘッド502とCCU601とは、伝送ケーブル700によって互いに通信可能に接続されている。
 レンズユニット701は、鏡筒501との接続部に設けられる光学系である。鏡筒501の先端から取り込まれた観察光は、カメラヘッド502まで導光され、当該レンズユニット701に入射する。レンズユニット701は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部702は、撮像素子で構成される。撮像部702を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部702が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部702は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者531は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部702が多板式で構成される場合には、各撮像素子に対応して、レンズユニット701も複数系統設けられ得る。撮像部702は、例えば第1~第6実施形態のいずれかの固体撮像装置である。
 また、撮像部702は、必ずしもカメラヘッド502に設けられなくてもよい。例えば、撮像部702は、鏡筒501の内部に、対物レンズの直後に設けられてもよい。
 駆動部703は、アクチュエータによって構成され、カメラヘッド制御部705からの制御により、レンズユニット701のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部702による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部704は、CCU601との間で各種の情報を送受信するための通信装置によって構成される。通信部704は、撮像部702から得た画像信号をRAWデータとして伝送ケーブル700を介してCCU601に送信する。
 また、通信部704は、CCU601から、カメラヘッド502の駆動を制御するための制御信号を受信し、カメラヘッド制御部705に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU601の制御部713によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡500に搭載されていることになる。
 カメラヘッド制御部705は、通信部704を介して受信したCCU601からの制御信号に基づいて、カメラヘッド502の駆動を制御する。
 通信部711は、カメラヘッド502との間で各種の情報を送受信するための通信装置によって構成される。通信部711は、カメラヘッド502から、伝送ケーブル700を介して送信される画像信号を受信する。
 また、通信部711は、カメラヘッド502に対して、カメラヘッド502の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部712は、カメラヘッド502から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部713は、内視鏡500による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部713は、カメラヘッド502の駆動を制御するための制御信号を生成する。
 また、制御部713は、画像処理部712によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置602に表示させる。この際、制御部713は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部713は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具512の使用時のミスト等を認識することができる。制御部713は、表示装置602に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者531に提示されることにより、術者531の負担を軽減することや、術者531が確実に手術を進めることが可能になる。
 カメラヘッド502及びCCU601を接続する伝送ケーブル700は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル700を用いて有線で通信が行われていたが、カメラヘッド502とCCU601との間の通信は無線で行われてもよい。
 以上、本開示の実施形態について説明したが、これらの実施形態は、本開示の要旨を逸脱しない範囲内で、種々の変更を加えて実施してもよい。例えば、2つ以上の実施形態を組み合わせて実施してもよい。
 なお、本開示は、以下のような構成を取ることもできる。
 (1)
 第1半導体基板を含む第1基板と、
 前記第1半導体基板内に設けられた複数の光電変換部と、
 前記第1半導体基板内で前記光電変換部間に設けられた画素分離部とを備え、
 前記画素分離部の側面と前記第1半導体基板との界面は、{100}面を有する、固体撮像装置。
 (2)
 前記画素分離部は、絶縁膜を含む、(1)に記載の固体撮像装置。
 (3)
 前記画素分離部はさらに、遮光膜を含む、(2)に記載の固体撮像装置。
 (4)
 前記絶縁膜は、前記第1半導体基板に含まれる元素と、酸素とを含む、(2)に記載の固体撮像装置。
 (5)
 前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含む、(2)に記載の固体撮像装置。
 (6)
 前記画素分離部は、平面視で前記第1半導体基板の表面に平行な第1方向に延びる複数の第1部分と、前記第1半導体基板の表面に平行な第2方向に延びる複数の第2部分とを含む、(1)に記載の固体撮像装置。
 (7)
 前記平面視は、前記第1半導体基板の光入射面を視た状態に当たる、(5)に記載の固体撮像装置。
 (8)
 前記第1または第2方向は、前記第1半導体基板の<100>方向と平行である、(6)に記載の固体撮像装置。
 (9)
 前記画素分離部は、前記第1半導体基板を貫通する画素分離溝内に設けられている、(1)に記載の固体撮像装置。
 (10)
 前記画素分離部は、前記第1半導体基板を貫通しない画素分離溝内に設けられている、(1)に記載の固体撮像装置。
 (11)
 前記第1基板の光入射面とは反対側に設けられた第1絶縁層と、
 前記第1絶縁層と対向するように設けられた第2半導体基板を含む第2基板とをさらに備え、
 前記第2基板は、トランジスタを含む、(1)に記載の固体撮像装置。
 (12)
 前記画素分離部は、平面視で前記第1半導体基板の表面に平行な第1方向に延びる複数の第1部分と、前記第1半導体基板の表面に平行な第2方向に延びる複数の第2部分とを含む、(11)に記載の固体撮像装置。
 (13)
 前記第1または第2方向は、前記第2半導体基板の<110>方向に平行であり、
 前記トランジスタは、<110>方向に平行なチャネル方向を有するn型平面トランジスタである、(12)に記載の固体撮像装置。
 (14)
 前記第1または第2方向は、前記第2半導体基板の<100>方向に平行であり、
 前記トランジスタは、前記第2半導体基板の{100}面であるフィン側壁を有し、前記第1または第2方向に平行なチャネル方向を有するフィン型トランジスタである、(12)に記載の固体撮像装置。
 (15)
 前記第1または第2方向は、前記第2半導体基板の<100>方向に平行であり、
 前記トランジスタは、<100>方向に平行なチャネル方向を有するp型平面トランジスタである、(12)に記載の固体撮像装置。
 (16)
 前記第1または第2方向は、前記第2半導体基板の<110>方向に平行であり、
 前記トランジスタは、前記第2半導体基板の{100}面であるフィン側壁を有し、前記第1および第2方向に非平行なチャネル方向を有するフィン型トランジスタである、(12)に記載の固体撮像装置。
 (17)
 第1半導体基板を含む第1基板と、
 前記第1半導体基板内に設けられた複数の光電変換部と、
 前記第1半導体基板内で前記光電変換部間に設けられた画素分離部とを備え、
 前記画素分離部は、絶縁膜を含み、 
 前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含む、固体撮像装置。
 (18)
 第1基板の第1半導体基板内に複数の光電変換部を形成し、
 前記第1半導体基板内で前記光電変換部間に画素分離部を形成する、
 ことを含み、
 前記画素分離部は、前記画素分離部の側面と前記第1半導体基板との界面が、{100}面を有するように形成される、固体撮像装置の製造方法。
 (19)
 前記画素分離部は、絶縁膜を含むように形成される、(18)に記載の固体撮像装置の製造方法。
 (20)
 前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含むように形成される、(19)に記載の固体撮像装置の製造方法。
 1:画素、2:画素アレイ領域、3:制御回路、
 4:垂直駆動回路、5:カラム信号処理回路、6:水平駆動回路、
 7:出力回路、8:垂直信号線、9:水平信号線、
 11:半導体基板、11’:基板、11a:チップ領域、11b:ダイシング領域、
 11c:ソース拡散層、11d:ドレイン拡散層、
 12:光電変換部、13:n型半導体領域、14:p型半導体領域、
 21:画素分離溝、21a:第1線状部分、21b:第2線状部分、
 22:画素分離部、22a:第1線状部分、22b:第2線状部分、
 23:絶縁膜、23a:第1部分、23b:第2部分、24:遮光膜、
 25:遮光膜、26:平坦化膜、27:カラーフィルタ、28:オンチップレンズ、
 31:基板、32:絶縁層、32a:絶縁膜、32b:層間絶縁膜、
 33:半導体基板、33’:基板、33a:ソース拡散層、33b:ドレイン拡散層、
 34:絶縁層、34a:絶縁膜、34b:層間絶縁膜、
 35:ゲート電極、36:ゲート電極、36a:平面部分、36b:フィン部分、
 41:プラグ、42:絶縁膜、43:プラグ、44:配線層

Claims (20)

  1.  第1半導体基板を含む第1基板と、
     前記第1半導体基板内に設けられた複数の光電変換部と、
     前記第1半導体基板内で前記光電変換部間に設けられた画素分離部とを備え、
     前記画素分離部の側面と前記第1半導体基板との界面は、{100}面を有する、固体撮像装置。
  2.  前記画素分離部は、絶縁膜を含む、請求項1に記載の固体撮像装置。
  3.  前記画素分離部はさらに、遮光膜を含む、請求項2に記載の固体撮像装置。
  4.  前記絶縁膜は、前記第1半導体基板に含まれる元素と、酸素とを含む、請求項2に記載の固体撮像装置。
  5.  前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含む、請求項2に記載の固体撮像装置。
  6.  前記画素分離部は、平面視で前記第1半導体基板の表面に平行な第1方向に延びる複数の第1部分と、前記第1半導体基板の表面に平行な第2方向に延びる複数の第2部分とを含む、請求項1に記載の固体撮像装置。
  7.  前記平面視は、前記第1半導体基板の光入射面を視た状態に当たる、請求項5に記載の固体撮像装置。
  8.  前記第1または第2方向は、前記第1半導体基板の<100>方向と平行である、請求項6に記載の固体撮像装置。
  9.  前記画素分離部は、前記第1半導体基板を貫通する画素分離溝内に設けられている、請求項1に記載の固体撮像装置。
  10.  前記画素分離部は、前記第1半導体基板を貫通しない画素分離溝内に設けられている、請求項1に記載の固体撮像装置。
  11.  前記第1基板の光入射面とは反対側に設けられた第1絶縁層と、
     前記第1絶縁層と対向するように設けられた第2半導体基板を含む第2基板とをさらに備え、
     前記第2基板は、トランジスタを含む、請求項1に記載の固体撮像装置。
  12.  前記画素分離部は、平面視で前記第1半導体基板の表面に平行な第1方向に延びる複数の第1部分と、前記第1半導体基板の表面に平行な第2方向に延びる複数の第2部分とを含む、請求項11に記載の固体撮像装置。
  13.  前記第1または第2方向は、前記第2半導体基板の<110>方向に平行であり、
     前記トランジスタは、<110>方向に平行なチャネル方向を有するn型平面トランジスタである、請求項12に記載の固体撮像装置。
  14.  前記第1または第2方向は、前記第2半導体基板の<100>方向に平行であり、
     前記トランジスタは、前記第2半導体基板の{100}面であるフィン側壁を有し、前記第1または第2方向に平行なチャネル方向を有するフィン型トランジスタである、請求項12に記載の固体撮像装置。
  15.  前記第1または第2方向は、前記第2半導体基板の<100>方向に平行であり、
     前記トランジスタは、<100>方向に平行なチャネル方向を有するp型平面トランジスタである、請求項12に記載の固体撮像装置。
  16.  前記第1または第2方向は、前記第2半導体基板の<110>方向に平行であり、
     前記トランジスタは、前記第2半導体基板の{100}面であるフィン側壁を有し、前記第1および第2方向に非平行なチャネル方向を有するフィン型トランジスタである、請求項12に記載の固体撮像装置。
  17.  第1半導体基板を含む第1基板と、
     前記第1半導体基板内に設けられた複数の光電変換部と、
     前記第1半導体基板内で前記光電変換部間に設けられた画素分離部とを備え、
     前記画素分離部は、絶縁膜を含み、 
     前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含む、固体撮像装置。
  18.  第1基板の第1半導体基板内に複数の光電変換部を形成し、
     前記第1半導体基板内で前記光電変換部間に画素分離部を形成する、
     ことを含み、
     前記画素分離部は、前記画素分離部の側面と前記第1半導体基板との界面が、{100}面を有するように形成される、固体撮像装置の製造方法。
  19.  前記画素分離部は、絶縁膜を含むように形成される、請求項18に記載の固体撮像装置の製造方法。
  20.  前記絶縁膜は、平面視で第1の膜厚を有する第1部分と、前記画素分離部の角部に設けられ、前記第1の膜厚よりも厚い第2の膜厚を有する第2部分とを含むように形成される、請求項19に記載の固体撮像装置の製造方法。
PCT/JP2021/044625 2020-12-25 2021-12-06 固体撮像装置およびその製造方法 WO2022138097A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP21910247.2A EP4270451A1 (en) 2020-12-25 2021-12-06 Solid-state imaging device and method for manufacturing same
CN202180085150.5A CN116670804A (zh) 2020-12-25 2021-12-06 固态摄像装置及其制造方法
JP2022572071A JPWO2022138097A1 (ja) 2020-12-25 2021-12-06
US18/257,921 US20240006446A1 (en) 2020-12-25 2021-12-06 Solid-state imaging device and method for manufacturing the same
KR1020237019258A KR20230123941A (ko) 2020-12-25 2021-12-06 고체 촬상 장치 및 그 제조 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020217541 2020-12-25
JP2020-217541 2020-12-25

Publications (1)

Publication Number Publication Date
WO2022138097A1 true WO2022138097A1 (ja) 2022-06-30

Family

ID=82159537

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044625 WO2022138097A1 (ja) 2020-12-25 2021-12-06 固体撮像装置およびその製造方法

Country Status (7)

Country Link
US (1) US20240006446A1 (ja)
EP (1) EP4270451A1 (ja)
JP (1) JPWO2022138097A1 (ja)
KR (1) KR20230123941A (ja)
CN (1) CN116670804A (ja)
TW (1) TW202226564A (ja)
WO (1) WO2022138097A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175494A (ja) 2011-03-02 2013-09-05 Sony Corp 固体撮像装置、固体撮像装置の製造方法及び電子機器
US20160268321A1 (en) * 2015-03-11 2016-09-15 Samsung Electronics Co., Ltd. Image sensor devices using offset pixel patterns
JP2018148116A (ja) 2017-03-08 2018-09-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、および電子機器
WO2019093151A1 (ja) * 2017-11-09 2019-05-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、および電子機器
WO2020170936A1 (ja) * 2019-02-20 2020-08-27 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013175494A (ja) 2011-03-02 2013-09-05 Sony Corp 固体撮像装置、固体撮像装置の製造方法及び電子機器
US20160268321A1 (en) * 2015-03-11 2016-09-15 Samsung Electronics Co., Ltd. Image sensor devices using offset pixel patterns
JP2018148116A (ja) 2017-03-08 2018-09-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、および電子機器
WO2019093151A1 (ja) * 2017-11-09 2019-05-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、および電子機器
WO2020170936A1 (ja) * 2019-02-20 2020-08-27 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Also Published As

Publication number Publication date
JPWO2022138097A1 (ja) 2022-06-30
CN116670804A (zh) 2023-08-29
US20240006446A1 (en) 2024-01-04
KR20230123941A (ko) 2023-08-24
TW202226564A (zh) 2022-07-01
EP4270451A1 (en) 2023-11-01

Similar Documents

Publication Publication Date Title
US11869914B2 (en) Image sensor and method for manufacturing image sensor
WO2020012824A1 (ja) 固体撮像素子および電子機器
WO2020137203A1 (ja) 撮像素子および撮像装置
JP2022093359A (ja) 測距素子
WO2019155782A1 (ja) 半導体装置および半導体装置の製造方法
US20230103730A1 (en) Solid-state imaging device
WO2021100332A1 (ja) 半導体装置、固体撮像装置及び電子機器
WO2019188131A1 (ja) 半導体装置および半導体装置の製造方法
WO2022009627A1 (ja) 固体撮像装置および電子機器
KR20240037943A (ko) 촬상 장치
WO2021186907A1 (ja) 固体撮像装置及びその製造方法、並びに電子機器
US20220311943A1 (en) Imaging element and imaging apparatus
US20220254823A1 (en) Imaging device
WO2020195180A1 (ja) 撮像素子および撮像装置
WO2022138097A1 (ja) 固体撮像装置およびその製造方法
WO2022130987A1 (ja) 固体撮像装置およびその製造方法
US20240038807A1 (en) Solid-state imaging device
WO2022085695A1 (ja) 固体撮像装置
WO2024024269A1 (ja) 固体撮像装置およびその製造方法
WO2022249678A1 (ja) 固体撮像装置およびその製造方法
WO2023021787A1 (ja) 光検出装置およびその製造方法
WO2023080011A1 (ja) 撮像装置及び電子機器
WO2022201745A1 (ja) 固体撮像装置及び固体撮像装置の製造方法
US20230170360A1 (en) Imaging apparatus and electronic device
WO2020090384A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21910247

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022572071

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180085150.5

Country of ref document: CN

Ref document number: 18257921

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021910247

Country of ref document: EP

Effective date: 20230725