WO2023112465A1 - 固体撮像素子及び電子機器 - Google Patents

固体撮像素子及び電子機器 Download PDF

Info

Publication number
WO2023112465A1
WO2023112465A1 PCT/JP2022/038761 JP2022038761W WO2023112465A1 WO 2023112465 A1 WO2023112465 A1 WO 2023112465A1 JP 2022038761 W JP2022038761 W JP 2022038761W WO 2023112465 A1 WO2023112465 A1 WO 2023112465A1
Authority
WO
WIPO (PCT)
Prior art keywords
color filter
light shielding
pixel
light
type
Prior art date
Application number
PCT/JP2022/038761
Other languages
English (en)
French (fr)
Inventor
莉乃 高橋
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023112465A1 publication Critical patent/WO2023112465A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to solid-state imaging devices and electronic devices.
  • Solid-state imaging devices such as back-illuminated CMOS (Complementary Metal Oxide Semiconductor) image sensors widely adopt the global shutter method, which is advantageous for dynamic imaging.
  • CMOS Complementary Metal Oxide Semiconductor
  • the light shielding portion for reducing the PLS noise described above is processed and formed on the semiconductor substrate, there is a concern that dark current characteristics may deteriorate due to damage to the semiconductor substrate during processing and formation.
  • it is effective to implant impurities around the processed portion of the semiconductor substrate to generate P-type crystals.
  • the present disclosure has been made in view of the circumstances described above, and provides a technique that is advantageous in suppressing obstruction of the flow of electrons in the photoelectric conversion unit while effectively reducing PLS noise.
  • the first type color filter section may be the R color filter section
  • the second type color filter section may be the G color filter section.
  • the color filter may have a Bayer arrangement.
  • the first light shielding member includes a third light shielding portion extending in the depth direction, a photoelectric conversion portion of the first type pixel and a photoelectric conversion portion of the second type pixel extending in the width direction and viewed from above in the depth direction. and a fourth light shielding portion arranged at a position partially overlapping with both the photoelectric conversion portions of the first type pixels and the photoelectric conversion portions of the second type pixels. may be arranged at a position different in the depth direction from the second light shielding part.
  • the solid-state imaging device is arranged on a side closer to the color filter than the charge transfer section, and is arranged between the photoelectric conversion section of the first type pixel and the photoelectric conversion section of the second type pixel and extends in the depth direction. may be provided.
  • the first light shielding member includes a first light shielding portion extending in the depth direction of the substrate, and a width direction orthogonal to the depth direction and extending in the depth direction in plan view.
  • the present invention relates to an electronic device that is arranged at a position that does not overlap a first type color filter and overlaps a second type color filter when viewed from above in a depth direction.
  • a back-illuminated solid-state image sensor has a light-receiving surface that receives light from a subject and a wiring layer that includes wiring such as transistors that drive each pixel. It is a solid-state imaging device in which a photoelectric conversion unit such as a photodiode that converts into a signal is arranged for each pixel. It should be noted that the present disclosure may also be applied to solid-state imaging devices of imaging systems other than CMOS solid-state imaging devices.
  • the imaging device 101 in FIG. 1 includes a pixel array section 111 in which a plurality of sensor pixels 121 that perform photoelectric conversion are arranged in a matrix, that is, in a two-dimensional plane.
  • the sensor pixels 121 correspond to one specific example of "pixels" in the present disclosure. Pixel signals photoelectrically converted by the pixel array unit 111 are read out through a readout circuit.
  • the imaging device 101 includes, for example, a pixel array unit 111, a vertical driving unit 112, a ramp wave module 113, a column signal processing unit 114, a clock module 115, a data storage unit 116, a horizontal driving unit 117, a system control unit 118, and a signal processing unit.
  • a section 119 is provided.
  • the imaging device 101 is composed of a single or multiple semiconductor substrates.
  • the imaging device 101 can be configured by electrically connecting another semiconductor substrate on which other elements are formed to a semiconductor substrate on which the pixel array section 111 is formed by Cu—Cu bonding or the like.
  • the separate semiconductor substrate referred to here includes, for example, the vertical drive section 112, the ramp wave module 113, the column signal processing section 114, the clock module 115, the data storage section 116, the horizontal drive section 117, the system control section 118, and the signal processing section. 119, etc. can be formed.
  • the pixel array section 111 has a plurality of sensor pixels 121 including photoelectric conversion elements that generate and accumulate electric charges according to the amount of incident light. These sensor pixels 121 are arranged in the horizontal direction (row direction) and the vertical direction (column direction), respectively, as shown in FIG.
  • the pixel driving lines 122 are wired along the row direction for each pixel row composed of the sensor pixels 121 arranged in a line in the row direction, and the sensor pixels 121 are arranged in a line in the column direction.
  • a vertical signal line 123 is wired along the column direction for each pixel column.
  • the vertical driving section 112 is composed of a shift register, an address decoder, and the like.
  • the vertical driving section 112 supplies signals and the like to the plurality of sensor pixels 121 via the plurality of pixel drive lines 122, thereby simultaneously driving all of the plurality of sensor pixels 121 in the pixel array section 111, or It is driven in units of pixel rows.
  • the ramp wave module 113 generates a ramp wave signal used for A/D (Analog/Digital) conversion of pixel signals and supplies it to the column signal processing unit 114 .
  • the column signal processing unit 114 includes, for example, a shift register and an address decoder, and performs noise removal processing, correlated double sampling processing, A/D conversion processing, and the like to generate pixel signals.
  • the column signal processing unit 114 supplies the generated pixel signals to the signal processing unit 119 .
  • the clock module 115 supplies clock signals for operation to each unit of the imaging device 101 .
  • the horizontal driving section 117 sequentially selects unit circuits corresponding to the pixel columns of the column signal processing section 114 . By selective scanning by the horizontal drive unit 117 , pixel signals that have undergone signal processing for each unit circuit in the column signal processing unit 114 are sequentially output to the signal processing unit 119 .
  • the signal processing unit 119 performs signal processing such as arithmetic processing on the pixel signals supplied from the column signal processing unit 114 while temporarily storing data in the data storage unit 116 as necessary. It outputs an image signal consisting of
  • the read circuit 120 shown in FIG. 2 has four transfer transistors TRZ, TRY, TRX, TRG, an ejection transistor OFG, a reset transistor RST, an amplification transistor AMP, and a selection transistor SEL. These transistors are N-type MOS transistors.
  • the reset transistor RST, amplification transistor AMP, and selection transistor SEL are formed on a semiconductor substrate different from the semiconductor substrate on which the pixel array section 111 is arranged.
  • the transfer transistor TRZ is connected to the photodiode PD in the sensor pixel 121, and transfers the charge (pixel signal) photoelectrically converted by the photodiode PD to the transfer transistor TRY.
  • the transfer transistor TRZ is assumed to be a vertical transistor and has a vertical gate electrode (vertical electrode 22 described later).
  • the transfer transistor TRY transfers the charges transferred from the transfer transistor TRZ to the transfer transistor TRX.
  • the transfer transistor TRY and the transfer transistor TRX may be replaced with one transfer transistor.
  • a charge holding unit (MEM) 21 is connected to the transfer transistor TRY and the transfer transistor TRX.
  • the potential of the charge holding portion (MEM) 21 is controlled by control signals applied to the gate electrodes of the transfer transistor TRY and the transfer transistor TRX. For example, when the transfer transistor TRY and the transfer transistor TRX are turned on, the potential of the charge holding portion (MEM) 21 deepens. When the transfer transistor TRY and the transfer transistor TRX are turned off, the potential of the charge holding portion (MEM) 21 becomes shallow.
  • the transfer transistors TRZ, TRY, and TRX are turned on, the charges accumulated in the photodiodes PD are transferred to the charge holding unit (MEM) 21 via the transfer transistors TRZ, TRY, and TRX.
  • the drain of the transfer transistor TRX is electrically connected to the source of the transfer transistor TRG, and the gates of the transfer transistor TRY and the transfer transistor TRX are connected to the pixel drive line.
  • the floating diffusion FD is a floating diffusion region that temporarily holds charges output from the photodiode PD via the transfer transistor TRG.
  • a reset transistor RST is connected to the floating diffusion FD, and a vertical signal line VSL is connected via an amplification transistor AMP and a selection transistor SEL.
  • the amplification transistor AMP has a gate electrode connected to the floating diffusion FD and a drain connected to the power supply line VDD, and serves as an input part of a source follower circuit that reads out charges obtained by photoelectric conversion in the photodiode PD. That is, the amplification transistor AMP configures a constant current source and a source follower circuit connected to one end of the vertical signal line VSL by connecting the source to the vertical signal line VSL via the selection transistor SEL.
  • FIG. 3 is a cross-sectional view showing a schematic configuration of part of an example of the imaging device 101 (two adjacent sensor pixels 121).
  • the imaging device 101 shown in FIG. 3 includes, as semiconductor substrates, a first semiconductor substrate SB1, a second semiconductor substrate SB2, and a third semiconductor substrate SB3 which are stacked on each other.
  • Sensor pixels 121 are formed on the first semiconductor substrate SB1.
  • a wiring layer 80 and an insulating layer 81 are formed on the second semiconductor substrate SB2.
  • a plurality of pixel drive lines 122 and a plurality of vertical signal lines 123 are formed in the wiring layer 80 .
  • the periphery of the wiring layer 80 is covered with an insulating layer 81 .
  • the first semiconductor substrate SB ⁇ b>1 and the second semiconductor substrate SB ⁇ b>2 are electrically connected to each other by a through wire 82 .
  • the second semiconductor substrate SB2 and the third semiconductor substrate BP3 are electrically connected by a Cu--Cu junction 83, for example.
  • the specific configurations of the first semiconductor substrate SB1 to the third semiconductor substrate B3 are not limited.
  • the circuit configuration shown in FIG. 2 can be formed in the first semiconductor substrate SB1 and the second semiconductor substrate SB2.
  • the photoelectric conversion portion 15, the charge holding portion 21, the transfer transistor TRZ, the transfer transistor TRY, the transfer transistor TRX, and the transfer transistor TRG shown in FIG. 2 can be formed on the first semiconductor substrate SB1.
  • the discharge transistor OFG, floating diffusion FD, reset transistor RST, amplification transistor AMP, and selection transistor SEL shown in FIG. 2 can be formed on the second semiconductor substrate SB2.
  • a logic circuit, a wiring layer and an insulating layer can be formed on the third semiconductor substrate BP3.
  • the logic circuit includes, for example, the vertical driving unit 112, the ramp wave module 113, the column signal processing unit 114, the clock module 115, the data storage unit 116, the horizontal driving unit 117, the system control unit 118 and the signal processing unit 119 shown in FIG. can have The periphery of the logic circuit and wiring layer is covered with an insulating layer.
  • a signal processing circuit such as a DSP (Digital Signal Processor) (see peripheral circuits such as the signal processing unit 119 in FIG. 1) can have any form on a semiconductor substrate.
  • the signal processing circuit may be formed in the semiconductor layer of the second semiconductor substrate SB2 (typically, the peripheral area outside the effective pixel area), or the third semiconductor substrate stacked on the second semiconductor substrate SB2. It may be formed in SB3.
  • the semiconductor substrate is not limited to the configuration illustrated in FIG. 3, and may have any configuration.
  • the number of stacked semiconductor substrates is not limited, and only two semiconductor substrates (for example, first semiconductor substrate SB1 and second semiconductor substrate SB2) may be provided as semiconductor substrates of imaging device 101 .
  • the X direction, Y direction and Z direction are orthogonal to each other.
  • the row direction and column direction in which the plurality of sensor pixels 121 are arranged in the pixel array section 111 described above correspond to the X direction and the Y direction, respectively.
  • FIG. 4 is an enlarged cross-sectional view schematically showing an example of the solid-state imaging device 10 (especially the effective pixel area) according to the first embodiment.
  • FIG. 5 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 1 schematically shows an arrangement example of the light shielding portion 31b.
  • FIG. 6 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 4, omitting the illustration of the color filter CF, and the arrangement of the photoelectric conversion section 15, the pixel separation section 20, the vertical electrode 22, and the second light shielding section 31b. An example is shown schematically.
  • each element is shown ignoring the positional relationship in the Z direction in order to facilitate understanding of the arrangement relationship of each element.
  • the solid-state imaging device 10 shown in FIGS. 4 to 6 includes a light-receiving lens LNS, a color filter CF, and a semiconductor substrate SB which are stacked in the depth direction Dh (Z direction).
  • the back surface (upper surface in FIG. 4) of the semiconductor substrate SB forms a light-receiving surface on which light from a subject is incident, and is covered with a color filter CF.
  • the light receiving lens LNS is configured as an on-chip microlens that is an aggregate of a plurality of convex lenses. Light (photographing light) from a subject is condensed by each convex lens and guided to the corresponding sensor pixel 121 .
  • the color filter CF includes a plurality of color filter units assigned to each of the plurality of sensor pixels 121. These multiple color filter sections are classified into multiple types with different transmission wavelength ranges.
  • the color filter CF of this embodiment includes an R filter section CFr, a G filter section CFg, and a B filter section CFb.
  • the R filter part CFr selectively transmits light in the red wavelength range
  • the G filter part CFg selectively transmits light in the green wavelength range
  • the B filter part CFb selectively transmits light in the blue wavelength range. pass through. Therefore, the R filter portion CFr constitutes a first type color filter portion that transmits light in the wavelength band on the longest wavelength side.
  • the G filter portion CFg constitutes a second type color filter portion that transmits light in a wavelength range shorter than the light transmission wavelength range of the R filter portion CFr.
  • the B filter portion CFb constitutes a third type color filter portion that transmits light in a wavelength range shorter than the light transmission wavelength range of the G filter portion CFg.
  • the semiconductor substrate SB includes a plurality of sensor pixels 121 (ie R pixels 121R, G pixels 121G and B pixels 121B). Each sensor pixel 121 has a photoelectric conversion portion 15 , a charge retention portion (MEM) 21 and a vertical electrode (gate electrode) 22 .
  • MEM charge retention portion
  • gate electrode vertical electrode
  • sensor pixel 121 can also be used to indicate a set of elements formed on the semiconductor substrate SB, and in addition to the elements formed on the semiconductor substrate SB, the color filter CF and/or the light receiving lens LNS can be used. It can also be used to refer to a containing set.
  • the photoelectric conversion section 15 is partitioned so as to be electrically isolated by the pixel separation section 20, and performs photoelectric conversion of light incident from the color filter CF to generate charges (electrons).
  • the charges generated in the photoelectric conversion section 15 move toward the vertical electrodes 22 in the photoelectric conversion section 15 and are collected by the vertical electrodes 22 .
  • the photoelectric conversion section 15 may include an N-type semiconductor region and a P-type semiconductor region, or may include a plurality of N-type semiconductor regions and/or a plurality of P-type semiconductor regions with different impurity concentrations.
  • the charge holding portion 21 is a region that temporarily holds charges generated by the photoelectric conversion portion 15 in order to realize a global shutter function. For example, by adjusting the potential of the charge holding portion 21 with a transfer transistor (not shown) provided between the vertical electrode 22 and the charge holding portion 21, the charge is transferred from the vertical electrode 22 to the charge holding portion 21, It is possible to control the delivery of charges from the charge holding unit 21 .
  • the charges sent out from the charge holding unit 21 are subjected to various kinds of processing (see the ramp wave module 113 and the column signal processing unit 114 shown in FIG. 1) as necessary, and then converted into pixel signals by the signal processing unit 119 (see FIG. 1). sent to
  • the solid-state imaging device 10 of this embodiment further includes a first light shielding member 31 and a second light shielding member 32 provided in the pixel separation section 20 .
  • the first light shielding member 31 and the second light shielding member 32 shown in FIG. 4 are embedded in the pixel separation section 20 and isolated from the photoelectric conversion section 15 via the pixel separation section 20 .
  • the light shielding member (the first light shielding member 31, the second light shielding member 32, and the third light shielding member 33, which will be described later) referred to here has excellent light absorption or reflection characteristics and suppresses light transmission. It is not necessary to completely block all light (eg, visible light).
  • the light shielding members (first light shielding member 31, second light shielding member 32, and third light shielding member 33, which will be described later) may have the same composition or may have different compositions.
  • the light shielding member can be made of, for example, a light shielding material containing at least one of a single metal, a metal alloy, a metal nitride, and a metal silicide.
  • the first light shielding member 31 is arranged between adjacent pixels (between the R pixel 121R and the G pixel 121G in FIG. 4) on the side closer to the color filter CF than the vertical electrode 22 is. As a result, leakage of light between adjacent pixels can be suppressed, and color mixture between pixels can be prevented.
  • the second light shielding member 32 is arranged between the photoelectric conversion section 15 and the charge holding section 21 so as to cover the charge holding section 21 .
  • the incidence of light on the charge holding portion 21 is suppressed, and noise caused by the light can be prevented from being generated in the charges held in the charge holding portion 21 .
  • the first light shielding member 31 has different structures depending on the relative positions of adjacent pixel types (especially adjacent pixel types including the R pixel 121R).
  • the first light shielding member 31 is connected to the first light shielding portion 31a extending in the depth direction Dh from the light receiving surface of the semiconductor substrate SB and the width direction Dw perpendicular to the depth direction Dh. and a second light shielding portion 31b extending to the The second light shielding portion 31b is arranged at a position overlapping with the vertical electrode 22 (charge transfer portion) of the R pixel 121R (first type pixel) when viewed from above in the depth direction Dh (Z direction).
  • the second light shielding portion 31b having such an arrangement can prevent the light incident on the photoelectric conversion portion 15 via the color filter CF (especially the R filter portion CFr) from entering the vertical electrode 22. PLS noise can be effectively reduced. Note that the light reflected by the second light shielding portion 31b can generate charges when passing through the photoelectric conversion portion 15, so the second light shielding portion 31b can improve the photoelectric conversion efficiency.
  • the region of the photoelectric conversion unit 15 that overlaps the R filter portion CFr in the depth direction Dh can be R pixels.
  • the volume of the photoelectric conversion portion 15 of the G pixel 121G adjacent to the R pixel 121R is smaller than the volume of the photoelectric conversion portion 15 of the R pixel 121R.
  • the photoelectric conversion unit 15 generally has a higher sensitivity to green light than to red light, the reduction in volume of the photoelectric conversion unit 15 of the G pixel 121G has little adverse effect on the captured image.
  • the charge holding unit 21 of the G pixel 121G has enough capacity to acquire a captured image. It is possible to accumulate a sufficient amount of charge for a limited amount of time.
  • a second light shielding portion 31b covering the vertical electrode 22 of the R pixel 121R is provided in the pixel separation portion 20 located on one side in the X direction (left side in FIG. 4) with respect to the photoelectric conversion portion 15 of the R pixel 121R.
  • the pixel separation section 20 located on the other side in the X direction (on the right side in FIG. 4) with respect to the photoelectric conversion section 15 of the R pixel 121R is not provided with the second light shielding section 31b.
  • An extending third light shielding portion 31 c is provided as the first light shielding member 31 .
  • the pixel separating portion 20 on one side in the X direction (left side in FIG. 4) with respect to the photoelectric conversion portion 15 of the R pixel 121R has a vertical portion 20a extending linearly in the depth direction Dh and and a lateral portion 20b linearly protruding in the width direction Dw.
  • a first light shielding portion 31a is positioned in the vertical portion 20a, and a second light shielding portion 31b is positioned in the horizontal portion 20b.
  • the pixel separation section 20 on the other side in the X direction (the right side in FIG. 4) with respect to the photoelectric conversion section 15 of the R pixel 121R includes a first vertical portion 20c, a horizontal portion 20d, a second vertical portion 20e, and a covering portion 20f.
  • the first vertical portion 20c linearly extends in the depth direction Dh from the back surface (light receiving surface) of the semiconductor substrate SB.
  • the horizontal portion 20d extends linearly in the width direction Dw from the end of the first vertical portion 20c.
  • the second vertical portion 20e extends linearly in the depth direction Dh from the end of the horizontal portion 20d.
  • the covering portion 20f extends in the depth direction Dh from the end of the second vertical portion 20e and covers the charge holding portions 21 of the adjacent R pixels 121R and G pixels 121G.
  • the first vertical portion 20c and the third light blocking portion 31c embedded in the first vertical portion 20c are positioned closer to the color filter CF than the horizontal portion 20b and the second light blocking portion 31b in the depth direction Dh. do.
  • the covering portion 20f and the second light shielding member 32 embedded in the covering portion 20f are located farther from the color filter CF than the lateral portion 20b and the second light shielding portion 31b in the depth direction Dh.
  • the pixel separating portion 20 that partitions the photoelectric conversion portions 15 of the B pixels 121B and the photoelectric conversion portions 15 of the G pixels 121G that are adjacent in the X direction may have any shape (for example, the same shape as the third light shielding portion 31c in FIG. 1).
  • a first light shielding member 31 having a shape extending in the depth direction Dh is provided.
  • the vertical electrode 22 of the R pixel 121R is covered with the second light shielding portion 31b and shielded from light.
  • the vertical electrodes 22 of the G pixel 121G and the B pixel 121B are not covered with the second light shielding portion 31b and are not shielded from light.
  • the distance L1 in the depth direction Dh between the light receiving surface of the photoelectric conversion section 15 and the vertical electrode 22 is sufficiently long, and the green light and blue light incident on the photoelectric conversion section 15 are attenuated in the photoelectric conversion section 15.
  • the vertical electrodes 22 are substantially not reached or hardly reached.
  • the photoelectric conversion section 15 for example, monocrystalline silicon
  • light with a shorter wavelength is more likely to be absorbed and attenuated by the photoelectric conversion section 15
  • light with a longer wavelength is less attenuated in the photoelectric conversion section 15 and is absorbed deeper into the photoelectric conversion section 15 .
  • the inventor of the present invention performed photoelectric conversion of single-crystal silicon for red light that passed through the R filter section CFr, green light that passed through the G filter section CFg, and blue light that passed through the B filter section CFb. Verification of reachable depth in part 15 was performed. As a result, the light intensity of the blue light was attenuated to almost 0% at a depth of 2 ⁇ m from the light receiving surface of the single crystal silicon. Moreover, the light intensity of the green light was attenuated to almost 0% at a depth of 5 ⁇ m from the light receiving surface of the single crystal silicon. On the other hand, red light showed a light intensity of nearly 40% at a depth of 5 ⁇ m from the light receiving surface of single crystal silicon.
  • the distance L1 in the depth direction Dh between the light receiving surface of the photoelectric conversion section 15 and the vertical electrode 22 is 10% or less, more preferably 5% or less, and more preferably 1% or less for the light intensity of blue light and green light, for example.
  • each of the second light shielding portions 31b of this example having the above-described configuration is a triangle (especially two sides extending along the X direction and the Y direction and intersecting each other). It has a planar shape of an isosceles right triangle).
  • the vertical electrode 22 of each R pixel 121R is located in a region corresponding to the corner portion forming 90° of the planar shape (isosceles right triangle) of the second light shielding portion 31b (that is, the vicinity of the intersection of the sides forming the corner portion). ).
  • the portion of the pixel separating unit 20 that partitions each R pixel 121R includes, in addition to the R filter unit CFr, two G filter units CFg adjacent in the X direction and the Y direction, and an oblique filter unit CFg. It also partially overlaps one of the B filter portions CFb adjacent in the direction in plan view (Z direction). Therefore, the pixel separating section 20 and each sensor pixel 121 (R pixel 121R, G pixel 121G and B pixel 121B) have an asymmetric planar structure with respect to both the X direction and the Y direction.
  • each element is shown ignoring the positional relationship in the Z direction in order to facilitate understanding of the arrangement relationship of each element.
  • the fourth light shielding portion 31d is connected to the end portion of the third light shielding portion 31c and extends in the width direction Dw.
  • the fourth light shielding portion 31d is embedded in the lateral portion 20d of the pixel separation portion 20 and electrically isolated from the photoelectric conversion portions 15 of the R pixels 121R and the photoelectric conversion portions 15 of the G pixels 121G.
  • the fourth light shielding portion 31d is arranged at a position partially overlapping both the photoelectric conversion portion 15 of the R pixel 121R and the photoelectric conversion portion 15 of the G pixel 121G when viewed from above in the depth direction Dh.
  • the fourth light shielding portion 31d is located between the photoelectric conversion portion 15 of the R pixel 121R and the photoelectric conversion portion 15 of the G pixel 121G at a position different in the depth direction Dh from the lateral portion 20b and the second light shielding portion 31b. placed in Specifically, as shown in FIG. 7, the fourth light shielding portion 31d is positioned closer to the color filter CF than the lateral portion 20b and the second light shielding portion 31b in the depth direction Dh.
  • each fourth light shielding portion 31d of this example has a planar shape of a triangle (in particular, an isosceles right triangle having sides extending in the X direction and the Y direction), and the G filter portion Covered by CFg.
  • PLS noise for example, PLS noise caused by light leaking from the G pixel 121G to the R pixel 121R.
  • FIG. 10 is an enlarged cross-sectional view schematically showing an example of the solid-state imaging device 10 according to the third embodiment.
  • FIG. 11 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 10, and schematically shows an arrangement example of the color filter CF, pixel separation section 20, vertical electrode 22, and fourth light shielding section 31d.
  • the fourth light shielding portion 31d in FIG. 11 is shown in cross section along the cross-sectional line IX-IX in FIG.
  • FIG. 12 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 10, and schematically shows an arrangement example of the color filter CF, pixel separation section 20, vertical electrode 22, and second light shielding section 31b.
  • the second light shielding portion 31b in FIG. 12 is shown in cross section along the cross-sectional line XX in FIG.
  • each element is shown ignoring the positional relationship in the Z direction in order to facilitate understanding of the arrangement relationship of each element.
  • the pixel separation section 20 located on one side in the X direction (left side in FIG. 10) with respect to the photoelectric conversion section 15 of the R pixel 121R includes the first light shielding section 31a and the second light shielding section 31b. is provided as the first light shielding member 31 .
  • the third light blocking section 31c and the fourth light blocking section 31d are arranged as the first light blocking section 31d. It is provided as a light shielding member 31 .
  • the third light shielding member 33 is arranged closer to the color filter CF than the vertical electrode 22 (charge transfer portion), and is between the photoelectric conversion portion 15 of the adjacent R pixel 121R and the photoelectric conversion portion 15 of the G pixel 121G. , extends in the depth direction Dh.
  • the third light shielding member 33 of this example includes the second vertical portion 20e and the covering portion 20f of the pixel separation portion 20 located on the other side in the X direction (right side in FIG. 10) with respect to the photoelectric conversion portion 15 of the R pixel 121R. and connected to the second light shielding member 32 . That is, the third light shielding member 33 is provided integrally with the second light shielding member 32 .
  • At least part of the third light shielding member 33 is located between the photoelectric conversion unit 15 of the R pixel 121R and the photoelectric conversion unit 15 of the G pixel 121G, and the horizontal portion 20b and the second light shielding unit 31b are separated from each other in the depth direction. Dh is located at different positions. Specifically, as shown in FIG. 10, the third light shielding member 33 is positioned farther from the color filters CF than the second light shielding portion 31b in the depth direction Dh.
  • the third light shielding member 33 can suppress leakage of light between adjacent sensor pixels 121 (especially leakage of light from the G pixel 121G to the R pixel 121R).
  • FIG. 14 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 13, and schematically shows an arrangement example of the color filter CF, pixel separation section 20, vertical electrode 22, and second light shielding section 31b.
  • each element is shown ignoring the positional relationship in the Z direction in order to facilitate understanding of the arrangement relationship of each element.
  • the color filter CF of this embodiment has a so-called Quad Bayer arrangement.
  • a basic array of “4 pixels (X direction) ⁇ 4 pixels (Y direction)” is repeatedly arranged in each of the X and Y directions.
  • the basic array includes two sets of “2 pixels (X direction) ⁇ 2 pixels (Y direction)” G filter portion groups, and the two sets of G filter portion groups are arranged on one diagonal line.
  • the basic array is a set of "2 pixels (X-direction) x 2 pixels (Y-direction)" R filter sections arranged adjacent to each G filter section group in the X direction and Y direction and on the other diagonal line. group and a set of "2 pixels (X direction) x 2 pixels (Y direction)" B filter section group.
  • two R pixels 121R are continuously arranged in each of the X direction and the Y direction.
  • Two R pixels 121R arranged in succession and two G pixels 121G arranged in succession are adjacent to each other in the X direction and the Y direction.
  • the first light shielding portion 31a and the second light shielding portion 31b of the present embodiment are provided in the pixel separating portion 20 (vertical portion 20a and horizontal portion 20b) that separates two adjacent R pixels 121R. Also, the third light shielding portion 31c is provided in the pixel separation portion 20 (first vertical portion 20c) that separates the adjacent R pixel 121R and G pixel 121G.
  • the vertical electrodes 22 of the two adjacent R pixels 121R overlap the second light shielding portion 31b when viewed in plan in the depth direction Dh in the vicinity of the pixel separating portion 20 separating the two adjacent R pixels 121R.
  • the vertical electrodes 22 of the four R pixels 121R arranged adjacent to each other in the X direction and the Y direction are covered with the integrally provided second light shielding portion 31b.
  • a fifth light shielding portion 31e extending in the depth direction Dh is provided in the pixel separation portion 20 that partitions the photoelectric conversion portions 15 of two adjacent G pixels 121G.
  • the second light shielding portion 31b prevents light passing through the color filters CF (especially the R filter portion CFr) from entering the vertical electrodes 22. can effectively reduce PLS noise. Further, even if the second light shielding portion 31b and the pixel separation portion 20 (lateral portion 20b) have a structure projecting in the width direction Dw from the photoelectric conversion portion 15 of the R pixel 121R, the cross section of the photoelectric conversion portion 15 in the width direction Dw Local reduction in area can be suppressed, and a smooth flow of electrons in the photoelectric conversion section 15 can be promoted.
  • FIG. 15 is an enlarged cross-sectional view schematically showing an example of the solid-state imaging device 10 according to the fifth embodiment.
  • FIG. 16 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 15, and schematically shows an arrangement example of the color filter CF, pixel separation section 20, vertical electrode 22, and fourth light shielding section 31d.
  • the fourth light shielding portion 31d in FIG. 16 is shown in cross section along the cross-sectional line XIV-XIV in FIG.
  • FIG. 17 is an enlarged top view of the solid-state imaging device 10 shown in FIG. 15, and schematically shows an arrangement example of the color filter CF, pixel separation section 20, vertical electrode 22, and second light shielding section 31b.
  • the second light shielding portion 31b in FIG. 17 is shown in cross section along the cross-sectional line XV-XV in FIG.
  • each element is shown ignoring the positional relationship in the Z direction in order to facilitate understanding of the arrangement relationship of each element.
  • the color filter CF of this embodiment also has a quad-Bayer arrangement.
  • the second light shielding portion 31b is provided in the pixel separating portion 20 that separates two adjacent R pixels 121R.
  • the second light shielding portion 31b shown in FIG. 15 extends in the width direction Dw from the end portion of the first light shielding portion 31a toward the photoelectric conversion portions 15 of the two adjacent R pixels 121R, and the two adjacent R pixels extend in the width direction Dw. It covers the vertical electrodes 22 of 121R.
  • the vertical electrodes 22 of the two adjacent R pixels 121R overlap the second light shielding portion 31b when viewed in plan in the depth direction Dh in the vicinity of the pixel separating portion 20 separating the two adjacent R pixels 121R. placed in In this example, as shown in FIG. 17, the vertical electrodes 22 of the four R pixels 121R arranged adjacent to each other in the X direction and the Y direction are covered with the integrally provided second light shielding portion 31b.
  • the fourth light shielding portion 31d prevents leakage of light between the adjacent sensor pixels 121 (especially light from the G pixel 121G to the R pixel 121R). leakage) can be suppressed. This can prevent color mixture between pixels, and effectively prevent PLS noise (for example, PLS noise caused by light leaking from the G pixel 121G to the R pixel 121R).
  • FIG. 18 is an enlarged cross-sectional view schematically showing an example of the solid-state imaging device 10 according to the sixth embodiment.
  • each element is shown ignoring the positional relationship in the Z direction in order to facilitate understanding of the arrangement relationship of each element.
  • the color filter CF of this embodiment also has a quad-Bayer arrangement.
  • the second light shielding portion 31b is provided in the pixel separation portion 20 that separates two adjacent R pixels 121R.
  • the second light shielding portion 31b shown in FIG. 18 extends in the width direction Dw from the end portion of the first light shielding portion 31a toward the photoelectric conversion portions 15 of the two adjacent R pixels 121R, and the two adjacent R pixels extend in the width direction Dw. It covers the vertical electrodes 22 of 121R.
  • a fourth light shielding portion 31d is connected to an end portion of the third light shielding portion 31c, extends in the width direction Dw, and is a photoelectric converter 15 of the R pixel 121R and a photoelectric converter 15 of the G pixel 121G when viewed in the depth direction Dh. It is arranged at a position that partially overlaps with both of the conversion units 15 .
  • the third light shielding member 33 is closer to the color filter CF than the vertical electrode 22 and farther from the color filter CF than the second light shielding portion 31b with respect to the depth direction Dh, and the photoelectric conversion portion of the adjacent R pixel 121R. 15 and the photoelectric conversion unit 15 of the G pixel 121G.
  • 21A to 21E are cross-sectional views showing an example of a method of manufacturing the solid-state imaging device 10 (in particular, FEOL (Front End Of Line)).
  • 22A to 22H are cross-sectional views showing an example of a method of manufacturing the solid-state imaging device 10 (especially BEOL (Back End Of Line)).
  • a semiconductor substrate (for example, a single crystal silicon substrate) SB is prepared.
  • the semiconductor substrate SB used in this example has a crystal orientation with a plane index of (111).
  • the plane index (111) is intended to include crystal orientations such as ( ⁇ 111), (1-11), (11-1), etc., in which arbitrary directions in three-dimensional directions are reversed.
  • FEOL is then performed. That is, as shown in FIG. 21A, a mask forming process such as photolithography is performed to form a mask 51 having pattern grooves 52 on the surface (front surface) of the semiconductor substrate SB.
  • the mask 51 can be configured as a hard mask made of an insulating material such as SiN (silicon nitride) or SiO 2 (silicon oxide).
  • an ion implantation process is performed to form the pixel separating portion 20 (vertical portion 20a) extending in the depth direction Dh at the exposed portion of the semiconductor substrate SB through the pattern groove 52 .
  • a mask formation process and an ion implantation process are performed, and the pixel separation portion 20 ( A second vertical portion 20e) is formed in the semiconductor substrate SB.
  • the mask 51 used in this step is newly formed after removing the mask 51 (see FIG. 21B) used when forming the lateral portion 20b.
  • a mask formation process and an ion implantation process are performed, and the pixel isolation portion 20 ( A first longitudinal portion 20c) is formed in the semiconductor substrate SB.
  • the mask 51 used in this step is newly formed after removing the mask 51 (see FIG. 21D) used when forming the lateral portion 20d. After completing this process, the mask 51 is removed from the semiconductor substrate SB.
  • FIG. 22A shows a surface (front surface) of the semiconductor substrate SB before the new substrate thin film is added and an additional boundary surface S1 which is a boundary surface (for example, an epitaxial growth surface) between the new substrate thin film.
  • the vertical electrode 22, the charge holding portion 21, the second light blocking member 32, and the pixel separation portion 20 are formed in the substrate thin film portion.
  • a deposition process and a mask forming process are performed to deposit a deposited film 55 on the surface (rear surface) of the semiconductor substrate SB, and form a mask 56 having pattern grooves 57 on the deposited film 55 . do.
  • dry etching is performed to form vertical grooves 58 extending in the depth direction Dh at exposed portions of the deposited film 55 and semiconductor substrate SB corresponding to the pattern grooves 57 .
  • the length of the vertical groove 58 in the depth direction Dh is determined according to the length of the first light shielding portion 31a (see FIG. 4) in the depth direction Dh.
  • a deposition process is performed to fill the vertical grooves 58 with etching stoppers 59, as shown in FIG. 22B.
  • the etching stopper 59 may form a part of the first light shielding portion 31a (see FIG. 4), or may be provided separately from the first light shielding portion 31a.
  • the deposited film 55 may or may not be removed from the semiconductor substrate SB.
  • a mask forming process and dry etching are performed to form vertical grooves 60 extending in the depth direction Dh in exposed portions corresponding to the pattern grooves 57 of the mask 56 in the semiconductor substrate SB.
  • the vertical groove 60 is provided at a position adjacent to the etching stopper 59 in the width direction Dw, and the etching stopper 59 is exposed in the vertical groove 60 .
  • a mask forming process and dry etching are performed to form vertical grooves 63 extending in the depth direction Dh in exposed portions corresponding to the pattern grooves 57 of the mask 56 in the semiconductor substrate SB.
  • the vertical groove 63 extends into the first vertical portion 20 c of the pixel separation portion 20 .
  • the length of the longitudinal groove 63 in the depth direction Dh is determined according to the length of the third light shielding portion 31c in the depth direction Dh.
  • vertical grooves 58 are formed in the semiconductor substrate SB by dry etching (FIG. 23A), and etching stoppers 59 are embedded in the vertical grooves 58 (FIG. 23B).
  • vertical grooves 60 are formed by dry etching at positions adjacent to the etching stopper 59 in the width direction Dw (FIG. 23C), and sidewalls 67 are provided to the surfaces of the semiconductor substrate SB that partition the vertical grooves 60 (FIG. 23C). 23D).
  • sidewalls 67 are also formed on the upper surface of the semiconductor substrate SB.
  • the sidewall 67 can be composed of an insulating film such as SiN or SiO 2 .
  • a portion of the sidewall 67 is then removed by dry etching, and the portion of the semiconductor substrate SB that defines the bottom of the vertical groove 60 is exposed from the sidewall 67 (FIG. 23E).
  • the sidewalls 67 covering the portions defining the sides of the longitudinal grooves 60 are left even after the dry etching performed here.
  • wet etching is performed on the exposed portion to form lateral grooves 61 in the semiconductor substrate SB (FIG. 23F).
  • the wet etching performed here proceeds in the width direction Dw starting from the exposed portion of the semiconductor substrate SB.
  • the etching stopper 59 acts as a wet etching stopper as described above, the wet etching proceeds in the ⁇ 110> direction (right direction in FIG. 23F).
  • the sidewalls 67 function as masks for wet etching, and portions of the semiconductor substrate SB covered with the sidewalls 67 are not wet-etched.
  • a light shielding metal body 62 is embedded in the lateral groove 61 (FIG. 23G).
  • the etching stopper 59 and the light-shielding metal body 62 are hatched differently, but the etching stopper 59 and the light-shielding metal body 62 may have the same composition, or may have different compositions. good too.
  • the lateral groove 61 and the light shielding metal body 62 are formed only in the predetermined width direction Dw. Is possible.
  • FIG. 24 is a block diagram showing a configuration example of an imaging device 101 as an electronic device to which the present technology is applied.
  • An imaging apparatus 101 shown in FIG. 24 includes an optical system 202, a shutter device 203, a solid-state imaging device 10, a control circuit 205, a signal processing circuit 206, a monitor 207, and a memory 208, and is capable of capturing still images and moving images. be.
  • the optical system 202 has one or more lenses, guides the light (incident light) from the subject to the solid-state imaging device 10, and forms an image on the light-receiving surface of the solid-state imaging device 10.
  • the shutter device 203 is arranged between the optical system 202 and the solid-state imaging device 10, and under the control of the control circuit 205, adjusts the light irradiation period and the light shielding period for the solid-state imaging device 10.
  • the solid-state imaging device 10 can be configured as a package.
  • the solid-state imaging device 10 accumulates signal charges for a certain period of time according to the light imaged on the light receiving surface via the optical system 202 and the shutter device 203 .
  • the signal charges accumulated in the solid-state imaging device 10 are transferred according to the drive signal (timing signal) supplied from the control circuit 205 .
  • the control circuit 205 drives the solid-state image sensor 10 and the shutter device 203 by outputting drive signals for controlling the transfer operation of the solid-state image sensor 10 and the shutter operation of the shutter device 203 .
  • a specific configuration and function of the control circuit 205 are not limited.
  • control circuitry 205 may include system controller 118, clock module 115, and horizontal driver 117 shown in FIG.
  • the signal processing circuit 206 performs various signal processing on the signal charges output from the solid-state imaging device 10 .
  • An image (image data) obtained by the signal processing performed by the signal processing circuit 206 is supplied to the monitor 207 to be displayed, or supplied to the memory 208 to be stored (recorded).
  • a specific configuration and function of the signal processing circuit 206 are not limited.
  • the signal processing circuit 206 may include the ramp wave module 113, the column signal processing unit 114, the data storage unit 116, and the signal processing unit 119 shown in FIG.
  • the solid-state imaging device 10 and imaging device 101 described above can be used for any purpose.
  • the imaging device 101 can be configured as, for example, a digital still camera or a digital video camera.
  • the solid-state imaging device 10 may be mounted on any electronic device other than the imaging device 101 .
  • the imaging device 101 may be configured as a camera device such as a digital camera that is directly operated by a user, or may be used in various devices such as mobile devices (smartphones, tablet PCs, etc.), moving bodies (vehicles, etc.), and medical devices. may be mounted on the
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 25 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging unit 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 26 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 26 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided in the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • FIG. 27 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (this technology) can be applied.
  • FIG. 27 illustrates a state in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging element photoelectrically converts the observation light to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissues, by irradiating light with a narrower band than the irradiation light (i.e., white light) during normal observation, the mucosal surface layer So-called narrow band imaging is performed, in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 28 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401, an imaging section 11402, a drive section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging device.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • At least a portion of the pixel separating portion 20 extending in the width direction Dw from the second light shielding portion 31b does not overlap the first type color filter portion when viewed in plan in the depth direction Dh. Moreover, it may be arranged at a position overlapping with the second type color filter portion.
  • the technical categories that embody the above technical ideas are not limited.
  • the above technical ideas may be embodied by a computer program for causing a computer to execute one or more procedures (steps) included in the method of manufacturing or using the above apparatus.
  • the above technical idea may be embodied by a computer-readable non-transitory recording medium in which such a computer program is recorded.
  • the plurality of pixels includes a first type pixel to which the first type color filter section is assigned and a second type pixel to which the second type color filter section is assigned;
  • the pixel separation section is provided with a first light shielding member arranged closer to the color filter than the charge transfer section,
  • the first light shielding member includes a first light shielding portion extending in the depth direction of the substrate, and a width direction orthogonal to the depth direction, which is the first type pixel when viewed in plan in the depth direction.
  • the color filter further has a third type color filter section that transmits light in a wavelength band on the shorter wavelength side than the second type color filter section,
  • the solid-state imaging device according to Item 1 wherein the plurality of pixels further includes a third type pixel to which the third type color filter section is assigned.
  • the first light shielding member includes: a third light shielding portion extending in the depth direction; a fourth light shielding portion arranged at a position partially overlapping with both the photoelectric conversion portions of the pixel of the type; The fourth light shielding part differs in the depth direction from the second light shielding part between the photoelectric conversion part of the first type pixel and the photoelectric conversion part of the second type pixel. 6.
  • the solid-state imaging device according to any one of Items 1 to 5, which is arranged at a position.
  • the plurality of pixels includes a first type pixel to which the first type color filter section is assigned and a second type pixel to which the second type color filter section is assigned;
  • the first light shielding member includes a first light shielding portion extending in the depth direction of the substrate, and a width direction orthogonal to the depth direction, which is the first type pixel when viewed in plan in the depth direction.
  • a second light shielding portion arranged at a position overlapping with the charge transfer portion; At least part of a portion of the pixel separating portion facing the second light shielding portion in the width direction does not overlap the color filter of the first type and the color filter of the second type when viewed in plan in the depth direction. arranged at a position overlapping with the color filter, Electronics.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]PLSノイズを有効に低減しつつ、光電変換部における電子の流れの阻害を抑えるのに有利な技術を提供する。 [解決手段]画素分離部には、電荷転送部よりもカラーフィルタに近い側に配置される第1の遮光部材が設けられる。第1の遮光部材は、基板の深さ方向に延びる第1の遮光部と、深さ方向と直交する幅方向に延び且つ深さ方向に平面視すると第1タイプの画素の電荷転送部と重なる位置に配置される第2の遮光部と、を有する。画素分離部のうち第2の遮光部と幅方向に向かい合う部分の少なくとも一部は、深さ方向に平面視すると、第1タイプのカラーフィルタと重ならず且つ第2タイプのカラーフィルタと重なる位置に配置される。

Description

固体撮像素子及び電子機器
 本開示は、固体撮像素子及び電子機器に関する。
 裏面照射型CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子では、動的撮像に有利なグローバルシャッター方式が広く採用されている。
 グローバルシャッター方式を採用する固体撮像素子では、画素毎に、光電変換により生成された電荷(画素信号)がゲート電極を介して電荷保持部に送られ、電荷保持部に蓄積される。
 このような構成を有する固体撮像素子では、光電変換部を通過してゲート電極に入射する光に起因するPLS(Parasitic Light Sensitivity)ノイズが電荷保持部に蓄積され、撮影画像の画質劣化をもたらしうる。
 特許文献1及び特許文献2が開示する撮像装置では、半導体基板中に遮光部を局所的に配置して本来的に意図していない光の漏出を抑えることで、PLSノイズの低減が図られている。
特開2018-148039号公報 国際公開第2021/112098号
 上述のPLSノイズを低減するための遮光部を半導体基板に加工形成する場合、加工形成時に半導体基板に加えられるダメージによって、暗電流特性の劣化が懸念される。そのような暗電流特性の劣化を抑制するため、半導体基板の加工部位の周辺に不純物を注入してP型結晶を生成することが有効である。
 ただし、このようにして形成されるP型不純物注入領域は、光電変換部の断面積を局所的に狭め、光電変換部における電子のスムーズな流れを阻害し、結果的に画素感度の低下を招きうる。
 本開示は上述の事情に鑑みてなされたものであり、PLSノイズを有効に低減しつつ、光電変換部における電子の流れの阻害を抑えるのに有利な技術を提供する。
 本開示の一態様は、複数の画素を有する基板と、基板を覆うカラーフィルタと、を備え、複数の画素の各々は、画素分離部によって区画される光電変換部と、電荷を保持する電荷保持部と、光電変換部で生成される電荷を電荷保持部に向けて送り出す電荷転送部と、を有し、カラーフィルタは、第1タイプのカラーフィルタ部と、第1タイプのカラーフィルタ部の光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部と、を有し、複数の画素は、第1タイプのカラーフィルタ部が割り当てられる第1タイプの画素と、第2タイプのカラーフィルタ部が割り当てられる第2タイプの画素と、を含み、画素分離部には、電荷転送部よりもカラーフィルタに近い側に配置される第1の遮光部材が設けられ、第1の遮光部材は、基板の深さ方向に延びる第1の遮光部と、深さ方向と直交する幅方向に延び且つ深さ方向に平面視すると第1タイプの画素の電荷転送部と重なる位置に配置される第2の遮光部と、を有し、画素分離部のうち第2の遮光部と幅方向に向かい合う部分の少なくとも一部は、深さ方向に平面視すると、第1タイプのカラーフィルタと重ならず且つ第2タイプのカラーフィルタと重なる位置に配置される、固体撮像素子に関する。
 カラーフィルタは、第2タイプのカラーフィルタ部よりも短波長側の波長域の光を透過する第3タイプのカラーフィルタ部を更に有し、複数の画素は、第3タイプのカラーフィルタ部が割り当てられる第3タイプの画素を更に含んでもよい。
 第1タイプのカラーフィルタ部は、Rカラーフィルタ部であり、第2タイプのカラーフィルタ部は、Gカラーフィルタ部であってもよい。
 カラーフィルタは、ベイヤー配置を有してもよい。
 カラーフィルタは、クアッドベイヤー配置を有してもよい。
 第1の遮光部材は、深さ方向に延びる第3の遮光部と、幅方向に延び且つ深さ方向に平面視すると第1タイプの画素の光電変換部及び第2タイプの画素の光電変換部の双方と部分的に重なる位置に配置される第4の遮光部と、を有し、第4の遮光部は、第1タイプの画素の光電変換部と第2タイプの画素の光電変換部との間において、第2の遮光部とは深さ方向に異なる位置に配置されてもよい。
 固体撮像素子は、電荷保持部を覆う第2の遮光部材を備えてもよい。
 固体撮像素子は、電荷転送部よりもカラーフィルタに近い側に配置され、第1タイプの画素の光電変換部と第2タイプの画素の光電変換部との間において、深さ方向に延びる第3の遮光部材を備えてもよい。
 光電変換部のうちカラーフィルタからの光が入射する光入射面と、電荷転送部との間の深さ方向の距離は、5.0μm以上であってもよい。
 本開示の他の態様は、固体撮像素子を備え、固体撮像素子は、複数の画素を有する基板と、基板を覆うカラーフィルタと、を有し、複数の画素の各々は、画素分離部によって区画される光電変換部と、電荷を保持する電荷保持部と、光電変換部で生成される電荷を電荷保持部に向けて送る電荷転送部と、画素分離部に設けられ、電荷転送部よりもカラーフィルタに近い側に配置される第1の遮光部材と、を有し、カラーフィルタは、第1タイプのカラーフィルタ部と、第1タイプのカラーフィルタ部の光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部と、を有し、複数の画素は、第1タイプのカラーフィルタ部が割り当てられる第1タイプの画素と、第2タイプのカラーフィルタ部が割り当てられる第2タイプの画素と、を含み、第1の遮光部材は、基板の深さ方向に延びる第1の遮光部と、深さ方向と直交する幅方向に延び且つ深さ方向に平面視すると第1タイプの画素の電荷転送部と重なる位置に配置される第2の遮光部と、を有し、画素分離部のうち第2の遮光部と幅方向に向かい合う部分の少なくとも一部は、深さ方向に平面視すると、第1タイプのカラーフィルタと重ならず且つ第2タイプのカラーフィルタと重なる位置に配置される、電子機器に関する。
図1は、撮像装置の一例の概略構成を示すブロック図である。 図2は、センサ画素及び読み出し回路の等価回路図である。 図3は、画素アレイ部におけるセンサ画素一例の一部の概略構成を示す断面図である。 図4は、第1実施形態に係る固体撮像素子(特に有効画素領域)の一例の概略を示す拡大断面図である。 図5は、図4に示す固体撮像素子の拡大上面図であり、カラーフィルタ(Rフィルタ部、Gフィルタ部及びBフィルタ部)、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図6は、図4に示す固体撮像素子の拡大上面図であり、カラーフィルタの図示が省略され、光電変換部、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図7は、第2実施形態に係る固体撮像素子の一例の概略を示す拡大断面図である。 図8は、図7に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第4の遮光部の配置例を概略的に示す。 図9は、図7に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図10は、第3実施形態に係る固体撮像素子の一例の概略を示す拡大断面図である。 図11は、図10に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第4の遮光部の配置例を概略的に示す。 図12は、図10に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図13は、第4実施形態に係る固体撮像素子の一例の概略を示す拡大断面図である。 図14は、図13に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図15は、第5実施形態に係る固体撮像素子の一例の概略を示す拡大断面図である。 図16は、図15に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第4の遮光部の配置例を概略的に示す。 図17は、図15に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図18は、第6実施形態に係る固体撮像素子の一例の概略を示す拡大断面図である。 図19は、図18に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第4の遮光部の配置例を概略的に示す。 図20は、図18に示す固体撮像素子の拡大上面図であり、カラーフィルタ、画素分離部、縦電極及び第2の遮光部の配置例を概略的に示す。 図21Aは、固体撮像素子の製造方法(特にFEOL)の一例を示す断面図である。 図21Bは、固体撮像素子の製造方法(特にFEOL)の一例を示す断面図である。 図21Cは、固体撮像素子の製造方法(特にFEOL)の一例を示す断面図である。 図21Dは、固体撮像素子の製造方法(特にFEOL)の一例を示す断面図である。 図21Eは、固体撮像素子の製造方法(特にFEOL)の一例を示す断面図である。 図22Aは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Bは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Cは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Dは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Eは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Fは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Gは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図22Hは、固体撮像素子の製造方法(特にBEOL)の一例を示す断面図である。 図23Aは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図23Bは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図23Cは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図23Dは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図23Eは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図23Fは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図23Gは、第1の遮光部及び第2の遮光部の製造方法の一例を示す断面図である。 図24は、電子機器としての撮像装置の構成例を示すブロック図である。 図25は、車両制御システムの概略的な構成の一例を示すブロック図である。 図26は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 図面を参照して本開示の典型的な実施形態について説明する。
 以下に説明する撮像装置(電子機器)は、グローバルシャッター方式を採用するCMOSイメージセンサ等の裏面照射型の固体撮像素子(イメージセンサ)を備え、被写体からの光を画素毎に受光して光電変換し、電気信号である画素信号を生成する。
 グローバルシャッター方式によれば、全画素の露光の開始と終了が同時に行われる。ここで言う全画素とは、有効な画像を形成する全ての画素を指し、画像形成に寄与しないダミー画素等は除外される。また、画像の歪みや露光時間差が問題にならない程度に十分小さければ、露光の開始及び終了は全画素間で必ずしも厳密に同時でなくてもよい。例えば、複数行(数十行など)単位で同時露光を行う動作を、行方向に複数行単位でずらしながら繰り返す場合も、グローバルシャッター方式に含まれる。また、一部の画素領域に対してのみ、同時露光を行う場合も、グローバルシャッター方式に含まれる。
 裏面照射型の固体撮像素子とは、被写体からの光が入射する受光面と、各画素を駆動させるトランジスタ等の配線が設けられた配線層との間に、被写体からの光を受光して電気信号に変換するフォトダイオード等の光電変換部を画素毎に配置した固体撮像素子である。なお、本開示は、CMOS固体撮像素子以外の撮像方式の固体撮像素子にも適用できる場合がありうる。
[撮像装置101のブロック構成]
 図1は、撮像装置101の一例の概略構成を示すブロック図である。図1の撮像装置101は、半導体基板上に形成されるため、正確には固体撮像装置であるが、以下では、単に撮像装置101と呼ぶ。
 図1の撮像装置101は、光電変換を行う複数のセンサ画素121が行列状、すなわち二次元平面状に配置されて構成される画素アレイ部111を備える。センサ画素121は、本開示の「画素」の一具体例に相当する。画素アレイ部111で光電変換された画素信号は、読み出し回路を介して読み出される。
 撮像装置101は、例えば、画素アレイ部111、垂直駆動部112、ランプ波モジュール113、カラム信号処理部114、クロックモジュール115、データ格納部116、水平駆動部117、システム制御部118、及び信号処理部119を備える。
 撮像装置101は、単一又は複数の半導体基板にて構成される。例えば、撮像装置101は、画素アレイ部111が形成される半導体基板に、他の要素が形成される別の半導体基板をCu-Cu接合等にて電気的に接続して構成可能である。ここで言う別の半導体基板には、例えば垂直駆動部112、ランプ波モジュール113、カラム信号処理部114、クロックモジュール115、データ格納部116、水平駆動部117、システム制御部118、及び信号処理部119等が形成されうる。
 画素アレイ部111は、入射した光の量に応じた電荷を生成して蓄積する光電変換素子を含むセンサ画素121を複数有する。これらのセンサ画素121は、図1に示したように、横方向(行方向)及び縦方向(列方向)のそれぞれに配列される。画素アレイ部111では、行方向に一列に配列されたセンサ画素121からなる画素行毎に、画素駆動線122が行方向に沿って配線され、列方向に一列に配列されたセンサ画素121からなる画素列毎に、垂直信号線123が列方向に沿って配線されている。
 垂直駆動部112は、シフトレジスタやアドレスデコーダなどからなる。垂直駆動部112は、複数の画素駆動線122を介して複数のセンサ画素121に対して信号等をそれぞれ供給することにより、画素アレイ部111における複数のセンサ画素121の全てを同時に駆動させ、又は画素行単位で駆動させる。
 ランプ波モジュール113は、画素信号のA/D(Analog/Digital)変換に用いるランプ波信号を生成し、カラム信号処理部114に供給する。カラム信号処理部114は、例えば、シフトレジスタやアドレスデコーダなどからなり、ノイズ除去処理、相関二重サンプリング処理、及びA/D変換処理等を行い、画素信号を生成するものである。カラム信号処理部114は、生成した画素信号を信号処理部119に供給する。
 クロックモジュール115は、撮像装置101の各部に動作用のクロック信号を供給するものである。
 水平駆動部117は、カラム信号処理部114の画素列に対応する単位回路を順番に選択する。この水平駆動部117による選択走査により、カラム信号処理部114において単位回路毎に信号処理された画素信号が順番に信号処理部119に出力されるようになっている。
 システム制御部118は、各種のタイミング信号を生成するタイミングジェネレータ等からなる。システム制御部118は、タイミングジェネレータで生成されたタイミング信号に基づいて、垂直駆動部112、ランプ波モジュール113、カラム信号処理部114、クロックモジュール115、及び水平駆動部117の駆動制御を行うものである。
 信号処理部119は、必要に応じてデータ格納部116にデータを一時的に格納しながら、カラム信号処理部114から供給された画素信号に対して演算処理等の信号処理を行い、各画素信号からなる画像信号を出力するものである。
[読み出し回路120の回路構成]
 図2は、センサ画素121及び読み出し回路120の等価回路図である。
 図2に示す読み出し回路120は、4つの転送トランジスタTRZ、TRY、TRX、TRGと、排出トランジスタOFGと、リセットトランジスタRSTと、増幅トランジスタAMPと、選択トランジスタSELとを有する。これらのトランジスタは、N型MOSトランジスタである。リセットトランジスタRST、増幅トランジスタAMP及び選択トランジスタSELは、画素アレイ部111が配置される半導体基板とは別の半導体基板に形成される。
 以下では、光電変換部15としてフォトダイオードPDを用いる例を主に説明する。転送トランジスタTRZは、センサ画素121内のフォトダイオードPDに接続されており、フォトダイオードPDで光電変換された電荷(画素信号)を転送トランジスタTRYに転送する。転送トランジスタTRZは縦型トランジスタを想定しており、垂直ゲート電極(後述の縦電極22)を有する。
 転送トランジスタTRYは、転送トランジスタTRZから転送された電荷を転送トランジスタTRXに転送する。転送トランジスタTRYと転送トランジスタTRXは一つの転送トランジスタに置換されてもよい。転送トランジスタTRYと転送トランジスタTRXには、電荷保持部(MEM)21が接続されている。転送トランジスタTRYと転送トランジスタTRXのゲート電極に印加される制御信号により、電荷保持部(MEM)21のポテンシャルが制御される。例えば、転送トランジスタTRYと転送トランジスタTRXがオンにされると、電荷保持部(MEM)21のポテンシャルが深くなる。転送トランジスタTRYと転送トランジスタTRXがオフにされると、電荷保持部(MEM)21のポテンシャルが浅くなる。そして、例えば、転送トランジスタTRZ、TRY、TRXがオンにされると、フォトダイオードPDに蓄積されている電荷が、転送トランジスタTRZ、TRY、TRXを介して、電荷保持部(MEM)21に転送される。転送トランジスタTRXのドレインが転送トランジスタTRGのソースに電気的に接続されており、転送トランジスタTRY及び転送トランジスタTRXのゲートは画素駆動線に接続されている。
 電荷保持部(MEM)21は、グローバルシャッター機能を実現するために、フォトダイオードPDに蓄積された電荷を一時的に保持する領域である。電荷保持部(MEM)21は、フォトダイオードPDから転送された電荷を保持する。
 転送トランジスタTRGは、転送トランジスタTRXとフローティングディフュージョンFDとの間に接続されており、ゲート電極に印加される制御信号に応じて、電荷保持部(MEM)21に保持されている電荷をフローティングディフュージョンFDに転送する。例えば、転送トランジスタTRXがオフにされて、転送トランジスタTRGがオンにされると、電荷保持部(MEM)21に保持されている電荷が、フローティングディフュージョンFDに転送される。転送トランジスタTRGのドレインがフローティングディフュージョンFDに電気的に接続されており、転送トランジスタTRGのゲートは画素駆動線に接続されている。
 フローティングディフュージョンFDは、転送トランジスタTRGを介してフォトダイオードPDから出力された電荷を一時的に保持する浮遊拡散領域である。フローティングディフュージョンFDには、例えば、リセットトランジスタRSTが接続されるとともに、増幅トランジスタAMPおよび選択トランジスタSELを介して垂直信号線VSLが接続されている。
 排出トランジスタOFGは、ゲート電極に印加される制御信号に応じて、フォトダイオードPDを初期化(リセット)する。排出トランジスタOFGのドレインOFDは電源線VDDに接続され、ソースは転送トランジスタTRZと転送トランジスタTRYの間に接続されている。
 例えば、転送トランジスタTRZおよび排出トランジスタOFGがオンにされると、フォトダイオードPDの電位が電源線VDDの電位レベルにリセットされる。すなわち、フォトダイオードPDの初期化が行われる。また、排出トランジスタOFGは、例えば、転送トランジスタTRZと電源線VDDの間にオーバーフローパスを形成し、フォトダイオードPDから溢れた電荷を電源線VDDに排出する。
 リセットトランジスタRSTは、ゲート電極に印加される制御信号に応じて、電荷保持部(MEM)21からフローティングディフュージョンFDまでの各領域を初期化(リセット)する。リセットトランジスタRSTのドレインは電源線VDDに接続され、ソースはフローティングディフュージョンFDに接続されている。例えば、転送トランジスタTRGおよびリセットトランジスタRSTがオンにされると、電荷保持部(MEM)21およびフローティングディフュージョンFDの電位が電源線VDDの電位レベルにリセットされる。すなわち、リセットトランジスタRSTをオンにすることで、電荷保持部(MEM)21およびフローティングディフュージョンFDの初期化が行われる。
 増幅トランジスタAMPは、ゲート電極がフローティングディフュージョンFDに接続され、ドレインが電源線VDDに接続されており、フォトダイオードPDでの光電変換によって得られる電荷を読み出すソースフォロワ回路の入力部となる。すなわち、増幅トランジスタAMPは、ソースが選択トランジスタSELを介して垂直信号線VSLに接続されることにより、垂直信号線VSLの一端に接続される定電流源とソースフォロワ回路を構成する。
 選択トランジスタSELは、増幅トランジスタAMPのソースと垂直信号線VSLとの間に接続されており、選択トランジスタSELのゲート電極には、選択信号として制御信号が供給される。選択トランジスタSELは、制御信号がオンの場合に導通状態となり、選択トランジスタSELに連結されたセンサ画素121が選択状態となる。センサ画素121が選択状態になると、増幅トランジスタAMPから出力される画素信号が垂直信号線VSLを介してカラム信号処理回路(カラム信号処理部114)に読み出される。
 図3は、撮像装置101の一例の一部(隣り合う2つのセンサ画素121)の概略構成を示す断面図である。
 図3に示す撮像装置101は、半導体基板として、お互いに積層される第1半導体基板SB1、第2半導体基板SB2及び第3半導体基板SB3を具備する。第1半導体基板SB1には、センサ画素121が形成される。第2半導体基板SB2には、配線層80及び絶縁層81が形成される。配線層80には、複数の画素駆動線122と、複数の垂直信号線123とが形成される。配線層80の周囲は絶縁層81で覆われている。第1半導体基板SB1と第2半導体基板SB2とは、貫通配線82にて電気的に導通されている。第2半導体基板SB2と第3の半導体基板BP3とは、例えばCu-Cu接合83にて電気的に導通されている。
 第1半導体基板SB1~第3半導体基板B3の具体的な構成は限定されない。例えば、図2に示す回路構成を、第1半導体基板SB1及び第2半導体基板SB2において形成することが可能である。一例として、図2に示す光電変換部15、電荷保持部21、転送トランジスタTRZ、転送トランジスタTRY、転送トランジスタTRX及び転送トランジスタTRGを、第1半導体基板SB1に形成することが可能である。この場合、図2に示す排出トランジスタOFG、フローティングディフュージョンFD、リセットトランジスタRST、増幅トランジスタAMP及び選択トランジスタSELを、第2半導体基板SB2に形成することが可能である。
 なお第3の半導体基板BP3には、例えばロジック回路、配線層及び絶縁層を形成することが可能である。ロジック回路は、例えば図1に示す垂直駆動部112、ランプ波モジュール113、カラム信号処理部114、クロックモジュール115、データ格納部116、水平駆動部117、システム制御部118及び信号処理部119などを有しうる。ロジック回路と配線層の周囲は絶縁層で覆われている。
 このようにDSP(Digital Signal Processor)などの信号処理回路(図1の信号処理部119等の周辺回路参照)は、半導体基板において任意の形態を有しうる。例えば、信号処理回路は、第2半導体基板SB2の半導体層(典型的には有効画素領域の外側の周辺領域)に形成されてもよいし、第2半導体基板SB2に積層される第3半導体基板SB3に形成されてもよい。
 なお半導体基板は、図3に例示される構成には限定されず、任意の構成を有しうる。例えば、積層される半導体基板の数は限定されず、2つの半導体基板(例えば第1半導体基板SB1及び第2半導体基板SB2)のみが撮像装置101の半導体基板として設けられてもよい。
 次に、固体撮像素子(主として画素アレイ部111の複数のセンサ画素121)の具体的な構成例について説明する。
 以下の説明において、X方向、Y方向及びZ方向は相互に直交する。上述の画素アレイ部111において複数のセンサ画素121が並べられる行方向及び列方向は、それぞれX方向及びY方向に対応する。
[第1実施形態]
 図4は、第1実施形態に係る固体撮像素子10(特に有効画素領域)の一例の概略を示す拡大断面図である。
 図5は、図4に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF(Rフィルタ部CFr、Gフィルタ部CFg及びBフィルタ部CFb)、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。
 図6は、図4に示す固体撮像素子10の拡大上面図であり、カラーフィルタCFの図示が省略され、光電変換部15、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。
 なお図5及び図6には、各要素の配置関係を理解しやすくするため、Z方向に関する位置関係を無視して各要素が示されている。
 図4~図6に示す固体撮像素子10は、深さ方向Dh(Z方向)に重ねられる受光レンズLNS、カラーフィルタCF及び半導体基板SBを備える。図4~図6に示す例では、半導体基板SBの裏面(図4の上面)が、被写体からの光が入射する受光面を形成し、カラーフィルタCFにより覆われる。
 受光レンズLNSは、複数の凸レンズの集合体であるオンチップマイクロレンズとして構成される。被写体からの光(撮影光)は、それぞれの凸レンズにより集光されて対応のセンサ画素121に導かれる。
 カラーフィルタCFは、複数のセンサ画素121のそれぞれに割り当てられる複数のカラーフィルタ部を含む。これらの複数のカラーフィルタ部は、透過波長域が異なる複数タイプに分類される。
 本実施形態のカラーフィルタCFは、Rフィルタ部CFr、Gフィルタ部CFg及びBフィルタ部CFbを含む。Rフィルタ部CFrは赤の波長域の光を選択的に透過し、Gフィルタ部CFgは緑の波長域の光を選択的に透過し、Bフィルタ部CFbは青の波長域の光を選択的に透過する。したがってRフィルタ部CFrは、最も長波長側の波長域の光を透過する第1タイプのカラーフィルタ部を構成する。またGフィルタ部CFgは、Rフィルタ部CFrの光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部を構成する。またBフィルタ部CFbは、Gフィルタ部CFgの光透過波長域よりも短波長側の波長域の光を透過する第3タイプのカラーフィルタ部を構成する。
 本実施形態のカラーフィルタCFは、いわゆるベイヤー(Bayer)配置を有する。ベイヤー配置では、「2画素(X方向)×2画素(Y方向)」の基本配列がX方向及びY方向の各々に繰り返し並べられる。基本配列は、一方の対角線上に配置される2つのGフィルタ部CFgと、他方の対角線上に配置される1つのRフィルタ部CFr及び1つのBフィルタ部CFbとを含む。したがってRフィルタ部CFrが割り当てられるR画素121R及びGフィルタ部CFgが割り当てられるG画素121Gが交互に並ぶ行と、G画素121G及びBフィルタ部CFbが割り当てられるB画素121Bが交互に並ぶ行とが、列方向に交互に配置される。
 なおカラーフィルタCFの具体的な配置はベイヤー配置には限定されず、カラーフィルタCFは、後述のクアッドベイヤー配置や他の任意の配置を有しうる。またカラーフィルタCFに含まれるカラーフィルタ部のタイプ及びタイプ数も限定されない。カラーフィルタCFは、RGB以外の色のカラーフィルタ部を含んでもよいし、2タイプ以下或いは4タイプ以上のカラーフィルタ部を含んでもよい。
 半導体基板SBは、複数のセンサ画素121(すなわちR画素121R、G画素121G及びB画素121B)を含む。各センサ画素121は、光電変換部15、電荷保持部(MEM)21、及び縦電極(ゲート電極)22を有する。
 なお「センサ画素121」の用語は、半導体基板SBに形成される要素の集合を指すものとしても使われうるし、半導体基板SBに形成される要素に加えてカラーフィルタCF及び/又は受光レンズLNSを含む集合を指すものとしても使われうる。
 光電変換部15は、画素分離部20によって電気的に隔絶されるように区画され、カラーフィルタCFから入射した光の光電変換を行って電荷(電子)を発生させる。光電変換部15で発生した電荷は、光電変換部15内を縦電極22に向かって移動し、縦電極22により収集される。
 光電変換部15の具体的な組成及び形状は限定されない。例えば、光電変換部15はN型半導体領域及びP型半導体領域を含んでもよく、不純物濃度の異なる複数のN型半導体領域及び/又は複数のP型半導体領域を含んでもよい。
 縦電極22は、少なくとも一部が光電変換部15に埋設され、光電変換部15に対して電気的に接続される。光電変換部15で生成される電荷は、縦電極22を介して電荷保持部21(MEM)に向けて送られる。図4に示す縦電極22は、例えばトランジスタなどを含む電荷転送部(読み出し回路)の一部として設けられ、電荷転送部を構成する他の部分(図示省略)と協働して光電変換部15からの電荷を電荷保持部21に転送する。電荷転送部を構成する他の部分の少なくとも一部は、例えば半導体基板SBの表面(図4の下面)側に設けられる。
 電荷保持部21は、光電変換部15から縦電極22を介して送られてくる電荷を保持する。電荷保持部21は、画素分離部20によって光電変換部15から電気的に隔絶されている。
 電荷保持部21は、グローバルシャッター機能を実現するために、光電変換部15で生成される電荷を一時的に保持する領域である。例えば、縦電極22と電荷保持部21との間に設けられる転送トランジスタ(図示省略)によって電荷保持部21のポテンシャルを調整することで、縦電極22から電荷保持部21への電荷の転送と、電荷保持部21からの電荷の送り出しとを制御可能である。電荷保持部21から送り出される電荷は、必要に応じた各種処理(図1に示すランプ波モジュール113及びカラム信号処理部114参照)を受けた後、画素信号として信号処理部119(図1参照)に送られる。
 本実施形態の固体撮像素子10は、更に、画素分離部20に設けられる第1の遮光部材31及び第2の遮光部材32を備える。図4に示す第1の遮光部材31及び第2の遮光部材32は、画素分離部20に埋設され、画素分離部20を介して光電変換部15から隔絶される。
 ここで言う遮光部材(第1の遮光部材31、第2の遮光部材32及び後述の第3の遮光部材33)は、光の吸収特性又は反射特性に優れ、光の透過を抑制するが、必ずしも光(例えば可視光)の全てを完全には遮断しなくてもよい。遮光部材(第1の遮光部材31、第2の遮光部材32及び後述の第3の遮光部材33)は、同一組成を有していてもよいし、異なる組成を有していてもよい。遮光部材は、例えば遮光性を有する単体金属、金属合金、金属窒化物、及び金属シリサイドのうちの少なくとも1種を含む材料によって構成可能である。
 第1の遮光部材31は、縦電極22よりもカラーフィルタCFに近い側において、隣り合う画素間(図4ではR画素121RとG画素121Gとの間)に配置される。これにより、隣接画素間での光の漏出が抑えられ、画素間での混色を防ぐことできる。
 一方、第2の遮光部材32は、光電変換部15と電荷保持部21との間において、電荷保持部21を覆うように配置される。これにより、電荷保持部21への光の入射が抑えられ、当該光に起因するノイズが電荷保持部21に保持される電荷に生じることを防ぐことができる。
 第1の遮光部材31は、隣り合う画素のタイプ(特にR画素121Rを含む隣り合う画素のタイプ)の相対位置に応じて異なる構造を有する。
 すなわち第1の遮光部材31は、半導体基板SBの受光面から深さ方向Dhに延びる第1の遮光部31aと、第1の遮光部31aに接続され、深さ方向Dhと直交する幅方向Dwに延びる第2の遮光部31bとを有する。第2の遮光部31bは、深さ方向Dh(Z方向)に平面視すると、R画素121R(第1タイプの画素)の縦電極22(電荷転送部)と重なる位置に配置される。
 このような配置を有する第2の遮光部31bによって、カラーフィルタCF(特にRフィルタ部CFr)を介して光電変換部15に入射した光が、縦電極22に入射するのを防ぐことができ、PLSノイズを有効に低減できる。なお第2の遮光部31bによって反射された光は光電変換部15を通過する際に電荷を発生させうるため、第2の遮光部31bは光電変換効率の向上をもたらしうる。
 また画素分離部20のうち第2の遮光部31bと幅方向Dwに向かい合う部分の少なくとも一部は、深さ方向Dhに平面視すると、Rフィルタ部CFrと重ならず且つGフィルタ部CFgと重なる位置に配置される。
 これにより、光電変換部15のうち第2の遮光部31bと幅方向Dwに隣り合う領域において、大きな断面積を確保することが可能になる。したがって第2の遮光部31b及び画素分離部20がR画素121Rの光電変換部15において幅方向Dwへ突出する構造を有しても、当該光電変換部15の幅方向Dwの断面積の局所的な縮小を抑えて、光電変換部15における電子のスムーズな流れが促される。
 このような構成により、Rフィルタ部CFrと深さ方向Dhに重なる光電変換部15の領域だけではなく、Gフィルタ部CFgと深さ方向Dhに重なる光電変換部15の一部領域も、R画素121Rの光電変換部15として使用される。その結果、R画素121Rに隣接するG画素121Gの光電変換部15の体積は、R画素121Rの光電変換部15の体積よりも小さくなる。ただし、一般に光電変換部15は緑色光に対する感度が赤色光の感度よりも高いため、G画素121Gの光電変換部15の体積縮小が撮影画像に与える実質的な弊害は小さい。
 光電変換部15に光を照射してから電荷保持部21により保持される電荷が飽和状態に達するまでの時間(飽和時間)及び電荷蓄積状態を検証したところ、赤色光及び青色光の場合の飽和時間に比べて緑色光の場合の飽和時間の方が短かった。したがって、R画素121Rの電荷保持部21及びB画素121Bの電荷保持部21に先立って、G画素121Gの電荷保持部21が蓄電飽和状態に達しやすい。
 したがって本実施形態のように、G画素121Gの光電変換部15の体積がR画素121Rの光電変換部15の体積よりも小さくても、G画素121Gの電荷保持部21には、撮影画像の取得に十分な電荷量を、限られた時間で蓄積することが可能である。
 図4~図6に示す例において、R画素121Rの縦電極22は、R画素121Rにおいて相対的に図4~図6のX方向左側に位置する。一方、図4~図6に示す例において、R画素121RとX方向に隣り合うG画素121Gの縦電極22は、G画素121Gにおいて相対的に図4~図6のX方向右側に位置する。
 そのためR画素121Rの光電変換部15に対してX方向の一方側(図4において左側)に位置する画素分離部20に、R画素121Rの縦電極22を覆う第2の遮光部31bが設けられる。一方、R画素121Rの光電変換部15に対してX方向の他方側(図4において右側)に位置する画素分離部20には、第2の遮光部31bが設けられず、深さ方向Dhに延びる第3の遮光部31cが第1の遮光部材31として設けられる。
 そのためR画素121Rの光電変換部15に対してX方向の一方側(図4の左側)の画素分離部20は、深さ方向Dhへ直線的に延びる縦部分20aと、縦部分20aの途中から幅方向Dwへ直線的に突出する横部分20bとを有する。縦部分20aには第1の遮光部31aが位置し、横部分20bには第2の遮光部31bが位置する。
 一方、R画素121Rの光電変換部15に対してX方向の他方側(図4の右側)の画素分離部20は、第1縦部分20c、横部分20d、第2縦部分20e及び被覆部分20fを有する。第1縦部分20cは、半導体基板SBの裏面(受光面)から深さ方向Dhへ直線的に延びる。横部分20dは、第1縦部分20cの端部から幅方向Dwへ直線的に延びる。第2縦部分20eは、横部分20dの端部から深さ方向Dhへ直線的に延びる。被覆部分20fは、第2縦部分20eの端部から深さ方向Dhに延び、隣り合うR画素121R及びG画素121Gそれぞれの電荷保持部21を覆う。
 第1縦部分20c及び当該第1縦部分20cに埋設される第3の遮光部31cは、深さ方向Dhに関し、横部分20b及び第2の遮光部31bよりもカラーフィルタCFに近い側に位置する。一方、被覆部分20f及び当該被覆部分20fに埋設される第2の遮光部材32は、深さ方向Dhに関し、横部分20b及び第2の遮光部31bよりもカラーフィルタCFから遠い側に位置する。
 なお、X方向に隣り合うB画素121Bの光電変換部15及びG画素121Gの光電変換部15を区画する画素分離部20には、任意の形状(例えば図1の第3の遮光部31cと同様に深さ方向Dhに延びる形状)を有する第1の遮光部材31が設けられる。
 このようにR画素121Rの縦電極22は、第2の遮光部31bにより覆われて遮光される。一方、G画素121G及びB画素121Bの縦電極22は、第2の遮光部31bにより覆われず遮光されない。ただし、光電変換部15の受光面と縦電極22との間の深さ方向Dhの距離L1は十分に長くとられ、光電変換部15に入射した緑色光及び青色光は光電変換部15で減衰されて実質的に縦電極22には全く到達しない又は殆ど到達しない。
 一般に、光電変換部15(例えば単結晶シリコン)において、波長が短い光ほど光電変換部15に吸収されて減衰しやすく、波長が長い光ほど光電変換部15において減衰し難く光電変換部15の深くまで到達する傾向が見られる。
 本件発明者は、実際の装置を使って、Rフィルタ部CFrを通過した赤色光、Gフィルタ部CFgを通過した緑色光、及びBフィルタ部CFbを通過した青色光の、単結晶シリコンの光電変換部15における到達可能深さの検証を行った。その結果、青色光の光強度は、単結晶シリコンの受光面から2μmの深さにおいて、ほぼ0%にまで減衰していた。また緑色光の光強度は、単結晶シリコンの受光面から5μmの深さにおいて、ほぼ0%にまで減衰していた。一方、赤色光は、単結晶シリコンの受光面から5μmの深さで、40%近くの光強度を示した。
 当該実験結果からも明らかなように、光電変換部15の受光面と縦電極22との間の深さ方向Dhの距離L1が十分に長い場合、青色光及び緑色光は、第2の遮光部31bにより遮光されなくても縦電極22に到達しないため、PLSノイズを有効に低減できる。したがって光電変換部15の受光面から縦電極22までの深さ方向Dhの距離L1は、例えば青色光及び緑色光の光強度が10%以下、より好ましくは5%以下、より好ましくは1%以下、に減衰するように設定される。一例として、光電変換部15の受光面と縦電極22との間の深さ方向Dhの距離L1が2.0μm以上であると、より好ましくは5.0μm以上であると、PLSノイズを効果的に低減しうる。
 なお、R画素121Rの光電変換部15に対してY方向の両側に位置する画素分離部20及び第1の遮光部材31も、上述の「R画素121Rの光電変換部15に対してX方向の両側に位置する画素分離部20及び第1の遮光部材31」と同様の構成を有する。
 上述の構成を有する本例の第2の遮光部31bの各々は、図5及び図6に示すように、三角形(特にX方向及びY方向のそれぞれに沿って延び且つ相互に交わる2つの辺を有する直角二等辺三角形)の平面形状を有する。各R画素121Rの縦電極22は、第2の遮光部31bの平面形状(直角二等辺三角形)の90°を成すコーナー部分に対応する領域(すなわち当該コーナー部分を形成する辺同士の交点の近傍)に配置される。
 なお各R画素121Rを区画する画素分離部20の部分は、図5及び図6に示すように、Rフィルタ部CFrに加え、X方向及びY方向に隣り合う2つのGフィルタ部CFgと、斜め方向に隣り合う一方のBフィルタ部CFbとも平面視(Z方向)で部分的に重なる。したがって画素分離部20及び各センサ画素121(R画素121R、G画素121G及びB画素121B)は、X方向及びY方向の双方に関して、非対称な平面構造を有する。
[第2実施形態]
 本実施形態において上述の第1実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明は省略する。
 図7は、第2実施形態に係る固体撮像素子10の一例の概略を示す拡大断面図である。
 図8は、図7に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第4の遮光部31dの配置例を概略的に示す。図8の第4の遮光部31dは、図7の断面線VI-VIに沿った断面が示されている。
 図9は、図7に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。図9の第2の遮光部31bは、図7の断面線VII-VIIに沿った断面が示されている。
 なお図8及び図9には、各要素の配置関係を理解しやすくするため、Z方向に関する位置関係を無視して各要素が示されている。
 本実施形態においてもR画素121Rの光電変換部15に対してX方向の一方側(図7において左側)に位置する画素分離部20には、第1の遮光部31a及び第2の遮光部31bが第1の遮光部材31として設けられる。一方、R画素121Rの光電変換部15に対してX方向の他方側(図7において右側)に位置する画素分離部20には、上述の第3の遮光部31cに加えて第4の遮光部31dが、第1の遮光部材31として設けられる。
 第4の遮光部31dは、第3の遮光部31cの端部に接続され、幅方向Dwに延びる。第4の遮光部31dは、画素分離部20の横部分20dに埋設され、R画素121Rの光電変換部15及びG画素121Gの光電変換部15から電気的に隔絶される。
 第4の遮光部31dは、深さ方向Dhに平面視するとR画素121Rの光電変換部15及びG画素121Gの光電変換部15の双方と部分的に重なる位置に配置される。また第4の遮光部31dは、R画素121Rの光電変換部15とG画素121Gの光電変換部15との間において、横部分20b及び第2の遮光部31bとは深さ方向Dhに異なる位置に配置される。具体的には図7に示すように、第4の遮光部31dは、深さ方向Dhに関し、横部分20b及び第2の遮光部31bよりもカラーフィルタCFに近い側に位置する。
 また本例の各第4の遮光部31dは、図8に示すように、三角形(特にX方向及びY方向のそれぞれに延びる辺を有する直角二等辺三角形)の平面形状を有し、Gフィルタ部CFgによって覆われる。
 本実施形態の固体撮像素子10の他の構成は、上述の第1実施形態と同様である。
 本実施形態によれば第4の遮光部31dによって、隣接するセンサ画素121間の光の漏れ出し(特にG画素121GからR画素121Rへの光の漏れ出し)を抑えることができる。
 これにより、画素間での混色を防ぐことでき、またPLSノイズ(例えばG画素121GからR画素121Rに漏出した光に起因するPLSノイズ)を有効に防ぎうる。
[第3実施形態]
 本実施形態において上述の第2実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明は省略する。
 図10は、第3実施形態に係る固体撮像素子10の一例の概略を示す拡大断面図である。
 図11は、図10に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第4の遮光部31dの配置例を概略的に示す。図11の第4の遮光部31dは、図10の断面線IX-IXに沿った断面が示されている。
 図12は、図10に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。図12の第2の遮光部31bは、図10の断面線X-Xに沿った断面が示されている。
 なお図11及び図12には、各要素の配置関係を理解しやすくするため、Z方向に関する位置関係を無視して各要素が示されている。
 本実施形態においてもR画素121Rの光電変換部15に対してX方向の一方側(図10において左側)に位置する画素分離部20には、第1の遮光部31a及び第2の遮光部31bが第1の遮光部材31として設けられる。またR画素121Rの光電変換部15に対してX方向の他方側(図10において右側)に位置する画素分離部20には、第3の遮光部31c及び第4の遮光部31dが第1の遮光部材31として設けられる。
 本実施形態では、上述の第1の遮光部材31(第1の遮光部31a、第2の遮光部31b、第3の遮光部31c及び第4の遮光部31d)及び第2の遮光部材32に加え、第3の遮光部材33が更に設けられる。
 第3の遮光部材33は、縦電極22(電荷転送部)よりもカラーフィルタCFに近い側に配置され、隣接するR画素121Rの光電変換部15とG画素121Gの光電変換部15との間において、深さ方向Dhに延びる。
 本例の第3の遮光部材33は、R画素121Rの光電変換部15に対してX方向の他方側(図10において右側)に位置する画素分離部20の第2縦部分20e及び被覆部分20fに埋設され、第2の遮光部材32に接続される。すなわち第3の遮光部材33は、第2の遮光部材32と一体的に設けられる。
 また第3の遮光部材33の少なくとも一部は、R画素121Rの光電変換部15とG画素121Gの光電変換部15との間において、横部分20b及び第2の遮光部31bとは深さ方向Dhに異なる位置に配置される。具体的には図10に示すように、第3の遮光部材33は、深さ方向Dhに関し、第2の遮光部31bよりもカラーフィルタCFから遠い側に位置する。
 本実施形態の固体撮像素子10の他の構成は、上述の第2実施形態と同様である。
 本実施形態によれば第3の遮光部材33によって、隣接するセンサ画素121間の光の漏れ出し(特にG画素121GからR画素121Rへの光の漏れ出し)を抑えることができる。
 これにより、画素間での混色を防ぐことでき、またPLSノイズ(例えばG画素121GからR画素121Rに漏出した光に起因するPLSノイズ)を有効に防ぎうる。
[第4実施形態]
 本実施形態において上述の第1実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明は省略する。
 図13は、第4実施形態に係る固体撮像素子10の一例の概略を示す拡大断面図である。
 図14は、図13に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。なお図14には、各要素の配置関係を理解しやすくするため、Z方向に関する位置関係を無視して各要素が示されている。
 本実施形態のカラーフィルタCFは、いわゆるクアッドベイヤー(Quad Bayer)配置を有する。クアッドベイヤー配置では、「4画素(X方向)×4画素(Y方向)」の基本配列がX方向及びY方向の各々に繰り返し並べられる。基本配列は、2組の「2画素(X方向)×2画素(Y方向)」のGフィルタ部群を含み、当該2組のGフィルタ部群は一方の対角線上に配置される。また基本配列は、各Gフィルタ部群のX方向及びY方向に隣り合い且つ他方の対角線上に配置される1組の「2画素(X方向)×2画素(Y方向)」のRフィルタ部群及び1組の「2画素(X方向)×2画素(Y方向)」のBフィルタ部群を含む。
 したがってX方向及びY方向の各々に関し、2つのR画素121Rが連続して配置される。また、連続して配置される2つのR画素121Rと、連続して配置される2つのG画素121Gとが、X方向及びY方向の各々に関して隣り合う。
 本実施形態の第1の遮光部31a及び第2の遮光部31bは、隣り合う2つのR画素121Rを区分する画素分離部20(縦部分20a及び横部分20b)に設けられる。また第3の遮光部31cは、隣り合うR画素121R及びG画素121Gを区分する画素分離部20(第1縦部分20c)に設けられる。
 第2の遮光部31bは、隣り合う2つのR画素121Rを区分する画素分離部20の横部分20bに設けられる。図13に示す第2の遮光部31bは、第1の遮光部31aの端部から、隣り合う2つのR画素121Rの光電変換部15のそれぞれに向かって幅方向Dw(図13の左方向及び右方向)に延び、隣り合う2つのR画素121Rのそれぞれの縦電極22を覆う。
 すなわち隣り合う2つのR画素121Rの縦電極22は、当該隣り合う2つのR画素121Rを区分する画素分離部20の近傍において、深さ方向Dhに平面視すると第2の遮光部31bと重なる位置に配置される。本例では図14に示すように、X方向及びY方向に隣り合って配置される4つのR画素121Rのそれぞれの縦電極22が、一体的に設けられる第2の遮光部31bによって覆われる。
 また画素分離部20の横部分20bは、縦部分20aの途中から幅方向Dwへ直線的に突出し、第2の遮光部31bを覆う。また第1縦部分20c、横部分20d、第2縦部分20e及び被覆部分20fは、隣り合うR画素121R及びG画素121Gを区分する画素分離部20として設けられる。
 また隣り合う2つのG画素121Gの光電変換部15を区画する画素分離部20には、深さ方向Dhに延びる第5の遮光部31eが設けられる。
 本実施形態の固体撮像素子10の他の構成は、上述の第1実施形態と同様である。
 本実施形態のようにカラーフィルタCFがクアッドベイヤー配置を有する場合も、第2の遮光部31bによって、カラーフィルタCF(特にRフィルタ部CFr)を通過した光が縦電極22に入射するのを防ぐことができ、PLSノイズを有効に低減できる。また第2の遮光部31b及び画素分離部20(横部分20b)がR画素121Rの光電変換部15で幅方向Dwへ突出する構造を有しても、光電変換部15の幅方向Dwの断面積の局所的な縮小を抑え、光電変換部15における電子のスムーズな流れを促進できる。
[第5実施形態]
 本実施形態において上述の第2実施形態及び第4実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明は省略する。
 図15は、第5実施形態に係る固体撮像素子10の一例の概略を示す拡大断面図である。
 図16は、図15に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第4の遮光部31dの配置例を概略的に示す。図16の第4の遮光部31dは、図15の断面線XIV-XIVに沿った断面が示されている。
 図17は、図15に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。図17の第2の遮光部31bは、図15の断面線XV-XVに沿った断面が示されている。
 なお図16及び図17には、各要素の配置関係を理解しやすくするため、Z方向に関する位置関係を無視して各要素が示されている。
 本実施形態のカラーフィルタCFも、クアッドベイヤー配置を有する。
 また上述の第4実施形態と同様に、第2の遮光部31bは、隣り合う2つのR画素121Rを区分する画素分離部20に設けられる。図15に示す第2の遮光部31bは、第1の遮光部31aの端部から、隣り合う2つのR画素121Rの光電変換部15に向かって幅方向Dwに延び、隣り合う2つのR画素121Rの縦電極22を覆う。
 すなわち隣り合う2つのR画素121Rの縦電極22は、当該隣り合う2つのR画素121Rを区分する画素分離部20の近傍において、深さ方向Dhに平面視すると第2の遮光部31bと重なる位置に配置される。本例では図17に示すように、X方向及びY方向に隣り合って配置される4つのR画素121Rのそれぞれの縦電極22が、一体的に設けられる第2の遮光部31bによって覆われる。
 本実施形態の固体撮像素子10の他の構成は上述の第2実施形態及び第4の実施形態と同様である。
 すなわち、第1の遮光部31a、第2の遮光部31b及び第3の遮光部31cに加えて第4の遮光部31dが、第1の遮光部材31として設けられる。第4の遮光部31dは、第3の遮光部31cの端部に接続され、幅方向Dwに延び、深さ方向Dhに平面視するとR画素121Rの光電変換部15及びG画素121Gの光電変換部15の双方と部分的に重なる位置に配置される。
 本実施形態のようにカラーフィルタCFがクアッドベイヤー配置を有する場合においても、第4の遮光部31dによって、隣接するセンサ画素121間の光の漏れ出し(特にG画素121GからR画素121Rへの光の漏れ出し)を抑えることができる。これにより、画素間での混色を防ぐことでき、またPLSノイズ(例えばG画素121GからR画素121Rに漏出した光に起因するPLSノイズ)を有効に防ぎうる。
[第6実施形態]
 本実施形態において上述の第3実施形態及び第5実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明は省略する。
 図18は、第6実施形態に係る固体撮像素子10の一例の概略を示す拡大断面図である。
 図19は、図18に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第4の遮光部31dの配置例を概略的に示す。図19の第4の遮光部31dは、図18の断面線XVII-XVIIに沿った断面が示されている。
 図20は、図18に示す固体撮像素子10の拡大上面図であり、カラーフィルタCF、画素分離部20、縦電極22及び第2の遮光部31bの配置例を概略的に示す。図20の第2の遮光部31bは、図18の断面線XVIII-XVIIIに沿った断面が示されている。
 なお図19及び図20には、各要素の配置関係を理解しやすくするため、Z方向に関する位置関係を無視して各要素が示されている。
 本実施形態のカラーフィルタCFも、クアッドベイヤー配置を有する。
 また上述の第5実施形態と同様に、第2の遮光部31bが、隣り合う2つのR画素121Rを区分する画素分離部20に設けられる。図18に示す第2の遮光部31bは、第1の遮光部31aの端部から、隣り合う2つのR画素121Rの光電変換部15に向かって幅方向Dwに延び、隣り合う2つのR画素121Rの縦電極22を覆う。また第4の遮光部31dが、第3の遮光部31cの端部に接続され、幅方向Dwに延び、深さ方向Dhに平面視するとR画素121Rの光電変換部15及びG画素121Gの光電変換部15の双方と部分的に重なる位置に配置される。
 本実施形態の固体撮像素子10の他の構成は上述の第3実施形態及び第5実施形態と同様である。
 すなわち第3の遮光部材33が、深さ方向Dhに関し、縦電極22よりもカラーフィルタCFに近く且つ第2の遮光部31bよりもカラーフィルタCFから遠くで、隣り合うR画素121Rの光電変換部15とG画素121Gの光電変換部15との間に設けられる。
 本実施形態のようにカラーフィルタCFがクアッドベイヤー配置を有する場合においても、第3の遮光部材33によって、隣接するセンサ画素121間の光の漏れ出し(特にG画素121GからR画素121Rへの光の漏れ出し)を抑えることができる。これにより、画素間での混色を防ぐことでき、またPLSノイズ(例えばG画素121GからR画素121Rに漏出した光に起因するPLSノイズ)を有効に防ぎうる。
[固体撮像素子の製造方法]
 次に、固体撮像素子10の製造方法例について説明する。
 以下に例示される固体撮像素子10の製造方法(図21A~図23G)において、既知の技術に基づいて実施可能な工程については、その詳細な説明が省略される。例えば、以下では言及されないが、エッチング(ドライエッチング及びウエットエッチング)を行う際には、必要に応じてエッチング耐性を有する保護膜が保護箇所に設けられ、保護箇所はエッチングされないように保護膜によって保護される。
 図21A~図21Eは、固体撮像素子10の製造方法(特にFEOL(Front End Of Line))の一例を示す断面図である。図22A~図22Hは、固体撮像素子10の製造方法(特にBEOL(Back End Of Line))の一例を示す断面図である。
 まず半導体基板(例えば単結晶シリコン基板)SBが準備される。本例で用いられる半導体基板SBは、面指数(111)の結晶方位を有する。ここで、面指数(111)とは、(-111)、(1-11)、(11-1)等の三次元方向における任意の方向が逆の結晶方位も含む趣旨である。
 そして、FEOLが行われる。すなわち図21Aに示すように、フォトリソグラフィなどのマスク形成処理を行って、パターン溝52を有するマスク51が、半導体基板SBの面(表面)上に形成される。マスク51は、SiN(窒化珪素)やSiO2(酸化珪素)などの絶縁材料からなるハードマスクとして構成可能である。その後、イオン注入処理(インプラント処理)が行われ、半導体基板SBのうちパターン溝52を介して露出する箇所に、深さ方向Dhに延びる画素分離部20(縦部分20a)を形成する。
 その後、図21Bに示すように、マスク形成処理及びイオン注入処理が行われ、半導体基板SBの面上に形成されるマスク51のパターン溝52を介し、幅方向Dwに延びる画素分離部20(横部分20b)を半導体基板SBに形成する。本工程で用いられるマスク51は、縦部分20aを形成する際に用いられるマスク51(図21A参照)にパターン溝52を追加形成することで得られてもよいし、縦部分20aを形成する際に用いられるマスク51を除去した後に新たに形成されてもよい。
 その後、図21Cに示すように、マスク形成処理及びイオン注入処理が行われ、半導体基板SBの面上に形成されるマスク51のパターン溝52を介し、深さ方向Dhに延びる画素分離部20(第2縦部分20e)を半導体基板SBに形成する。本工程で用いられるマスク51は、横部分20bを形成する際に用いられるマスク51(図21B参照)を除去した後に新たに形成される。
 その後、図21Dに示すように、マスク形成処理及びイオン注入処理が行われ、半導体基板SBの面上に形成されるマスク51のパターン溝52を介し、幅方向Dwに延びる画素分離部20(横部分20d)を半導体基板SBに形成する。本工程で用いられるマスク51は、第2縦部分20eを形成する際に用いられるマスク51(図21C参照)にパターン溝52を追加形成することで得られてもよいし、第2縦部分20eを形成する際に用いられるマスク51を除去した後に新たに形成されてもよい。
 その後、図21Eに示すように、マスク形成処理及びイオン注入処理が行われ、半導体基板SBの面上に形成されるマスク51のパターン溝52を介し、深さ方向Dhに延びる画素分離部20(第1縦部分20c)を半導体基板SBに形成する。本工程で用いられるマスク51は、横部分20dを形成する際に用いられるマスク51(図21D参照)を除去した後に新たに形成される。本工程が終了したらマスク51が半導体基板SBから除去される。
 上述のFEOL(図21A~図21E)が完了した後、エピタキシャル成長などの基板形成処理が行われ、半導体基板SBの表面側に新たな基板薄膜が追加される。図22Aには、新たな基板薄膜が追加される前の半導体基板SBの面(表面)と、新たな基板薄膜との間の境界面(例えばエピタキシャル成長面)である追加境界面S1が示されている。そして当該基板薄膜部分に、縦電極22、電荷保持部21、第2の遮光部材32及び画素分離部20(縦部分20a及び被覆部分20f)が形成される。
 その後、BEOLが行われる。すなわち図22Aに示すように、デポジション処理及びマスク形成処理が行われ、堆積膜55を半導体基板SBの面(裏面)上に堆積させ、パターン溝57を有するマスク56を堆積膜55上に形成する。そしてドライエッチングが行われ、堆積膜55及び半導体基板SBのうちパターン溝57に対応する露出箇所に、深さ方向Dhに延びる縦溝58が形成される。縦溝58の深さ方向Dhの長さは、第1の遮光部31a(図4参照)の深さ方向Dhの長さに応じて決められる。
 そして、マスク56が半導体基板SBから除去された後、図22Bに示すように、デポジション処理が行われ、縦溝58にエッチングストッパー59が埋め込まれる。エッチングストッパー59は、上述の第1の遮光部31a(図4参照)の一部を構成してもよいし、第1の遮光部31aとは別体として設けられてもよい。なおエッチングストッパー59の形成に先立って、堆積膜55は半導体基板SBから除去されてもよいし、除去されなくてもよい。
 その後、図22Cに示すように、マスク形成処理及びドライエッチングが行われ、半導体基板SBのうちマスク56のパターン溝57に対応する露出箇所に、深さ方向Dhに延びる縦溝60を形成する。縦溝60は、エッチングストッパー59と幅方向Dwへ隣り合う位置に設けられ、エッチングストッパー59は縦溝60に露出される。
 そしてマスク56が半導体基板SBから除去された後、図22Dに示すように、ウエットエッチングが行われ、縦溝60の底部から幅方向Dwに延びる横溝61を半導体基板SBに形成する。この際、エッチングストッパー59がウエットエッチングの進行を食い止めるので、ウエットエッチングは<110>方向(図22Dの右側)に進む。
 半導体基板SBの<110>方向へのウエットエッチングを行うためのエッチング溶液として、例えばアルカリ水溶液を用いることができる。またエッチングストッパー59は、そのようなアルカリ水溶液に対してエッチング耐性を示す材料(例えばB(ボロン)などの不純物元素や水素イオンを注入した結晶欠陥構造体や酸化物等の絶縁体)によって構成可能である。
 ここでは、(111)の面方位に応じてエッチングレートが異なる半導体基板SBの性質を利用した結晶異方性エッチングが行われる。具体的には、面指数(111)を有する半導体基板SBでは、<111>方向(図22Dの下向き方向)のエッチングレートに対して<110>方向のエッチングレートが十分に高い。したがって上述のウエットエッチングでは、X方向へのエッチングが進行する一方、Z方向にはほとんどエッチングが進行しない。なお、ウエットエッチングの<110>方向への進行距離は、エッチング処理時間によって調整できる。
 その後、図22Eに示すように、デポジション処理が行われ、縦溝60及び横溝61に遮光金属体62が埋め込まれる。縦溝60に埋め込まれる遮光金属体62は、上述の第1の遮光部31a(図4参照)を成す。横溝61に埋め込まれる遮光金属体62は、上述の第2の遮光部31b(図4参照)を成す。したがって縦溝60の深さ方向Dhの長さは、第1の遮光部31aの深さ方向Dhの長さに応じて決められる。また横溝61の幅方向Dwの長さは、第2の遮光部31bの幅方向Dwの長さに応じて決められる。
 その後、図22Fに示すように、マスク形成処理及びドライエッチングが行われ、半導体基板SBのうちマスク56のパターン溝57に対応する露出箇所に、深さ方向Dhに延びる縦溝63を形成する。縦溝63は、画素分離部20の第1縦部分20c中にまで延びる。
 そしてマスク56が半導体基板SBから除去された後、図22Gに示すように、デポジション処理が行われ、縦溝63に遮光金属体64が埋め込まれる。縦溝63に埋め込まれる遮光金属体64は、上述の第3の遮光部31c(図4参照)を成す。したがって縦溝63の深さ方向Dhの長さは、第3の遮光部31cの深さ方向Dhの長さに応じて決められる。
 その後、図22Hに示すように、CMP(Chemical Mechanical Polishing)やウエットエッチングなどの除去処理が行われ、半導体基板SBの裏面上からエッチングストッパー59、遮光金属体62及び遮光金属体64が除去される。
 上述の一連の製造プロセス(図21A~図22H)を行うことによって、固体撮像素子10に用いられる半導体基板SBが製造される。その後、半導体基板SBに対してカラーフィルタCF及び受光レンズLNSが配置されることで、固体撮像素子10(図4参照)が製造される。
 なお固体撮像素子10は、上述の要素以外の要素を含んでもよい。例えば、半導体基板SBの裏面(受光面)に負の固定電荷を有する固体電荷膜を配置することで、裏面の界面準位に起因する暗電流の発生を抑制することができる。
 次に、第1の遮光部31a及び第2の遮光部31bの製造方法のより具体的な一例を説明する。
 図23A~図23Gは、第1の遮光部31a及び第2の遮光部31bの製造方法の一例を示す断面図である。図23A~図23Gにおいて、画素分離部20などの図示は省略されている。
 まず半導体基板SBに縦溝58がドライエッチングによって形成され(図23A)、当該縦溝58にエッチングストッパー59が埋め込まれる(図23B)。
 その後、エッチングストッパー59と幅方向Dwに隣り合う位置に縦溝60がドライエッチングによって形成され(図23C)、半導体基板SBのうち縦溝60を区画する面にサイドウォール67が付与される(図23D)。図23Dに示す例では、半導体基板SBの上面にもサイドウォール67が形成される。サイドウォール67は、例えばSiNやSiO2などの絶縁膜によって構成可能である。
 その後、サイドウォール67の一部がドライエッチングによって除去され、半導体基板SBのうち縦溝60の底部を区画する部分がサイドウォール67から露出される(図23E)。なお縦溝60の側部を区画する部分を覆うサイドウォール67は、ここで行われるドライエッチング後も残される。
 その後、当該露出部分に対するウエットエッチングが行われ、半導体基板SBに横溝61が形成される(図23F)。ここで行われるウエットエッチングは、半導体基板SBの当該露出部分を起点に幅方向Dwへ進行する。このとき、上述のようにエッチングストッパー59がウエットエッチングのストッパーとして働くため、ウエットエッチングは<110>方向(図23Fの右方向)に進む。なおサイドウォール67は、ウエットエッチングに対するマスクとして働き、半導体基板SBのうちサイドウォール67により覆われている箇所はウエットエッチングされない。
 その後、横溝61に遮光金属体62が埋め込まれる(図23G)。図23Gでは、エッチングストッパー59及び遮光金属体62に異なるハッチングを付与しているが、エッチングストッパー59及び遮光金属体62は同一組成を有していてもよいし、互いに異なる組成を有していてもよい。
 上述のように、固体撮像素子10の製造時にエッチングストッパー59を設けることによって、横溝61及び遮光金属体62(特に第2の遮光部31bに相当する部分)を所定の幅方向Dwにのみ形成することが可能である。
[電子機器への適用例]
 図24は、本技術を適用した電子機器としての撮像装置101の構成例を示すブロック図である。
 図24に示される撮像装置101は、光学系202、シャッタ装置203、固体撮像素子10、制御回路205、信号処理回路206、モニタ207、及びメモリ208を備え、静止画像及び動画像を撮像可能である。
 光学系202は、1枚又は複数枚のレンズを有し、被写体からの光(入射光)を固体撮像素子10に導き、固体撮像素子10の受光面に結像させる。
 シャッタ装置203は、光学系202と固体撮像素子10との間に配置され、制御回路205の制御下で、固体撮像素子10への光照射期間及び遮光期間を調整する。
 固体撮像素子10は、パッケージとして構成可能である。固体撮像素子10は、光学系202及びシャッタ装置203を介して受光面に結像される光に応じて、ある期間、信号電荷を蓄積する。固体撮像素子10に蓄積された信号電荷は、制御回路205から供給される駆動信号(タイミング信号)に従って転送される。
 制御回路205は、固体撮像素子10の転送動作及びシャッタ装置203のシャッタ動作を制御する駆動信号を出力して、固体撮像素子10及びシャッタ装置203を駆動する。制御回路205の具体的な構成及び機能は限定されない。例えば制御回路205は、図1に示すシステム制御部118、クロックモジュール115及び水平駆動部117を含みうる。
 信号処理回路206は、固体撮像素子10から出力された信号電荷に対して各種の信号処理を施す。信号処理回路206が信号処理を行うことにより得られた画像(画像データ)は、モニタ207に供給されて表示されたり、メモリ208に供給されて記憶(記録)されたりする。信号処理回路206の具体的な構成及び機能は限定されない。例えば信号処理回路206は、図1に示すランプ波モジュール113、カラム信号処理部114、データ格納部116及び信号処理部119を含みうる。
 なお上述の固体撮像素子10及び撮像装置101は任意の用途に使用可能である。撮像装置101は、例えばデジタルスチルカメラやデジタルビデオカメラとして構成可能である。固体撮像素子10は、撮像装置101以外の任意の電子機器に搭載されてもよい。撮像装置101は、ユーザによって直接的に操作されるデジタルカメラなどのカメラ装置として構成されてもよいし、携帯機器(スマートフォンやタブレットPC等)、移動体(車両等)及び医療機器などの各種機器に搭載されてもよい。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図25は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図25に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図25の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図26は、撮像部12031の設置位置の例を示す図である。
 図26では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図26には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031(撮像部12101,12102,12103,12104,12105)及び/又は運転者状態検出部12041に適用され得る。具体的には、撮像部12031(撮像部12101,12102,12103,12104,12105)及び/又は運転者状態検出部12041が、上述の固体撮像素子10及び撮像装置101を具備しうる。このように移動体に対して本開示に係る技術を適用することにより、PLSノイズを有効に低減しつつ、光電変換部15における電子の流れの阻害を抑えうる。
 <内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図27は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図27では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図28は、図27に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、カメラヘッド11102に適用され得る。具体的には、カメラヘッド11102(特に撮像部11402)が、上述の固体撮像素子10及び撮像装置101を具備しうる。カメラヘッド11102に対して本開示に係る技術を適用することにより、PLSノイズを有効に低減しつつ、光電変換部15における電子の流れの阻害を抑えうる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
[変形例]
 本開示の技術は、上述の実施形態には限定されない。
 カラーフィルタCFに含まれる複数タイプのカラーフィルタ部の種類、配置及び数によって、上述の第1~第3タイプのカラーフィルタ部を構成する実際のカラーフィルタ部は変わりうる。例えば、カラーフィルタCFがRフィルタ部CFrを含まない場合、最も長波長側の波長域の光を透過するカラーフィルタ部が、第1タイプのカラーフィルタ部として取り扱われうる。すなわち、最も長波長側の波長域の光を透過するカラーフィルタ部が割り当てられる第1タイプの画素の縦電極22が、第2の遮光部31bにより覆われてもよい。この場合にも、画素分離部20のうち第2の遮光部31bと幅方向Dwに向かう部分の少なくとも一部が、深さ方向Dhに平面視すると、第1タイプのカラーフィルタ部と重ならず且つ第2タイプのカラーフィルタ部と重なる位置に配置されてもよい。
 本明細書で開示されている実施形態及び変形例はすべての点で例示に過ぎず限定的には解釈されないことに留意されるべきである。上述の実施形態及び変形例は、添付の特許請求の範囲及びその趣旨を逸脱することなく、様々な形態での省略、置換及び変更が可能である。例えば上述の実施形態及び変形例が全体的に又は部分的に組み合わされてもよく、また上述以外の実施形態が上述の実施形態又は変形例と組み合わされてもよい。また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果がもたらされてもよい。
 上述の技術的思想を具現化する技術的カテゴリーは限定されない。例えば上述の装置を製造する方法或いは使用する方法に含まれる1又は複数の手順(ステップ)をコンピュータに実行させるためのコンピュータプログラムによって、上述の技術的思想が具現化されてもよい。またそのようなコンピュータプログラムが記録されたコンピュータが読み取り可能な非一時的(non-transitory)な記録媒体によって、上述の技術的思想が具現化されてもよい。
[付記]
 本開示は以下の構成をとることもできる。
[項目1]
 複数の画素を有する基板と、
 前記基板を覆うカラーフィルタと、を備え、
 前記複数の画素の各々は、
  画素分離部によって区画される光電変換部と、
  電荷を保持する電荷保持部と、
  前記光電変換部で生成される前記電荷を前記電荷保持部に向けて送り出す電荷転送部と、
 を有し、
 前記カラーフィルタは、第1タイプのカラーフィルタ部と、前記第1タイプのカラーフィルタ部の光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部と、を有し、
 前記複数の画素は、前記第1タイプのカラーフィルタ部が割り当てられる第1タイプの画素と、前記第2タイプのカラーフィルタ部が割り当てられる第2タイプの画素と、を含み、
 前記画素分離部には、前記電荷転送部よりも前記カラーフィルタに近い側に配置される第1の遮光部材が設けられ、
 前記第1の遮光部材は、前記基板の深さ方向に延びる第1の遮光部と、前記深さ方向と直交する幅方向に延び且つ前記深さ方向に平面視すると前記第1タイプの画素の前記電荷転送部と重なる位置に配置される第2の遮光部と、を有し、
 前記画素分離部のうち前記第2の遮光部と前記幅方向に向かい合う部分の少なくとも一部は、前記深さ方向に平面視すると、第1タイプの前記カラーフィルタと重ならず且つ第2タイプの前記カラーフィルタと重なる位置に配置される、
 固体撮像素子。
[項目2]
 前記カラーフィルタは、前記第2タイプのカラーフィルタ部よりも短波長側の波長域の光を透過する第3タイプのカラーフィルタ部を更に有し、
 前記複数の画素は、前記第3タイプのカラーフィルタ部が割り当てられる第3タイプの画素を更に含む
 項目1に記載の固体撮像素子。
[項目3]
 前記第1タイプのカラーフィルタ部は、Rカラーフィルタ部であり、
 前記第2タイプのカラーフィルタ部は、Gカラーフィルタ部である
 項目1又は2に記載の固体撮像素子。
[項目4]
 前記カラーフィルタは、ベイヤー配置を有する項目1~3のいずれかに記載の固体撮像素子。
[項目5]
 前記カラーフィルタは、クアッドベイヤー配置を有する項目1~3のいずれかに記載の固体撮像素子。
[項目6]
 前記第1の遮光部材は、前記深さ方向に延びる第3の遮光部と、前記幅方向に延び且つ前記深さ方向に平面視すると前記第1タイプの画素の前記光電変換部及び前記第2タイプの画素の前記光電変換部の双方と部分的に重なる位置に配置される第4の遮光部と、を有し、
 前記第4の遮光部は、前記第1タイプの画素の前記光電変換部と前記第2タイプの画素の前記光電変換部との間において、前記第2の遮光部とは前記深さ方向に異なる位置に配置される
 項目1~5のいずれかに記載の固体撮像素子。
[項目7]
 前記電荷保持部を覆う第2の遮光部材を備える項目1~6のいずれかに記載の固体撮像素子。
[項目8]
 前記電荷転送部よりも前記カラーフィルタに近い側に配置され、前記第1タイプの画素の前記光電変換部と前記第2タイプの画素の前記光電変換部との間において、前記深さ方向に延びる第3の遮光部材を備える
 項目1~7のいずれかに記載の固体撮像素子。
[項目9]
 前記光電変換部のうち前記カラーフィルタからの光が入射する光入射面と、前記電荷転送部との間の前記深さ方向の距離は、5.0μm以上である項目1~8のいずれかに記載の固体撮像素子。
[項目10]
 固体撮像素子を備え、
 前記固体撮像素子は、
 複数の画素を有する基板と、
 前記基板を覆うカラーフィルタと、を備え、
 前記複数の画素の各々は、
  画素分離部によって区画される光電変換部と、
  電荷を保持する電荷保持部と、
  前記光電変換部で生成される前記電荷を前記電荷保持部に向けて送る電荷転送部と、  前記画素分離部に設けられ、前記電荷転送部よりも前記カラーフィルタに近い側に配置される第1の遮光部材と、
 を有し、
 前記カラーフィルタは、第1タイプのカラーフィルタ部と、前記第1タイプのカラーフィルタ部の光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部と、を有し、
 前記複数の画素は、前記第1タイプのカラーフィルタ部が割り当てられる第1タイプの画素と、前記第2タイプのカラーフィルタ部が割り当てられる第2タイプの画素と、を含み、
 前記第1の遮光部材は、前記基板の深さ方向に延びる第1の遮光部と、前記深さ方向と直交する幅方向に延び且つ前記深さ方向に平面視すると前記第1タイプの画素の前記電荷転送部と重なる位置に配置される第2の遮光部と、を有し、
 前記画素分離部のうち前記第2の遮光部と前記幅方向に向かい合う部分の少なくとも一部は、前記深さ方向に平面視すると、第1タイプの前記カラーフィルタと重ならず且つ第2タイプの前記カラーフィルタと重なる位置に配置される、
 電子機器。
10 固体撮像素子、15 光電変換部、20 画素分離部、20a 縦部分、20b 横部分、20c 第1縦部分、20d 横部分、20e 第2縦部分、20f 被覆部分、21 電荷保持部、22 縦電極、31 第1の遮光部材、31a 第1の遮光部、31b 第2の遮光部、31c 第3の遮光部、31d 第4の遮光部、31e 第5の遮光部、32 第2の遮光部材、33 第3の遮光部材、51 マスク、52 パターン溝、55 堆積膜、56 マスク、57 パターン溝、58 縦溝、59 エッチングストッパー、60 縦溝、61 横溝、62 遮光金属体、63 縦溝、64 遮光金属体、67 サイドウォール、101 撮像装置、111 画素アレイ部、112 垂直駆動部、113 ランプ波モジュール、114 カラム信号処理部、115 クロックモジュール、116 データ格納部、117 水平駆動部、118 システム制御部、119 信号処理部、121 センサ画素、121R R画素、121G G画素、121B B画素、122 画素駆動線、123 垂直信号線、CF カラーフィルタ、CFr Rフィルタ部、CFg Gフィルタ部、CFb Bフィルタ部、Dh 深さ方向、Dw 幅方向、L1 距離、LNS 受光レンズ、S1 追加境界面、SB 半導体基板

Claims (10)

  1.  複数の画素を有する基板と、
     前記基板を覆うカラーフィルタと、を備え、
     前記複数の画素の各々は、
      画素分離部によって区画される光電変換部と、
      電荷を保持する電荷保持部と、
      前記光電変換部で生成される前記電荷を前記電荷保持部に向けて送り出す電荷転送部と、
     を有し、
     前記カラーフィルタは、第1タイプのカラーフィルタ部と、前記第1タイプのカラーフィルタ部の光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部と、を有し、
     前記複数の画素は、前記第1タイプのカラーフィルタ部が割り当てられる第1タイプの画素と、前記第2タイプのカラーフィルタ部が割り当てられる第2タイプの画素と、を含み、
     前記画素分離部には、前記電荷転送部よりも前記カラーフィルタに近い側に配置される第1の遮光部材が設けられ、
     前記第1の遮光部材は、前記基板の深さ方向に延びる第1の遮光部と、前記深さ方向と直交する幅方向に延び且つ前記深さ方向に平面視すると前記第1タイプの画素の前記電荷転送部と重なる位置に配置される第2の遮光部と、を有し、
     前記画素分離部のうち前記第2の遮光部と前記幅方向に向かい合う部分の少なくとも一部は、前記深さ方向に平面視すると、第1タイプの前記カラーフィルタと重ならず且つ第2タイプの前記カラーフィルタと重なる位置に配置される、
     固体撮像素子。
  2.  前記カラーフィルタは、前記第2タイプのカラーフィルタ部よりも短波長側の波長域の光を透過する第3タイプのカラーフィルタ部を更に有し、
     前記複数の画素は、前記第3タイプのカラーフィルタ部が割り当てられる第3タイプの画素を更に含む
     請求項1に記載の固体撮像素子。
  3.  前記第1タイプのカラーフィルタ部は、Rカラーフィルタ部であり、
     前記第2タイプのカラーフィルタ部は、Gカラーフィルタ部である
     請求項1に記載の固体撮像素子。
  4.  前記カラーフィルタは、ベイヤー配置を有する請求項1に記載の固体撮像素子。
  5.  前記カラーフィルタは、クアッドベイヤー配置を有する請求項1に記載の固体撮像素子。
  6.  前記第1の遮光部材は、前記深さ方向に延びる第3の遮光部と、前記幅方向に延び且つ前記深さ方向に平面視すると前記第1タイプの画素の前記光電変換部及び前記第2タイプの画素の前記光電変換部の双方と部分的に重なる位置に配置される第4の遮光部と、を有し、
     前記第4の遮光部は、前記第1タイプの画素の前記光電変換部と前記第2タイプの画素の前記光電変換部との間において、前記第2の遮光部とは前記深さ方向に異なる位置に配置される
     請求項1に記載の固体撮像素子。
  7.  前記電荷保持部を覆う第2の遮光部材を備える請求項1に記載の固体撮像素子。
  8.  前記電荷転送部よりも前記カラーフィルタに近い側に配置され、前記第1タイプの画素の前記光電変換部と前記第2タイプの画素の前記光電変換部との間において、前記深さ方向に延びる第3の遮光部材を備える請求項1に記載の固体撮像素子。
  9.  前記光電変換部のうち前記カラーフィルタからの光が入射する光入射面と、前記電荷転送部との間の前記深さ方向の距離は、5.0μm以上である請求項1に記載の固体撮像素子。
  10.  固体撮像素子を備え、
     前記固体撮像素子は、
     複数の画素を有する基板と、
     前記基板を覆うカラーフィルタと、を有し、
     前記複数の画素の各々は、
      画素分離部によって区画される光電変換部と、
      電荷を保持する電荷保持部と、
      前記光電変換部で生成される前記電荷を前記電荷保持部に向けて送る電荷転送部と、  前記画素分離部に設けられ、前記電荷転送部よりも前記カラーフィルタに近い側に配置される第1の遮光部材と、
     を有し、
     前記カラーフィルタは、第1タイプのカラーフィルタ部と、前記第1タイプのカラーフィルタ部の光透過波長域よりも短波長側の波長域の光を透過する第2タイプのカラーフィルタ部と、を有し、
     前記複数の画素は、前記第1タイプのカラーフィルタ部が割り当てられる第1タイプの画素と、前記第2タイプのカラーフィルタ部が割り当てられる第2タイプの画素と、を含み、
     前記第1の遮光部材は、前記基板の深さ方向に延びる第1の遮光部と、前記深さ方向と直交する幅方向に延び且つ前記深さ方向に平面視すると前記第1タイプの画素の前記電荷転送部と重なる位置に配置される第2の遮光部と、を有し、
     前記画素分離部のうち前記第2の遮光部と前記幅方向に向かい合う部分の少なくとも一部は、前記深さ方向に平面視すると、第1タイプの前記カラーフィルタと重ならず且つ第2タイプの前記カラーフィルタと重なる位置に配置される、
     電子機器。
PCT/JP2022/038761 2021-12-13 2022-10-18 固体撮像素子及び電子機器 WO2023112465A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021201949 2021-12-13
JP2021-201949 2021-12-13

Publications (1)

Publication Number Publication Date
WO2023112465A1 true WO2023112465A1 (ja) 2023-06-22

Family

ID=86774428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038761 WO2023112465A1 (ja) 2021-12-13 2022-10-18 固体撮像素子及び電子機器

Country Status (1)

Country Link
WO (1) WO2023112465A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164768A (ja) * 2011-02-04 2012-08-30 Toshiba Corp 固体撮像装置
JP2014229810A (ja) * 2013-05-24 2014-12-08 ソニー株式会社 固体撮像装置、および電子機器
JP2020047616A (ja) * 2018-09-14 2020-03-26 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020137370A1 (ja) * 2018-12-27 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021112128A1 (ja) * 2019-12-03 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置およびその製造方法、電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164768A (ja) * 2011-02-04 2012-08-30 Toshiba Corp 固体撮像装置
JP2014229810A (ja) * 2013-05-24 2014-12-08 ソニー株式会社 固体撮像装置、および電子機器
JP2020047616A (ja) * 2018-09-14 2020-03-26 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020137370A1 (ja) * 2018-12-27 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021112128A1 (ja) * 2019-12-03 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置およびその製造方法、電子機器

Similar Documents

Publication Publication Date Title
EP3933927A1 (en) Solid-state imaging device and electronic apparatus
WO2019159711A1 (ja) 撮像素子
WO2019220945A1 (ja) 撮像素子、電子機器
WO2021015009A1 (en) Solid-state imaging device and electronic apparatus
WO2021153480A1 (ja) 撮像素子、撮像装置、測距装置
WO2019181466A1 (ja) 撮像素子、電子機器
WO2019239754A1 (ja) 固体撮像素子および固体撮像素子の製造方法ならびに電子機器
WO2023112465A1 (ja) 固体撮像素子及び電子機器
US20220254823A1 (en) Imaging device
WO2023058352A1 (ja) 固体撮像装置
JP7275125B2 (ja) 撮像素子、電子機器
WO2024057806A1 (ja) 撮像装置および電子機器
WO2023021740A1 (ja) 撮像素子、撮像装置、製造方法
WO2023119840A1 (ja) 撮像素子、撮像素子の製造方法、電子機器
US20240038807A1 (en) Solid-state imaging device
WO2023037624A1 (ja) 撮像装置および電子機器
WO2023166884A1 (ja) 固体撮像装置及びその製造方法
WO2023017650A1 (ja) 撮像装置及び電子機器
WO2022176626A1 (ja) 固体撮像装置および電子機器
WO2024014326A1 (ja) 光検出装置
WO2022201839A1 (ja) 撮像素子及び撮像装置
WO2023047632A1 (ja) 撮像装置及び電子機器
WO2022259855A1 (ja) 半導体装置およびその製造方法、並びに電子機器
WO2022249678A1 (ja) 固体撮像装置およびその製造方法
WO2022270039A1 (ja) 固体撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22907000

Country of ref document: EP

Kind code of ref document: A1