WO2023105783A1 - 固体撮像装置およびその製造方法 - Google Patents

固体撮像装置およびその製造方法 Download PDF

Info

Publication number
WO2023105783A1
WO2023105783A1 PCT/JP2021/045623 JP2021045623W WO2023105783A1 WO 2023105783 A1 WO2023105783 A1 WO 2023105783A1 JP 2021045623 W JP2021045623 W JP 2021045623W WO 2023105783 A1 WO2023105783 A1 WO 2023105783A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
layer
imaging device
solid
state imaging
Prior art date
Application number
PCT/JP2021/045623
Other languages
English (en)
French (fr)
Inventor
啓介 寺田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to PCT/JP2021/045623 priority Critical patent/WO2023105783A1/ja
Publication of WO2023105783A1 publication Critical patent/WO2023105783A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • the present disclosure relates to solid-state imaging devices and manufacturing methods thereof.
  • a lens may be formed on the back side of a substrate including photodiodes, and a reflective layer may be formed on the front side of this substrate.
  • a reflective layer may be formed on the front side of this substrate.
  • JP 2013-38176 A Japanese Patent Application Laid-Open No. 2006-120805
  • the reflective layer is arranged in the multilayer wiring structure provided on the surface side of the substrate, the reflection of light on the reflective layer may cause color mixture. Moreover, if the reflective layer is arranged so as to be in contact with the surface of the substrate, the reflective layer may cause a large leakage current.
  • the present disclosure provides a solid-state imaging device capable of forming a reflective layer having suitable properties and a manufacturing method thereof.
  • a solid-state imaging device includes: a first substrate including a photoelectric conversion unit; a lens provided on the first surface side of the first substrate; and an electrode layer provided via a film and including a first portion containing a silicon element and a metal element.
  • a reflective layer first portion
  • the metal element may include at least one of Ti (titanium), Co (cobalt), Ni (nickel), W (tungsten), and Pt (platinum). This allows, for example, the first portion to be a silicide layer.
  • the first portion may be a silicide layer. This makes it possible, for example, to easily form a reflective layer by silicidation.
  • the first portion may reflect light incident on the first portion from the lens. This allows, for example, the first portion to function as a reflective layer.
  • the electrode layer may further include a second portion containing silicon element and provided between the insulating film and the first portion.
  • the electrode layer can be a layer including a semiconductor layer (second portion) and a silicide layer (first portion).
  • the second portion may be a semiconductor layer.
  • the silicided portion of the semiconductor layer can be used as the first portion, and the non-silicided portion of the semiconductor layer can be used as the second portion.
  • the insulating film may be in contact with the second surface of the first substrate, and the electrode layer may be in contact with the insulating film.
  • the reflective layer can be formed by sequentially forming an insulating film for forming a gate insulating film and an electrode layer for forming a gate electrode on the surface of the first substrate. .
  • the electrode layer may be electrically connected to the first substrate.
  • the potential of the first substrate can be controlled by the potential of the electrode layer.
  • the electrode layer may be electrically connected to the first substrate through an opening provided in the insulating film.
  • the contact area between the first substrate and the electrode layer can be reduced, and it is possible to prevent the contact portion between the first substrate and the electrode layer from causing a large leak current.
  • the solid-state imaging device of this first side surface may further include a contact plug provided at a position in contact with the first portion.
  • a contact plug provided at a position in contact with the first portion.
  • the contact plug may be electrically connected to a wiring layer provided on the second surface side of the substrate.
  • the potential of the electrode layer can be controlled by the potential of the wiring layer.
  • the solid-state imaging device of the first side has a second substrate provided on the second surface side of the first substrate, and a second substrate provided on the second surface side of the first substrate via the second substrate. and a third substrate provided. As a result, for example, it is possible to prevent the reflective layer from interfering with the arrangement of the pixel transistors.
  • the electrode layer includes a first region that is in contact with a floating diffusion provided in the first substrate, and a first region that is separated from the first region, and is a gate electrode of a transistor. 2 regions and a third region separated from the first region and the second region.
  • the gate electrode (second region) and other portions (first and third regions) can be formed from the electrode layer.
  • the thickness of the second region may be different from the thickness of the first region and/or the thickness of the third region. This makes it possible, for example, to form the first and/or the third region from a material different from the material forming the second region.
  • the first region is electrically connected to the first substrate
  • the second region is electrically insulated from the first substrate
  • the third region is electrically insulated from the first substrate.
  • a region may be electrically connected to the first substrate. This makes it possible, for example, to control the potential of the first substrate by the potential of the first and/or third regions while allowing the second region to function as a gate electrode.
  • the first region is electrically connected to the first substrate through a first opening provided in the insulating film
  • the third region is the It may be electrically connected to the first substrate through a second opening provided in the insulating film.
  • a first contact plug electrically connected to the first region a second contact plug electrically connected to the second region, and an electrical contact plug electrically connected to the third region. and a third contact plug connected to the .
  • the potentials of the first to third regions can be controlled by the potentials of the first to third contact plugs, respectively.
  • the third contact plug may be electrically connected to a ground potential.
  • the potential of the third region and further the potential of the first substrate can be fixed to the ground potential by the third contact plug.
  • a method for manufacturing a solid-state imaging device includes forming a photoelectric conversion section in a first substrate, forming a lens on the first surface side of the first substrate, and forming a second lens on the first substrate. Forming an electrode layer on the face side via an insulating film, the electrode layer including a first portion containing a silicon element and a metal element.
  • the first portion may be formed by siliciding at least part of the electrode layer. This makes it possible, for example, to easily form a reflective layer by silicidation.
  • FIG. 1 is a block diagram showing the configuration of a solid-state imaging device according to a first embodiment
  • FIG. 1A and 1B are a cross-sectional view and a plan view showing the structure of a solid-state imaging device according to a first embodiment
  • 2 is an enlarged cross-sectional view showing the structure of the solid-state imaging device of the first embodiment
  • FIG. It is a sectional view showing the structure of the solid-state imaging device of the modification of a 1st embodiment.
  • 3A and 3B are cross-sectional views and mathematical expressions for explaining characteristics of the solid-state imaging device of the first embodiment
  • 4A and 4B are cross-sectional views and graphs for explaining characteristics of the solid-state imaging device of the first embodiment;
  • FIG. 1 is a block diagram showing the configuration of a solid-state imaging device according to a first embodiment
  • FIG. 1A and 1B are a cross-sectional view and a plan view showing the structure of a solid-state imaging device according to a first embodiment
  • 2 is
  • FIG. 18 is a cross-sectional view (1/8) showing the method of manufacturing the solid-state imaging device of the second embodiment
  • FIG. 11 is a cross-sectional view (2/8) showing the method for manufacturing the solid-state imaging device of the second embodiment
  • FIG. 11 is a cross-sectional view (3/8) showing the method of manufacturing the solid-state imaging device of the second embodiment
  • FIG. 11 is a cross-sectional view (4/8) showing the method of manufacturing the solid-state imaging device of the second embodiment
  • FIG. 11 is a cross-sectional view (5/8) showing a method of manufacturing the solid-state imaging device of the second embodiment
  • FIG. 8 is a cross-sectional view (6/8) showing the method of manufacturing the solid-state imaging device of the second embodiment
  • FIG. 8 is a cross-sectional view (7/8) showing the method of manufacturing the solid-state imaging device of the second embodiment
  • FIG. 11 is a cross-sectional view (8/8) showing the method of manufacturing the solid-state imaging device of the second embodiment
  • It is a block diagram which shows the structural example of an electronic device.
  • 1 is a block diagram showing a configuration example of a mobile body control system
  • FIG. 17 is a plan view showing a specific example of setting positions of the imaging unit in FIG. 16
  • 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system
  • FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU;
  • FIG. 1 is a block diagram showing the configuration of the solid-state imaging device of the first embodiment.
  • the solid-state imaging device of FIG. 1 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, and includes a pixel array region 2 having a plurality of pixels 1, a control circuit 3, a vertical drive circuit 4, and a plurality of column signal processing units. It has a circuit 5 , a horizontal drive circuit 6 , an output circuit 7 , a plurality of vertical signal lines 8 and a horizontal signal line 9 .
  • CMOS Complementary Metal Oxide Semiconductor
  • Each pixel 1 includes a photodiode functioning as a photoelectric conversion unit and a MOS transistor functioning as a pixel transistor.
  • Examples of pixel transistors are transfer transistors, reset transistors, amplification transistors, selection transistors, and the like. These pixel transistors may be shared by several pixels 1 .
  • the pixel array region 2 has a plurality of pixels 1 arranged in a two-dimensional array.
  • the pixel array region 2 includes an effective pixel region that receives light and photoelectrically converts it and outputs signal charges generated by the photoelectric conversion, and a black reference pixel region that outputs optical black as a reference for the black level. contains.
  • the black reference pixel area is arranged on the periphery of the effective pixel area.
  • the control circuit 3 generates various signals that serve as references for operations of the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, etc. based on the vertical synchronization signal, horizontal synchronization signal, master clock, and the like. Signals generated by the control circuit 3 are, for example, clock signals and control signals, and are input to the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, and the like.
  • the vertical drive circuit 4 includes, for example, a shift register, and vertically scans each pixel 1 in the pixel array region 2 row by row.
  • the vertical driving circuit 4 further supplies pixel signals based on signal charges generated by each pixel 1 to the column signal processing circuit 5 through vertical signal lines 8 .
  • the column signal processing circuit 5 is arranged, for example, for each column of the pixels 1 in the pixel array region 2, and performs signal processing on the signals output from the pixels 1 of one row based on the signals from the black reference pixel region. column by column. Examples of this signal processing are noise reduction and signal amplification.
  • the horizontal drive circuit 6 has, for example, a shift register, and supplies pixel signals from each column signal processing circuit 5 to the horizontal signal line 9 .
  • the output circuit 7 performs signal processing on the signal supplied from each column signal processing circuit 5 through the horizontal signal line 9, and outputs the signal that has undergone this signal processing.
  • FIG. 2 is a cross-sectional view and a plan view showing the structure of the solid-state imaging device of the first embodiment.
  • FIG. 2A is a cross-sectional view showing two pixels 1 in the pixel array region 2 of FIG.
  • FIG. 2B is a plan view showing four pixels 1 in the pixel array region 2 of FIG.
  • FIG. 2A shows a cross section along the line A-A' shown in FIG. 2B.
  • a and B in Figure 2 show the X-axis, Y-axis, and Z-axis that are perpendicular to each other.
  • the X direction and Y direction correspond to the lateral direction (horizontal direction), and the Z direction corresponds to the longitudinal direction (vertical direction).
  • the +Z direction corresponds to the upward direction, and the -Z direction corresponds to the downward direction. Note that the -Z direction may or may not strictly match the direction of gravity.
  • the solid-state imaging device of this embodiment has a three-layer structure including a first layer 10, a second layer 20, and a third layer 30, as shown in A of FIG.
  • a second layer 20 is provided below the first layer 10
  • a third layer 30 is provided below the second layer 20.
  • the solid-state imaging device of the present embodiment includes a laminated section 40 laminated on the first layer 10, as shown in FIG. 2A.
  • the first layer 10 includes a substrate 11 , an element isolation insulating film 12 , an insulating film 13 , an electrode layer 14 , an interlayer insulating film 15 and contact plugs 16 .
  • the element isolation insulating film 12 includes an insulating film 12a and an insulating film 12b.
  • the electrode layer 14 includes a semiconductor layer 14a and a silicide layer 14b.
  • Substrate 11 is an example of the first substrate of the present disclosure.
  • the silicide layer 14b is an example of the first part of this disclosure.
  • the semiconductor layer 14a is an example of the second part of this disclosure.
  • the second layer 20 includes a substrate 21, a plurality of interlayer insulating films 22, a plurality of wiring layers 23, a gate insulating film 24 of each pixel transistor Tr, a gate electrode 25, a plurality of diffusion layers 26, and a plurality of contacts.
  • a plug 27 and a plurality of contact plugs 28 are provided.
  • Substrate 21 is an example of the second substrate of the present disclosure.
  • the third layer 30 includes a substrate 31, a plurality of interlayer insulating films 32, a plurality of wiring layers 33, a gate insulating film 34 of each pixel transistor Tr, a gate electrode 35, a plurality of diffusion layers 36, and a plurality of contacts.
  • a plug 37 and a contact plug 38 are provided.
  • Substrate 31 is an example of the third substrate of the present disclosure.
  • the lamination section 40 includes a planarization film 41 , a filter layer 42 for each pixel 1 , and an on-chip lens 43 for each pixel 1 .
  • On-chip lens 43 is an example of a lens of the present disclosure.
  • FIG. 2B will also be referred to as appropriate.
  • the substrate 11 is, for example, a semiconductor substrate such as a Si (silicon) substrate. 2A, the ⁇ Z direction surface (lower surface) of the substrate 11 is the front surface of the substrate 11, and the +Z direction surface (upper surface) of the substrate 11 is the rear surface of the substrate 11. In FIG. Since the solid-state imaging device of the present embodiment is of a back-illuminated type, the back surface of the substrate 11 serves as the light incident surface (light receiving surface) of the substrate 11 . The back surface of substrate 11 is an example of the first surface of the present disclosure. The surface of substrate 11 is an example of the second aspect of the disclosure.
  • the substrate 11 includes a photodiode PD for each pixel 1.
  • a photodiode PD in each pixel 1 is formed by a pn junction between an n-type semiconductor region and a p-type semiconductor region in the substrate 11, and functions as a photoelectric conversion section.
  • the photodiode PD in each pixel 1 receives light from the back side of the substrate 11, generates signal charges corresponding to the amount of received light, and transfers the generated signal charges to the floating diffusion portion FD (B in FIG. 2). accumulate within.
  • the element isolation insulating film 12 is provided in the substrate 11 and penetrates the substrate 11 between the front surface and the rear surface of the substrate 11 .
  • the element isolation insulating film 12 includes an insulating film 12 a provided near the back surface of the substrate 11 and an insulating film 12 b provided near the front surface of the substrate 11 .
  • the insulating films 12a and 12b are, for example, SiO 2 films (silicon oxide films).
  • the solid-state imaging device of this embodiment may include a light shielding film (for example, a W (tungsten) layer) embedded in the isolation insulating film 12 .
  • the element isolation insulating film 12 has an annular shape surrounding each of the plurality of pixels 1 in plan view (B in FIG. 2).
  • the insulating film 13 is formed on the surface of the substrate 11 and is in contact with the surface of the substrate 11 .
  • the insulating film 13 is, for example, a SiO2 film.
  • the insulating film 13 of this embodiment is included in the transfer transistor TG (B in FIG. 2) of each pixel 1, and part of the insulating film 13 serves as the gate insulating film of the transfer transistor TG.
  • the electrode layer 14 is formed on the surface of the substrate 11 via the insulating film 13 and is in contact with the lower surface of the insulating film 13 .
  • the electrode layer 14 includes a semiconductor layer 14a provided under the insulating film 13 and a silicide layer 14b provided under the semiconductor layer 14a.
  • the electrode layer 14 of this embodiment is included in the transfer transistor TG (B in FIG. 2) of each pixel 1, and part of the electrode layer 14 serves as part of the gate electrode of the transfer transistor TG.
  • the semiconductor layer 14a is, for example, a polysilicon (Si) layer.
  • the silicide layer 14b contains, for example, a silicon (Si) element and a metal element.
  • the silicide layer 14b of the present embodiment contains one or more transition metal elements, such as at least Ti (titanium), Co (cobalt), Ni (nickel), W (tungsten), and Pt (platinum). contains any
  • the silicide layer 14b is formed, for example, by saliciding (Self-Aligned Silicide) a portion of the semiconductor layer 14a.
  • the silicide layer 14b of this embodiment functions as a reflective layer (reflector, reflector) that reflects light.
  • the silicide layer 14 b reflects light incident on the silicide layer 14 b from the on-chip lens 43 through the substrate 11 toward the substrate 11 . As a result, the light that has passed through the substrate 11 can be returned to the substrate 11 .
  • FIG. 2A shows the opening P1 provided in the insulating film 13.
  • FIG. The electrode layer 14 includes a portion that enters the opening P1. Therefore, the electrode layer 14 is electrically connected to the substrate 11 through the opening P1.
  • the semiconductor layer 14a may be a p-type or n-type semiconductor layer implanted with p-type or n-type impurity atoms in order to adjust the contact resistance with the substrate 11 .
  • the electrode layer 14 of this embodiment includes a region R1 in contact with the floating diffusion portion FD, a region R2 serving as the gate electrode of each transfer transistor TG, and another region R3. R1, R2, R3 are separated from each other (Fig. 3).
  • the electrode layer 14 shown in A of FIG. 2 is included in the region R3.
  • the region R1 is electrically connected to the substrate 11
  • the region R2 is electrically insulated from the substrate 11
  • the region R3 is electrically connected to the substrate 11.
  • the interlayer insulating film 15 is formed on the surface of the substrate 11 and covers the insulating film 13 and the electrode layer 14 .
  • the interlayer insulating film 15 may be formed of one type of insulating film, or may be formed of two or more types of insulating films.
  • the contact plug 16 is formed under the electrode layer 14 within the interlayer insulating film 15 . A portion of the contact plug 16 is formed within the second layer 20 . As shown in FIG. 2A, the contact plug 16 is in contact with the silicide layer 14b and electrically connected to the electrode layer 14. As shown in FIG. Since the contact plug 16 of this embodiment is electrically connected to the ground potential, the potential of the substrate 11 can be fixed to the ground potential via the electrode layer 14 .
  • the substrate 21 is arranged on the surface side of the substrate 11 , specifically, below the interlayer insulating film 15 .
  • the substrate 21 is, for example, a semiconductor substrate such as a Si substrate. 2A, the ⁇ Z direction surface (lower surface) of the substrate 21 is the front surface of the substrate 21, and the +Z direction surface (upper surface) of the substrate 21 is the rear surface of the substrate 21. In FIG.
  • the second layer 20 comprises a plurality of interlayer insulating films 22 laminated under the substrate 21 and a plurality of wiring layers 23 formed within these interlayer insulating films 22 . These wiring layers 23 form a multilayer wiring structure within the second layer 20 .
  • the lowest wiring layer 23 includes a plurality of metal pads for bonding the second layer 20 and the third layer 30 together.
  • Each interlayer insulating film 22 may be formed of one type of insulating film, or may be formed of two or more types of insulating films.
  • the second layer 20 has a plurality of pixel transistors Tr provided under the substrate 21 .
  • Each of these pixel transistors Tr is provided with a gate insulating film 24 formed under the substrate 21, a gate electrode 25 formed under the gate insulating film 24, and the substrate 21 so as to sandwich the gate electrode 25. and two diffusion layers 26 .
  • These diffusion layers 26 are a source diffusion layer and a drain diffusion layer of each pixel transistor Tr.
  • Each pixel transistor Tr in the second layer 20 is electrically connected to the wiring layer 23 via a contact plug 27 provided under the gate electrode 25 .
  • Each pixel transistor Tr in the second layer 20 is further electrically connected to the wiring layer 23 via a contact plug 28 provided under the diffusion layer 26 .
  • FIG. 2A illustrates two pixel transistors Tr in the second layer 20, two contact plugs 27 for these pixel transistors Tr, and two contact plugs 28 for these pixel transistors Tr.
  • the substrate 31 is arranged on the surface side of the substrate 11 with the substrate 21 interposed therebetween.
  • the substrate 31 is, for example, a semiconductor substrate such as a Si substrate.
  • the +Z direction surface (upper surface) of the substrate 31 is the front surface of the substrate 31, and the ⁇ Z direction surface (lower surface) of the substrate 31 is the rear surface of the substrate 31.
  • the +Z direction surface (upper surface) of the substrate 31 is the front surface of the substrate 31
  • the ⁇ Z direction surface (lower surface) of the substrate 31 is the rear surface of the substrate 31.
  • the third layer 30 includes a plurality of interlayer insulating films 32 laminated on the substrate 31 and a plurality of wiring layers 33 formed within these interlayer insulating films 32 . These wiring layers 33 form a multilayer wiring structure within the third layer 30 .
  • the uppermost wiring layer 33 includes a plurality of metal pads for bonding the second layer 20 and the third layer 30 together.
  • the uppermost interlayer insulating film 32 and the uppermost wiring layer 33 are provided under the lowermost interlayer insulating film 22 and the lowermost wiring layer 23, respectively.
  • Each interlayer insulating film 32 may be formed of one type of insulating film, or may be formed of two or more types of insulating films.
  • the third layer 30 has a plurality of pixel transistors Tr provided on the substrate 31 .
  • Each of these pixel transistors Tr includes a gate insulating film 34 formed on a substrate 31, a gate electrode 35 formed on the gate insulating film 34, and a gate electrode 35 provided in the substrate 31 so as to sandwich the gate electrode 35. and two diffusion layers 36 .
  • These diffusion layers 36 are a source diffusion layer and a drain diffusion layer of each pixel transistor Tr.
  • Each pixel transistor Tr in the third layer 30 is electrically connected to the wiring layer 33 via a contact plug 37 provided on the gate electrode 35 .
  • Each pixel transistor Tr in the third layer 30 is further electrically connected to the wiring layer 33 via a contact plug 38 provided on the diffusion layer 36 .
  • FIG. 2A illustrates three pixel transistors Tr in the third layer 20, three contact plugs 37 for these pixel transistors Tr, and one contact plug 38 for one pixel transistor Tr. there is The illustration of the contact plugs 38 for the other two pixel transistors Tr is omitted.
  • the contact plug 16 of this embodiment is electrically connected to the ground wiring included in the wiring layers 23 and 33 . Therefore, the contact plug 16 can fix the potential of the substrate 11 to the ground potential via the electrode layer 14 .
  • the contact plug 16 is in contact with the upper surface of the wiring layer 23 and is electrically connected to the wiring layer 23 .
  • the planarizing film 41 is formed on the substrate 11 so as to cover the back surface of the substrate 11, thereby making the surface on the back surface of the substrate 11 flat.
  • the planarizing film 41 is, for example, an organic film such as a resin film.
  • the filter layer 42 has a function of transmitting light of a predetermined wavelength, and is formed on the planarizing film 41 for each pixel 1 .
  • red (R), green (G), and blue (B) filter layers 42 are arranged above the photodiodes PD of the red, green, and blue pixels 1, respectively.
  • the filter layer 42 for infrared light may be arranged above the photodiode PD of the pixel 1 for infrared light. Light transmitted through each filter layer 42 enters the photodiode PD via the planarization film 41 .
  • the on-chip lens 43 has a function of condensing incident light, and is formed for each pixel 1 on the filter layer 42 . Light condensed by each on-chip lens 43 enters the photodiode PD via the filter layer 42 and the planarization film 41 .
  • the light incident on the on-chip lens 43 is condensed by the on-chip lens 43, passes through the filter layer 42, and enters the photodiode PD.
  • the photodiode PD photoelectrically converts this light into electric charges to generate signal charges.
  • Signal charges are output as pixel signals through vertical signal lines 8 in the wiring layers 23 and 33 .
  • silicide layer 14b (reflective layer) of the present embodiment will now be described with reference to FIG. 2A.
  • the solid-state imaging device of this embodiment includes a reflective layer within the multilayer wiring structure provided on the surface side of the substrate 11, that is, within the wiring layers 23 and 33.
  • FIG. since the distance between the substrate 11 and the reflective layer is large, light transmitted through the substrate 11 in one pixel 1 may be reflected to the substrate 11 in another pixel 1 . In other words, there may be a color mixing path between the substrate 11 and the reflective layer. As a result, reflection of light on the reflective layer may cause color mixture.
  • the solid-state imaging device of this embodiment includes a reflective layer so as to be in wide contact with the surface of the substrate 11 .
  • the reflective layer since the distance between the substrate 11 and the reflective layer is small, the appearance of the color mixing path can be suppressed.
  • the reflective layer may cause a large leakage current. For example, if the reflective layer is in contact with the source diffusion layer and the drain diffusion layer of a certain transistor, leakage current may occur in this transistor, degrading the dark characteristics of the solid-state imaging device.
  • this reflective layer is a silicide layer
  • the reflective layer is arranged so as not to be in contact with the source diffusion layer and the drain diffusion layer, the area of the reflective layer is reduced, and light is less likely to hit the reflective layer. This becomes more pronounced as the degree of integration of the solid-state imaging device increases.
  • the solid-state imaging device of this embodiment includes a silicide layer 14b (reflective layer) in the electrode layer 14 provided on the surface of the substrate 11 with the insulating film 13 interposed therebetween.
  • a silicide layer 14b reflective layer
  • the distance between the substrate 11 and the reflective layer can be reduced, and the appearance of a mixed color path can be suppressed.
  • the reflective layer of the present embodiment is formed on the surface of the substrate 11 with the insulating film 13 interposed therebetween, the reflective layer may not be in contact with the surface of the substrate 11 at all, or may be limited to a partial area on the surface of the substrate 11 . can be made to touch.
  • the solid-state imaging device of this embodiment has a three-layer structure including a first layer 10, a second layer 20, and a third layer 30, and includes three substrates 11, 21, and 31. ing.
  • This allows the pixel transistor Tr to be arranged on the surface of the substrate 21 or the substrate 31 instead of being arranged on the surface of the substrate 11 . Therefore, according to the present embodiment, it is possible to prevent the presence of the pixel transistor Tr from hindering the placement of the silicide layer 14b.
  • the solid-state imaging device of this embodiment may have an N-layer structure including N substrates (N is an integer equal to or greater than 4).
  • the solid-state imaging device of this embodiment further includes a plurality of contact plugs 51 and a plurality of openings P2 provided in the insulating film 13, as shown in FIG. 2B. These details will be described later with reference to FIG.
  • FIG. 3 is an enlarged cross-sectional view showing the structure of the solid-state imaging device of the first embodiment.
  • FIG. 3 shows a cross section along line B-B' shown in B of FIG.
  • the solid-state imaging device of the present embodiment includes a contact plug 51, a plurality of contact plugs 52, a diffusion layer 53 in each pixel 1, and sidewall insulation of each transfer transistor TG.
  • membrane 54 (FIG. 3).
  • the diffusion layer 53 in each pixel 1 is formed in the substrate 11 near the surface of the substrate 11 to form a floating diffusion portion FD.
  • the sidewall insulating film 54 of each transfer transistor TG is formed on both side surfaces of the electrode layer 14 (gate electrode) of each transfer transistor TG.
  • the electrode layer 14 shown in FIG. 3 includes a region R1 in contact with the floating diffusion portion FD, a region R2 serving as the gate electrode of the transfer transistor TG, and another region R3. , are separated from each other.
  • the regions R1 and R2 are provided for the floating diffusion portion FD and the transfer transistor TG, respectively, while the region R3 is provided as a reflective layer. Therefore, the areas of the regions R1 and R2 are set small, but the area of the region R3 is set large.
  • Regions R1, R2, and R3 are examples of first, second, and third regions of the present disclosure, respectively.
  • the regions R1 and R2 are provided for the floating diffusion portion FD and the transfer transistor TG, respectively, they also function as reflective layers.
  • FIG. 3 further shows a plurality of openings P1 provided in the insulating film 13 on the region R3 and openings P2 provided in the insulating film 13 on the region R1.
  • the opening P1 shown in FIG. 3 is provided in the insulating film 13 above the region R3 in the same manner as the opening P1 shown in FIG. is provided.
  • Openings P2 and P1 are examples of first and second openings of the present disclosure, respectively.
  • a region R1 of the electrode layer 14 includes a portion that enters the opening P2. Therefore, the region R1 of the electrode layer 14 is electrically connected to the substrate 11 through the opening P2, and more specifically, electrically connected to the floating diffusion portion FD. Similarly, the region R3 of the electrode layer 14 includes a portion extending into the opening P1. Therefore, the region R3 of the electrode layer 14 is electrically connected to the substrate 11 through the opening P1. On the other hand, the region R ⁇ b>2 of the electrode layer 14 is electrically insulated from the substrate 11 .
  • the electrode layer 14 of the present embodiment is formed by forming a region R2 on the surface of the substrate 11 and then forming regions R1 and R3 on the surface of the substrate 11. Therefore, the thickness of the region R2 is different from the thicknesses of the regions R1 and R3 as shown in FIG. 3, and specifically, is thicker than the thicknesses of the regions R1 and R3. This makes it possible to reduce the thickness of the region R3, which is the reflective layer. Note that the thickness of the region R2 may be different from only one of the thickness of the region R1 and the thickness of the region R3.
  • FIG. 3 further shows contact plugs 51 provided on the bottom surface of region R1, a plurality of contact plugs 52 provided on the bottom surface of region R2, and a plurality of contact plugs 16 provided on the bottom surface of region R3.
  • These contact plugs 51, 52 and 16 are electrically connected to the wiring layers 23 and 33 (A in FIG. 2).
  • the contact plug 16 is electrically connected to the ground wiring in the wiring layers 23 and 33, and can supply the ground potential to the region R3.
  • Contact plugs 51, 52, and 53 are examples of first, second, and third contact plugs, respectively.
  • FIG. 4 is a cross-sectional view showing the structure of a solid-state imaging device according to a modification of the first embodiment.
  • FIG. 4A shows a cross section along line B-B' shown in FIG. 2B.
  • FIG. 4B shows a cross section along line C-C' shown in FIG. 2B.
  • the solid-state imaging device of this modification includes the same components as the solid-state imaging device of this embodiment shown in FIGS. 2A and 3.
  • FIG. the opening P1 shown in FIG. 4B is provided at a different position from the opening P1 shown in FIG. 2A and the opening P1 shown in FIG.
  • the electrode layer 14 of this modification is formed on the surface of the substrate 11 with the insulating film 13 interposed therebetween, similarly to the electrode layer 14 of this embodiment, the electrode layer 14 should be completely out of contact with the surface of the substrate 11, It is possible to make contact with the surface of the substrate 11 only in a partial area.
  • the electrode layer 14 of this modification is in contact with the surface of the substrate 11 only at the opening P1 and the like, and the silicide layer 14b of this modification is not in contact with the surface of the substrate 11 at all. This makes it possible to prevent the silicide layer 14b from causing a large leak current.
  • the entire electrode layer 14 may be the silicide layer 14b.
  • the silicide layer 14b is in contact with the surface of the substrate 11 only at the opening P1 or the like.
  • the silicide layer 14b since the silicide layer 14b is not in contact with the surface of the substrate 11, it is possible to prevent the silicide layer 14b from causing a large leak current. This is also applicable to the electrode layer 14 of this embodiment.
  • FIG. 5 is a cross-sectional view and mathematical expressions for explaining the characteristics of the solid-state imaging device of the first embodiment.
  • FIG. 5A shows a model for calculating the energy reflectance of the silicide layer 14b of this embodiment by the effective Fresnel coefficient method.
  • 5A shows a lower layer 61, a reflective layer 62 formed on the lower layer 61, and an upper layer 63 formed on the reflective layer 62.
  • the reflective layer 62 includes N layers 62 1 , 62 2 , .
  • a of FIG. 5 shows how light incident on the reflective layer 62 from the upper layer 63 is transmitted through the reflective layer 62 and reflected within the reflective layer 62 .
  • n j , k j , d j , and R j shown in FIG. 5A denote the refractive index, extinction coefficient, thickness, and amplitude reflectance of layer 62 j (j is an integer from 1 to N), respectively. ).
  • Symbol r j denotes the Fresnel reflection coefficient at the interface between layer 62 j and the layer below it.
  • Symbols n 0 , k 0 and R 0 denote the refractive index, extinction coefficient and amplitude reflectance of the lower layer 61, respectively.
  • Symbols n N+1 and k N+1 indicate the refractive index and extinction coefficient of the upper layer 63, respectively.
  • Symbol r N+1 denotes the Fresnel reflection coefficient at the interface between the upper layer 63 and the layer below it.
  • Equation (2) is a formula for calculating the amplitude reflectance R j , and the amplitude reflectance R j is composed of the amplitude reflectance R j ⁇ 1 , the Fresnel reflection coefficient r j+1 , the refractive index n j , and the thickness d j and can be calculated using Symbol ⁇ indicates the wavelength of light.
  • the amplitude reflectance R j can be calculated by calculating the amplitude reflectances R 1 , R 2 , . . . , R j ⁇ 1 in order.
  • Formula (3) is a formula for calculating the energy reflectance R of the reflective layer 62 .
  • the amplitude reflectance R is the square of the norm of the amplitude reflectance RN calculated from the equation (2).
  • FIG. 6 is a cross-sectional view and graph for explaining the characteristics of the solid-state imaging device of the first embodiment.
  • FIG. 6A shows a specific model for calculating the energy reflectance of the silicide layer 14b of this embodiment by the effective Fresnel coefficient method.
  • FIG. 6A shows that the interlayer insulating film 15, the silicide layer 14b, and the semiconductor layer 14a of this embodiment correspond to the lower layer 61, the reflective layer 62, and the upper layer 63 shown in FIG. 5A, respectively. showing.
  • the energy reflectance R of the silicide layer 14b can be calculated.
  • FIG. 6B shows calculation results of the energy reflectance R when the silicide layer 14b is a TiSi 2 layer and when the silicide layer 14b is a CoSi 2 layer.
  • the horizontal axis represents the thickness d of the silicide layer 14b
  • the vertical axis represents the energy reflectance R of the silicide layer 14b.
  • the energy reflectance R shown in FIG. 6B is calculated with a light wavelength ⁇ of 940 nm (near-infrared light: NIR). The reason is that it is desirable for near-infrared light, for example, to reflect light on the silicide layer 14b.
  • the energy reflectance R is 100% if the thickness d is about 70 nm or more. Therefore, when the energy reflectance R of the silicide layer 14b, which is a TiSi 2 layer, is desired to be 100%, the thickness d is set to approximately 70 nm or more. Further, when the energy reflectance R of the silicide layer 14b, which is a CoSi 2 layer, is desired to be 100%, the thickness d is set to approximately 110 nm or more.
  • the energy reflectance R it may be desirable to set the energy reflectance R to less than 100%.
  • the thickness d is set so that the energy reflectance R is less than 100%.
  • the solid-state imaging device of this embodiment includes the silicide layer 14b (reflective layer) in the electrode layer 14 provided on the surface of the substrate 11 with the insulating film 13 interposed therebetween. Therefore, according to this embodiment, it is possible to form a reflective layer having suitable characteristics. For example, it is possible to suppress color mixture caused by reflection of light on the reflective layer and to suppress large leak current caused by the reflective layer.
  • (Second embodiment) 7 to 14 are cross-sectional views showing the manufacturing method of the solid-state imaging device of the second embodiment.
  • the solid-state imaging device of the first embodiment is manufactured by the steps shown in FIGS.
  • FIG. 7A shows a cross section taken along line B-B' shown in FIG. 2B. 7A, the +Z direction surface (upper surface) of the substrate 11 is the front surface of the substrate 11, and the ⁇ Z direction surface (lower surface) of the substrate 11 is the rear surface of the substrate 11.
  • insulating films 12a and 12b are formed in the isolation insulating film 12. As shown in FIG.
  • an insulating film 13 is formed on the substrate 11 and the element isolation insulating film 12 (A in FIG. 7).
  • a semiconductor layer 14a1 for forming the semiconductor layer 14a of the electrode layer 14 is deposited on the insulating film 13, and the semiconductor layer 14a1 is processed into the shape of the gate electrode (region R2) of the transfer transistor TG (FIG. 7A).
  • the semiconductor layer 14a1 is, for example, a polysilicon layer.
  • sidewall insulating films 54 are formed on both side surfaces of the gate electrode of each transfer transistor TG (A in FIG. 7).
  • a resist film 71 is formed on the insulating film 13, the semiconductor layer 14a1, and the sidewall insulating film 54, the openings H1 and H2 are formed in the resist film 71, and the insulating film 13 at the bottoms of the openings H1 and H2 is removed. is removed (B in FIG. 7).
  • an opening P1 is formed in the insulating film 13 at the bottom of the opening H1, and the upper surface of the substrate 11 is exposed in the opening H1.
  • an opening P2 is formed in the insulating film 13 at the bottom of the opening H2, and the upper surfaces of the substrate 11 and the element isolation insulating film 12 are exposed in the opening H2.
  • the resist film 71 is removed.
  • a semiconductor layer 14a2 for forming the semiconductor layer 14a of the electrode layer 14 is deposited on the substrate 11, the element isolation insulating film 12, the insulating film 13, the semiconductor layer 14a1, and the sidewall insulating film 54 (see FIG. 8).
  • the semiconductor layer 14a2 is, for example, a polysilicon layer.
  • the thickness of the semiconductor layer 14a2 is set to a thickness different from the thickness of the semiconductor layer 14a1, for example, set thinner than the thickness of the semiconductor layer 14a1.
  • the openings P1 and P2 of the insulating film 13 are filled with the semiconductor layer 14a2.
  • the semiconductor layer 14 a 2 is thereby electrically connected to the substrate 11 .
  • a resist film 72 is formed on the semiconductor layer 14a2, an opening H3 is formed in the resist film 72, and the semiconductor layer 14a2 at the bottom of the opening H3 is removed (B in FIG. 8).
  • the semiconductor layer 14a1 is exposed in the opening H3.
  • the semiconductor layer 14a2 is processed into a shape including the regions R1 and R3. In FIG. 8B, the regions R1, R2, R3 are separated from each other. After that, the resist film 72 is removed.
  • the semiconductor layer 14a including the semiconductor layers 14a1 and 14a2 is formed.
  • the thickness of the region R2 is the thickness of the semiconductor layer 14a1
  • the thicknesses of the regions R1 and R3 are the thicknesses of the semiconductor layer 14a2.
  • a silicide material layer 73 is formed on the insulating film 13, the semiconductor layer 14a1, and the sidewall insulating film 54 (A in FIG. 9).
  • the silicide material layer 73 contains a metal element for forming the silicide layer 14 b of the electrode layer 14 .
  • the silicide material layer 73 of this embodiment is a metal layer containing a transition metal element. ) layer.
  • the silicide material layer 73 may be a metal layer containing two or more transition metal elements.
  • the silicide material layer 73 and the like are annealed (B in FIG. 9).
  • part of the semiconductor layer 14a is silicided by the metal element in the silicide material layer 73, and a silicide layer 14b is formed in the semiconductor layer 14a (A in FIG. 10).
  • the surplus silicide material layer 73 is removed after the silicide layer 14b is formed.
  • the entire semiconductor layer 14a may be silicided.
  • the electrode layer 14 including the semiconductor layer 14a and the silicide layer 14b is formed.
  • the silicide layer 14b is formed on the semiconductor layer 14a within the electrode layer 14 .
  • Each of the regions R1, R2, R3 includes a semiconductor layer 14a and a silicide layer 14b.
  • the silicide layer 14b and the like are annealed (B in FIG. 10). As a result, the film quality of the silicide layer 14b is improved.
  • insulating films 15a, 15b, 15c, 15d, and 15e are formed in order on the insulating film 13, the semiconductor layer 14a1, and the sidewall insulating film 54 (A in FIG. 11). As a result, an interlayer insulating film 15 including these insulating films 15a-15e is formed. Next, the interlayer insulating film 15 and the substrate 21 are bonded (A in FIG. 11).
  • a resist film 74 is formed on the substrate 21, a plurality of openings H4 are formed in the resist film 74, and ions are implanted into the substrate 21 at the bottoms of these openings H4 (B in FIG. 11). . As a result, a plurality of diffusion layers 21a are formed in the substrate 21 at the bottoms of these openings H4. After that, the resist film 74 is removed.
  • a gate insulating film 24 is formed on the diffusion layer 21a of the substrate 21, an element isolation trench is formed in the substrate 21, and an element isolation insulating film 75 is formed in the element isolation trench (A in FIG. 12).
  • the element isolation insulating film 75 is, for example, a SiO 2 film.
  • a gate electrode 25 is formed on the gate insulating film 24 (B in FIG. 12).
  • a plurality of pixel transistors Tr are formed on the substrate 21 .
  • the source diffusion layer and the drain diffusion layer (diffusion layer 26) of these pixel transistors Tr are formed in a process described later.
  • the element isolation insulating film 75 described above is interposed between these pixel transistors Tr.
  • a resist film 76 is formed on the substrate 21 and the element isolation insulating film 75, and a plurality of openings H5 are formed in the resist film 76 (A in FIG. 13).
  • the pixel transistor Tr and the substrate 21 in the vicinity thereof are exposed at the bottom of the opening H5.
  • ions are implanted into the substrate 21 at the bottom of the opening H5 (A in FIG. 13).
  • the source diffusion layer and the drain diffusion layer (diffusion layer 26) of each pixel transistor Tr are formed in the substrate 21.
  • the resist film 76 is removed.
  • insulating films 22a and 22b are formed in order on the substrate 21 and the element isolation insulating film 75 (B in FIG. 13). As a result, an interlayer insulating film 22 including these insulating films 22a and 22b is formed.
  • contact plugs 16, 27, 28, 51 and 52 are formed in the interlayer insulating films 15 and 22 (B in FIG. 13). After that, a plurality of interlayer insulating films 22 and wiring layers 23 are formed on the interlayer insulating film 22 shown in FIG. 13B (see FIG. 2A). Thus, the first layer 10 and the second layer 20 of the solid-state imaging device are formed.
  • the third layer 30 of the solid-state imaging device includes a plurality of interlayer insulating films 32, a plurality of wiring layers 33, a gate insulating film 34 of each pixel transistor Tr, a gate electrode 35, and a plurality of wiring layers 33 on or in the substrate 31. , a plurality of diffusion layers 36, a plurality of contact plugs 37, and a contact plug 38 are formed (FIG. 14).
  • FIG. 14 shows the first layer 10 , the second layer 20 provided on the lower surface of the first layer 10 , and the third layer 30 attached to the lower surface of the second layer 20 .
  • the ⁇ Z direction surface (lower surface) of the substrate 11 is the front surface of the substrate 11
  • the +Z direction surface (upper surface) of the substrate 11 is the rear surface of the substrate 11 .
  • a planarizing film 41, a plurality of filter layers 42, and a plurality of on-chip lenses 43 are sequentially formed on the upper surface (back surface) of the substrate 11 shown in FIG. 14 (see A in FIG. 2).
  • the solid-state imaging device of the first embodiment is manufactured.
  • a solid-state imaging device having the silicide layer 14b (reflective layer) on the surface side of the substrate 11 is manufactured. Therefore, according to this embodiment, it is possible to form a reflective layer having suitable characteristics. For example, it is possible to suppress color mixture caused by reflection of light on the reflective layer and to suppress large leak current caused by the reflective layer.
  • FIG. 15 is a block diagram illustrating a configuration example of an electronic device;
  • the electrical device shown in FIG. 15 is a camera 100. As shown in FIG.
  • the camera 100 includes an optical unit 101 including a lens group and the like, an imaging device 102 that is the solid-state imaging device of the first embodiment, a DSP (Digital Signal Processor) circuit 103 that is a camera signal processing circuit, a frame memory 104, A display unit 105 , a recording unit 106 , an operation unit 107 and a power supply unit 108 are provided.
  • DSP circuit 103 , frame memory 104 , display section 105 , recording section 106 , operation section 107 and power supply section 108 are interconnected via bus line 109 .
  • the optical unit 101 captures incident light (image light) from a subject and forms an image on the imaging surface of the imaging device 102 .
  • the imaging device 102 converts the amount of incident light imaged on the imaging surface by the optical unit 101 into an electric signal on a pixel-by-pixel basis, and outputs the electric signal as a pixel signal.
  • the DSP circuit 103 performs signal processing on pixel signals output by the imaging device 102 .
  • a frame memory 104 is a memory for storing one screen of a moving image or a still image captured by the imaging device 102 .
  • the display unit 105 includes a panel-type display device such as a liquid crystal panel or an organic EL panel, and displays moving images or still images captured by the imaging device 102 .
  • a recording unit 106 records a moving image or still image captured by the imaging device 102 in a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 107 issues operation commands for various functions of the camera 100 under the user's operation.
  • the power supply unit 108 appropriately supplies various power supplies as operating power supplies for the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, and the operation unit 107 to these supply targets.
  • the solid-state imaging device of the first embodiment As the imaging device 102, acquisition of good images can be expected.
  • the solid-state imaging device can be applied to various other products.
  • the solid-state imaging device may be mounted on various moving bodies such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots.
  • FIG. 16 is a block diagram showing a configuration example of a mobile body control system.
  • the mobile control system shown in FIG. 16 is a vehicle control system 200 .
  • a vehicle control system 200 includes a plurality of electronic control units connected via a communication network 201 .
  • the vehicle control system 200 includes a drive system control unit 210, a body system control unit 220, an exterior information detection unit 230, an interior information detection unit 240, and an integrated control unit 250.
  • FIG. 16 further shows a microcomputer 251 , an audio/image output section 252 , and an in-vehicle network I/F (Interface) 253 as components of the integrated control unit 250 .
  • the drive system control unit 210 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 210 includes a driving force generating device for generating driving force of the vehicle, such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a rudder of the vehicle. It functions as a control device such as a steering mechanism that adjusts the angle and a braking device that generates the braking force of the vehicle.
  • the body system control unit 220 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 220 functions as a control device for smart key systems, keyless entry systems, power window devices, various lamps (eg, headlamps, back lamps, brake lamps, winkers, fog lamps).
  • the body system control unit 220 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • Body system control unit 220 receives such radio wave or signal input and controls the door lock device, power window device, lamps, and the like of the vehicle.
  • the vehicle external information detection unit 230 detects information external to the vehicle in which the vehicle control system 200 is installed.
  • an imaging unit 231 is connected to the vehicle exterior information detection unit 230 .
  • the vehicle exterior information detection unit 230 causes the imaging section 231 to capture an image outside the vehicle, and receives the captured image from the imaging section 231 .
  • the vehicle exterior information detection unit 230 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, and characters on the road surface based on the received image.
  • the imaging unit 231 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 231 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 231 may be visible light or non-visible light such as infrared rays.
  • the imaging unit 231 includes the solid-state imaging device of the first embodiment.
  • the in-vehicle information detection unit 240 detects information inside the vehicle in which the vehicle control system 200 is installed.
  • the in-vehicle information detection unit 240 is connected to, for example, a driver state detection section 241 that detects the state of the driver.
  • the driver state detection unit 241 includes a camera that captures an image of the driver, and the in-vehicle information detection unit 240 detects the degree of fatigue or the degree of concentration of the driver based on the detection information input from the driver state detection unit 241. may be calculated, and it may be determined whether the driver is dozing off.
  • This camera may include the solid-state imaging device of the first embodiment, and may be the camera 100 shown in FIG. 15, for example.
  • the microcomputer 251 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 230 or the vehicle interior information detection unit 240, and controls the drive system.
  • a control command can be output to the unit 210 .
  • the microcomputer 251 performs coordinated control aimed at realizing ADAS (Advanced Driver Assistance System) functions such as vehicle collision avoidance, shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, collision warning, and lane departure warning. It can be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 251 controls the driving force generator, the steering mechanism, or the braking device based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 230 or the vehicle interior information detection unit 240, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, which does not depend on operation.
  • the microcomputer 251 can output a control command to the body system control unit 220 based on the information outside the vehicle acquired by the information detection unit 230 outside the vehicle.
  • the microcomputer 251 controls the headlights according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 230, and performs coordinated control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 252 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 261, a display section 262, and an instrument panel 263 are shown as such output devices.
  • Display 262 may include, for example, an on-board display or a heads-up display.
  • FIG. 17 is a plan view showing a specific example of the setting positions of the imaging unit 231 in FIG.
  • the imaging units 301 , 302 , 303 , 304 , and 305 are provided at positions such as the front nose of the vehicle 300 , the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An imaging unit 301 provided in the front nose mainly acquires an image in front of the vehicle 300 .
  • An imaging unit 302 provided in the left side mirror and an imaging unit 303 provided in the right side mirror mainly acquire side images of the vehicle 300 .
  • An imaging unit 304 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 300 .
  • An imaging unit 305 provided above the windshield in the vehicle compartment mainly acquires an image in front of the vehicle 300 .
  • the imaging unit 305 is used, for example, to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 17 shows an example of the imaging range of the imaging units 301, 302, 303, and 304 (hereinafter referred to as "imaging units 301 to 304").
  • An imaging range 311 indicates the imaging range of the imaging unit 301 provided in the front nose.
  • An imaging range 312 indicates the imaging range of the imaging unit 302 provided on the left side mirror.
  • An imaging range 313 indicates the imaging range of the imaging unit 303 provided on the right side mirror.
  • An imaging range 314 indicates the imaging range of the imaging unit 304 provided on the rear bumper or the back door. For example, by superimposing the image data captured by the imaging units 301 to 304, a bird's-eye view image of the vehicle 300 viewed from above can be obtained.
  • the imaging ranges 311, 312, 313, and 314 are hereinafter referred to as "imaging ranges 311 to 314".
  • At least one of the imaging units 301 to 304 may have a function of acquiring distance information.
  • at least one of the imaging units 301 to 304 may be a stereo camera including a plurality of imaging devices, or may be an imaging device having pixels for phase difference detection.
  • the microcomputer 251 (FIG. 16), based on the distance information obtained from the imaging units 301 to 304, determines the distance to each three-dimensional object within the imaging ranges 311 to 314 and changes in this distance over time (vehicle 300 relative velocity) is calculated. Based on these calculation results, the microcomputer 251 selects the closest three-dimensional object on the course of the vehicle 300 and traveling in substantially the same direction as the vehicle 300 at a predetermined speed (for example, 0 km/h or more). , can be extracted as the preceding vehicle. Furthermore, the microcomputer 251 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic braking control (including following stop control) and automatic acceleration control (including following start control). Thus, according to this example, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle autonomously travels without depending on the operation of the driver.
  • automatic braking control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 251 classifies three-dimensional object data on three-dimensional objects into three-dimensional objects such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, etc., based on the distance information obtained from the imaging units 301 to 304. can be used for automatic avoidance of obstacles.
  • the microcomputer 251 distinguishes obstacles around the vehicle 300 into those that are visible to the driver of the vehicle 300 and those that are difficult to see. Then, the microcomputer 251 judges the collision risk indicating the degree of danger of collision with each obstacle. By outputting an alarm to the driver via the drive system control unit 210 and performing forced deceleration and avoidance steering via the drive system control unit 210, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 301 to 304 may be an infrared camera that detects infrared rays.
  • the microcomputer 251 can recognize a pedestrian by determining whether or not the pedestrian is present in the captured images of the imaging units 301 to 304 .
  • pedestrian recognition includes, for example, a procedure for extracting feature points in images captured by the imaging units 301 to 304 as infrared cameras, and a pattern matching process performed on a series of feature points indicating the outline of an object to determine whether the pedestrian is a pedestrian or not.
  • the audio image output unit 252 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 262 . Also, the audio/image output unit 252 may control the display unit 262 to display an icon or the like indicating a pedestrian at a desired position.
  • FIG. 18 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology (this technology) according to the present disclosure can be applied.
  • FIG. 18 shows how an operator (physician) 531 is performing surgery on a patient 532 on a patient bed 533 using the endoscopic surgery system 400 .
  • the endoscopic surgery system 400 includes an endoscope 500, other surgical instruments 510 such as a pneumoperitoneum tube 511 and an energy treatment instrument 512, and a support arm device 520 that supports the endoscope 500. , and a cart 600 loaded with various devices for endoscopic surgery.
  • the endoscope 500 is composed of a lens barrel 501 whose distal end is inserted into the body cavity of a patient 532 and a camera head 502 connected to the proximal end of the lens barrel 501 .
  • the endoscope 500 configured as a so-called rigid scope having a rigid barrel 501 is illustrated, but the endoscope 500 may be configured as a so-called flexible scope having a flexible barrel. good.
  • the tip of the lens barrel 501 is provided with an opening into which the objective lens is fitted.
  • a light source device 603 is connected to the endoscope 500, and light generated by the light source device 603 is guided to the tip of the lens barrel 501 by a light guide extending inside the lens barrel 501, where it reaches the objective. Through the lens, the light is irradiated toward the observation object inside the body cavity of the patient 532 .
  • the endoscope 500 may be a straight scope, a perspective scope, or a side scope.
  • An optical system and an imaging element are provided inside the camera head 502, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging element photoelectrically converts the observation light to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 601 as RAW data.
  • CCU Camera Control Unit
  • the CCU 601 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 500 and the display device 602 in an integrated manner. Further, the CCU 601 receives an image signal from the camera head 502 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 602 displays an image based on an image signal subjected to image processing by the CCU 601 under the control of the CCU 601 .
  • the light source device 603 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 500 with irradiation light for photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 500 with irradiation light for photographing a surgical site or the like.
  • the input device 604 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 400 via the input device 604 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 500 .
  • the treatment instrument control device 605 controls driving of the energy treatment instrument 512 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 606 inflates the body cavity of the patient 532 for the purpose of securing the visual field of the endoscope 500 and securing the operator's working space. send in.
  • a recorder 607 is a device capable of recording various types of information regarding surgery.
  • a printer 608 is a device capable of printing various types of information about surgery in various formats such as text, images, and graphs.
  • the light source device 603 that supplies the endoscope 500 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high precision. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation object in a time division manner, and by controlling the driving of the imaging device of the camera head 502 in synchronization with the irradiation timing, each of the RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.
  • the driving of the light source device 603 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging element of the camera head 502 in synchronization with the timing of the change in the intensity of the light to obtain images in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 603 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissues, by irradiating light with a narrower band than the irradiation light (i.e., white light) during normal observation, the mucosal surface layer So-called narrow band imaging is performed, in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 603 can be configured to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 19 is a block diagram showing an example of functional configurations of the camera head 502 and CCU 601 shown in FIG.
  • the camera head 502 has a lens unit 701 , an imaging section 702 , a drive section 703 , a communication section 704 and a camera head control section 705 .
  • CCU 601 has communication unit 711 , image processing unit 712 , and control unit 713 .
  • the camera head 502 and the CCU 601 are communicably connected to each other via a transmission cable 700 .
  • a lens unit 701 is an optical system provided at a connection with the lens barrel 501 . Observation light captured from the tip of the lens barrel 501 is guided to the camera head 502 and enters the lens unit 701 .
  • a lens unit 701 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 702 is composed of an imaging device.
  • the number of imaging elements constituting the imaging unit 702 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each imaging element, and a color image may be obtained by synthesizing the signals.
  • the imaging unit 702 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 531 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of the lens unit 701 may be provided corresponding to each imaging element.
  • the imaging unit 702 is, for example, the solid-state imaging device of the first embodiment.
  • the imaging unit 702 does not necessarily have to be provided in the camera head 502 .
  • the imaging unit 702 may be provided inside the lens barrel 501 immediately after the objective lens.
  • the drive unit 703 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 701 by a predetermined distance along the optical axis under the control of the camera head control unit 705 . Thereby, the magnification and focus of the image captured by the imaging unit 702 can be appropriately adjusted.
  • a communication unit 704 is configured by a communication device for transmitting and receiving various information to and from the CCU 601 .
  • the communication unit 704 transmits the image signal obtained from the imaging unit 702 to the CCU 601 via the transmission cable 700 as RAW data.
  • the communication unit 704 receives a control signal for controlling driving of the camera head 502 from the CCU 601 and supplies it to the camera head control unit 705 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 713 of the CCU 601 based on the acquired image signal. good.
  • the endoscope 500 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • a camera head control unit 705 controls driving of the camera head 502 based on the control signal from the CCU 601 received via the communication unit 704 .
  • a communication unit 711 is configured by a communication device for transmitting and receiving various information to and from the camera head 502 .
  • the communication unit 711 receives image signals transmitted from the camera head 502 via the transmission cable 700 .
  • the communication unit 711 also transmits a control signal for controlling driving of the camera head 502 to the camera head 502 .
  • Image signals and control signals can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 712 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 502 .
  • the control unit 713 performs various controls related to the imaging of the surgical site and the like by the endoscope 500 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 713 generates control signals for controlling driving of the camera head 502 .
  • control unit 713 causes the display device 602 to display a captured image showing the surgical site and the like based on the image signal subjected to image processing by the image processing unit 712 .
  • the control unit 713 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 713 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 512, and the like. can recognize.
  • the control unit 713 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and displaying the surgery support information and presenting it to the operator 531, it becomes possible for the operator 531 to reduce the burden on the operator 531 and to proceed with the surgery reliably.
  • a transmission cable 700 connecting the camera head 502 and the CCU 601 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 700, but communication between the camera head 502 and the CCU 601 may be performed wirelessly.
  • a first substrate including a photoelectric conversion unit; a lens provided on the first surface side of the first substrate; an electrode layer provided on the second surface side of the first substrate via an insulating film and including a first portion containing a silicon element and a metal element; A solid-state imaging device.
  • the metal element includes at least one of Ti (titanium), Co (cobalt), Ni (nickel), W (tungsten), and Pt (platinum).
  • the electrode layer further contains a silicon element and includes a second portion provided between the insulating film and the first portion.
  • the electrode layer is a first region in contact with a floating diffusion provided in the first substrate; a second region separated from the first region and serving as a gate electrode of a transistor; a third region separated from the first region and the second region;
  • the first region is electrically connected to the first substrate,
  • the second region is electrically insulated from the first substrate, the third region is electrically connected to the first substrate;
  • the first region is electrically connected to the first substrate through a first opening provided in the insulating film
  • the third region is electrically connected to the first substrate through a second opening provided in the insulating film

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]好適な特性を有する反射層を形成することが可能な固体撮像装置およびその製造方法を提供する。 [解決手段]本開示の固体撮像装置は、光電変換部を含む第1基板と、前記第1基板の第1面側に設けられたレンズと、前記第1基板の第2面側に絶縁膜を介して設けられ、シリコン元素と金属元素とを含む第1部分を含む電極層とを備える。

Description

固体撮像装置およびその製造方法
 本開示は、固体撮像装置およびその製造方法に関する。
 固体撮像装置では、フォトダイオードを含む基板の裏面側にレンズを形成し、この基板の表面側に反射層を形成する場合がある。これにより、レンズからの光が基板を透過してしまった場合に、この光を反射層での反射により基板に戻すことが可能となる。
特開2013-38176号公報 特開2006-120805号公報
 しかしながら、基板の表面側に設けられた多層配線構造内に反射層を配置すると、反射層での光の反射が混色を引き起こすおそれがある。また、基板の表面に広く接するように反射層を配置すると、反射層が大きなリーク電流を引き起こすおそれがある。
 そこで、本開示は、好適な特性を有する反射層を形成することが可能な固体撮像装置およびその製造方法を提供する。
 本開示の第1の側面の固体撮像装置は、光電変換部を含む第1基板と、前記第1基板の第1面側に設けられたレンズと、前記第1基板の第2面側に絶縁膜を介して設けられ、シリコン元素と金属元素とを含む第1部分を含む電極層とを備える。これにより例えば、好適な特性を有する反射層(第1部分)を形成することが可能となる。例えば、反射層での光の反射が混色を引き起こすことを抑制することや、反射層が大きなリーク電流を引き起こすことを抑制することが可能となる。
 また、この第1の側面において、前記金属元素は、Ti(チタン)、Co(コバルト)、Ni(ニッケル)、W(タングステン)、およびPt(白金)の少なくともいずれかを含んでいてもよい。これにより例えば、第1部分をシリサイド層とすることが可能となる。
 また、この第1の側面において、前記第1部分は、シリサイド層でもよい。これにより例えば、反射層をシリサイド化により簡単に形成することが可能となる。
 また、この第1の側面において、前記第1部分は、前記レンズから前記第1部分に入射した光を反射させてもよい。これにより例えば、第1部分を反射層として機能させることが可能となる。
 また、この第1の側面において、前記電極層はさらに、シリコン元素を含み、前記絶縁膜と前記第1部分との間に設けられた第2部分を含んでいてもよい。これにより例えば、電極層を、半導体層(第2部分)とシリサイド層(第1部分)とを含む層とすることが可能となる。
 また、この第1の側面において、前記第2部分は、半導体層でもよい。これにより例えば、半導体層の一部をシリサイド化することにより、半導体層のシリサイド化された部分を第1部分とし、半導体層のシリサイド化されなかった部分を第2部分とすることが可能となる。
 また、この第1の側面において、前記絶縁膜は、前記第1基板の前記第2面に接しており、前記電極層は、前記絶縁膜に接していてもよい。これにより例えば、第1基板の表面に、ゲート絶縁膜を形成するための絶縁膜と、ゲート電極を形成するための電極層とを順に形成することで、反射層を形成することが可能となる。
 また、この第1の側面において、前記電極層は、前記第1基板と電気的に接続されていてもよい。これにより例えば、第1基板の電位を電極層の電位により制御することが可能となる。
 また、この第1の側面において、前記電極層は、前記絶縁膜に設けられた開口部を介して、前記第1基板と電気的に接続されていてもよい。これにより例えば、第1基板と電極層との接触面積を小さくすることが可能となり、第1基板と電極層との接触部が、大きなリーク電流を引き起こすことを抑制することが可能となる。
 また、この第1の側面の固体撮像装置は、前記第1部分に接する位置に設けられたコンタクトプラグをさらに備えていてもよい。これにより例えば、電極層の電位をコンタクトプラグの電位により制御することが可能となる。
 また、この第1の側面において、前記コンタクトプラグは、前記基板の前記第2面側に設けられた配線層と電気的に接続されていてもよい。これにより例えば、電極層の電位を配線層の電位により制御することが可能となる。
 また、この第1の側面の固体撮像装置は、前記第1基板の前記第2面側に設けられた第2基板と、前記第1基板の前記第2面側に前記第2基板を介して設けられた第3基板と、をさらに備えていてもよい。これにより例えば、反射層が、画素トランジスタを配置する妨げとなることを抑制することが可能となる。
 また、この第1の側面において、前記電極層は、前記第1基板内に設けられた浮遊拡散部に接する第1領域と、前記第1領域と分離されており、トランジスタのゲート電極である第2領域と、前記第1領域および前記第2領域と分離されている第3領域とを含んでいてもよい。これにより例えば、電極層から、ゲート電極(第2領域)とその他の部分(第1および第3領域)とを形成することが可能となる。
 また、この第1の側面において、前記第2領域の厚さは、前記第1領域の厚さ、および/または、前記第3領域の厚さと異なっていてもよい。これにより例えば、第1および/または第3領域を、第2領域を形成する材料と異なる材料で形成することが可能となる。
 また、この第1の側面において、前記第1領域は、前記第1基板と電気的に接続されており、前記第2領域は、前記第1基板と電気的に絶縁されており、前記第3領域は、前記第1基板と電気的に接続されていてもよい。これにより例えば、第2領域をゲート電極として機能させつつ、第1基板の電位を第1および/または第3領域の電位により制御することが可能となる。
 また、この第1の側面において、前記第1領域は、前記絶縁膜に設けられた第1開口部を介して、前記第1基板と電気的に接続されており、前記第3領域は、前記絶縁膜に設けられた第2開口部を介して、前記第1基板と電気的に接続されていてもよい。これにより例えば、第1基板と電極層との接触面積を小さくすることが可能となり、第1基板と電極層との接触部が、大きなリーク電流を引き起こすことを抑制することが可能となる。
 また、この第1の側面において、前記第1領域に電気的に接続された第1コンタクトプラグと、前記第2領域に電気的に接続された第2コンタクトプラグと、前記第3領域に電気的に接続された第3コンタクトプラグと、をさらに備えていてもよい。これにより例えば、第1から第3領域の電位をそれぞれ第1から第3コンタクトプラグの電位により制御することが可能となる。
 また、この第1の側面において、前記第3コンタクトプラグは、グランド電位と電気的に接続されていてもよい。これにより例えば、第3領域の電位、さらには第1基板の電位を、第3コンタクトプラグによりグランド電位に固定することが可能となる。
 本開示の第2の側面の固体撮像装置の製造方法は、第1基板内に光電変換部を形成し、前記第1基板の第1面側にレンズを形成し、前記第1基板の第2面側に絶縁膜を介して電極層を形成することを含み、前記電極層は、シリコン元素と金属元素とを含む第1部分を含む。これにより例えば、好適な特性を有する反射層(第1部分)を形成することが可能となる。例えば、反射層での光の反射が混色を引き起こすことを抑制することや、反射層が大きなリーク電流を引き起こすことを抑制することが可能となる。
 また、この第2の側面において、前記第1部分は、前記電極層の少なくとも一部をシリサイド化することで形成されてもよい。これにより例えば、反射層をシリサイド化により簡単に形成することが可能となる。
第1実施形態の固体撮像装置の構成を示すブロック図である。 第1実施形態の固体撮像装置の構造を示す断面図および平面図である。 第1実施形態の固体撮像装置の構造を示す拡大断面図である。 第1実施形態の変形例の固体撮像装置の構造を示す断面図である。 第1実施形態の固体撮像装置の特性について説明するための断面図および数式である。 第1実施形態の固体撮像装置の特性について説明するための断面図およびグラフである。 第2実施形態の固体撮像装置の製造方法を示す断面図(1/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(2/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(3/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(4/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(5/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(6/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(7/8)である。 第2実施形態の固体撮像装置の製造方法を示す断面図(8/8)である。 電子機器の構成例を示すブロック図である。 移動体制御システムの構成例を示すブロック図である。 図16の撮像部の設定位置の具体例を示す平面図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施形態を、図面を参照して説明する。
 (第1実施形態)
 図1は、第1実施形態の固体撮像装置の構成を示すブロック図である。
 図1の固体撮像装置は、CMOS(Complementary Metal Oxide Semiconductor)型のイメージセンサであり、複数の画素1を有する画素アレイ領域2と、制御回路3と、垂直駆動回路4と、複数のカラム信号処理回路5と、水平駆動回路6と、出力回路7と、複数の垂直信号線8と、水平信号線9とを備えている。
 各画素1は、光電変換部として機能するフォトダイオードと、画素トランジスタとして機能するMOSトランジスタとを備えている。画素トランジスタの例は、転送トランジスタ、リセットトランジスタ、増幅トランジスタ、選択トランジスタなどである。これらの画素トランジスタは、いくつかの画素1により共有されていてもよい。
 画素アレイ領域2は、2次元アレイ状に配置された複数の画素1を有している。画素アレイ領域2は、光を受光して光電変換を行い、光電変換により生成された信号電荷を出力する有効画素領域と、黒レベルの基準となる光学的黒を出力する黒基準画素領域とを含んでいる。一般に、黒基準画素領域は有効画素領域の外周部に配置されている。
 制御回路3は、垂直同期信号、水平同期信号、マスタクロックなどに基づいて、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6などの動作の基準となる種々の信号を生成する。制御回路3により生成される信号は、例えばクロック信号や制御信号であり、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6などに入力される。
 垂直駆動回路4は、例えばシフトレジスタを備えており、画素アレイ領域2内の各画素1を行単位で垂直方向に走査する。垂直駆動回路4はさらに、各画素1により生成された信号電荷に基づく画素信号を、垂直信号線8を通してカラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素アレイ領域2内の画素1の列ごとに配置されており、1行分の画素1から出力された信号の信号処理を、黒基準画素領域からの信号に基づいて列ごとに行う。この信号処理の例は、ノイズ除去や信号増幅である。
 水平駆動回路6は、例えばシフトレジスタを備えており、各カラム信号処理回路5からの画素信号を水平信号線9に供給する。
 出力回路7は、各カラム信号処理回路5から水平信号線9を通して供給される信号に対し信号処理を行い、この信号処理が行われた信号を出力する。
 図2は、第1実施形態の固体撮像装置の構造を示す断面図および平面図である。
 図2のAは、図1の画素アレイ領域2内の2つの画素1を示す断面図である。図2のBは、図1の画素アレイ領域2内の4つの画素1を示す平面図である。図2のAは、図2のBに示すA-A’線に沿った断面を示している。
 図2のAおよびBは、互いに垂直なX軸、Y軸、およびZ軸を示している。X方向およびY方向は、横方向(水平方向)に相当し、Z方向は、縦方向(垂直方向)に相当している。また、+Z方向は上方向に相当し、-Z方向は下方向に相当している。なお、-Z方向は、厳密に重力方向に一致していてもよいし、厳密には重力方向に一致していなくてもよい。
 本実施形態の固体撮像装置は、図2のAに示すように、第1層10と、第2層20と、第3層30とを含む3層構造を有している。図2のAでは、第1層10下に第2層20が設けられ、第2層20下に第3層30が設けられている。さらに、本実施形態の固体撮像装置は、図2のAに示すように、第1層10上に積層された積層部40を含んでいる。
 第1層10は、基板11と、素子分離絶縁膜12と、絶縁膜13と、電極層14と、層間絶縁膜15と、コンタクトプラグ16とを備えている。素子分離絶縁膜12は、絶縁膜12aと、絶縁膜12bとを含んでいる。電極層14は、半導体層14aと、シリサイド層14bとを含んでいる。基板11は、本開示の第1基板の例である。シリサイド層14bは、本開示の第1部分の例である。半導体層14aは、本開示の第2部分の例である。
 第2層20は、基板21と、複数の層間絶縁膜22と、複数の配線層23と、各画素トランジスタTrのゲート絶縁膜24、ゲート電極25、および複数の拡散層26と、複数のコンタクトプラグ27と、複数のコンタクトプラグ28とを備えている。基板21は、本開示の第2基板の例である。
 第3層30は、基板31と、複数の層間絶縁膜32と、複数の配線層33と、各画素トランジスタTrのゲート絶縁膜34、ゲート電極35、および複数の拡散層36と、複数のコンタクトプラグ37と、コンタクトプラグ38とを備えている。基板31は、本開示の第3基板の例である。
 積層部40は、平坦化膜41と、各画素1のフィルタ層42と、各画素1のオンチップレンズ43とを備えている。オンチップレンズ43は、本開示のレンズの例である。
 以下、図2のAを参照し、本実施形態の固体撮像装置の構造を説明する。この説明の中で、図2のBも適宜参照する。
 [第1層10]
 基板11は例えば、Si(シリコン)基板などの半導体基板である。図2のAでは、基板11の-Z方向の面(下面)が、基板11の表面となっており、基板11の+Z方向の面(上面)が、基板11の裏面となっている。本実施形態の固体撮像装置は、裏面照射型であるため、基板11の裏面が、基板11の光入射面(受光面)となる。基板11の裏面は、本開示の第1面の例である。基板11の表面は、本開示の第2面の例である。
 基板11は、画素1ごとにフォトダイオードPDを含んでいる。各画素1内のフォトダイオードPDは、基板11内のn型半導体領域とp型半導体領域との間のpn接合により形成されており、光電変換部として機能する。各画素1内のフォトダイオードPDは、基板11の裏面側から光を受光し、受光した光の光量に応じた信号電荷を生成し、生成した信号電荷を浮遊拡散部FD(図2のB)内に蓄積する。
 素子分離絶縁膜12は、基板11内に設けられており、基板11の表面と裏面との間で基板11を貫通している。素子分離絶縁膜12は、基板11の裏面付近に設けられた絶縁膜12aと、基板11の表面付近に設けられた絶縁膜12bとを含んでいる。絶縁膜12a、12bは、例えばSiO膜(酸化シリコン膜)である。本実施形態の固体撮像装置は、素子分離絶縁膜12内に埋め込まれた遮光膜(例えばW(タングステン)層)を備えていてもよい。素子分離絶縁膜12は、平面視において、上記複数の画素1を画素1ごとに包囲する環状の形状を有している(図2のB)。
 絶縁膜13は、基板11の表面に形成されており、基板11の表面に接している。絶縁膜13は、例えばSiO膜である。本実施形態の絶縁膜13は、各画素1の転送トランジスタTG(図2のB)に含まれており、絶縁膜13の一部が、転送トランジスタTGのゲート絶縁膜となっている。
 電極層14は、基板11の表面に絶縁膜13を介して形成されており、絶縁膜13の下面に接している。電極層14は、絶縁膜13下に設けられた半導体層14aと、半導体層14a下に設けられたシリサイド層14bとを含んでいる。本実施形態の電極層14は、各画素1の転送トランジスタTG(図2のB)に含まれており、電極層14の一部が、転送トランジスタTGのゲート電極の一部となっている。
 半導体層14aは、例えばポリシリコン(Si)層である。シリサイド層14bは、例えばシリコン(Si)元素と金属元素とを含んでいる。本実施形態のシリサイド層14bは、1種類以上の遷移金属元素を含んでおり、例えば、Ti(チタン)、Co(コバルト)、Ni(ニッケル)、W(タングステン)、およびPt(白金)の少なくともいずれかを含んでいる。シリサイド層14bは例えば、半導体層14aの一部をサリサイド(Self-Aligned Silicide)化することで形成される。本実施形態のシリサイド層14bは、光を反射させる反射層(反射体、反射板)として機能する。図2のAでは、シリサイド層14bが、オンチップレンズ43から基板11を介してシリサイド層14bに入射した光を、基板11へと反射させている。これにより、基板11を透過してしまった光を、基板11に戻すことが可能となる。
 図2のAは、絶縁膜13に設けられた開口部P1を示している。電極層14は、開口部P1内に入り込んだ部分を含んでいる。よって、電極層14は、開口部P1を介して基板11と電気的に接続されている。なお、半導体層14aは、基板11との接触抵抗を調整するために、p型またはn型不純物原子が注入されたp型またはn型半導体層となっていてもよい。
 後述するように、本実施形態の電極層14は、浮遊拡散部FDに接する領域R1と、各転送トランジスタTGのゲート電極となっている領域R2と、その他の領域R3とを含んでおり、領域R1、R2、R3は、互いに分離されている(図3)。図2のAに示す電極層14は、領域R3に含まれている。本実施形態では、領域R1が、基板11と電気的に接続されており、領域R2が、基板11と電気的に絶縁されており、領域R3が、基板11と電気的に接続されている。
 層間絶縁膜15は、基板11の表面に形成されており、絶縁膜13および電極層14を覆っている。層間絶縁膜15は、1種類の絶縁膜で形成されていてもよいし、2種類以上の絶縁膜で形成されていてもよい。
 コンタクトプラグ16は、層間絶縁膜15内で電極層14下に形成されている。コンタクトプラグ16の一部は、第2層20内に形成されている。図2のAに示すように、コンタクトプラグ16は、シリサイド層14bに接しており、電極層14と電気的に接続されている。本実施形態のコンタクトプラグ16は、グランド電位と電気的に接続されているため、基板11の電位を電極層14を介してグランド電位に固定することができる。
 [第2層20]
 基板21は、基板11の表面側に配置されており、具体的には、層間絶縁膜15下に配置されている。基板21は例えば、Si基板などの半導体基板である。図2のAでは、基板21の-Z方向の面(下面)が、基板21の表面となっており、基板21の+Z方向の面(上面)が、基板21の裏面となっている。
 第2層20は、基板21下に積層された複数の層間絶縁膜22と、これらの層間絶縁膜22内に形成された複数の配線層23とを備えている。これらの配線層23は、第2層20内に多層配線構造を形成している。最下位の配線層23は、第2層20と第3層30とを貼り合わせるための複数の金属パッドを含んでいる。各層間絶縁膜22は、1種類の絶縁膜で形成されていてもよいし、2種類以上の絶縁膜で形成されていてもよい。
 第2層20は、基板21下に設けられた複数の画素トランジスタTrを備えている。これらの画素トランジスタTrの各々は、基板21下に形成されたゲート絶縁膜24と、ゲート絶縁膜24下に形成されたゲート電極25と、基板21内にゲート電極25を挟むように設けられた2つの拡散層26とを含んでいる。これらの拡散層26は、各画素トランジスタTrのソース拡散層およびドレイン拡散層である。
 第2層20内の各画素トランジスタTrは、ゲート電極25下に設けられたコンタクトプラグ27を介して、配線層23と電気的に接続されている。第2層20内の各画素トランジスタTrはさらに、拡散層26下に設けられたコンタクトプラグ28を介して、配線層23と電気的に接続されている。図2のAは、第2層20内の2つの画素トランジスタTrと、これらの画素トランジスタTr用の2つのコンタクトプラグ27と、これらの画素トランジスタTr用の2つのコンタクトプラグ28とを例示している。
 [第3層30]
 基板31は、基板11の表面側に、基板21を介して配置されている。基板31は例えば、Si基板などの半導体基板である。図2のAでは、基板31の+Z方向の面(上面)が、基板31の表面となっており、基板31の-Z方向の面(下面)が、基板31の裏面となっている。
 第3層30は、基板31上に積層された複数の層間絶縁膜32と、これらの層間絶縁膜32内に形成された複数の配線層33とを備えている。これらの配線層33は、第3層30内に多層配線構造を形成している。最上位の配線層33は、第2層20と第3層30とを貼り合わせるための複数の金属パッドを含んでいる。図2のAでは、最上位の層間絶縁膜32および最上位の配線層33がそれぞれ、最下位の層間絶縁膜22および最下位の配線層23下に設けられている。各層間絶縁膜32は、1種類の絶縁膜で形成されていてもよいし、2種類以上の絶縁膜で形成されていてもよい。
 第3層30は、基板31上に設けられた複数の画素トランジスタTrを備えている。これらの画素トランジスタTrの各々は、基板31上に形成されたゲート絶縁膜34と、ゲート絶縁膜34上に形成されたゲート電極35と、基板31内にゲート電極35を挟むように設けられた2つの拡散層36とを含んでいる。これらの拡散層36は、各画素トランジスタTrのソース拡散層およびドレイン拡散層である。
 第3層30内の各画素トランジスタTrは、ゲート電極35上に設けられたコンタクトプラグ37を介して、配線層33と電気的に接続されている。第3層30内の各画素トランジスタTrはさらに、拡散層36上に設けられたコンタクトプラグ38を介して、配線層33と電気的に接続されている。図2のAは、第3層20内の3つの画素トランジスタTrと、これらの画素トランジスタTr用の3つのコンタクトプラグ37と、1つの画素トランジスタTr用の1つのコンタクトプラグ38とを例示している。他の2つの画素トランジスタTr用のコンタクトプラグ38については、図示が省略されている。
 なお、本実施形態のコンタクトプラグ16は、配線層23、33に含まれるグランド配線と電気的に接続されている。よって、コンタクトプラグ16は、基板11の電位を電極層14を介してグランド電位に固定することができる。図2のAでは、コンタクトプラグ16が、配線層23の上面に接しており、配線層23と電気的に接続されている。
 [積層部40]
 平坦化膜41は、基板11の裏面を覆うように基板11上に形成されており、これにより基板11の裏面上の面が平坦となっている。平坦化膜41は例えば、樹脂膜などの有機膜である。
 フィルタ層42は、所定の波長の光を透過させる作用を有し、平坦化膜41上に画素1ごとに形成されている。例えば、赤色(R)、緑色(G)、および青色(B)用のフィルタ層42がそれぞれ、赤色、緑色、および青色の画素1のフォトダイオードPDの上方に配置されている。さらに、赤外光用のフィルタ層42が、赤外光の画素1のフォトダイオードPDの上方に配置されていてもよい。各フィルタ層42を透過した光は、平坦化膜41を介してフォトダイオードPDに入射する。
 オンチップレンズ43は、入射した光を集光する作用を有し、フィルタ層42上に画素1ごとに形成されている。各オンチップレンズ43により集光された光は、フィルタ層42と平坦化膜41とを介してフォトダイオードPDに入射する。
 本実施形態では、オンチップレンズ43に入射した光が、オンチップレンズ43により集光され、フィルタ層42を透過し、フォトダイオードPDに入射する。フォトダイオードPDは、この光を光電変換により電荷に変換して、信号電荷を生成する。信号電荷は、配線層23、33内の垂直信号線8を介して、画素信号として出力される。
 次に、引き続き図2のAを参照し、本実施形態のシリサイド層14b(反射層)の利点について説明する。
 まず、本実施形態の固体撮像装置が、基板11の表面側に設けられた多層配線構造内、すなわち、配線層23、33内に反射層を備える場合を想定する。この場合、基板11と反射層との間の距離が大きいため、ある画素1内の基板11を透過した光が、別の画素1内の基板11へと反射される可能性がある。別言すると、基板11と反射層との間に混色経路が存在する可能性がある。その結果、反射層での光の反射が混色を引き起こすおそれがある。
 次に、本実施形態の固体撮像装置が、基板11の表面に広く接するように反射層を備える場合を想定する。この場合、基板11と反射層との間の距離は小さいため、混色経路の出現は抑制することができる。しかしながら、反射層が基板11の表面に広く接していると、反射層が大きなリーク電流を引き起こすおそれがある。例えば、反射層が、あるトランジスタのソース拡散層およびドレイン拡散層に接していると、このトランジスタでリーク電流が生じ、固体撮像装置の暗時特性が悪化するおそれがある。この反射層がシリサイド層の場合、シリサイド層内の欠陥に起因する界面準位や、導電層であるシリサイド層内を流れる電流が、リーク電流の原因となり得ると考えられる。一方、ソース拡散層およびドレイン拡散層に接しないように反射層を配置すると、反射層の面積が小さくなり、光が反射層に当たりにくくなってしまう。これは、固体撮像装置の集積度が向上するほど顕著となる。
 そこで、本実施形態の固体撮像装置は、基板11の表面に絶縁膜13を介して設けられた電極層14内にシリサイド層14b(反射層)を備えている。これにより、基板11と反射層との間の距離を小さくすることが可能となり、混色経路の出現を抑制することが可能となる。また、本実施形態の反射層は、基板11の表面に絶縁膜13を介して形成されるため、基板11の表面にまったく接しないようにすることや、基板11の表面に一部領域に限って接するようにすることができる。例えば、図2のAに示す電極層14は、開口部P1などに限って基板11の表面に接しており、さらには、図2のAに示すシリサイド層14bは、基板11の表面にまったく接していない。これにより、反射層が大きなリーク電流を引き起こすことを抑制することが可能となる。さらには、本実施形態によれば、反射層の面積を小さくせずに、このようなリーク電流を抑制することが可能となる。
 このように、本実施形態によれば、好適な特性を有する反射層(シリサイド層14b)を形成することが可能となる。
 さらに、本実施形態の固体撮像装置は、第1層10と、第2層20と、第3層30とを含む3層構造を有しており、3枚の基板11、21、31を備えている。これにより、画素トランジスタTrを、基板11の表面に配置する代わりに、基板21や基板31の表面に配置することが可能となる。よって、本実施形態によれば、画素トランジスタTrの存在が、シリサイド層14bを配置する妨げとなることを抑制することが可能となる。別言すると、本実施形態によれば、画素トランジスタTrを基板21や基板31の表面に配置することで、シリサイド層14bの面積を広く確保することが可能となる。なお、本実施形態の固体撮像装置は、N枚の基板を備えるN層構造を有していてもよい(Nは4以上の整数)。
 本実施形態の固体撮像装置はさらに、図2のBに示すように、複数のコンタクトプラグ51と、絶縁膜13に設けられた複数の開口部P2とを備えている。これらの詳細については、図3を参照して後述する。
 図3は、第1実施形態の固体撮像装置の構造を示す拡大断面図である。図3は、図2のBに示すB-B’線に沿った断面を示している。
 本実施形態の固体撮像装置は、図2のAに示す構成要素に加えて、コンタクトプラグ51と、複数のコンタクトプラグ52と、各画素1内の拡散層53と、各転送トランジスタTGの側壁絶縁膜54とを備えている(図3)。各画素1内の拡散層53は、基板11内で基板11の表面付近に形成されており、浮遊拡散部FDを形成している。各転送トランジスタTGの側壁絶縁膜54は、各転送トランジスタTGの電極層14(ゲート電極)の両側面に形成されている。
 図3に示す電極層14は、浮遊拡散部FDに接する領域R1と、転送トランジスタTGのゲート電極となっている領域R2と、その他の領域R3とを含んでおり、領域R1、R2、R3は、互いに分離されている。領域R1、R2はそれぞれ、浮遊拡散部FD用および転送トランジスタTG用に設けられているが、領域R3は反射層とするために設けられている。そのため、領域R1、R2の面積は小さく設定されているが、領域R3の面積は大きく設定されている。領域R1、R2、R3はそれぞれ、本開示の第1、第2、および第3領域の例である。なお、領域R1、R2はそれぞれ、浮遊拡散部FD用および転送トランジスタTG用に設けられているが、反射層としても機能する。
 図3はさらに、領域R3上の絶縁膜13に設けられた複数の開口部P1と、領域R1上の絶縁膜13に設けられた開口部P2とを示している。図3に示す開口部P1は、図2のAに示す開口部P1と同様に領域R3上の絶縁膜13に設けられているが、図2のAに示す開口部P1とは別の位置に設けられている。開口部P2、P1はそれぞれ、本開示の第1および第2開口部の例である。
 電極層14の領域R1は、開口部P2内に入り込んだ部分を含んでいる。よって、電極層14の領域R1は、開口部P2を介して基板11と電気的に接続されており、具体的には、浮遊拡散部FDと電気的に接続されている。同様に、電極層14の領域R3は、開口部P1内に入り込んだ部分を含んでいる。よって、電極層14の領域R3は、開口部P1を介して基板11と電気的に接続されている。一方、電極層14の領域R2は、基板11と電気的に絶縁されている。
 後述するように、本実施形態の電極層14は、基板11の表面に領域R2を形成し、次に基板11の表面に領域R1、R3を形成することで形成される。そのため、領域R2の厚さは、図3に示すように領域R1、R3の厚さと異なっており、具体的には領域R1、R3の厚さよりも厚くなっている。これにより、反射層である領域R3の厚さを薄くすることが可能となる。なお、領域R2の厚さは、領域R1の厚さと、R3の厚さのいずれか一方のみと異なっていてもよい。
 図3はさらに、領域R1の下面に設けられたコンタクトプラグ51と、領域R2の下面に設けられた複数のコンタクトプラグ52と、領域R3の下面に設けられた複数のコンタクトプラグ16とを示している。これらのコンタクトプラグ51、52、16は、上述の配線層23、33(図2のA)と電気的に接続されている。例えば、コンタクトプラグ16は、配線層23、33内のグランド配線と電気的に接続されており、領域R3にグランド電位を供給することができる。コンタクトプラグ51、52、53はそれぞれ、第1、第2、および第3コンタクトプラグの例である。
 図4は、第1実施形態の変形例の固体撮像装置の構造を示す断面図である。
 図4のAは、図2のBに示すB-B’線に沿った断面を示している。図4のBは、図2のBに示すC-C’線に沿った断面を示している。
 図4のAおよびBに示すように、本変形例の固体撮像装置は、図2のAや図3に示す本実施形態の固体撮像装置と同様の構成要素を備えている。ただし、図4のBに示す開口部P1は、図2のAに示す開口部P1や、図3に示す開口部P1とは別の位置に設けられている。
 本変形例の電極層14は、本実施形態の電極層14と同様に、基板11の表面に絶縁膜13を介して形成されるため、基板11の表面にまったく接しないようにすることや、基板11の表面に一部領域に限って接するようにすることができる。例えば、本変形例の電極層14は、開口部P1などに限って基板11の表面に接しており、さらには、本変形例のシリサイド層14bは、基板11の表面にまったく接していない。これにより、シリサイド層14bが大きなリーク電流を引き起こすことを抑制することが可能となる。
 なお、本変形例の電極層14は、その一部のみがシリサイド層14bとなっているが、その全体がシリサイド層14bとなっていてもよい。この場合、シリサイド層14bは、開口部P1などに限って基板11の表面に接することになる。この場合、シリサイド層14bが基板11の表面に広く接していないため、シリサイド層14bが大きなリーク電流を引き起こすことを抑制することが可能となる。これは、本実施形態の電極層14にも適用可能である。
 図5は、第1実施形態の固体撮像装置の特性について説明するための断面図および数式である。
 図5のAは、本実施形態のシリサイド層14bのエネルギー反射率を有効フレネル係数法により計算するためのモデルを示している。図5のAは、下部層61と、下部層61上に形成された反射層62と、反射層62上に形成された上部層63とを示している。反射層62は、下部層61上に順に積層されたN個の層62、62、・・・、62を含んでいる。図5のAは、上部層63から反射層62に入射した光が、反射層62内を透過したり、反射層62内で反射されたりする様子を示している。
 図5のAに示す符号n、k、d、Rはそれぞれ、層62の屈折率、消衰係数、厚さ、振幅反射率を示している(jは1~Nの整数)。符号rは、層62とその下位の層との界面におけるフレネル反射係数を示している。符号n、k、Rはそれぞれ、下部層61の屈折率、消衰係数、振幅反射率を示している。符号nN+1、kN+1はそれぞれ、上部層63の屈折率、消衰係数を示している。符号rN+1は、上部層63とその下位の層との界面におけるフレネル反射係数を示している。
 図5のBは、式(1)、(2)、(3)を示している。式(1)は、フレネル反射係数rの算出式であり、フレネル反射係数rは、屈折率n、nj-1と、消衰係数k、kj-1とを用いて算出することができる。式(2)は、振幅反射率Rの算出式であり、振幅反射率Rは、振幅反射率Rj-1と、フレネル反射係数rj+1と、屈折率nと、厚さdとを用いて算出することができる。符号λは、光の波長を示している。式(2)によれば、振幅反射率Rは、振幅反射率R、R、・・・、Rj-1を順に算出することで算出可能である。式(3)は、反射層62のエネルギー反射率Rの算出式である。式(3)によれば、振幅反射率Rは、式(2)から算出される振幅反射率Rのノルムの2乗となる。
 図6は、第1実施形態の固体撮像装置の特性について説明するための断面図およびグラフである。
 図6のAは、本実施形態のシリサイド層14bのエネルギー反射率を有効フレネル係数法により計算するための具体的なモデルを示している。図6のAは、本実施形態の層間絶縁膜15、シリサイド層14b、および半導体層14aがそれぞれ、図5のAに示す下部層61、反射層62、上部層63に対応していることを示している。上述の有効フレネル係数法を図6のAに適用すれば、シリサイド層14bのエネルギー反射率Rを算出することができる。
 図6のBは、シリサイド層14bがTiSi層である場合と、シリサイド層14bがCoSi層である場合の、エネルギー反射率Rの算出結果を示している。図6のBにおいて、横軸は、シリサイド層14bの厚さdを表しており、縦軸は、シリサイド層14bのエネルギー反射率Rを表している。図6のBに示すエネルギー反射率Rは、光の波長λを940nm(近赤外光:NIR)として算出されている。理由は、シリサイド層14bで光を反射させることは、例えば近赤外光について望まれるからである。
 図6のBによれば、シリサイド層14bがTiSi層である場合、厚さdが約70nm以上であれば、エネルギー反射率Rは100%となる。よって、TiSi層であるシリサイド層14bのエネルギー反射率Rを100%にしたい場合には、厚さdは約70nm以上に設定される。また、CoSi層であるシリサイド層14bのエネルギー反射率Rを100%にしたい場合には、厚さdは約110nm以上に設定される。
 一方、フレアを抑制するなどの観点から、エネルギー反射率Rは100%未満とすることが望ましい場合もある。この場合には、エネルギー反射率Rが100%未満となるように、厚さdを設定する。
 以上のように、本実施形態の固体撮像装置は、基板11の表面に絶縁膜13を介して設けられた電極層14内にシリサイド層14b(反射層)を備えている。よって、本実施形態によれば、好適な特性を有する反射層を形成することが可能となる。例えば、反射層での光の反射が混色を引き起こすことを抑制することや、反射層が大きなリーク電流を引き起こすことを抑制することが可能となる。
 (第2実施形態)
 図7~図14は、第2実施形態の固体撮像装置の製造方法を示す断面図である。本実施形態では、図7~図14に示す工程により第1実施形態の固体撮像装置を製造する。
 まず、基板11内に、複数のフォトダイオードPD、複数の浮遊拡散部FD(不図示)、素子分離絶縁膜12などを形成する(図7のA)。図7のAは、図3と同様に、図2のBに示すB-B’線に沿った断面を示している。図7のAでは、基板11の+Z方向の面(上面)が、基板11の表面となっており、基板11の-Z方向の面(下面)が、基板11の裏面となっている。図7のAに示す工程では、素子分離絶縁膜12内の絶縁膜12a、12b(図3参照)が形成される。
 次に、基板11および素子分離絶縁膜12上に、絶縁膜13を形成する(図7のA)。次に、絶縁膜13上に、電極層14の半導体層14aを形成するための半導体層14a1を堆積し、半導体層14a1を、転送トランジスタTGのゲート電極(領域R2)の形状に加工する(図7のA)。半導体層14a1は、例えばポリシリコン層である。次に、各転送トランジスタTGのゲート電極の両側面に、側壁絶縁膜54を形成する(図7のA)。
 次に、絶縁膜13、半導体層14a1、および側壁絶縁膜54上にレジスト膜71を形成し、レジスト膜71内に開口部H1、H2を形成し、開口部H1、H2の底部の絶縁膜13を除去する(図7のB)。その結果、開口部H1の底部で絶縁膜13内に開口部P1が形成され、開口部H1内に基板11の上面が露出する。さらには、開口部H2の底部で絶縁膜13内に開口部P2が形成され、開口部H2内に基板11および素子分離絶縁膜12の上面が露出する。その後、レジスト膜71は除去される。
 次に、基板11、素子分離絶縁膜12、絶縁膜13、半導体層14a1、および側壁絶縁膜54上に、電極層14の半導体層14aを形成するための半導体層14a2を堆積する(図8のA)。半導体層14a2は、例えばポリシリコン層である。本実施形態では、半導体層14a2の厚さが、半導体層14a1の厚さと異なる厚さに設定され、例えば、半導体層14a1の厚さよりも薄く設定される。また、絶縁膜13の開口部P1、P2は、半導体層14a2により埋め込まれる。これにより、半導体層14a2が、基板11と電気的に接続される。
 次に、半導体層14a2上にレジスト膜72を形成し、レジスト膜72内に開口部H3を形成し、開口部H3の底部の半導体層14a2を除去する(図8のB)。その結果、開口部H3内に半導体層14a1の上面が露出する。さらには、半導体層14a2が、領域R1、R3を含む形状に加工される。図8のBでは、領域R1、R2、R3が、互いに分離されている。その後、レジスト膜72は除去される。
 こうして、半導体層14a1、14a2を含む半導体層14aが形成される。領域R2の厚さは、半導体層14a1の厚さとなり、領域R1、R3の厚さは、半導体層14a2の厚さとなる。
 次に、絶縁膜13、半導体層14a1、および側壁絶縁膜54上に、シリサイド材層73を形成する(図9のA)。シリサイド材層73は、電極層14のシリサイド層14bを形成するための金属元素を含んでいる。本実施形態のシリサイド材層73は、遷移金属元素を含む金属層であり、例えば、Ti(チタン)層、Co(コバルト)層、Ni(ニッケル)層、W(タングステン)層、またはPt(白金)層である。シリサイド材層73は、2種類以上の遷移金属元素を含む金属層でもよい。
 次に、シリサイド材層73などをアニールする(図9のB)。その結果、シリサイド材層73内の金属元素により半導体層14aの一部がシリサイド化され、半導体層14a内にシリサイド層14bが形成される(図10のA)。図10のAに示す工程では、シリサイド層14bが形成された後に、余ったシリサイド材層73が除去される。図10のAに示す工程では、半導体層14aの全体がシリサイド化されてもよい。
 こうして、半導体層14aとシリサイド層14bとを含む電極層14が形成される。シリサイド層14bは、電極層14内で半導体層14a上に形成される。領域R1、R2、R3はいずれも、半導体層14aとシリサイド層14bとを含んでいる。
 次に、シリサイド層14bなどをアニールする(図10のB)。その結果、シリサイド層14bの膜質が改善される。
 次に、絶縁膜13、半導体層14a1、および側壁絶縁膜54上に、絶縁膜15a、15b、15c、15d、15eを順に形成する(図11のA)。その結果、これらの絶縁膜15a~15eを含む層間絶縁膜15が形成される。次に、層間絶縁膜15と基板21とを接合する(図11のA)。
 次に、基板21上にレジスト膜74を形成し、レジスト膜74内に複数の開口部H4を形成し、これらの開口部H4の底部の基板21内にイオンを注入する(図11のB)。その結果、これらの開口部H4の底部の基板21内に複数の拡散層21aが形成される。その後、レジスト膜74は除去される。
 次に、基板21の拡散層21a上にゲート絶縁膜24を形成し、基板21内に素子分離溝を形成し、素子分離溝内に素子分離絶縁膜75を形成する(図12のA)。素子分離絶縁膜75は、例えばSiO膜である。
 次に、ゲート絶縁膜24上にゲート電極25を形成する(図12のB)。その結果、基板21上に複数の画素トランジスタTrが形成される。ただし、これらの画素トランジスタTrのソース拡散層およびドレイン拡散層(拡散層26)は、後述する工程にて形成される。上述の素子分離絶縁膜75は、これらの画素トランジスタTr間に介在している。
 次に、基板21および素子分離絶縁膜75上にレジスト膜76を形成し、レジスト膜76内に複数の開口部H5を形成する(図13のA)。その結果、開口部H5の底部に、画素トランジスタTrやその付近の基板21が露出する。次に、開口部H5の底部の基板21内にイオンを注入する(図13のA)。その結果、基板21内に、各画素トランジスタTrのソース拡散層およびドレイン拡散層(拡散層26)が形成される。その後、レジスト膜76は除去される。
 次に、基板21および素子分離絶縁膜75上に、絶縁膜22a、22bを順に形成する(図13のB)。その結果、これらの絶縁膜22a、22bを含む層間絶縁膜22が形成される。次に、層間絶縁膜15、22内にコンタクトプラグ16、27、28、51、52を形成する(図13のB)。その後、図13のBに示す層間絶縁膜22上に、複数の層間絶縁膜22および配線層23が形成される(図2のA参照)。こうして、固体撮像装置の第1層10および第2層20が形成される。
 一方、固体撮像装置の第3層30は、基板31上や基板31内に、複数の層間絶縁膜32と、複数の配線層33と、各画素トランジスタTrのゲート絶縁膜34、ゲート電極35、および複数の拡散層36と、複数のコンタクトプラグ37と、コンタクトプラグ38とを形成することで形成される(図14)。
 次に、固体撮像装置の第1層10および第2層20と、固体撮像装置の第3層30とを貼り合わせる(図14)。図14は、第1層10と、第1層10の下面に設けられた第2層20と、第2層20の下面に貼り合わされる第3層30とを示している。図14では、基板11の-Z方向の面(下面)が、基板11の表面となっており、基板11の+Z方向の面(上面)が、基板11の裏面となっている。
 その後、図14に示す基板11の上面(裏面)に、平坦化膜41と、複数のフィルタ層42と、複数のオンチップレンズ43とが順に形成される(図2のA参照)。こうして、第1実施形態の固体撮像装置が製造される。
 以上のように、本実施形態では、基板11の表面側にシリサイド層14b(反射層)を備える固体撮像装置が製造される。よって、本実施形態によれば、好適な特性を有する反射層を形成することが可能となる。例えば、反射層での光の反射が混色を引き起こすことを抑制することや、反射層が大きなリーク電流を引き起こすことを抑制することが可能となる。
 (応用例)
 図15は、電子機器の構成例を示すブロック図である。図15に示す電気機器は、カメラ100である。
 カメラ100は、レンズ群などを含む光学部101と、第1実施形態の固体撮像装置である撮像装置102と、カメラ信号処理回路であるDSP(Digital Signal Processor)回路103と、フレームメモリ104と、表示部105と、記録部106と、操作部107と、電源部108とを備えている。また、DSP回路103、フレームメモリ104、表示部105、記録部106、操作部107、および電源部108は、バスライン109を介して相互に接続されている。
 光学部101は、被写体からの入射光(像光)を取り込んで、撮像装置102の撮像面上に結像する。撮像装置102は、光学部101により撮像面上に結像された入射光の光量を画素単位で電気信号に変換して、画素信号として出力する。
 DSP回路103は、撮像装置102により出力された画素信号について信号処理を行う。フレームメモリ104は、撮像装置102で撮像された動画または静止画の1画面を記憶しておくためのメモリである。
 表示部105は、例えば液晶パネルや有機ELパネルなどのパネル型表示装置を含んでおり、撮像装置102で撮像された動画または静止画を表示する。記録部106は、撮像装置102で撮像された動画または静止画を、ハードディスクや半導体メモリなどの記録媒体に記録する。
 操作部107は、ユーザによる操作の下に、カメラ100が持つ様々な機能について操作指令を発する。電源部108は、DSP回路103、フレームメモリ104、表示部105、記録部106、および操作部107の動作電源となる各種の電源を、これらの供給対象に対して適宜供給する。
 撮像装置102として、第1実施形態の固体撮像装置を使用することで、良好な画像の取得が期待できる。
 当該固体撮像装置は、その他の様々な製品に応用することができる。例えば、当該固体撮像装置は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットなどの種々の移動体に搭載されてもよい。
 図16は、移動体制御システムの構成例を示すブロック図である。図16に示す移動体制御システムは、車両制御システム200である。
 車両制御システム200は、通信ネットワーク201を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム200は、駆動系制御ユニット210と、ボディ系制御ユニット220と、車外情報検出ユニット230と、車内情報検出ユニット240と、統合制御ユニット250とを備えている。図16はさらに、統合制御ユニット250の構成部として、マイクロコンピュータ251と、音声画像出力部252と、車載ネットワークI/F(Interface)253とを示している。
 駆動系制御ユニット210は、各種プログラムに従って、車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット210は、内燃機関や駆動用モータなどの車両の駆動力を発生させるための駆動力発生装置や、駆動力を車輪に伝達するための駆動力伝達機構や、車両の舵角を調節するステアリング機構や、車両の制動力を発生させる制動装置などの制御装置として機能する。
 ボディ系制御ユニット220は、各種プログラムに従って、車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット220は、スマートキーシステム、キーレスエントリシステム、パワーウィンドウ装置、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー、フォグランプ)などの制御装置として機能する。この場合、ボディ系制御ユニット220には、鍵を代替する携帯機から発信される電波または各種スイッチの信号が入力され得る。ボディ系制御ユニット220は、このような電波または信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプなどを制御する。
 車外情報検出ユニット230は、車両制御システム200を搭載した車両の外部の情報を検出する。車外情報検出ユニット230には、例えば撮像部231が接続される。車外情報検出ユニット230は、撮像部231に車外の画像を撮像させると共に、撮像された画像を撮像部231から受信する。車外情報検出ユニット230は、受信した画像に基づいて、人、車、障害物、標識、路面上の文字などの物体検出処理または距離検出処理を行ってもよい。
 撮像部231は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部231は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。撮像部231が受光する光は、可視光であってもよいし、赤外線などの非可視光であってもよい。撮像部231は、第1実施形態の固体撮像装置を含んでいる。
 車内情報検出ユニット240は、車両制御システム200を搭載した車両の内部の情報を検出する。車内情報検出ユニット240には例えば、運転者の状態を検出する運転者状態検出部241が接続される。例えば、運転者状態検出部241は、運転者を撮像するカメラを含み、車内情報検出ユニット240は、運転者状態検出部241から入力される検出情報に基づいて、運転者の疲労度合いまたは集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。このカメラは、第1実施形態の固体撮像装置を含んでいてもよく、例えば、図15に示すカメラ100でもよい。
 マイクロコンピュータ251は、車外情報検出ユニット230または車内情報検出ユニット240で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構、または制動装置の制御目標値を演算し、駆動系制御ユニット210に対して制御指令を出力することができる。例えば、マイクロコンピュータ251は、車両の衝突回避、衝撃緩和、車間距離に基づく追従走行、車速維持走行、衝突警告、レーン逸脱警告などのADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ251は、車外情報検出ユニット230または車内情報検出ユニット240で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構、または制動装置を制御することにより、運転者の操作によらずに自律的に走行する自動運転などを目的とした協調制御を行うことができる。
 また、マイクロコンピュータ251は、車外情報検出ユニット230で取得される車外の情報に基づいて、ボディ系制御ユニット220に対して制御指令を出力することができる。例えば、マイクロコンピュータ251は、車外情報検出ユニット230で検知した先行車または対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替えるなどの防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部252は、車両の搭乗者または車外に対して視覚的または聴覚的に情報を通知することが可能な出力装置に、音声および画像のうちの少なくとも一方の出力信号を送信する。図16の例では、このような出力装置として、オーディオスピーカ261、表示部262、およびインストルメントパネル263が示されている。表示部262は例えば、オンボードディスプレイまたはヘッドアップディスプレイを含んでいてもよい。
 図17は、図16の撮像部231の設定位置の具体例を示す平面図である。
 図17に示す車両300は、撮像部231として、撮像部301、302、303、304、305を備えている。撮像部301、302、303、304、305は例えば、車両300のフロントノーズ、サイドミラー、リアバンパ、バックドア、車室内のフロントガラスの上部などの位置に設けられる。
 フロントノーズに備えられる撮像部301は、主として車両300の前方の画像を取得する。左のサイドミラーに備えられる撮像部302と、右のサイドミラーに備えられる撮像部303は、主として車両300の側方の画像を取得する。リアバンパまたはバックドアに備えられる撮像部304は、主として車両300の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部305は、主として車両300の前方の画像を取得する。撮像部305は例えば、先行車両、歩行者、障害物、信号機、交通標識、車線などの検出に用いられる。
 図17は、撮像部301、302、303、304(以下「撮像部301~304」と表記する)の撮像範囲の例を示している。撮像範囲311は、フロントノーズに設けられた撮像部301の撮像範囲を示す。撮像範囲312は、左のサイドミラーに設けられた撮像部302の撮像範囲を示す。撮像範囲313は、右のサイドミラーに設けられた撮像部303の撮像範囲を示す。撮像範囲314は、リアバンパまたはバックドアに設けられた撮像部304の撮像範囲を示す。例えば、撮像部301~304で撮像された画像データが重ね合わせられることにより、車両300を上方から見た俯瞰画像が得られる。以下、撮像範囲311、312、313、314を「撮像範囲311~314」と表記する。
 撮像部301~304の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部301~304の少なくとも1つは、複数の撮像装置を含むステレオカメラであってもよいし、位相差検出用の画素を有する撮像装置であってもよい。
 例えば、マイクロコンピュータ251(図16)は、撮像部301~304から得られた距離情報を基に、撮像範囲311~314内における各立体物までの距離と、この距離の時間的変化(車両300に対する相対速度)を算出する。マイクロコンピュータ251は、これらの算出結果に基づいて、車両300の進行路上にある最も近い立体物で、車両300とほぼ同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を、先行車として抽出することができる。さらに、マイクロコンピュータ251は、先行車の手前にあらかじめ確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように、この例によれば、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ251は、撮像部301~304から得られた距離情報を基に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ251は、車両300の周辺の障害物を、車両300のドライバが視認可能な障害物と、視認困難な障害物とに識別する。そして、マイクロコンピュータ251は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ261や表示部262を介してドライバに警報を出力することや、駆動系制御ユニット210を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部301~304の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ251は、撮像部301~304の撮像画像中に歩行者が存在するか否かを判定することで、歩行者を認識することができる。かかる歩行者の認識は例えば、赤外線カメラとしての撮像部301~304の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順により行われる。マイクロコンピュータ251が、撮像部301~304の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部252は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部262を制御する。また、音声画像出力部252は、歩行者を示すアイコン等を所望の位置に表示するように表示部262を制御してもよい。
 図18は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図18では、術者(医師)531が、内視鏡手術システム400を用いて、患者ベッド533上の患者532に手術を行っている様子が図示されている。図示するように、内視鏡手術システム400は、内視鏡500と、気腹チューブ511やエネルギー処置具512等の、その他の術具510と、内視鏡500を支持する支持アーム装置520と、内視鏡下手術のための各種の装置が搭載されたカート600と、から構成される。
 内視鏡500は、先端から所定の長さの領域が患者532の体腔内に挿入される鏡筒501と、鏡筒501の基端に接続されるカメラヘッド502と、から構成される。図示する例では、硬性の鏡筒501を有するいわゆる硬性鏡として構成される内視鏡500を図示しているが、内視鏡500は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒501の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡500には光源装置603が接続されており、当該光源装置603によって生成された光が、鏡筒501の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者532の体腔内の観察対象に向かって照射される。なお、内視鏡500は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド502の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)601に送信される。
 CCU601は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡500及び表示装置602の動作を統括的に制御する。さらに、CCU601は、カメラヘッド502から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置602は、CCU601からの制御により、当該CCU601によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置603は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡500に供給する。
 入力装置604は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置604を介して、内視鏡手術システム400に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡500による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置605は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具512の駆動を制御する。気腹装置606は、内視鏡500による視野の確保及び術者の作業空間の確保の目的で、患者532の体腔を膨らめるために、気腹チューブ511を介して当該体腔内にガスを送り込む。レコーダ607は、手術に関する各種の情報を記録可能な装置である。プリンタ608は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡500に術部を撮影する際の照射光を供給する光源装置603は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置603において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド502の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置603は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド502の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置603は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置603は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図19は、図18に示すカメラヘッド502及びCCU601の機能構成の一例を示すブロック図である。
 カメラヘッド502は、レンズユニット701と、撮像部702と、駆動部703と、通信部704と、カメラヘッド制御部705と、を有する。CCU601は、通信部711と、画像処理部712と、制御部713と、を有する。カメラヘッド502とCCU601とは、伝送ケーブル700によって互いに通信可能に接続されている。
 レンズユニット701は、鏡筒501との接続部に設けられる光学系である。鏡筒501の先端から取り込まれた観察光は、カメラヘッド502まで導光され、当該レンズユニット701に入射する。レンズユニット701は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部702は、撮像素子で構成される。撮像部702を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部702が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部702は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者531は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部702が多板式で構成される場合には、各撮像素子に対応して、レンズユニット701も複数系統設けられ得る。撮像部702は、例えば第1実施形態の固体撮像装置である。
 また、撮像部702は、必ずしもカメラヘッド502に設けられなくてもよい。例えば、撮像部702は、鏡筒501の内部に、対物レンズの直後に設けられてもよい。
 駆動部703は、アクチュエータによって構成され、カメラヘッド制御部705からの制御により、レンズユニット701のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部702による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部704は、CCU601との間で各種の情報を送受信するための通信装置によって構成される。通信部704は、撮像部702から得た画像信号をRAWデータとして伝送ケーブル700を介してCCU601に送信する。
 また、通信部704は、CCU601から、カメラヘッド502の駆動を制御するための制御信号を受信し、カメラヘッド制御部705に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU601の制御部713によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡500に搭載されていることになる。
 カメラヘッド制御部705は、通信部704を介して受信したCCU601からの制御信号に基づいて、カメラヘッド502の駆動を制御する。
 通信部711は、カメラヘッド502との間で各種の情報を送受信するための通信装置によって構成される。通信部711は、カメラヘッド502から、伝送ケーブル700を介して送信される画像信号を受信する。
 また、通信部711は、カメラヘッド502に対して、カメラヘッド502の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部712は、カメラヘッド502から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部713は、内視鏡500による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部713は、カメラヘッド502の駆動を制御するための制御信号を生成する。
 また、制御部713は、画像処理部712によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置602に表示させる。この際、制御部713は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部713は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具512の使用時のミスト等を認識することができる。制御部713は、表示装置602に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者531に提示されることにより、術者531の負担を軽減することや、術者531が確実に手術を進めることが可能になる。
 カメラヘッド502及びCCU601を接続する伝送ケーブル700は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル700を用いて有線で通信が行われていたが、カメラヘッド502とCCU601との間の通信は無線で行われてもよい。
 以上、本開示の実施形態について説明したが、これらの実施形態は、本開示の要旨を逸脱しない範囲内で、種々の変更を加えて実施してもよい。例えば、2つ以上の実施形態を組み合わせて実施してもよい。
 なお、本開示は、以下のような構成を取ることもできる。
 (1)
 光電変換部を含む第1基板と、
 前記第1基板の第1面側に設けられたレンズと、
 前記第1基板の第2面側に絶縁膜を介して設けられ、シリコン元素と金属元素とを含む第1部分を含む電極層と、
 を備える固体撮像装置。
 (2)
 前記金属元素は、Ti(チタン)、Co(コバルト)、Ni(ニッケル)、W(タングステン)、およびPt(白金)の少なくともいずれかを含む、(1)に記載の固体撮像装置。
 (3)
 前記第1部分は、シリサイド層である、(1)に記載の固体撮像装置。
 (4)
 前記第1部分は、前記レンズから前記第1部分に入射した光を反射させる、(1)に記載の固体撮像装置。
 (5)
 前記電極層はさらに、シリコン元素を含み、前記絶縁膜と前記第1部分との間に設けられた第2部分を含む、(1)に記載の固体撮像装置。
 (6)
 前記第2部分は、半導体層である、(5)に記載の固体撮像装置。
 (7)
 前記絶縁膜は、前記第1基板の前記第2面に接しており、前記電極層は、前記絶縁膜に接している、(1)に記載の固体撮像装置。
 (8)
 前記電極層は、前記第1基板と電気的に接続されている、(1)に記載の固体撮像装置。
 (9)
 前記電極層は、前記絶縁膜に設けられた開口部を介して、前記第1基板と電気的に接続されている、(8)に記載の固体撮像装置。
 (10)
 前記第1部分に接する位置に設けられたコンタクトプラグをさらに備える、(1)に記載の固体撮像装置。
 (11)
 前記コンタクトプラグは、前記基板の前記第2面側に設けられた配線層と電気的に接続されている、(10)に記載の固体撮像装置。
 (12)
 前記第1基板の前記第2面側に設けられた第2基板と、
 前記第1基板の前記第2面側に前記第2基板を介して設けられた第3基板と、
 をさらに備える、(1)に記載の固体撮像装置。
 (13)
 前記電極層は、
 前記第1基板内に設けられた浮遊拡散部に接する第1領域と、
 前記第1領域と分離されており、トランジスタのゲート電極である第2領域と、
 前記第1領域および前記第2領域と分離されている第3領域とを含む、
 (1)に記載の固体撮像装置。
 (14)
 前記第2領域の厚さは、前記第1領域の厚さ、および/または、前記第3領域の厚さと異なる、(13)に記載の固体撮像装置。
 (15)
 前記第1領域は、前記第1基板と電気的に接続されており、
 前記第2領域は、前記第1基板と電気的に絶縁されており、
 前記第3領域は、前記第1基板と電気的に接続されている、
 (13)に記載の固体撮像装置。
 (16)
 前記第1領域は、前記絶縁膜に設けられた第1開口部を介して、前記第1基板と電気的に接続されており、
 前記第3領域は、前記絶縁膜に設けられた第2開口部を介して、前記第1基板と電気的に接続されている、
 (15)に記載の固体撮像装置。
 (17)
 前記第1領域に電気的に接続された第1コンタクトプラグと、
 前記第2領域に電気的に接続された第2コンタクトプラグと、
 前記第3領域に電気的に接続された第3コンタクトプラグと、
 をさらに備える、(13)に記載の固体撮像装置。
 (18)
 前記第3コンタクトプラグは、グランド電位と電気的に接続されている、(17)に記載の固体撮像装置。
 (19)
 第1基板内に光電変換部を形成し、
 前記第1基板の第1面側にレンズを形成し、
 前記第1基板の第2面側に絶縁膜を介して電極層を形成する、
 ことを含み、
 前記電極層は、シリコン元素と金属元素とを含む第1部分を含む、固体撮像装置の製造方法。
 (20)
 前記第1部分は、前記電極層の少なくとも一部をシリサイド化することで形成される、(19)に記載の固体撮像装置の製造方法。
 1:画素、2:画素アレイ領域、3:制御回路、
 4:垂直駆動回路、5:カラム信号処理回路、6:水平駆動回路、
 7:出力回路、8:垂直信号線、9:水平信号線、
 10:第1層、11:基板、12:素子分離絶縁膜、12a:絶縁膜、
 12b:絶縁膜、13:絶縁膜、14:電極層、14a:半導体層、
 14a1:半導体層、14a2:半導体層、14b:シリサイド層、
 15:層間絶縁膜、15a:絶縁膜、15b:絶縁膜、15c:絶縁膜、
 15d:絶縁膜、15e:絶縁膜、16:コンタクトプラグ、
 20:第2層、21:基板、21a:拡散層、22:層間絶縁膜、22a:絶縁膜、
 22b:絶縁膜、23:配線層、24:ゲート絶縁膜、25:ゲート電極、
 26:拡散層、27:コンタクトプラグ、28:コンタクトプラグ、
 30:第3層、31:基板、32:層間絶縁膜、33:配線層、
 34:ゲート絶縁膜、35:ゲート電極、36:拡散層、
 37:コンタクトプラグ、38:コンタクトプラグ、
 40:積層部、41:平坦化膜、42:フィルタ層、43:オンチップレンズ、
 51:コンタクトプラグ、52:コンタクトプラグ、
 53:拡散層、54:側壁絶縁膜、
 61:下部層、62:反射層、62、62、・・・、62:層、63:上部層、
 71:レジスト膜、72:レジスト膜、73:シリサイド材層、
 74:レジスト膜、75:素子分離絶縁膜、76:レジスト膜

Claims (20)

  1.  光電変換部を含む第1基板と、
     前記第1基板の第1面側に設けられたレンズと、
     前記第1基板の第2面側に絶縁膜を介して設けられ、シリコン元素と金属元素とを含む第1部分を含む電極層と、
     を備える固体撮像装置。
  2.  前記金属元素は、Ti(チタン)、Co(コバルト)、Ni(ニッケル)、W(タングステン)、およびPt(白金)の少なくともいずれかを含む、請求項1に記載の固体撮像装置。
  3.  前記第1部分は、シリサイド層である、請求項1に記載の固体撮像装置。
  4.  前記第1部分は、前記レンズから前記第1部分に入射した光を反射させる、請求項1に記載の固体撮像装置。
  5.  前記電極層はさらに、シリコン元素を含み、前記絶縁膜と前記第1部分との間に設けられた第2部分を含む、請求項1に記載の固体撮像装置。
  6.  前記第2部分は、半導体層である、請求項5に記載の固体撮像装置。
  7.  前記絶縁膜は、前記第1基板の前記第2面に接しており、前記電極層は、前記絶縁膜に接している、請求項1に記載の固体撮像装置。
  8.  前記電極層は、前記第1基板と電気的に接続されている、請求項1に記載の固体撮像装置。
  9.  前記電極層は、前記絶縁膜に設けられた開口部を介して、前記第1基板と電気的に接続されている、請求項8に記載の固体撮像装置。
  10.  前記第1部分に接する位置に設けられたコンタクトプラグをさらに備える、請求項1に記載の固体撮像装置。
  11.  前記コンタクトプラグは、前記基板の前記第2面側に設けられた配線層と電気的に接続されている、請求項10に記載の固体撮像装置。
  12.  前記第1基板の前記第2面側に設けられた第2基板と、
     前記第1基板の前記第2面側に前記第2基板を介して設けられた第3基板と、
     をさらに備える、請求項1に記載の固体撮像装置。
  13.  前記電極層は、
     前記第1基板内に設けられた浮遊拡散部に接する第1領域と、
     前記第1領域と分離されており、トランジスタのゲート電極である第2領域と、
     前記第1領域および前記第2領域と分離されている第3領域とを含む、
     請求項1に記載の固体撮像装置。
  14.  前記第2領域の厚さは、前記第1領域の厚さ、および/または、前記第3領域の厚さと異なる、請求項13に記載の固体撮像装置。
  15.  前記第1領域は、前記第1基板と電気的に接続されており、
     前記第2領域は、前記第1基板と電気的に絶縁されており、
     前記第3領域は、前記第1基板と電気的に接続されている、
     請求項13に記載の固体撮像装置。
  16.  前記第1領域は、前記絶縁膜に設けられた第1開口部を介して、前記第1基板と電気的に接続されており、
     前記第3領域は、前記絶縁膜に設けられた第2開口部を介して、前記第1基板と電気的に接続されている、
     請求項15に記載の固体撮像装置。
  17.  前記第1領域に電気的に接続された第1コンタクトプラグと、
     前記第2領域に電気的に接続された第2コンタクトプラグと、
     前記第3領域に電気的に接続された第3コンタクトプラグと、
     をさらに備える、請求項13に記載の固体撮像装置。
  18.  前記第3コンタクトプラグは、グランド電位と電気的に接続されている、請求項17に記載の固体撮像装置。
  19.  第1基板内に光電変換部を形成し、
     前記第1基板の第1面側にレンズを形成し、
     前記第1基板の第2面側に絶縁膜を介して電極層を形成する、
     ことを含み、
     前記電極層は、シリコン元素と金属元素とを含む第1部分を含む、固体撮像装置の製造方法。
  20.  前記第1部分は、前記電極層の少なくとも一部をシリサイド化することで形成される、請求項19に記載の固体撮像装置の製造方法。
PCT/JP2021/045623 2021-12-10 2021-12-10 固体撮像装置およびその製造方法 WO2023105783A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/045623 WO2023105783A1 (ja) 2021-12-10 2021-12-10 固体撮像装置およびその製造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/045623 WO2023105783A1 (ja) 2021-12-10 2021-12-10 固体撮像装置およびその製造方法

Publications (1)

Publication Number Publication Date
WO2023105783A1 true WO2023105783A1 (ja) 2023-06-15

Family

ID=86729878

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/045623 WO2023105783A1 (ja) 2021-12-10 2021-12-10 固体撮像装置およびその製造方法

Country Status (1)

Country Link
WO (1) WO2023105783A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006120805A (ja) * 2004-10-20 2006-05-11 Sony Corp 固体撮像素子
JP2010177705A (ja) * 2010-04-16 2010-08-12 Sony Corp 固体撮像装置、その製造方法および撮像装置
JP2012079979A (ja) * 2010-10-04 2012-04-19 Sony Corp 固体撮像装置、および、その製造方法、電子機器
WO2017038403A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 積層体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006120805A (ja) * 2004-10-20 2006-05-11 Sony Corp 固体撮像素子
JP2010177705A (ja) * 2010-04-16 2010-08-12 Sony Corp 固体撮像装置、その製造方法および撮像装置
JP2012079979A (ja) * 2010-10-04 2012-04-19 Sony Corp 固体撮像装置、および、その製造方法、電子機器
WO2017038403A1 (ja) * 2015-09-01 2017-03-09 ソニー株式会社 積層体

Similar Documents

Publication Publication Date Title
US11362122B2 (en) Solid-state imaging element and imaging apparatus
WO2018074250A1 (ja) 半導体装置、製造方法、および電子機器
US20220068991A1 (en) Imaging element and manufacturing method of imaging element
CN110662986A (zh) 光接收元件和电子设备
US20230282660A1 (en) Imaging device and electronic device
US20230042668A1 (en) Imaging device and electronic device
WO2022172711A1 (ja) 光電変換素子および電子機器
US20240290816A1 (en) Solid-state imaging device
US20230039770A1 (en) Imaging element, manufacturing method, and electronic apparatus
WO2023105783A1 (ja) 固体撮像装置およびその製造方法
WO2022130987A1 (ja) 固体撮像装置およびその製造方法
WO2022249678A1 (ja) 固体撮像装置およびその製造方法
EP4391061A1 (en) Optical detection device and method for manufacturing same
WO2024024269A1 (ja) 固体撮像装置およびその製造方法
WO2024057814A1 (ja) 光検出装置および電子機器
WO2023119840A1 (ja) 撮像素子、撮像素子の製造方法、電子機器
WO2023132137A1 (ja) 撮像素子および電子機器
WO2023106308A1 (ja) 受光装置
US20240038807A1 (en) Solid-state imaging device
WO2024029408A1 (ja) 撮像装置
JP7316340B2 (ja) 固体撮像装置および電子機器
WO2023012989A1 (ja) 撮像装置
EP4415047A1 (en) Imaging device
WO2023171008A1 (ja) 光検出装置および電子機器ならびに光検出システム
WO2023106316A1 (ja) 受光装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21967275

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE