WO2023210238A1 - 光検出装置及び電子機器 - Google Patents

光検出装置及び電子機器 Download PDF

Info

Publication number
WO2023210238A1
WO2023210238A1 PCT/JP2023/012253 JP2023012253W WO2023210238A1 WO 2023210238 A1 WO2023210238 A1 WO 2023210238A1 JP 2023012253 W JP2023012253 W JP 2023012253W WO 2023210238 A1 WO2023210238 A1 WO 2023210238A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor layer
pixel
photoelectric conversion
gate electrode
region
Prior art date
Application number
PCT/JP2023/012253
Other languages
English (en)
French (fr)
Inventor
勝一郎 白石
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023210238A1 publication Critical patent/WO2023210238A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present technology (technology according to the present disclosure) relates to a photodetection device and an electronic device, and particularly relates to a technology that is effective when applied to a photodetection device having a transfer transistor and an electronic device equipped with the same.
  • a photodetection device such as a solid-state imaging device or a distance measuring device includes a transfer transistor for each pixel, which transfers signal charges photoelectrically converted in a photoelectric conversion section to a charge holding section.
  • Patent Document 1 discloses a vertically structured transfer transistor in which a part (body) of a gate electrode is buried in a groove of a substrate via a gate insulating film.
  • Patent Document 2 a trench for shallow trench isolation (STI) is formed in a substrate, and a voltage is applied to a buried polysilicon electrode buried in this trench via an insulating film, thereby accumulating
  • An imaging device has been disclosed in which signal charge transfer is improved by sometimes strengthening the pinning of the STI sidewall and applying voltage to the pixel region P-well and the buried polysilicon electrode during transfer.
  • the purpose of this technology is to ensure stable transfer capacity.
  • a photodetection device includes: a semiconductor layer having a first surface and a second surface located on opposite sides; a photoelectric conversion unit provided in the semiconductor layer and photoelectrically converting light incident from the second surface side of the semiconductor layer; a charge holding portion provided on the first surface side of the semiconductor layer; a transfer transistor having a gate electrode and transferring signal charges photoelectrically converted in the photoelectric conversion section to the charge holding section; a separation region provided on the first surface side of the semiconductor layer; It is equipped with The gate electrode is a head provided on the first surface side of the semiconductor layer; a leg extending from the head in the thickness direction of the semiconductor layer and provided in the separation region adjacent to the semiconductor layer with a gate insulating film interposed therebetween; has.
  • An electronic device is The above photodetection device; an optical lens that forms an image of light from a subject onto an imaging surface of the photodetector; a signal processing circuit that performs signal processing on the signal output from the photodetection device; It is equipped with
  • FIG. 1 is a chip layout diagram showing a configuration example of a solid-state imaging device according to a first embodiment of the present technology.
  • FIG. FIG. 1 is a block diagram showing an example of a circuit configuration of a solid-state imaging device according to a first embodiment of the present technology.
  • FIG. 2 is an equivalent circuit diagram showing an example of a pixel unit of the solid-state imaging device according to the first embodiment of the present technology.
  • 3A is a schematic plan view showing two pixel blocks included in the pixel block group of FIG. 3A.
  • FIG. FIG. 3B is an enlarged schematic plan view of one of the two pixel blocks in FIG. 3B.
  • FIG. 5 is a schematic vertical cross-sectional view showing the vertical cross-sectional structure taken along the a4-a4 section line in FIG. 4.
  • FIG. FIG. 6 is a schematic enlarged cross-sectional view of a part of FIG. 5;
  • FIG. 5 is a schematic vertical cross-sectional view showing a vertical cross-sectional structure taken along the b4-b4 cutting line in FIG. 4.
  • FIG. FIG. 3 is a diagram showing a cross-sectional pattern of an inter-pixel isolation region in a cross-section perpendicular to the thickness direction of a semiconductor layer.
  • FIG. 5 is a schematic plan view showing charge transfer paths and virtual lines in FIG. 4.
  • FIG. FIG. 3 is a schematic vertical cross-sectional view showing a charge transfer path when a transfer transistor is in an on state.
  • FIG. 7 is a diagram showing the potential of signal charges in the transfer path when the transfer transistor of the pixel of the comparative example is in the on state, and the potential of the signal charge in the transfer path when the transfer transistor of the pixel of the present technology is in the on state.
  • 1A and 1B are schematic process cross-sectional views showing a method for manufacturing a solid-state imaging device according to a first embodiment of the present technology.
  • FIG. 12A is a schematic process cross-sectional view following FIG. 12A.
  • FIG. 12B is a schematic process cross-sectional view following FIG. 12B.
  • FIG. 12C is a schematic process cross-sectional view following FIG. 12C.
  • FIG. 12D is a schematic process cross-sectional view following FIG. 12D.
  • FIG. 12A is a schematic process cross-sectional view following FIG. 12A.
  • FIG. 12B is a schematic process cross-sectional view following FIG. 12B.
  • FIG. 12C is a schematic process cross-sectional view following FIG
  • FIG. 12E is a schematic process cross-sectional view following FIG. 12E.
  • FIG. 12F is a schematic process cross-sectional view following FIG. 12F.
  • 12G is a schematic process cross-sectional view following FIG. 12G.
  • FIG. 3 is a schematic plan view showing a pixel block of a solid-state imaging device according to a second embodiment of the present technology.
  • 14 is a schematic vertical cross-sectional view showing a vertical cross-sectional structure taken along the a13-a13 cutting line in FIG. 13.
  • FIG. FIG. 7 is a schematic plan view showing a pixel block of a solid-state imaging device according to a third embodiment of the present technology.
  • FIG. 16 is a schematic vertical cross-sectional view showing a vertical cross-sectional structure taken along the a15-a15 cutting line in FIG. 15.
  • FIG. FIG. 7 is a schematic plan view showing a pixel block of a solid-state imaging device according to a fourth embodiment of the present technology.
  • FIG. 18 is a schematic vertical cross-sectional view showing the vertical cross-sectional structure along the a17-a17 cutting line in FIG. 17.
  • FIG. 7 is a schematic plan view showing a pixel block of a solid-state imaging device according to a fifth embodiment of the present technology.
  • FIG. 20 is a schematic vertical cross-sectional view showing a vertical cross-sectional structure taken along the a19-a19 cutting line in FIG. 19;
  • FIG. 19 is a schematic vertical cross-sectional view showing a vertical cross-sectional structure taken along the a19-a19 cutting line in FIG. 19;
  • FIG. 7 is a schematic plan view showing a pixel block of a solid-state imaging device according to a sixth embodiment of the present technology.
  • FIG. 22 is a schematic vertical cross-sectional view showing a vertical cross-sectional structure taken along the line a21-a21 in FIG. 21.
  • FIG. FIG. 7 is a diagram illustrating an example of a configuration of an electronic device according to a seventh embodiment of the present technology.
  • FIG. 1 is a block diagram showing a schematic configuration example of a vehicle control system.
  • FIG. 2 is an explanatory diagram showing an example of installation positions of an outside-vehicle information detection section and an imaging section.
  • FIG. 1 is a block diagram showing a schematic configuration example of an endoscopic surgery system.
  • FIG. 2 is a block diagram showing an example of the functional configuration of a camera head and a CCU.
  • the first conductivity type is a p type and the second conductivity type is an n type will be exemplified as the conductivity type of the semiconductor, but if the conductivity types are selected in the opposite relationship,
  • the first conductivity type may be n type and the second conductivity type may be p type.
  • a first direction and a second direction that are orthogonal to each other in the same plane are respectively referred to as an X direction and a Y direction
  • the first direction and A third direction perpendicular to each of the second directions is defined as a Z direction.
  • the thickness direction of the semiconductor layer 20, which will be described later will be described as the Z direction.
  • CMOS Complementary Metal Oxide Semiconductor
  • a solid-state imaging device 1A is mainly composed of a semiconductor chip 2 having a rectangular two-dimensional planar shape when viewed from above. That is, the solid-state imaging device 1A is mounted on the semiconductor chip 2, and the semiconductor chip 2 can be regarded as the solid-state imaging device 1A.
  • this solid-state imaging device 1A (101) captures image light (incident light 106) from a subject through an optical lens 102, and calculates the amount of incident light 106 formed on an imaging surface. Each pixel is converted into an electrical signal and output as a pixel signal (image signal).
  • the semiconductor chip 2 on which the solid-state imaging device 1A is mounted has a rectangular pixel array section 2A provided at the center in a two-dimensional plane including the X direction and the Y direction that are orthogonal to each other.
  • a peripheral portion 2B is provided outside the pixel array portion 2A so as to surround the pixel array portion 2A.
  • the semiconductor chip 2 is formed by cutting a semiconductor wafer including a semiconductor layer 20 (described later) into small pieces for each chip formation region in a manufacturing process. Therefore, the configuration of the solid-state imaging device 1A described below is generally the same in the wafer state before the semiconductor wafer is cut into pieces. That is, the present technology is applicable to semiconductor chips and semiconductor wafers.
  • the pixel array section 2A is a light receiving surface that receives light collected by an optical lens (optical system) 102 shown in FIG. 23, for example.
  • a plurality of pixels 3 are arranged in a matrix on a two-dimensional plane including the X direction and the Y direction.
  • the pixels 3 are repeatedly arranged in the X direction and the Y direction, which are orthogonal to each other within a two-dimensional plane.
  • a plurality of bonding pads 14 are arranged in the peripheral portion 2B.
  • Each of the plurality of bonding pads 14 is arranged, for example, along each of the four sides of the semiconductor chip 2 on the two-dimensional plane.
  • Each of the plurality of bonding pads 14 functions as an input/output terminal that electrically connects the semiconductor chip 2 and an external device.
  • the semiconductor chip 2 includes a logic circuit 13 shown in FIG. As shown in FIG. 2, the logic circuit 13 includes a vertical drive circuit 4, a column signal processing circuit 5, a horizontal drive circuit 6, an output circuit 7, a control circuit 8, and the like.
  • the logic circuit 13 is configured of a CMOS (Complementary MOS) circuit having, for example, an n-channel conductivity type MOSFET (Metal Oxide Semiconductor Field Effect Transistor) and a p-channel conductivity type MOSFET as field effect transistors.
  • CMOS Complementary MOS
  • the vertical drive circuit 4 is composed of, for example, a shift register.
  • the vertical drive circuit 4 sequentially selects desired pixel drive lines 10, supplies pulses for driving the pixels 3 to the selected pixel drive lines 10, and drives each pixel 3 row by row. That is, the vertical drive circuit 4 sequentially selectively scans each pixel 3 of the pixel array section 2A in the vertical direction row by row, and generates a signal charge generated by the photoelectric conversion section (photoelectric conversion element) of each pixel 3 according to the amount of light received.
  • a pixel signal from the pixel 3 based on the above is supplied to the column signal processing circuit 5 through the vertical signal line 11.
  • the column signal processing circuit 5 is arranged, for example, for each column of pixels 3, and performs signal processing such as noise removal on the signals output from one row of pixels 3 for each pixel column.
  • the column signal processing circuit 5 performs signal processing such as CDS (Correlated Double Sampling) and AD (Analog Digital) conversion to remove fixed pattern noise specific to pixels.
  • the horizontal drive circuit 6 is composed of, for example, a shift register.
  • the horizontal drive circuit 6 sequentially outputs horizontal scanning pulses to the column signal processing circuits 5 to select each of the column signal processing circuits 5 in turn, and selects pixels on which signal processing has been performed from each of the column signal processing circuits 5.
  • the signal is output to the horizontal signal line 12.
  • the output circuit 7 performs signal processing on the pixel signals sequentially supplied from each column signal processing circuit 5 through the horizontal signal line 12 and outputs the signal.
  • signal processing for example, buffering, black level adjustment, column variation correction, various digital signal processing, etc. can be used.
  • the control circuit 8 generates clock signals and control signals that serve as operating standards for the vertical drive circuit 4, column signal processing circuit 5, horizontal drive circuit 6, etc., based on the vertical synchronization signal, horizontal synchronization signal, and master clock signal. generate. Then, the control circuit 8 outputs the generated clock signal and control signal to the vertical drive circuit 4, column signal processing circuit 5, horizontal drive circuit 6, and the like.
  • the semiconductor chip 2 includes a pixel unit PU shown in FIG. 3A.
  • the pixel unit PU includes, for example, two pixel blocks 15 and one pixel circuit (readout circuit) 16, as shown in FIGS. 3A and 3B.
  • the two pixel blocks 15 are arranged adjacent to each other in the Y direction and constitute one pixel block group.
  • each of these two pixel blocks 15 is arranged two by two adjacent to each other in each of the X direction and the Y direction when viewed from above. 3, and a floating diffusion FD serving as one charge holding section shared by the four pixels 3. That is, one pixel block group including two pixel blocks 15 includes eight pixels 3 and two floating diffusions FD.
  • the floating diffusion FD corresponds to a specific example of the "charge holding section" of the present technology.
  • the input stage of one pixel circuit 16 is electrically connected to the floating diffusion FD of each pixel block 15.
  • the outputs of the four pixels 3 of each pixel block 15 are input to the input stage of the shared pixel circuit 16. That is, the first embodiment has a circuit configuration in which one pixel circuit 16 is allocated to two pixel blocks 15 (one pixel block group), although the invention is not limited thereto.
  • each of the four pixels 3 included in one pixel block 15 has common components. As shown in FIG. 3A, each of the four pixels 3 included in one pixel block 15 includes a photoelectric conversion section 25 and a floating diffusion FD that holds (accumulates) signal charges photoelectrically converted in the photoelectric conversion section 25. , and a transfer transistor TR that transfers the signal charge photoelectrically converted by the photoelectric conversion unit 25 to the floating diffusion FD.
  • the photoelectric conversion unit 25 shown in FIG. 3A is composed of, for example, a pn junction type photodiode (PD), and generates signal charges according to the amount of received light.
  • the photoelectric conversion unit 25 has a cathode side electrically connected to the source region of the transfer transistor TR, and an anode side electrically connected to a reference potential line (for example, ground).
  • a drain region of the transfer transistor TR is electrically connected to the floating diffusion FD.
  • the transfer transistor TR shown in FIG. 3A transfers the signal charge photoelectrically converted by the photoelectric conversion unit 25 to the floating diffusion FD.
  • the source region of the transfer transistor TR is electrically connected to the cathode side of the photoelectric conversion section 25, and the drain region of the transfer transistor TR is electrically connected to the floating diffusion FD.
  • the gate electrode of the transfer transistor TR is electrically connected to a transfer transistor drive line among the pixel drive lines 10 (see FIG. 2).
  • the floating diffusion FD shown in FIG. 3A temporarily holds (accumulates) the signal charge transferred from the photoelectric conversion section 25 via the transfer transistor TR.
  • the pixel circuit 16 shown in FIG. 3A reads out the signal charge held in the floating diffusion FD and outputs a pixel signal based on this signal charge. In other words, the pixel circuit 16 converts the signal charge photoelectrically converted by the photoelectric conversion unit 25 into a pixel signal based on this signal charge, and outputs the pixel signal.
  • the photoelectric conversion section 25, the transfer transistor TR, and the floating diffusion FD are mounted in a photoelectric conversion region 21 (see FIGS. 5 to 7) of the semiconductor layer 20, which will be described later.
  • the pixel circuit 16 shown in FIG. 3A reads out the signal charge held in the floating diffusion FD and outputs a pixel signal based on this signal charge.
  • the pixel circuit 16 includes, for example, an amplification transistor AMP, a selection transistor SEL, a reset transistor RST, and a selection transistor FDG as pixel transistors.
  • These pixel transistors are field-effect transistors that include, for example, a gate insulating film made of a silicon oxide (SiO 2 ) film, a gate electrode, and a pair of gate electrodes that function as a source region and a drain region.
  • the main electrode region is composed of a MOSFET having a main electrode region.
  • these pixel transistors may be MISFETs (Metal Insulator Semiconductor FETs) whose gate insulating film is made of a silicon nitride (Si 3 N 4 ) film or a laminated film of a silicon nitride film and a silicon oxide film.
  • MISFETs Metal Insulator Semiconductor FETs
  • the amplification transistor AMP shown in FIG. 3A has a source region electrically connected to the drain region of the selection transistor SEL, and a drain region electrically connected to the power supply line Vdd and the drain region of the reset transistor RST.
  • the gate electrode of the amplification transistor AMP is electrically connected to the floating diffusion FD and the source region of the switching transistor FDG.
  • the selection transistor SEL shown in FIG. 3A has a source region electrically connected to the vertical signal line 11 (VSL), and a drain region electrically connected to the source region of the amplification transistor AMP.
  • the gate electrode of the selection transistor SEL is electrically connected to the selection transistor drive line of the pixel drive lines 10 (see FIG. 2).
  • the reset transistor RST shown in FIG. 3A has a source region electrically connected to the drain region of the switching transistor FDG, and a drain region electrically connected to the power supply line Vdd and the drain region of the amplification transistor AMP.
  • the gate electrode of the reset transistor RST is electrically connected to a reset transistor drive line of the pixel drive lines 10 (see FIG. 2).
  • the switching transistor FDG shown in FIG. 3A has a source region electrically connected to the floating diffusion FD and the gate electrode of the amplification transistor AMP, and a drain region electrically connected to the power supply line Vdd and the drain region of the amplification transistor AMP. .
  • the gate electrode of the switching transistor FDG is electrically connected to a switching transistor drive line of the pixel drive lines 10 (see FIG. 2).
  • the selection transistor SEL and the switching transistor FDG may be omitted as necessary.
  • the source region of the amplification transistor AMP is electrically connected to the vertical signal line 11 (VSL).
  • the switching transistor FDG is omitted, the source region of the reset transistor RST is electrically connected to the gate electrode of the amplification transistor AMP and the floating diffusion FD.
  • the transfer transistor TR shown in FIG. 3A transfers the signal charge generated in the photoelectric conversion section 25 (photoelectric conversion element PD) to the floating diffusion FD when the transfer transistor TR is turned on.
  • the reset transistor RST shown in FIG. 3A resets the potential (signal charge) of the floating diffusion FD to the potential of the power supply line Vdd when the reset transistor RST is turned on.
  • the selection transistor SEL controls the output timing of the pixel signal from the pixel circuit 16.
  • the amplification transistor AMP shown in FIG. 3A generates, as a pixel signal, a voltage signal corresponding to the level of the signal charge held in the floating diffusion FD.
  • the amplification transistor AMP constitutes a source follower type amplifier, and outputs a pixel signal of a voltage corresponding to the level of the signal charge generated by the photoelectric conversion unit 25 (photoelectric conversion element PD).
  • the selection transistor SEL When the selection transistor SEL is turned on, the amplification transistor AMP amplifies the potential of the floating diffusion FD and outputs a voltage corresponding to the potential to the column signal processing circuit 5 via the vertical signal line 11 (VSL). .
  • the switching transistor FDG shown in FIG. 3A controls charge retention by the charge retention region FD, and also adjusts the voltage multiplication factor according to the potential amplified by the amplification transistor AMP.
  • signal charges generated in the photoelectric conversion section 25 of the pixel 3 are held (accumulated) in the floating diffusion FD via the transfer transistor TR of the pixel 3. Then, the signal charge held in the floating diffusion FD is read out by the pixel circuit 16 and applied to the gate electrode of the amplification transistor AMP of the pixel circuit 16.
  • a horizontal line selection control signal is applied to the gate electrode of the selection transistor SEL of the pixel circuit 16 from the vertical shift register. Then, by setting the selection control signal to a high (H) level, the selection transistor SEL becomes conductive, and a current corresponding to the potential of the floating diffusion FD amplified by the amplification transistor AMP flows to the vertical signal line 11. Furthermore, by setting the reset control signal applied to the gate electrode of the reset transistor RST of the pixel circuit 16 to a high (H) level, the reset transistor RST becomes conductive and resets the signal charges accumulated in the floating diffusion FD.
  • the photoelectric conversion unit 25, transfer transistor TR, and floating diffusion FD shown in FIG. 3A are each mounted on a semiconductor layer 20 (see FIG. 4), which will be described later.
  • pixel transistors (AMP, SEL, RST, FDG) included in the pixel circuit 16 shown in FIG. 3A are also mounted on the semiconductor layer 20, for example.
  • FIGS. 4 to 10 Specific configuration of solid-state imaging device ⁇
  • 4 to 10 are upside down relative to FIG. 1 for convenience of explanation. Further, in FIGS. 4 and 9, illustration of layers above the gate electrode 36 is omitted.
  • the semiconductor chip 2 includes a semiconductor layer 20 having a first surface S1 and a second surface S2 located opposite to each other, and a semiconductor layer 20 provided on the semiconductor layer 20 and having a first surface S1 and a second surface S2 located on opposite sides.
  • a photoelectric conversion unit 25 that photoelectrically converts light incident from the second surface S2 side of 20 is provided.
  • the semiconductor chip 2 also has a floating diffusion FD provided on the first surface S1 side of the semiconductor layer 20 and a gate electrode 36, and transfers signal charges photoelectrically converted by the photoelectric conversion unit 25 to the floating diffusion FD.
  • the device further includes a transfer transistor TR for transferring data, and an element isolation region 30 as an isolation region provided on the first surface S1 side of the semiconductor layer 20.
  • the semiconductor chip 2 further includes a multilayer wiring layer including an interlayer insulating film 41 and a wiring layer 44 provided on the first surface S1 side of the semiconductor layer 20.
  • the semiconductor chip 2 also includes a planarization film 51, a light shielding film 52, an optical filter 53, and a microlens (on-chip lens) provided on the second surface S2 side of the semiconductor layer 20 in this order from the second surface S2 side. )54.
  • the first surface S1 of the semiconductor layer 20 is sometimes called a main surface or an element forming surface, and the second surface S2 is sometimes called a back surface.
  • the solid-state imaging device 1A converts incident light incident from the second surface S2 side of the semiconductor layer 20 into a photoelectric conversion unit 25 (photoelectric conversion element PD) provided in the semiconductor layer 20. Convert photoelectrically. Therefore, in this first embodiment, the second surface S2 of the semiconductor layer 20 is sometimes referred to as a light incidence surface.
  • the element isolation region 30 corresponds to a specific example of the "isolation region" of the present technology.
  • the four pixels 3 included in the pixel block 15 are arranged two in each of the X direction and the Y direction in plan view, resulting in a 2 ⁇ 2 layout arrangement. That is, in the pixel array 2A shown in FIG. 1 described above, pixel blocks 15 each having four pixels 3 as one unit are repeatedly arranged in each of the X direction and the Y direction. In other words, in the pixel array 2A shown in FIG. It is located.
  • the planarization film 51 shown in FIGS. 5 and 7 is provided on the second surface S2 side of the semiconductor layer 20 so as to cover the second surface S2 of the semiconductor layer 20.
  • the S2 side is flattened.
  • the light-shielding film 52 shown in FIGS. 5 and 7 has a grid-like planar pattern in plan view so as to partition adjacent pixels 3.
  • the optical filter 53 and microlens 54 shown in FIGS. 5 and 7 are provided for each pixel 3.
  • the optical filter 53 color-separates the incident light that enters from the light incident surface side (second surface S2 side) of the semiconductor chip 2.
  • the microlens 54 condenses the irradiated light and allows the condensed light to enter the pixel 3 efficiently.
  • the semiconductor layer 20 includes an inter-pixel isolation region 26 and a photoelectric conversion region 21 partitioned by the inter-pixel isolation region 26.
  • a photoelectric conversion region 21 is provided for each pixel 3.
  • a Si substrate, a SiGe substrate, an InGaAs substrate, etc. can be used as the semiconductor layer 20, although the invention is not limited thereto.
  • the interpixel isolation region 26 extends from the second surface S2 side of the semiconductor layer 20 along the thickness direction (Z direction) of the semiconductor layer 20, and extends from the second surface S2 side of the semiconductor layer 20. It is spaced apart from the element isolation region 30 provided on the surface S2 side of 1.
  • the inter-pixel isolation region 26 includes a dug portion 27 extending in the thickness direction (Z direction) of the semiconductor layer 20 from the second surface S2 side of the semiconductor layer 20, and an isolation insulating film provided in the dug portion 27. 28.
  • the isolation insulating film 28 is made of, for example, a silicon oxide film.
  • the inter-pixel separation region 26 for one photoelectric conversion region 21 has a rectangular annular planar pattern (ring-shaped planar pattern) in a planar view.
  • the inter-pixel separation region 26 for the four photoelectric conversion regions 21 included in one pixel block 15 is located in a rectangular annular plane pattern surrounding the four photoelectric conversion regions 21 in plan view.
  • This is a composite planar pattern having a lattice-like planar pattern in which interpixel isolation regions 26 extending in the X direction and interpixel isolation regions 26 extending in the Y direction intersect.
  • the pixel separation region 26 extends along the X direction on a virtual boundary line 3x between two pixels 3 that are adjacent to each other in the Y direction in plan view, and is located between two pixels 3 that are adjacent to each other in the X direction. It extends along the Y direction on a virtual boundary line 3y between two matching pixels 3.
  • each photoelectric conversion region 21 is provided for each pixel 3.
  • Each photoelectric conversion region 21 includes the above-described photoelectric conversion section 25, floating diffusion FD, and transfer transistor TR. Further, each photoelectric conversion region 21 includes a p-type semiconductor region 22 as a first conductivity type, and an n-type semiconductor region 23 as a second conductivity type. Further, each photoelectric conversion region 21 includes an overflow drain region 24.
  • the p-type semiconductor region 22 extends along the thickness direction (Z direction) of the semiconductor layer 20 so as to surround the pixel isolation region 26.
  • the p-type semiconductor region 22 is in contact with the top and side surfaces of the pixel isolation region 26, contacts the element isolation region 30 as shown in FIGS. 5 and 6, and is floating as shown in FIG. It is in contact with Diffusion FD.
  • the n-type semiconductor region 23 extends between the two pixel isolation regions 26 from the second surface S2 side of the semiconductor layer 20 toward the first surface S1 side. are doing.
  • the n-type semiconductor region 23 is spaced apart from the p-type semiconductor region 22 and from the first surface S1 of the semiconductor layer 20.
  • the overflow drain region 24 is provided between the n-type semiconductor region 23 and the first surface S1 of the semiconductor layer 20.
  • the overflow drain region 24 is in contact with the n-type semiconductor region 23 and is spaced apart from the first surface S1 of the semiconductor layer 20.
  • This overflow drain region 24 is composed of, for example, an n-type semiconductor region having a lower impurity concentration than the n-type semiconductor region 23.
  • the above-mentioned photoelectric conversion section 25 is mainly composed of an n-type semiconductor region 23, and is a pn-junction photodiode (PD) formed by a pn junction between a p-type semiconductor region 22 and an n-type semiconductor region 23. It is configured as.
  • PD pn-junction photodiode
  • the floating diffusion FD is arranged at the center of a pixel block 15 including four pixels 3 arranged in a matrix. That is, in the pixel block 15, the floating diffusion FD is defined by a virtual boundary line 3x between two pixels 3 arranged next to each other in the Y direction and a virtual boundary line 3x between two pixels 3 arranged next to each other in the X direction. It is arranged at the intersection where the virtual boundary line 3y intersects.
  • the floating diffusion FD is provided in the surface layer portion of the semiconductor layer 20 on the first surface S1 side.
  • This floating diffusion FD is composed of, for example, an n-type semiconductor region having a higher impurity concentration than the n-type semiconductor region 23.
  • Inter-element isolation region> As shown in FIG. 4, four inter-element isolation regions 30 are provided in the pixel block 15, although not limited thereto. Of the four element isolation regions 30, two element isolation regions 30 are arranged on both sides of the floating diffusion FD in the X direction at positions overlapping the virtual boundary line 3x in plan view. The remaining two element isolation regions 30 are arranged on both sides of the floating diffusion FD in the Y direction at positions overlapping the virtual boundary line 3y in plan view. That is, two inter-element isolation regions 30 are arranged at positions overlapping with the virtual boundary line 3x and two at positions overlapping with the virtual boundary line 3y so as to surround the floating diffusion FD in a plan view. In other words, the element isolation region 30 is arranged between two photoelectric conversion regions 21 that are adjacent to each other in plan view.
  • the element isolation region 30 is provided in the surface layer portion of the semiconductor layer 20 on the first surface S1 side.
  • the inter-element isolation region 30 includes a trench (groove) 31 recessed in the thickness direction (Z direction) of the semiconductor layer 20 from the first surface S1 side of the semiconductor layer 20, and An isolation insulating film 32 provided in the recessed portion 31 is included. That is, the element isolation region 30 has an STI (Shallow Trench Isolation) structure.
  • the isolation insulating film 32 is made of, for example, a silicon oxide film.
  • the transfer transistor TR is provided on the first surface S1 side of the semiconductor layer 20.
  • the transfer transistor TR has a gate electrode 36 provided on the first surface S1 side of the semiconductor layer 20, and a gate insulating film 33 interposed between the gate electrode 36 and the semiconductor layer 20. Further, the transfer transistor TR has a photoelectric conversion section 25 and a floating diffusion FD that function as a source region and a drain region.
  • the transfer transistors TR of each of the four photoelectric conversion regions 21 (four pixels 3) included in the pixel block 15 are arranged biased toward the floating diffusion FD in plan view.
  • the gate electrodes 36 of each of the four transfer transistors TR are arranged biased toward the floating diffusion FD so as to surround the floating diffusion FD.
  • the gate electrode 36 includes a head (planar electrode portion) 36a provided on the first surface S1 side of the semiconductor layer 20 with the gate insulating film 33 interposed therebetween; Legs (vertical electrodes) extending from 36a along the thickness direction (Z direction) of the semiconductor layer 20 and adjacent to the semiconductor layer 20 with the gate insulating film 33 interposed therebetween are provided in the element isolation region 30. part) 36b.
  • the head portion 36a of the gate electrode 36 is provided to overlap the photoelectric conversion section 25 in a plan view.
  • the head 36a of the gate electrode 36 is connected to the charge transfer path R1 through which the transfer transistor TR transfers signal charges from the photoelectric conversion section 25 (n-type semiconductor region 23) to the floating diffusion FD in plan view. are placed in a position where they overlap.
  • the leg portions 36b of the gate electrode 36 are provided at two end portions of the head portion 36a in a direction (crossing direction Sd 1 ) intersecting the charge transfer path R 1 in plan view.
  • the head 36a of the gate electrode 36 is connected to the virtual line VL connecting the center P1 of the photoelectric conversion section 25 (n-type semiconductor region 23) and the center P2 of the floating diffusion FD in plan view.
  • the legs 36b of the gate electrode 36 are arranged outside the charge transfer path R1 .
  • the head 36a of the gate electrode 36 is connected to the virtual line VL connecting the center P1 of the photoelectric conversion section 25 (n-type semiconductor region 23) and the center P2 of the floating diffusion FD in plan view . It is placed in a position that overlaps with The leg portion 36b of the gate electrode 36 is located at a position away from the virtual line VL in plan view.
  • the leg portion 36b of the gate electrode 36 is disposed on at least one of both sides of the charge transfer path R1 intersecting the transfer direction. In the first embodiment, one leg portion 36b of the gate electrode 36 is arranged on each side of the charge transfer path R1 , although the present invention is not limited thereto.
  • one leg 36b is provided in the inter-element isolation region 30 located on the virtual boundary line 3x in plan view, and the other leg 36b is provided on the virtual boundary line 3x in plan view. It is provided in the element isolation region 30 located on the boundary line 3y.
  • ⁇ Charge transfer path> As shown in FIG. 10, when the transfer transistor TR is turned on, a deep inversion layer 37 is formed in the semiconductor layer 20 by the leg portions 36b of the gate electrode.
  • the gate electrode 36 of this first embodiment has two legs 36b. Therefore, in the transfer transistor TR of the first embodiment, two deep inversion layers 37 are formed in the semiconductor layer 20 by the two legs 36b of the gate electrode 36. Then, a charge transfer path R1 including these two inversion layers 37 is formed. Then, the signal charges photoelectrically converted by the photoelectric conversion section 25 are transferred to the floating diffusion FD through this charge transfer path R1 .
  • the transfer transistor TR according to the first embodiment is a dual-lung type (dual type) in which two inversion layers 37 are formed in the semiconductor layer 20 by the two leg portions 36b of the gate electrode 36.
  • two pixel blocks 15 included in one pixel block group include an amplification transistor AMP, a selection transistor SEL, a reset transistor RST, and a switching transistor FDG as pixel transistors included in the above-mentioned pixel circuit 16. is located.
  • the gate electrode of each of these pixel transistors (AMP, SEL, RST, FDG) is formed of the same layer as the gate electrode 36 of the transfer transistor TR, for example.
  • the gate electrode 36 of the transfer transistor TR is covered with an interlayer insulating film 41 provided on the first surface S1 side of the semiconductor layer 20. Further, although not shown in detail, the gate electrodes of each of the plurality of pixel transistors (AMP, SEL, RST, FDG) included in the above-mentioned pixel circuit 16 are also covered with the interlayer insulating film 41.
  • the gate electrode 36 of the transfer transistor TR connects to a wiring 44b provided in the wiring layer 44 on the interlayer insulating film 41 via a contact electrode 43b provided in the interlayer insulating film 41. electrically connected.
  • the floating diffusion FD is electrically connected to a wiring 44a provided in a wiring layer 44 on the interlayer insulating film 41 via a contact electrode 43a provided in the interlayer insulating film 41.
  • the interlayer insulating film 41 is made of, for example, a silicon oxide film.
  • tungsten (W) which is a high melting point metal, can be used.
  • As the material for the wirings 44a and 44b for example, a metal material such as aluminum (Al) or copper (Cu), or an alloy material mainly composed of Al or Cu can be used.
  • FIGS. 12A to 12H a method for manufacturing the solid-state imaging device 1A will be described using FIGS. 12A to 12H.
  • the formation of an inter-element isolation region and a transfer transistor included in a method for manufacturing a solid-state imaging device will be specifically explained.
  • a p-type semiconductor region 22, an n-type semiconductor region 23, an overflow drain region 24, a photoelectric conversion section 25, and an interpixel isolation region 26 are formed in the semiconductor layer 20.
  • a dug portion 31 is formed that is recessed from the first surface S1 of the semiconductor layer 20 in the thickness direction (Z direction) of the semiconductor layer 20.
  • the dug portion 31 is formed at a position overlapping the virtual boundary line 3x and the virtual boundary line 3y shown in FIG. 4 in plan view.
  • the dug portion 31 is formed using well-known photolithography technology and dry etching technology.
  • an isolation insulating film 32 is formed within the dug portion 31.
  • the isolation insulating film 32 is formed by forming, for example, a silicon oxide film on the entire surface of the first surface S1 side of the semiconductor layer 20 including the inside of the recessed part 31 by a CVD method, and then depositing the silicon oxide film inside the recessed part 31. It can be formed by selectively removing the silicon oxide film on the first surface S1 of the semiconductor layer 20, except for.
  • the element isolation region 30 including the dug portion 31 and the isolation insulating film 32 is formed at a position overlapping the virtual boundary line 3x and the virtual boundary line 3y shown in FIG. 4 in plan view.
  • a mask RM1 having a width narrower than the width of the dug portion 31 is formed on the element isolation region 30.
  • the mask RM1 is formed using, for example, a well-known photolithography technique.
  • the isolation insulating film 32 outside the mask RM1 is selectively removed to create a gap between the side wall of the dug portion 31 and the isolation insulating film 32, as shown in FIG. 12E.
  • a gap portion 34 is formed between.
  • gap portions 34 are formed on both sides of the isolation insulating film 32 in the width direction. Selective removal of the isolation insulating film 32 can be performed using a well-known dry etching technique.
  • the gate insulating film 33 can be formed by forming a silicon oxide film by, for example, a thermal oxidation method or a deposition method. In this first embodiment, it is formed by a thermal oxidation method.
  • a conductive film 35 as a gate material is spread over the entire surface of the first surface S1 of the semiconductor layer 20 including the inside of the gap 34 between the dug part 31 and the isolation insulating film 32. form.
  • the conductive film 35 for example, a polycrystalline silicon (doped polysilicon) film into which impurities to reduce the resistance value are introduced during or after film formation can be used.
  • the gate insulating film 33 is interposed between the semiconductor layer 20 and the conductive film 35 .
  • the polycrystalline silicon film can be formed by the well-known CVD method.
  • the conductive film 35 is patterned using well-known photolithography and dry etching techniques to form a gate electrode 36, as shown in FIG. 12H.
  • the gate electrode 36 has a head 36a provided on the first surface S1 side of the semiconductor layer 20 with the gate insulating film 33 interposed therebetween, and a direction from the head 36a in the thickness direction (Z) of the semiconductor layer 20.
  • the leg portion 36b extends in the element isolation region 30 and is adjacent to the semiconductor layer 20 with the gate insulating film 33 interposed therebetween.
  • the gate electrode 36 is provided in the leg portion 36b provided in the element isolation region 30 located on the virtual boundary line 3x in FIG. 4 and in the element isolation region 30 located on the virtual boundary line 3y in FIG.
  • the leg portion 36b is formed in a shape having a leg portion 36b.
  • an effective measure is to increase the thickness of the photoelectric conversion unit (photodiode PD) responsible for photoelectric conversion, that is, increase the thickness of the semiconductor layer. becomes.
  • the photoelectric conversion section also has the role of accumulating (retaining) electrons (signal charges) generated by photoelectric conversion, so by increasing the thickness of the photoelectric conversion section and adjusting the potential within the photoelectric conversion section, It is possible to suppress a decrease in the saturation signal amount (Qs). Adjustment of this potential is mainly performed by adjusting the impurity concentration.
  • a typical CMOS image sensor includes a pixel circuit that converts signal charges held in a floating diffusion serving as a charge holding section into pixel signals and outputs the pixel signals to vertical signal lines.
  • the pixel circuit includes pixel transistors such as an amplification transistor, a selection transistor, a reset transistor, and a switching transistor arranged on the same plane as the transfer transistor TR.
  • the area of the photoelectric conversion section becomes relatively smaller as the pixels become smaller, which leads to a decrease in sensitivity and saturation signal amount (Qs).
  • Qs sensitivity and saturation signal amount
  • This laminated structure includes the following two structures. (a1); The photoelectric conversion portion is embedded in the same semiconductor layer. (a2): A pixel transistor and a photoelectric conversion section are provided in different semiconductor layers.
  • the gate electrode of the transfer transistor in order to transfer signal charges from the photoelectric conversion section to the floating diffusion, the gate electrode of the transfer transistor is made to reach the potential modulation by the gate electrode from the surface of the semiconductor layer to a deeper part inside the semiconductor layer. Therefore, a field effect transistor with a vertical structure is an effective means.
  • Transferring signal charges from the photoelectric conversion section to the floating diffusion requires not only potential modulation by the transfer transistor, but also a potential gradient formed within the photoelectric conversion section by adjusting the impurity concentration, especially in areas far from the transfer transistor. be.
  • the placement position of the legs is also important.
  • the leg of the gate electrode is circular and arranged so as to bite into the photoelectric conversion part, but this arrangement reduces the risk of dark current and white spots caused by the interface between the sidewall of the gate electrode leg and the semiconductor layer. Since it is easy to cause deterioration of the hole density, it is necessary to secure the hole concentration by implanting impurities.
  • the leg portion 36b of the gate electrode 36 is arranged in the inter-pixel isolation region 30. Therefore, the charge transfer path R1 for transferring signal charges from the photoelectric conversion section 25 to the floating diffusion FD can be simplified, and the potential modulation ability can be increased. Therefore, according to the solid-state imaging device 1A according to the first embodiment, it is possible to ensure a robust (stable) transfer capability.
  • FIG. 11 is a diagram showing the potential of signal charges in the charge transfer path.
  • Data A is the potential in the case of the transfer transistor TR of the present technology
  • data B is the potential in the case of the transfer transistor of the comparative example.
  • the transfer transistor of the comparative example has a configuration in which the legs of the gate electrode are located in the charge transfer path. As can be seen from FIG. 11, data A has a flatter potential than data B, and it is clear that application of the present technique is useful.
  • the solid-state imaging device 1B according to the second embodiment of the present technology basically has the same configuration as the solid-state imaging device 1A according to the first embodiment, and The structure of the gate electrode 36 of transistor TR is different.
  • the gate electrode 36 of the transfer transistor TR according to the first embodiment described above is arranged in a direction intersecting the charge transfer path R1 in plan view (see FIG. 9: intersecting direction Sd1 ) . ), legs 36b are provided at each of the two end sides of the head 36a.
  • the gate electrode 36 of the transfer transistor TR according to the second embodiment has the following characteristics : A leg portion 36b is provided on one of the two end portions of the head 36a. In other words, the gate electrode 36 of the transfer transistor TR according to the second embodiment intersects the virtual line VL connecting the center P1 of the photoelectric conversion section 25 and the center P2 of the floating diffusion FD in plan view.
  • the leg portion 36b is provided on one of the two end portion sides of the head portion 36a in the direction (crossing direction Sd 2 ). That is, the transfer transistor TR according to the second embodiment is a one-lung type (single type) in which one inversion layer 37 is formed in the semiconductor layer 20 by one leg portion 36b of the gate electrode 36.
  • the other configurations are generally similar to the first embodiment described above.
  • planar pattern of the inter-element isolation region 30 at a position overlapping with the virtual boundary line 3y in plan view is octagonal as in the above-described first embodiment.
  • planar pattern of the element isolation region 30 at a position overlapping with the virtual boundary line 3x is rectangular.
  • a solid-state imaging device 1C according to the third embodiment of the present technology basically has the same configuration as the solid-state imaging device 1A according to the first embodiment described above, except for the following configurations. That is, as shown in FIGS. 15 and 16, the solid-state imaging device 1C according to the third embodiment includes an inter-element isolation region 30c in place of the inter-element isolation region 30 of the first embodiment described above. In this third embodiment, the number of pixels 3 sharing one floating diffusion FD and the configuration of the gate electrode 36 of the transfer transistor TR are different.
  • the inter-element isolation region 30c has a planar pattern extending in a zigzag pattern along a virtual boundary line 3x between two pixels 3 adjacent to each other in the Y direction. There is. Two pixels 3 adjacent to each other in the X direction share one floating diffusion FD.
  • the gate electrode 36 of the transfer transistor TR has a one-lung type in which one inversion layer 37 is formed in the semiconductor layer 20 by one leg 36b of the gate electrode 36, as in the second embodiment described above. There is.
  • the solid-state imaging device 1D according to the fourth embodiment of the present technology basically has the same configuration as the solid-state imaging device 1A according to the first embodiment described above, except for the following configurations.
  • the solid-state imaging device 1D includes an inter-element isolation region 30d in place of the inter-element isolation region 30 of the first embodiment described above.
  • the pixel transistors (AMP, SEL, RST, FDG) included in the pixel circuit 16 in FIG. It is formed in a semiconductor layer.
  • the semiconductor layer 20 corresponds to a specific example of the "first semiconductor layer" of the present technology
  • another semiconductor layer that overlaps with the semiconductor layer 20 corresponds to a "second semiconductor layer" of the present technology. This corresponds to a specific example.
  • a second semiconductor layer is provided. Pixel transistors (AMP, SEL, RST, FDG) of the pixel circuit 16 are provided in this second semiconductor layer.
  • the inter-element isolation region 30d includes two first portions 30d1 and a virtual boundary line 3y, which are arranged at a position overlapping the virtual boundary line 3x with a floating diffusion FD in between. It has two second portions 30d 2 disposed at superimposed positions sandwiching the floating diffusion FD, and a third portion 30d 3 surrounding the four pixels 3.
  • the sides of the two first parts 30d1 opposite to the floating diffusion FD side are connected to the third part 30d3
  • the sides of the two second parts 30d2 opposite to the floating diffusion FD side are connected to the third part 30d3 .
  • the inter-element isolation region 30d including the first to third portions 30d 1 , 30d 2 , 30d 3 is connected to the inter-pixel isolation region 26 .
  • the transfer transistor TR among the two legs 36b of the gate electrode 36, one leg 36b is provided in the first portion 30d1 of the element isolation region 30d, and the other leg 36b is provided in the element isolation region 30d.
  • 30d is provided in the second portion 30d2 .
  • a contact region 38 for power supply for supplying a potential to the semiconductor layer 20 is provided on the side of the pixel 3 opposite to the floating diffusion FD side.
  • a solid-state imaging device 1E according to the fifth embodiment of the present technology basically has the same configuration as the solid-state imaging device 1A according to the first embodiment described above, except for the following configurations.
  • the solid-state imaging device 1E includes an inter-element isolation region 30e in place of the inter-element isolation region 30 of the first embodiment described above. Also in this fifth embodiment, the pixel transistors (AMP, SEL, RST, FDG) included in the pixel circuit 16 in FIG. It is formed in the semiconductor layer of
  • the element isolation region 30e is provided on the first surface S1 side of the semiconductor layer so as to cover the first surface of the semiconductor layer.
  • Two windows 39 are provided for each pixel 3 in the element isolation region 30e. These two window portions 39 are arranged side by side in the X direction.
  • the semiconductor layer 20 in each of the two window sections 39 includes a p-type semiconductor region 22, an n-type semiconductor region 23, an overflow drain region 24, a photoelectric conversion section 25, as in the first embodiment described above.
  • a transfer transistor TR and the like are provided.
  • the floating diffusion FD is arranged between two pixels 3 arranged adjacent to each other in the Y direction.
  • the transfer transistors TR of the window portions 39 of each of the two pixels 3 are arranged so as to surround the floating diffusion FD.
  • the leg portions 36b of the gate electrode 36 are provided in the element isolation region 30e.
  • the gate electrode 36 has one leg portion 36b
  • the transfer transistor TR according to the fifth embodiment has one inverted portion in the semiconductor layer 20 by one leg portion 36b of the gate electrode 36. It is a one-lung type (single type) in which a layer 37 is formed.
  • a contact region 38 for power supply for supplying a potential to the semiconductor layer 20 is provided on the side of the pixel 3 opposite to the floating diffusion FD side. Furthermore, as shown in FIG. 20, the inter-element isolation region 30e is connected to the inter-pixel isolation region 26.
  • the solid-state imaging device 1F according to the sixth embodiment of the present technology basically has the same configuration as the solid-state imaging device 1A according to the first embodiment described above, and differs in the following configuration.
  • the solid-state imaging device 1E according to the fifth embodiment includes an inter-element isolation region 30f in place of the inter-element isolation region 30 of the first embodiment described above.
  • the element isolation region 30f is provided on the first surface S1 side of the semiconductor layer 20 so as to cover the first surface S1 of the semiconductor layer 20.
  • Two windows 39a and 39b are provided for each pixel 3 in the element isolation region 30f.
  • the window portion 39a is arranged biased towards the floating diffusion FD side of the pixel 3 in a plan view
  • the window portion 39b is arranged in the center of the pixel 3 in a plan view. .
  • the semiconductor layer 20 in the window portion 39a includes a p-type semiconductor region 22, an n-type semiconductor region 23, an overflow drain region 24, a photoelectric conversion section 25, a transfer transistor TR, etc. is provided.
  • the semiconductor layer 20 within the window portion 39b is provided with an n-type semiconductor region 23, an overflow drain region 24, a photoelectric conversion portion 25, a pixel transistor (AMP, SEL, RST, FDG), and the like.
  • the floating diffusion FD is arranged in the area where the virtual boundary line 3x and the virtual boundary line 3y intersect, similarly to the first embodiment described above.
  • the gate electrodes 36 of the transfer transistors TR of each of the four pixels 3 included in the pixel block 15 are arranged outside the floating diffusion FD so as to surround the floating diffusion FD.
  • the leg portions 36b of the gate electrode 36 are provided in the element isolation region 30f.
  • the gate electrode 36 has two legs 36b
  • the transfer transistor TR according to the sixth embodiment has two inverted legs 36b in the semiconductor layer 20 due to the two legs 36b of the gate electrode 36. It is a dual lung type in which a layer 37 is formed.
  • a contact region 38 for power supply for supplying a potential to the semiconductor layer 20 is provided on the side of the pixel 3 opposite to the floating diffusion FD side. Furthermore, as shown in FIG. 22, the inter-element isolation region 30e is connected to the inter-pixel isolation region 26.
  • FIG. 23 is a diagram showing a schematic configuration of an electronic device (for example, a camera) according to a tenth embodiment of the present technology.
  • the electronic device 100 includes a solid-state imaging device 101, an optical lens 102, a shutter device 103, a drive circuit 104, and a signal processing circuit 105.
  • This electronic device 100 shows an embodiment in which solid-state imaging devices 1A to 1F according to the first to sixth embodiments of the present technology are used as the solid-state imaging device 101 in an electronic device (for example, a camera).
  • the optical lens 102 forms an image of image light (incident light 106) from the subject onto the imaging surface of the solid-state imaging device 101.
  • image light incident light 106
  • the shutter device 103 controls the light irradiation period and the light blocking period to the solid-state imaging device 101.
  • the drive circuit 104 supplies drive signals that control the transfer operation of the solid-state imaging device 101 and the shutter operation of the shutter device 103.
  • Signal transfer of the solid-state imaging device 101 is performed by a drive signal (timing signal) supplied from the drive circuit 104.
  • the signal processing circuit 105 performs various signal processing on the signal (pixel signal (image signal)) output from the solid-state imaging device 101.
  • the video signal on which the signal processing has been performed is stored in a storage medium such as a memory, or is output to.
  • the electronic device 100 to which the solid-state imaging device of the above-described embodiment can be applied is not limited to a camera, but can also be applied to other electronic devices.
  • the present invention may be applied to an imaging device such as a camera module for mobile devices such as a mobile phone or a tablet terminal.
  • this technology can be applied to light detection devices in general, including distance sensors called ToF (Time of Flight) sensors that measure distance.
  • a distance measurement sensor emits illumination light toward an object, detects the reflected light that is reflected from the object's surface, and measures the time from when the illumination light is emitted until the reflected light is received. This is a sensor that calculates the distance to an object based on flight time.
  • the structure of the transfer transistor described above can be adopted as the structure of the transfer transistor of this distance measurement sensor.
  • This technology can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. It's okay.
  • FIG. 24 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated as the functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 25 is a diagram showing an example of the installation position of the imaging section 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at, for example, the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the imaging unit 12105 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 25 shows an example of the imaging range of the imaging units 12101 to 12104.
  • An imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • an imaging range 12114 shows the imaging range of the imaging unit 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. By determining the following, it is possible to extract, in particular, the closest three-dimensional object on the path of vehicle 12100, which is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as vehicle 12100, as the preceding vehicle. can. Furthermore, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceed
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the audio image output unit 12052 creates a rectangular outline for emphasis on the recognized pedestrian.
  • the display section 12062 is controlled so as to display the .
  • the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the present technology can be applied to the imaging unit 12031 among the configurations described above.
  • the solid-state imaging device 1A in FIG. 1 can be applied to the imaging section 12031.
  • This technology can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 26 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (present technology) can be applied.
  • FIG. 26 shows an operator (doctor) 11131 performing surgery on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into a body cavity of a patient 11132 over a predetermined length, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid scope having a rigid tube 11101 is shown, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible tube. good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and the light is guided to the tip of the lens barrel. Irradiation is directed toward an observation target within the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct-viewing mirror, a diagonal-viewing mirror, or a side-viewing mirror.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from an observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to a camera control unit (CCU) 11201.
  • CCU camera control unit
  • the CCU 11201 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and centrally controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under control from the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 11100 when photographing the surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • a treatment tool control device 11205 controls driving of an energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, or the like.
  • the pneumoperitoneum device 11206 injects gas into the body cavity of the patient 11132 via the pneumoperitoneum tube 11111 in order to inflate the body cavity of the patient 11132 for the purpose of ensuring a field of view with the endoscope 11100 and a working space for the operator. send in.
  • the recorder 11207 is a device that can record various information regarding surgery.
  • the printer 11208 is a device that can print various types of information regarding surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies irradiation light to the endoscope 11100 when photographing the surgical site can be configured, for example, from a white light source configured by an LED, a laser light source, or a combination thereof.
  • a white light source configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so the white balance of the captured image is adjusted in the light source device 11203. It can be carried out.
  • the laser light from each RGB laser light source is irradiated onto the observation target in a time-sharing manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing, thereby supporting each of RGB. It is also possible to capture images in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 11203 may be controlled so that the intensity of the light it outputs is changed at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changes in the light intensity to acquire images in a time-division manner and compositing the images, a high dynamic It is possible to generate an image of a range.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band compatible with special light observation.
  • Special light observation uses, for example, the wavelength dependence of light absorption in body tissues to illuminate the mucosal surface layer by irradiating a narrower band of light than the light used for normal observation (i.e., white light).
  • Narrow Band Imaging is performed to photograph specific tissues such as blood vessels with high contrast.
  • fluorescence observation may be performed in which an image is obtained using fluorescence generated by irradiating excitation light.
  • Fluorescence observation involves irradiating body tissues with excitation light and observing the fluorescence from the body tissues (autofluorescence observation), or locally injecting reagents such as indocyanine green (ICG) into the body tissues and It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be able to supply narrowband light and/or excitation light compatible with such special light observation.
  • FIG. 27 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 26.
  • the camera head 11102 includes a lens unit 11401, an imaging section 11402, a driving section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 includes a communication section 11411, an image processing section 11412, and a control section 11413. Camera head 11102 and CCU 11201 are communicably connected to each other by transmission cable 11400.
  • the lens unit 11401 is an optical system provided at the connection part with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging element configuring the imaging unit 11402 may be one (so-called single-plate type) or multiple (so-called multi-plate type).
  • image signals corresponding to RGB are generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display. By performing 3D display, the operator 11131 can more accurately grasp the depth of the living tissue at the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is constituted by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405. Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 to the CCU 11201 via the transmission cable 11400 as RAW data.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405.
  • the control signal may include, for example, information specifying the frame rate of the captured image, information specifying the exposure value at the time of capturing, and/or information specifying the magnification and focus of the captured image. Contains information about conditions.
  • the above imaging conditions such as the frame rate, exposure value, magnification, focus, etc. may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • the image signal and control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal, which is RAW data, transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site etc. by the endoscope 11100 and the display of the captured image obtained by imaging the surgical site etc. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site, etc., based on the image signal subjected to image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape and color of the edge of an object included in the captured image to detect surgical tools such as forceps, specific body parts, bleeding, mist when using the energy treatment tool 11112, etc. can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgical support information on the image of the surgical site. By displaying the surgical support information in a superimposed manner and presenting it to the surgeon 11131, it becomes possible to reduce the burden on the surgeon 11131 and allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the present technology can be applied to the imaging unit 11402 among the configurations described above.
  • the solid-state imaging device 1A in FIG. 1 can be applied to the imaging section 10402.
  • the present technology may have the following configuration.
  • the gate electrode is a head provided on the first surface side of the semiconductor layer; a leg extending from the head in the thickness direction of the semiconductor layer and provided in the separation region adjacent to the semiconductor layer with a gate insulating film interposed therebetween;
  • a photodetection device having: (2) The leg portions of the gate electrode are located at two end portions of the head in a direction intersecting, in plan view, a charge transfer path through which the transfer transistor transfers signal charges from the photoelectric conversion portion to the charge holding portion.
  • the photodetection device according to (1) above which is provided on at least one end side.
  • the head of the gate electrode is arranged at a position that overlaps with an imaginary line connecting the center of the photoelectric conversion section and the center of the charge retention section in plan view,
  • the leg portion of the gate electrode is provided on at least one of two end portion sides of the head in a direction intersecting the virtual line in a plan view. photodetection device.
  • each pixel of the plurality of pixels includes a photoelectric conversion region separated by an inter-pixel separation region extending in the thickness direction of the semiconductor layer,
  • the photodetection device according to any one of (1) to (4) above, wherein the photoelectric conversion region includes the photoelectric conversion section, the charge holding section, and the transfer transistor.
  • the inter-pixel isolation region is spaced apart from the isolation region.
  • the inter-pixel isolation region is connected to the isolation region.
  • the photodetection device according to (5) above, wherein the separation region is arranged between the two photoelectric conversion regions that are adjacent to each other in a plan view. (9) The photodetecting device according to (5), wherein the separation region extends in a zigzag pattern along either the first direction or the second direction. (10) Any one of (1) to (9) above, wherein the isolation region includes a dug portion provided on the first surface side of the semiconductor layer and an isolation insulating film provided in the dug portion.
  • the photodetection device described in . (11) further comprising a pixel circuit electrically connected to the charge holding section, The photodetecting device according to any one of (1) to (10) above, wherein a pixel transistor included in the pixel circuit is provided in the semiconductor layer.
  • the semiconductor layer is a first semiconductor layer, a second semiconductor layer provided to overlap the first semiconductor layer in plan view; further comprising a pixel circuit electrically connected to the charge holding section,
  • the photodetecting device according to any one of (1) to (11) above, wherein a pixel transistor included in the pixel circuit is provided in the second semiconductor layer.
  • the photodetection device includes: a semiconductor layer having a first surface and a second surface located on opposite sides; a photoelectric conversion unit provided in the semiconductor layer and photoelectrically converting light incident from the second surface side of the semiconductor layer; a charge holding portion provided on the first surface side of the semiconductor layer; a transfer transistor having a gate electrode and transferring signal charges photoelectrically converted in the photoelectric conversion section to the charge holding section; an isolation region provided on the first surface side of the semiconductor layer,
  • the gate electrode is a head provided on the first surface side of the semiconductor layer; a leg extending from the head in the thickness direction of the semiconductor layer and provided in the separation region adjacent to the semiconductor layer with a gate insulating film interposed therebetween;
  • a photodetection device having:
  • Pixel circuit 20 Semiconductor layer 21 Photoelectric conversion region 22 P-type semiconductor region 23 N-type semiconductor region 24 Overflow drain region 25 Photoelectric conversion section 26 Inter-pixel isolation region 27 Recessed portion 28 Isolation insulating film 30 Inter-element isolation region (separation area) 31 dug portion 32 isolation insulating film 33 gate insulating film 34 gap 35 conductive film 36 gate electrode 36a head (planar electrode part) 36b Leg part (vertical electrode part) 37 Inversion layer 38 Contact region 39, 39a, 39b Window section 41 Interlayer insulating film 42a, 42b Through hole 43a, 43b Contact electrode 44 Wiring layer 42a, 42b Wiring AMP Amplification transistor FD Floating diffusion (charge retention section) FDG Switching transistor PD Photoelectric conversion element

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

安定した転送能力を確保することにある。光検出装置は、互いに反対側に位置する第1の面及び第2の面を有する半導体層と、上記半導体層に設けられ、かつ上記半導体層の上記第2の面側から入射した光を光電変換する光電変換部と、上記半導体層の上記第1の面側に設けけられた電荷保持部と、ゲート電極を有し、かつ上記光電変換部で光電変換された信号電荷を上記電荷保持部に転送する転送トランジスタと、上記半導体層の上記第1の面側に設けられた分離領域と、を備えている。そして、上記ゲート電極は、上記半導体層の上記第1の面側に設けられた頭部と、上記頭部から半導体層の厚さ方向に延伸し、かつゲート絶縁膜を介在して上記半導体層と互いに隣り合って上記分離領域に設けられた脚部と、を有する。

Description

光検出装置及び電子機器
 本技術(本開示に係る技術)は、光検出装置及び電子機器に関し、特に、転送トランジスタを有する光検出装置及びそれを備えた電子機器に適用して有効な技術に関するものである。
 固体撮像装置や測距装置などの光検出装置は、光電変換部で光電変換された信号電荷を電荷保持部に転送する転送トランジスタを画素毎に備えている。特許文献1には、基板の溝部内にゲート絶縁膜を介してゲート電極の一部(胴部)が埋め込まれた縦型構造の転送トランジスタが開示されている。また、特許文献2には、基板に浅いトレンチ分離(STI)のための溝を形成し、この溝内に絶縁膜を介して埋め込まれた埋込ポリシリコン電極に電圧を印加することで、蓄積時にはSTI側壁のピンニングを強化し、転送時には画素領域Pウエルと、埋め込みポリシリコン電極とに電圧を印加することで、信号電荷の転送を改善した撮像装置が開示されている。
特開2018-120804号公報 特開2006-120804号公報
 ところで、近年、高解像可能なイメージセンサが市場で求まれていることなどから、画素サイズを縮小したイメージセンサの開発が進められている。
 しかしながら、画素サイズが小さくなると、光電変換部で光電変換された信号電荷を電荷保持部に転送する転送トランジスタの転送能力が低下する。縦型構造(バーチカル構造)の転送トランジスタは、横型構造(プレーナ構造)の転送トランジスタと比較して信号電荷の転送に有利とされるが、既存の縦型構造の転送トランジスタにおいても、ロバストな(安定した)転送能力の確保が困難になってきている。
 本技術の目的は、安定した転送能力を確保することにある。
 本技術の一態様に係る光検出装置は、
 互いに反対側に位置する第1の面及び第2の面を有する半導体層と、
 上記半導体層に設けられ、かつ上記半導体層の上記第2の面側から入射した光を光電変換する光電変換部と、
 上記半導体層の上記第1の面側に設けけられた電荷保持部と、
 ゲート電極を有し、かつ上記光電変換部で光電変換された信号電荷を上記電荷保持部に転送する転送トランジスタと、
 上記半導体層の上記第1の面側に設けられた分離領域と、
 を備えている。
 そして、上記ゲート電極は、
 上記半導体層の上記第1の面側に設けられた頭部と、
 上記頭部から半導体層の厚さ方向に延伸し、かつゲート絶縁膜を介在して上記半導体層と互いに隣り合って上記分離領域に設けられた脚部と、
 を有する。
 本技術の他の態様に係る電子機器は、
 上記光検出装置と、
 被写体からの像光を上記光検出装置の撮像面上に結像させる光学レンズと、
 上記光検出装置から出力される信号に信号処理を行う信号処理回路と、
 を備えている。
本技術の第1実施形態に係る固体撮像装置の一構成例を示すチップレイアウト図である。 本技術の第1実施形態に係る固体撮像装置の一回路構成例を示すブロック図である。 本技術の第1実施形態に係る固体撮像装置の画素ユニットの一例を示す等価回路図である。 図3Aの画素ブロック群に含まれる2つの画素ブロックを示す模式的平面図である。 図3Bの2つの画素ブロックのうちの1つの画素ブロックを拡大した模式的平面図である。 図4のa4-a4切断線に沿った縦断面構造を示す模式的縦断面図である。 図5の一部を拡大した模式的拡大断面図である。 図4のb4-b4切断線に沿った縦断面構造を示す模式的縦断面図である。 半導体層の厚さ方向と直交する横断面における画素間分離領域の横断面パターンを示す図である。 図4に電荷転送経路及び仮想線を表示した模式的平面図である。 転送トランジスタがオン状態のときの電荷転送経路を示す模式的縦断面図である。 比較例の画素の転送トランジスタがオン状態のときの転送経路における信号電荷のポテンシャルと、本技術の画素で転送トランジスタがオン状態のときの転送経路における信号電荷のポテンシャルと、を示す図である。 本技術の第1実施形態に係る固体撮像装置の製造方法を示す模式的工程断面図である。 図12Aに引き続く模式的工程断面図である。 図12Bに引き続く模式的工程断面図である。 図12Cに引き続く模式的工程断面図である。 図12Dに引き続く模式的工程断面図である。 図12Eに引き続く模式的工程断面図である。 図12Fに引き続く模式的工程断面図である。 図12Gに引き続く模式的工程断面図である。 本技術の第2実施形態に係る固体撮像装置の画素ブロックを示す模式的平面図である 図13のa13-a13切断線に沿った縦断面構造を示す模式的縦断面図である。 本技術の第3実施形態に係る固体撮像装置の画素ブロックを示す模式的平面図である。 図15のa15-a15切断線に沿った縦断面構造を示す模式的縦断面図である。 本技術の第4実施形態に係る固体撮像装置の画素ブロックを示す模式的平面図である。 図17のa17-a17切断線に沿った縦断面構造を示す模式的縦断面図である。 本技術の第5実施形態に係る固体撮像装置の画素ブロックを示す模式的平面図である。 図19のa19-a19切断線に沿った縦断面構造を示す模式的縦断面図である。 本技術の第6実施形態に係る固体撮像装置の画素ブロックを示す模式的平面図である。 図21のa21-a21切断線に沿った縦断面構造を示す模式的縦断面図である。 本技術の第7実施形態に係る電子機器の一構成例を示す図である。 車両制御システムの概略的な一構成例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な一構成例を示すブロック図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、図面を参照して本技術の実施形態を詳細に説明する。
 以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。
 また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、本明細書中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 また、以下の実施形態は、本技術の技術的思想を具体化するための装置や方法を例示するものであり、構成を下記のものに特定するものではない。即ち、本技術の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本技術の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 また、以下の実施形態では、半導体の導電型として、第1導電型がp型、第2導電型がn型の場合を例示的に説明するが、導電型を逆の関係に選択して、第1導電型をn型、第2導電型をp型としても構わない。
 また、以下の実施形態では、空間内で互に直交する三方向において、同一平面内で互に直交する第1の方向及び第2の方向をそれぞれX方向、Y方向とし、第1の方向及び第2の方向のそれぞれと直交する第3の方向をZ方向とする。そして、以下の実施形態では、後述する半導体層20の厚さ方向をZ方向として説明する。
 〔第1実施形態〕
 この第1実施形態では、光検出装置として、裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサと呼称される固体撮像装置に本技術を適用した一例について説明する。
 ≪固体撮像装置の全体構成≫
 まず、固体撮像装置1Aの全体構成について説明する。
 図1に示すように、本技術の第1実施形態に係る固体撮像装置1Aは、平面視での二次元平面形状が方形状の半導体チップ2を主体に構成されている。即ち、固体撮像装置1Aは半導体チップ2に搭載されており、半導体チップ2を固体撮像装置1Aとみなすことができる。この固体撮像装置1A(101)は、図23に示すように、光学レンズ102を介して被写体からの像光(入射光106)を取り込み、撮像面上に結像された入射光106の光量を画素単位で電気信号に変換して画素信号(画像信号)として出力する。
 図1に示すように、固体撮像装置1Aが搭載された半導体チップ2は、互いに直交するX方向及びY方向を含む二次元平面において、中央部に設けられた方形状の画素アレイ部2Aと、この画素アレイ部2Aの外側に画素アレイ部2Aを囲むようにして設けられた周辺部2Bとを備えている。半導体チップ2は、製造プロセスにおいて、後述の半導体層20を含む半導体ウエハをチップ形成領域毎に小片化することによって形成される。したがって、以下に説明する固体撮像装置1Aの構成は、半導体ウエハを小片化する前のウエハ状態においても概ね同様である。即ち、本技術は、半導体チップの状態及び半導体ウエハの状態において適用が可能である。
 画素アレイ部2Aは、例えば図23に示す光学レンズ(光学系)102により集光される光を受光する受光面である。そして、画素アレイ部2Aには、X方向及びY方向を含む二次元平面において複数の画素3が行列状に配置されている。換言すれば、画素3は、二次元平面内で互いに直交するX方向及びY方向のそれぞれの方向に繰り返し配置されている。
 図1に示すように、周辺部2Bには、複数のボンディングパッド14が配置されている。複数のボンディングパッド14の各々は、例えば、半導体チップ2の二次元平面における4つの辺の各々の辺に沿って配列されている。複数のボンディングパッド14の各々は、半導体チップ2と外部装置とを電気的に接続する入出力端子として機能する。
 <ロジック回路>
 半導体チップ2は、図2に示すロジック回路13を備えている。ロジック回路13は、図2に示すように、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6、出力回路7及び制御回路8などを含む。ロジック回路13は、電界効果トランジスタとして、例えば、nチャネル導電型のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)及びpチャネル導電型のMOSFETを有するCMOS(Complementary MOS)回路で構成されている。
 垂直駆動回路4は、例えばシフトレジスタによって構成されている。垂直駆動回路4は、所望の画素駆動線10を順次選択し、選択した画素駆動線10に画素3を駆動するためのパルスを供給し、各画素3を行単位で駆動する。即ち、垂直駆動回路4は、画素アレイ部2Aの各画素3を行単位で順次垂直方向に選択走査し、各画素3の光電変換部(光電変換素子)が受光量に応じて生成した信号電荷に基づく画素3からの画素信号を、垂直信号線11を通してカラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素3の列毎に配置されており、1行分の画素3から出力される信号に対して画素列毎にノイズ除去等の信号処理を行う。例えばカラム信号処理回路5は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)及びAD(Analog Digital)変換等の信号処理を行う。
 水平駆動回路6は、例えばシフトレジスタによって構成されている。水平駆動回路6は、水平走査パルスをカラム信号処理回路5に順次出力することによって、カラム信号処理回路5の各々を順番に選択し、カラム信号処理回路5の各々から信号処理が行われた画素信号を水平信号線12に出力させる。
 出力回路7は、カラム信号処理回路5の各々から水平信号線12を通して順次供給される画素信号に対し、信号処理を行って出力する。信号処理としては、例えば、バッファリング、黒レベル調整、列ばらつき補正、各種デジタル信号処理等を用いることができる。
 制御回路8は、垂直同期信号、水平同期信号、及びマスタクロック信号に基づいて、垂直駆動回路4、カラム信号処理回路5、及び水平駆動回路6等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路8は、生成したクロック信号や制御信号を、垂直駆動回路4、カラム信号処理回路5、及び水平駆動回路6等に出力する。
 <画素ユニット>
 半導体チップ2は、図3Aに示す画素ユニットPUを備えている。画素ユニットPUは、これに限定されないが、例えば、図3A及び図3Bに示すように、2つの画素ブロック15と、1つの画素回路(読出し回路)16と、を備えている。2つの画素ブロック15は、例えば、図3Bに示すように、Y方向において互いに隣り合って配置され、1つの画素ブロック群を構成している。そして、この2つの画素ブロック15の各々は、これに限定されないが、例えば、図4に示すように、平面視でX方向及びY方向のそれぞれの方向に互いに隣り合って2つずつ並んで配置された4つの画素3と、この4つの画素3で共有された1つの電荷保持部としてのフローティングディフュージョン(Floating Diffusion)FDと、を備えている。即ち、2つの画素ブロック15を含む1つの画素ブロック群は、8つの画素3と、2つのフローティングディフュージョンFDと、を含む。
 ここで、この第1実施形態では、フローティングディフュージョンFDが本技術の「電荷保持部」の一具体例に相当する。
 図3Aに示すように、各画素ブロック15のフローティングディフュージョンFDには、1つの画素回路16の入力段が電気的に接続されている。そして、この各画素ブロック15の4つの画素3の各々の出力は共有する画素回路16の入力段に入力される。即ち、この第1実施形態では、これに限定されないが、2つの画素ブロック15(1つの画素ブロック群)に1つの画素回路16を割り与えた回路構成になっている。
 1つの画素ブロック15に含まれる4つの各画素3は、互いに共通の構成要素を有している。
 図3Aに示すように、1つの画素ブロック15に含まれる4つの各画素3は、光電変換部25と、この光電変換部25で光電変換された信号電荷を保持(蓄積)するフローティングディフュージョンFDと、この光電変換部25で光電変換された信号電荷をフローティングディフュージョンFDに転送する転送トランジスタTRと、を備えている。
 図3Aに示す光電変換部25は、例えばpn接合型のフォトダイオード(PD)で構成され、受光量に応じた信号電荷を生成する。光電変換部25は、カソード側が転送トランジスタTRのソース領域と電気的に接続され、アノード側が基準電位線(例えばグランド)と電気的に接続されている。転送トランジスタTRのドレイン領域は、フローティングディフュージョンFDと電気的に接続されている。
 図3Aに示す転送トランジスタTRは、光電変換部25で光電変換された信号電荷をフローティングディフュージョンFDに転送する。転送トランジスタTRのソース領域は光電変換部25のカソード側と電気的に接続され、転送トランジスタTRのドレイン領域はフローティングディフュージョンFDと電気的に接続されている。そして、転送トランジスタTRのゲート電極は、画素駆動線10(図2参照)のうちの転送トランジスタ駆動線と電気的に接続されている。
 図3Aに示すフローティングディフュージョンFDは、光電変換部25から転送トランジスタTRを介して転送された信号電荷を一時的に保持(蓄積)する。
 図3Aに示す画素回路16は、フローティングディフュージョンFDに保持された信号電荷を読み出し、この信号電荷に基づく画素信号を出力する。換言すれば、画素回路16は、光電変換部25で光電変換された信号電荷を、この信号電荷に基づく画素信号に変換して出力する。
 光電変換部25、転送トランジスタTR及びフローティングディフュージョンFDは、後述する半導体層20の光電変換領域21(図5から図7参照)に搭載されている。
 図3Aに示す画素回路16は、フローティングディフュージョンFDに保持された信号電荷を読み出し、この信号電荷に基づく画素信号を出力する。画素回路16は、これに限定されないが、画素トランジスタとして、例えば、増幅トランジスタAMPと、選択トランジスタSELと、リセットトランジスタRSTと、選択トランジスタFDGと、を備えている。これらの画素トランジスタ(AMP,SEL,RST,FDG)は、電界効果トランジスタとして、例えば、酸化シリコン(SiO)膜からなるゲート絶縁膜と、ゲート電極と、ソース領域及びドレイン領域として機能する一対の主電極領域と、を有するMOSFETで構成されている。また、これらの画素トランジスタとしては、ゲート絶縁膜が窒化シリコン(Si)膜、或いは窒化シリコン膜及び酸化シリコン膜などの積層膜からなるMISFET(Metal Insulator Semiconductor FET)でも構わない。
 図3Aに示す増幅トランジスタAMPは、ソース領域が選択トランジスタSELのドレイン領域と電気的に接続され、ドレイン領域が電源線Vdd及びリセットトランジスタRSTのドレイン領域と電気的に接続されている。そして、増幅トランジスタAMPのゲート電極は、フローティングディフュージョンFD及び切替トランジスタFDGのソース領域と電気的に接続されている。
 図3Aに示す選択トランジスタSELは、ソース領域が垂直信号線11(VSL)と電気的に接続され、ドレイン領域が増幅トランジスタAMPのソース領域と電気的に接続されている。そして、選択トランジスタSELのゲート電極は、画素駆動線10(図2参照)のうちの選択トランジスタ駆動線と電気的に接続されている。
 図3Aに示すリセットトランジスタRSTは、ソース領域が切替トランジスタFDGのドレイン領域と電気的に接続され、ドレイン領域が電源線Vdd及び増幅トランジスタAMPのドレイン領域と電気的に接続されている。そして、リセットトランジスタRSTのゲート電極は、画素駆動線10(図2参照)のうちのリセットトランジスタ駆動線と電気的に接続されている。
 図3Aに示す切替トランジスタFDGは、ソース領域がフローティングディフュージョンFD及び増幅トランジスタAMPのゲート電極と電気的に接続され、ドレイン領域が電源線Vdd及び増幅トランジスタAMPのドレイン領域と電気的に接続されている。そして、切替トランジスタFDGのゲート電極は、画素駆動線10(図2参照)のうちの切替トランジスタ駆動線と電気的に接続されている。
 なお、選択トランジスタSEL及び切替トランジスタFDGは、必要に応じて省略してもよい。選択トランジスタSELを省略する場合は、増幅トランジスタAMPのソース領域が垂直信号線11(VSL)と電気的に接続される。また、切替トランジスタFDGを省略する場合は、リセットトランジスタRSTのソース領域が増幅トランジスタAMPのゲート電極及びフローティングディフュージョンFDと電気的に接続される。
 図3Aに示す転送トランジスタTRは、転送トランジスタTRがオン状態となると、光電変換部25(光電変換素子PD)で生成された信号電荷をフローティングディフュージョンFDに転送する。
 図3Aに示すリセットトランジスタRSTは、リセットトランジスタRSTがオン状態となると、フローティングディフュージョンFDの電位(信号電荷)を電源線Vddの電位にリセットする。選択トランジスタSELは、画素回路16からの画素信号の出力タイミングを制御する。
 図3Aに示す増幅トランジスタAMPは、画素信号として、フローティングディフュージョンFDに保持された信号電荷のレベルに応じた電圧の信号を生成する。増幅トランジスタAMPは、ソースフォロア型のアンプを構成しており、光電変換部25(光電変換素子PD)で生成された信号電荷のレベルに応じた電圧の画素信号を出力するものである。増幅トランジスタAMPは、選択トランジスタSELがオン状態となると、フローティングディフュージョンFDの電位を増幅して、その電位に応じた電圧を、垂直信号線11(VSL)を介してカラム信号処理回路5に出力する。
 図3Aに示す切替トランジスタFDGは、電荷保持領域FDによる電荷保持を制御すると共に、増幅トランジスタAMPで増幅される電位に応じた電圧の増倍率を調整する。
 この第1実施形態に係る固体撮像装置1Aの動作時には、画素3の光電変換部25で生成された信号電荷が画素3の転送トランジスタTRを介してフローティングディフュージョンFDに保持(蓄積)される。そして、フローティングディフュージョンFDに保持された信号電荷が画素回路16により読み出されて、画素回路16の増幅トランジスタAMPのゲート電極に印加される。画素回路16の選択トランジスタSELのゲート電極には水平ラインの選択用制御信号が垂直シフトレジスタから与えられる。そして、選択用制御信号をハイ(H)レベルにすることにより、選択トランジスタSELが導通し、増幅トランジスタAMPで増幅された、フローティングディフュージョンFDの電位に対応する電流が垂直信号線11に流れる。また、画素回路16のリセットトランジスタRSTのゲート電極に印加するリセット用制御信号をハイ(H)レベルにすることにより、リセットトランジスタRSTが導通し、フローティングディフュージョンFDに蓄積された信号電荷をリセットする。
 図3Aに示す光電変換部25、転送トランジスタTR及びフローティングディフュージョンFDの各々は、後述する半導体層20(図4参照)に搭載されている。また、これに限定されないが、図3Aに示す画素回路16に含まれる画素トランジスタ(AMP,SEL,RST,FDG)も、例えば半導体層20に搭載されている。
 ≪固体撮像装置の具体的な構成≫
 次に、半導体チップ2(固体撮像装置1A)の具体的な構成について、図4から図10を用いて説明する。
 図4から図10は、説明の便宜上、図1に対して上下が反転している。また、図4及び図9においては、ゲート電極36よりも上層の図示を省略している。
 図4から図7に示すように、半導体チップ2は、互いに反対側に位置する第1の面S1及び第2の面S2を有する半導体層20と、この半導体層20に設けられ、かつ半導体層20の第2の面S2側から入射した光を光電変換する光電変換部25と、を備えている。
 また、半導体チップ2は、半導体層20の第1の面S1側に設けられたフローティングディフュージョンFDと、ゲート電極36を有し、かつ光電変換部25で光電変換された信号電荷をフローティングディフュージョンFDに転送する転送トランジスタTRと、半導体層20の第1の面S1側に設けられた分離領域としての素子間分離領域30を更に備えている。
 また、半導体チップ2は、半導体層20の第1の面S1側に設けられた層間絶縁膜41及び配線層44を含む多層配線層を更に備えている。
 また、半導体チップ2は、半導体層20の第2の面S2側に、この第2の面S2側から順次設けられた平坦化膜51、遮光膜52、光学フィルタ53及びマイクロレンズ(オンチップレンズ)54を更に備えている。
 ここで、半導体層20の第1の面S1を主面又は素子形成面、第2の面S2を裏面と呼ぶこともある。そして、この第1実施形態に係る固体撮像装置1Aは、半導体層20の第2の面S2側から入射した入射光を、半導体層20に設けられた光電変換部25(光電変換素子PD)で光電変換する。したがって、この第1実施形態では半導体層20の第2の面S2を光入射面と呼ぶこともある。
 また、この第1実施形態では、素子間分離領域30が本技術の「分離領域」の一具体例に相当する。
 図4に示すように、画素ブロック15に含まれる4つの画素3は、平面視でX方向及びY方向のそれぞれの方向に2つずつ配置され、2×2のレイアウト配置になっている。即ち、上述の図1に示す画素アレイ2Aには、4つの画素3を一単位とする画素ブロック15がX方向及びY方向のそれぞれの方向に繰り返し配置されている。換言すれば、上述の図1に示す画素アレイ2Aには、Y方向において互いに隣り合って配置された2つの画素ブロック15を含む1つの画素ブクック群がX方向及びY方向のそれぞれの方向に繰り返し配置されている。
 <平坦化膜、遮光膜、光学フィルタ及びマイクロレンズ>
 図5及び図7に示す平坦化膜51は、半導体層20の第2の面S2側に、半導体層20の第2の面S2を覆うようにして設けられ、半導体層20の第2の面S2側を平坦化している。
 図5及び図7に示す遮光膜52は、隣り合う画素3を仕切るように、平面視の平面パターンが格子状平面パターンになっている。
 図5及び図7に示す光学フィルタ53及びマイクロレンズ54は、それぞれ画素3毎に設けられている。光学フィルタ53は、半導体チップ2の光入射面側(第2の面S2側)から入射した入射光を色分離する。マイクロレンズ54は、照射光を集光し、集光した光を画素3に効率良く入射させる。
 <半導体層>
 図5から図7に示すように、半導体層20は、画素間分離領域26と、この画素間分離領域26で区画された光電変換領域21と、を備えている。光電変換領域21は、画素3毎に設けられている。半導体層20としては、Si基板、SiGe基板、InGaAs基板などを用いることができる。この第1実施形態では、これに限定されないが、半導体層20として例えば単結晶シリコンからなるp型の半導体基板を用いている。
 <画素間分離領域>
 図5から図7に示すように、画素間分離領域26は、半導体層20の第2の面S2側から半導体層20の厚さ方向(Z方向)に沿って延伸し、半導体層20の第1の面S2側に設けられた素子分離領域30から離間している。画素間分離領域26は、半導体層20の第2の面S2側から半導体層20の厚さ方向(Z方向)に延伸する掘り込み部27と、この掘り込み部27に設けられた分離絶縁膜28と、を含む。分離絶縁膜28は、例えば酸化シリコン膜で構成されている。
 図8に示すように、1つの光電変換領域21に対する画素間分離領域26は、平面視での平面パターンが方形状の環状平面パターン(リング状平面パターン)になっている。そして、1つの画素ブロック15に含まれる4つの光電変換領域21に対する画素間分離領域26は、平面視で4つの光電変換領域21の周囲を囲む方形状の環状平面パターンの中に、平面視でX方向に延伸する画素間分離領域26とY方向に延伸する画素間分離領域26とが交差する格子状平面パターンを有する複合平面パターンになっている。
 図8に示すように、画素間分離領域26は、平面視でY方向において互いに隣り合う2つの画素3の間の仮想境界線3x上をX方向に沿って延伸し、かつX方向において互いに隣り合う2つの画素3の間の仮想境界線3y上をY方向に沿って延伸している。
 <光電変換領域>
 図4から図7に示すように、光電変換領域21は、画素3毎に設けられている。各光電変換領域21は、上述の光電変換部25、フローティングディフュージョンFD及び転送トランジスタTRを備えている。また、各光電変換領域21は、第1導電型としてのp型の半導体領域22と、第2導電型としてのn型の半導体領域23と、を備えている。また、各光電変換領域21は、オーバーフロードレイン領域24を備えている。
 <半導体領域及びオーバーフロードレイン領域>
 図5から図7に示すように、p型の半導体領域22は、画素間分離領域26を囲むようにして半導体層20の厚さ方向(Z方向)に沿って延伸している。そして、p型の半導体領域22は、画素間分離領域26の上面部及び側面部と接触し、図5及び図6に示すように素子間分離領域30と接触し、図7に示すようにフローティングディフュージョンFDと接触している。
 図5から図7に示すように、n型の半導体領域23は、2つの画素間分離領域26の間を、半導体層20の第2の面S2側から第1の面S1側に向かって延伸している。そして、n型の半導体領域23は、p型の半導体領域22から離間していると共に、半導体層20の第1面S1から離間している。
 図5から図7に示すように、オーバーフロードレイン領域24は、n型の半導体領域23と半導体層20の第1の面S1との間に設けられている。そして、オーバーフロードレイン領域24は、n型の半導体領域23と接触し、半導体層20の第1の面S1とは離間している。このオーバーフロードレイン領域24は、例えば、n型の半導体領域23よりも不純物濃度が低いn型の半導体領域で構成されている。
 ここで、上述の光電変換部25は、主にn型の半導体領域23で構成され、p型の半導体領域22とn型の半導体領域23とのpn接合によるpn接合型のフォトダイオード(PD)として構成されている。
 <フローティングディフュージョン>
 図4及び図7に示すように、フローティングディフュージョンFDは、行列状に配置された4つの画素3を含む画素ブロック15の中央部に配置されている。即ち、フローティングディフュージョンFDは、画素ブロック15において、Y方向に互いに隣り合って配置された2つの画素3の間の仮想境界線3xと、X方向に互いに隣り合って配置された2つの画素3の間の仮想境界線3yとが交差する交差部に配置されている。
 図7に示すように、フローティングディフュージョンFDは、半導体層20の第1の面S1側の表層部に設けられている。このフローティングディフュージョンFDは、例えば、n型の半導体領域23よりも不純物濃度が高いn型の半導体領域で構成されている。
 <素子間分離領域>
 図4に示すように、素子間分離領域30は、これに限定されないが、画素ブロック15において、点在して4つ設けられている。4つの素子間分離領域30のうち、2つの素子間分離領域30は、フローティングディフュージョンFDのX方向の両側において、平面視で仮想境界線3xと重畳する位置に配置されている。そして、残りの2つの素子間分離領域30は、フローティングディフュージョンFDのY方向の両側において、平面視で仮想境界線3yと重畳する位置に配置されている。即ち、素子間分離領域30は、平面視でフローティングディフュージョンFDを囲むようにして、仮想境界線3xと重畳する位置及び仮想境界線3yと重畳する位置にそれぞれに2つずつ配置されている。換言すれば、素子間分離領域30は、平面視で互いに隣り合う2つの光電変換領域21の間に配置されている。
 図5及び図6に示すように、素子間分離領域30は、半導体層20の第1の面S1側の表層部に設けられている。素子間分離領域30は、図6に示すように、半導体層20の第1の面S1側から半導体層20の厚さ方向(Z方向)に窪む掘り込み部(溝部)31と、この掘り込み部31に設けられた分離絶縁膜32と、を含む。即ち、素子間分離領域30は、STI(Shallow Trench Isolation)構造で構成されている。分離絶縁膜32は、例えば酸化シリコン膜で構成されている。
 <転送トランジスタ>
 図4から図7に示すように、転送トランジスタTRは、半導体層20の第1の面S1側に設けられている。転送トランジスタTRは、半導体層20の第1の面S1側に設けられたゲート電極36と、このゲート電極36と半導体層20との間に介在されたゲート絶縁膜33と、を有する。また、転送トランジスタTRは、ソース領域及びドレイン領域として機能する光電変換部25及びフローティングディフュージョンFDを有する。
 <ゲート電極>
 図4に示すように、画素ブロック15に含まれる4つの光電変換領域21(4つの画素3)の各々の転送トランジスタTRは、平面視でフローティングディフュージョンFD側に偏って配置されている。そして、この4つの転送トランジスタTRの各々のゲート電極36は、フローティングディフュージョンFDを囲むようにしてフローティングディフュージョンFD側に偏って配置されている。
 図4から図7に示すように、ゲート電極36は、ゲート絶縁膜33を介在して半導体層20の第1の面S1側に設けられた頭部(プレナー電極部)36aと、この頭部36aから半導体層20の厚さ方向(Z方向)に沿って延伸し、かつゲート絶縁膜33を介在して半導体層20と互いに隣り合って素子間分離領域30に設けられた脚部(バーチカル電極部)36bと、を有する。ゲート電極36の頭部36aは、平面視で光電変換部25と重畳して設けられている。
 図9に示すように、ゲート電極36の頭部36aは、転送トランジスタTRが光電変換部25(n型の半導体領域23)からフローティングディフュージョンFDに信号電荷を転送する電荷転送経路Rと平面視で重畳する位置に配置されている。そして、ゲート電極36の脚部36bは、平面視で電荷転送経路Rと交差する方向(交差方向Sd)において、頭部36aの2つの端部側にそれぞれ設けられている。換言すれば、ゲート電極36の頭部36aは、平面視で光電変換部25(n型の半導体領域23)の中心部PとフローティングディフュージョンFDの中心部Pとを結ぶ仮想線Vと交差する方向(交差方向Sd)において、頭部36aの2つの端部側にそれぞれ設けられている。更に換言すれば、ゲート電極36の脚部36bは、電荷転送経路Rの外側に配置されている。更に換言すれば、ゲート電極36の頭部36aは、平面視で光電変換部25(n型の半導体領域23)の中心部PとフローティングディフュージョンFDの中心部Pとを結ぶ仮想線Vと重畳する位置に配置されている。そして、ゲート電極36の脚部36bは、平面視で仮想線Vから外れた位置に配置されている。
 ゲート電極36の脚部36bは、電荷転送経路Rの転送方向と交差する両側の少なくとも何れか一方側に配置されている。この第1実施形態では、これに限定されないが、ゲート電極36の脚部36bが、電荷転送経路Rの両側にそれぞれ1つずつ配置されている。
 ゲート電極36の2つの脚部36bのうち、一方の脚部36bは、平面視で仮想境界線3x上に位置する素子間分離領域30に設けられ、他方の脚部36bは、平面視で仮想境界線3y上に位置する素子間分離領域30に設けられている。
 <電荷転送経路>
 図10に示すように、転送トランジスタTRは、転送トランジスタTRがオン状態となったとき、ゲート電極の脚部36bによって半導体層20に深い反転層37が形成される。この第1実施形態のゲート電極36は2つの脚部36bを有している。したがって、この第1実施形態の転送トランジスタTRは、ゲート電極36の2つの脚部36bによって半導体層20に深い2つの反転層37が形成される。そして、この2つの反転層37を含む電荷転送経路Rが形成される。そして、この電荷転送経路Rを通って、光電変換部25で光電変換された信号電荷がフローティングディフュージョンFDに転送される。この第1実施形態に係る転送トランジスタTRは、ゲート電極36の2つ脚部36bによって半導体層20に2つの反転層37が形成される両肺型(デュアル型)になっている。
 <画素トランジスタ>
 図3Bに示すように、1つの画素ブロック群に含まれる2つの画素ブロック15には、上述の画素回路16に含まれる画素トランジスタとして、増幅トランジスタAMP、選択トランジスタSEL、リセットトランジスタRST及び切替トランジスタFDGが配置されている。これらの画素トランジスタ(AMP,SEL,RST,FDG)の各々のゲート電極は、例えば転送トランジスタTRのゲート電極36と同一層で形成されている。
 <多層配線層>
 図5から図7に示すように、転送トランジスタTRのゲート電極36は、半導体層20の第1の面S1側に設けられた層間絶縁膜41で覆われている。また、詳細に図示していないが、上述の画素回路16に含まれる複数の画素トランジスタ(AMP,SEL,RST,FDG)の各々のゲート電極も層間絶縁膜41で覆われている。
 <コンタクト電極及び配線>
 図5から図7に示すように、転送トランジスタTRのゲート電極36は、層間絶縁膜41に設けられたコンタクト電極43bを介して、層間絶縁膜41上の配線層44に設けられた配線44bと電気的に接続されている。また、図7に示すように、フローティングディフュージョンFDは、層間絶縁膜41に設けられたコンタクト電極43aを介して、層間絶縁膜41上の配線層44に設けられた配線44aと電気的に接続されている。層間絶縁膜41は、例えば酸化シリコン膜で構成されている。コンタクト電極43a及び43bの材料としては、例えば高融点金属のタングステン(W)を用いることができる。配線44a及び44bの材料としては、例えばアルミニウム(Al)、銅(Cu)などの金属材料、又はAl、Cuを主体とする合金材料などを用いることができる。
 ≪固体撮像装置の製造方法≫
 次に、固体撮像装置1Aの製造方法について、図12Aから図12Hを用いて説明する。
 この第1実施形態では、固体撮像装置の製造方法に含まれる素子間分離領域及び転送トランジスタの形成に特化して説明する。
 まず、図12Aに示すように、p型の半導体領域22、n型の半導体領域23、オーバーフロードレイン領域24、光電変換部25及び画素間分離領域26を半導体層20に形成する。
 次に、図12Bに示すように、半導体層20の第1の面S1から半導体層20の厚さ方向(Z方向)に窪む掘り込み部31を形成する。掘り込み部31は、平面視で図4に示す仮想境界線3x及び仮想境界線3yと重畳する位置に形成する。掘り込み部31は、周知のフォトリソグラフィ技術及びドライエッチング技術を用いて形成する。
 次に、図12Cに示すように、掘り込み部31内に分離絶縁膜32を形成する。分離絶縁膜32は、掘り込み部31内を含む半導体層20の第1の面S1側の全面に、例えば酸化シリコン膜をCVD法で成膜し、その後、掘り込み部31内の酸化シリコン膜を除いて半導体層20の第1の面S1上の酸化シリコン膜を選択的に除去することによって形成することができる。
 この工程により、平面視で図4に示す仮想境界線3x及び仮想境界線3yと重畳する位置に、掘り込み部31及び分離絶縁膜32を含む素子間分離領域30が形成される。
 次に、図12Dに示すように、素子間分離領域30上に掘り込み部31の幅よりも幅が狭いマスクRM1を形成する。マスクRM1は、例えば周知のフォトリソグラフィ技術で形成する。
 次に、マスクRM1をエッチングマスクとして使用し、マスクRM1の外側の分離絶縁膜32を選択的に除去して、図12Eに示すように、掘り込み部31の側壁と分離絶縁膜32との間に間隙部34を形成する。この第1実施形態では、分離絶縁膜32の幅方向の両側にそれぞれ間隙部34を形成する。分離絶縁膜32の選択的な除去は、周知のドライエッチング技術で行うことができる。
 次に、マスクRM1を除去した後、図12Fに示すように、半導体層20の第1の面S1及び掘り込み部31内の半導体層20の壁面(掘り込み部31内の側面及び底面)に亘ってゲート絶縁膜33を形成する。ゲート絶縁膜33は、酸化シリコン膜を例えば熱酸化法又は堆積法により成膜することによって形成することができる。この第1実施形態では、熱酸化法で形成する。
 次に、図12Gに示すように、掘り込み部31と分離絶縁膜32との間の間隙部34の内部を含む半導体層20の第1の面S1上の全面にゲート材としての導電膜35を形成する。導電膜35としては、例えば抵抗値を低減する不純物が成膜中又は成膜後に導入された多結晶シリコン(ドープドポリシリコン)膜を用いることができる。半導体層20にゲート絶縁膜33が形成されている箇所では、半導体層20と導電膜35との間にゲート絶縁膜33が介在される。多結晶シリコン膜は、周知のCVD法によって形成することができる。
 次に、周知のフォトリソグラフィ技術及びドライエッチング技術を用いて導電膜35をパターンニングし、図12Hに示すように、ゲート電極36を形成する。
 この工程により、ゲート電極36は、半導体層20の第1の面S1側にゲート絶縁膜33を介在して設けられた頭部36aと、この頭部36aから半導体層20の厚さ方向(Z方向)に延伸し、かつゲート絶縁膜33を介在して半導体層20と隣り合って素子間分離領域30に設けられた脚部36bと、を有する形状で形成される。
 また、ゲート電極36は、図4の仮想境界線3xに位置する素子間分離領域30に設けられた脚部36bと、図4の仮想境界線3yに位置する素子間分離領域30に設けられた脚部36bと、を有する形状で形成される。
 ≪第1実施形態の主な効果≫
 近年、高解像可能なイメージセンサが市場で求められていることなどから、画素サイズを縮小したイメージセンサの開発が進められている。このイメージセンサの開発に伴い、画素サイズの縮小に関連して多くの技術的課題が顕在化しているが、特に感度や飽和信号量(Qs)の低下を極力抑えることが、イメージセンサの基本特性において極めて重要である。
 感度については、画素サイズの縮小に伴って1画素当たりの光入射面積が減るため、光電変換を担う光電変換部(フォトダイオードPD)の厚膜化、即ち半導体層の層厚化が有効な手段となる。
 光電変換部は、光電変換により生成した電子(信号電荷)を蓄積(保持)する役割も兼ねているため、光電変換部の厚膜化に加えて光電変換部内のポテンシャルの調整を行うことにより、飽和信号量(Qs)の低下の抑制が可能となる。このポテンシャルの調整は、主に不純物濃度の調整によって行われる。
 また、一般的なCMOSイメージセンサは、電荷保持部としてのフローティングディフュージョンに保持された信号電荷を画素信号に変換して垂直信号線に出力する画素回路を備えている。画素回路は、転送トランジスタTRと同一平面上に配置された増幅トランジスタ、選択トランジスタ、リセットトランジスタ及び切替トランジスタなどの画素トランジスタを含む。
 しかしながら、これらの画素トランジスタを同一平面上に配置する場合、画素の微細化に伴って相対的に光電変換部の面積が縮小し、感度や飽和信号量(Qs)の低下に繋がってしまうが、画素トランジスタと光電変換部とを積層構造にすることにより、光電変換部の体積を稼ぐことが可能となる。
 この積層構造には、下記の2つの構造が含まれる。
(a1);同一の半導体層において光電変換部を埋め込み構造にする。
(a2):画素トランジスタと光電変換部とを異なる半導体層に設ける。
 上記(a1)の構造において、光電変換部からフローティングディフュージョンへ信号電荷を転送するためには、転送トランジスタのゲート電極を半導体層の表面から内部のより深い部分まで、ゲート電極による電位変調を届かせる必要があり、縦型構造の電界効果トランジスタが効果的な手段となる。
 光電変換部からフローティングディフュージョンへの信号電荷の転送については、転送トランジスタによる電位変調だけでなく、特に転送トランジスタから遠い部分においては、不純物濃度の調整により光電変換部内に形成されたポテンシャル勾配が必要である。
 このポテンシャル勾配が部分的に逆勾配の状態となってしまうと、信号電荷の転送が阻害され、画素信号の出力が低下してしまう。
 また、画素信号の出力が画素毎によって「ばらつく」ことで最終的に出力する画像の不均一性が悪化、即ち画質劣化に繋がる。
 この画質劣化は、画素サイズが小さくなると、下記の影響で顕著になる。
(b1);画素毎の製造ばらつきの影響が相対的に拡大。
(b2);狭いピッチで光電変換部のp型半導体領域/n型の半導体領域を成立させるために、不純物濃度を濃くする必要があるが、不純物濃度を濃くすると、電荷転送経路上の離散ドーパント(不純物のゆらぎ)の影響が大きくなり、信号電荷の転送が阻害される。
 これらの課題を回避するには、設計上のポテンシャル勾配を、より一層つけておくことが必要となるが、これは電荷保持能力の低下、即ち飽和信号量(Qs)の低下に直結してしまう。
 ゲート電極の脚部近傍の電荷転送については、脚部の配置位置も重要である。
 一般的に、ゲート電極の脚部は円形で光電変換部に食い込むように配置するが、このような配置はゲート電極の脚部の側壁と半導体層との界面に起因する暗電流や白点などの劣化を招きやすいため、不純物注入によるホール濃度の確保が必要となる。
 しかしながら、これを行う上で不純物濃度が増え、上述の離散ドーパントや逆勾配の問題に繋がってしまう。
 また、電荷転送経路上に構造物としての脚部を置くことで電荷転送経路が複雑になり、画素毎のばらつきも劣化し易い傾向にある。
 これに対し、この第1実施形態に係る固体撮像装置1Aに搭載された転送トランジスタTRは、ゲート電極36の脚部36bが画素間分離領域30に配置されている。このため、光電変換部25からフローティングディフュージョンFDに信号電荷を転送する電荷転送経路Rをシンプルにすることができると共に、電位変調力を高めることができる。したがって、この第1実施形態に係る固体撮像装置1Aによれば、ロバストな(安定した)転送能力を確保することが可能となる。
 図11は、電荷転送経路における信号電荷のポテンシャルを示す図である。データAは、本技術の転送トランジスタTRの場合のポテンシャルであり、データBは、比較例の転送トランジスタの場合のポテンシャルである。比較例の転送トランジスタは、ゲート電極の脚部が電荷転送経路中に位置する構成となっている。
 図11から分かるように、データAの方がデータBよりもポテンシャルが平坦に成っており、本技術の適用が有用であることが明らかである。
 〔第2実施形態〕
 図13及び図14に示すように、本技術の第2実施形態に係る固体撮像装置1Bは、基本的に上述の第1実施形態に係る固体撮像装置1Aと同様の構成になっており、転送トランジスタTRのゲート電極36の構成が異なっている。
 即ち、図4及び図5に示すように、上述の第1実施形態に係る転送トランジスタTRのゲート電極36は、平面視で電荷転送経路Rと交差する方向(図9参照:交差方向Sd)において、頭部36aの2つの端部側にそれぞれ脚部36bが設けられた構成になっている。
 これに対し、図13及び図14に示すように、この第2実施形態に係る転送トランジスタTRのゲート電極36は、平面視で電荷転送経路Rと交差する方向(交差方向Sd)において、頭部36aの2つの端部側の何れか一方の端部側に脚部36bが設けられた構成になっている。換言すれば、この第2実施形態に係る転送トランジスタTRのゲート電極36は、平面視で光電変換部25の中心部PとフローティングディフュージョンFDの中心部Pとを結ぶ仮想線Vと交差する方向(交差方向Sd)において、頭部36aの2つの端部側の何れか一方の端部側に脚部36bが設けられた構成になっている。即ち、この第2実施形態に係る転送トランジスタTRは、ゲート電極36の1つ脚部36bによって半導体層20に1つの反転層37が形成される片肺型(シングル型)になっている。その他の構成は、概ね上述の第1実施形態と同様である。
 この第2実施形態に係る固体撮像装置1Bにおいても、上述の第1実施形態に係る固体撮像装置1Aと同様の効果が得られる。
 なお、平面視で仮想境界線3yと重畳する位置の素子間分離領域30の平面パターンは、上述の第1実施形態と同様に八角形になっている。一方、仮想境界線3xと重畳する位置の素子間分離領域30の平面パターンは長方形になっている。
 〔第3実施形態〕
 本技術の第3実施形態に係る固体撮像装置1Cは、基本的に上述の第1実施形態に係る固体撮像装置1Aと同様の構成になっており、以下の構成が異なっている。
 即ち、図15及び図16に示すように、この第3実施形態に係る固体撮像装置1Cは、上述の第1実施形態の素子間分離領域30に替えて素子間分離領域30cを備えている。そして、この第3実施形態では、1つのフローティングディフュージョンFDを共有する画素3の数と、転送トランジスタTRのゲート電極36の構成が異なっている。
 図15及び図16に示すように、素子間分離領域30cは、Y方向において互いに隣り合う2つの画素3の間の仮想境界線3xに沿ってジグザグ(ジクザク)状に延伸する平面パターンになっている。そして、X方向において互いに隣り合う2つの画素3で1つのフローティングディフュージョンFDを共有している。そして、転送トランジスタTRのゲート電極36は、上述の第2実施形態と同様に、ゲート電極36の1つ脚部36bによって半導体層20に1つの反転層37が形成される片肺型になっている。
 この第3実施形態に係る固体撮像装置1Cにおいても、上述の第1実施形態に係る固体撮像装置1Aと同様の効果が得られる。
 〔第4実施形態〕
 本技術の第4実施形態に係る固体撮像装置1Dは、基本的に上述の第1実施形態に係る固体撮像装置1Aと同様の構成になっており、以下の構成が異なっている。
 即ち、図17及び図18に示すように、この第4実施形態に係る固体撮像装置1Dは、上述の第1実施形態の素子間分離領域30に替えて素子間分離領域30dを備えている。そして、この第3実施形態では、図3Aの画素回路16に含まれる画素トランジスタ(AMP,SEL,RST,FDG)は、半導体層20に形成されておらず、この半導体層20と重畳する別の半導体層に形成されている。この第1実施形態では、半導体層20が本技術の「第1半導体層」の一具体例に相当し、半導体層20と重畳する別の半導体層が本技術の「第2半導体層」の一具体例に相当する。したがって、この第4実施形態に係る固体撮像装置1Dは、光電変換部21、フローティングディフュージョンFD及び転送トランジスタTRなどが設けられた半導体層(第1半導体層)20と、この半導体層20と重畳して設けられた第2半導体層とを備えている。そして、この第2半導体層に、画素回路16の画素トランジスタ(AMP,SEL,RST,FDG)が設けられている。
 図17及び図18に示すように、素子間分離領域30dは、仮想境界線3xと重畳する位置に、フローティングディフュージョンFDを挟んで配置された2つの第1部分30dと、仮想境界線3yと重畳する位置に、フローティングディフュージョンFDを挟んで配置された2つの第2部分30dと、4つの画素3の周囲をかこむ第3部分30dと、を有する。そして、2つの第1部分30dのフローティングディフュージョンFD側と反対側が第3部分30dと連結され、2つの第2部分30dのフローティングディフュージョンFD側と反対側が第3部分30dと連結されている。
 そして、第1から第3部分30d,30d,30dを含む素子間分離領域30dは、画素間分離領域26と連結されている。
 そして、転送トランジスタTRにおいて、ゲート電極36の2つの脚部36bのうち、一方の脚部36bは素子間分離領域30dの第1部分30dに設けられ、他方の脚部36bは素子間分離領域30dの第2部分30dに設けられている。
 この第4実施形態に係る固体撮像装置1Dにおいても、上述の第1実施形態に係る固体撮像装置1Aと同様の効果が得られる。
 なお、図17に示すように、画素3のフローティングディフュージョンFD側とは反対側に、半導体層20に電位を供給する給電用のコンタクト領域38が設けられている。
 〔第5実施形態〕
 本技術の第5実施形態に係る固体撮像装置1Eは、基本的に上述の第1実施形態に係る固体撮像装置1Aと同様の構成になっており、以下の構成が異なっている。
 即ち、図19及び図20に示すように、この第5実施形態に係る固体撮像装置1Eは、上述の第1実施形態の素子間分離領域30に替えて素子間分離領域30eを備えている。そして、この第5実施形態においても、図3Aの画素回路16に含まれる画素トランジスタ(AMP,SEL,RST,FDG)は、半導体層20に形成されておらず、この半導体層20と重畳する別の半導体層に形成されている。
 図19及び図20に示すように、素子間分離領域30eは、半導体層の第1の面S1側に半導体層の第1の面を覆うようにして設けられている。そして、素子間分離領域30eには、画素3毎に2つの窓部39が設けられている。この2つの窓部39は、X方向に並んで配置されている。
 2つの窓部39の各々の中の半導体層20には、上述の第1実施形態と同様に、p型の半導体領域22、n型の半導体領域23、オーバーフロードレイン領域24、光電変換部25、転送トランジスタTRなどが設けられている。
 4つの画素3を含む画素ブロック15において、フローティングディフュージョンFDは、Y方向に互いに隣り合って配置された2つの画素3の間に配置されている。そして、このフローティングディフュージョンFDを囲むようにして2つの画素3の各々の窓部39の転送トランジスタTRが配置されている。
 この第5実施形態に係る転送トランジスタTRにおいても、ゲート電極36の脚部36bが素子間分離領域30eに設けられている。そして、この第5実施形態では、ゲート電極36の脚部36bは1つであり、第5実施形態に係る転送トランジスタTRは、ゲート電極36の1つ脚部36bによって半導体層20に1つの反転層37が形成される片肺型(シングル型)になっている。
 この第5実施形態に係る固体撮像装置1Eにおいても、上述の第1実施形態に係る固体撮像装置1Aと同様の効果が得られる。
 なお、図19に示すように、画素3のフローティングディフュージョンFD側とは反対側に、半導体層20に電位を供給する給電用のコンタクト領域38が設けられている。
 また、図20に示すように、素子間分離領域30eは、画素間分離領域26と連結されている。
 〔第6実施形態〕
 本技術の第6実施形態に係る固体撮像装置1Fは、基本的に上述の第1実施形態に係る固体撮像装置1Aと同様の構成になっており、以下の構成が異なっている。
 即ち、図21及び図22に示すように、この第5実施形態に係る固体撮像装置1Eは、上述の第1実施形態の素子間分離領域30に替えて素子間分離領域30fを備えている。
 図21及び図22に示すように、素子間分離領域30fは、半導体層20の第1の面S1側に半導体層20の第1の面S1を覆うようにして設けられている。そして、素子間分離領域30fには、画素3毎に2つの窓部39a及び39bが設けられている。この2つの窓部39a及び39bのうち、窓部39aは、平面視で画素3のフローティングディフュージョンFD側に偏って配置され、窓部39bは、平面視で画素3の中央部に配置されている。
 窓部39aの中の半導体層20には、上述の第1実施形態と同様に、p型の半導体領域22、n型の半導体領域23、オーバーフロードレイン領域24、光電変換部25、転送トランジスタTRなどが設けられている。そして、窓部39bの中の半導体層20には、n型の半導体領域23、オーバーフロードレイン領域24、光電変換部25、画素トランジスタ(AMP,SEL,RST,FDG)などが設けられている。
 フローティングディフュージョンFDは、上述の第1実施形態と同様に、仮想境界線3xと仮想境界線3yとが交差する領域に配置されている。そして、画素ブロック15に含まれる4つの画素3の各々の転送トランジスタTRのゲート電極36は、フローティングディフュージョンFDの外側に、フローティングディフュージョンFDを囲むようにして配置されている。
 この第6実施形態に係る転送トランジスタTRにおいても、ゲート電極36の脚部36bが素子間分離領域30fに設けられている。そして、この第6実施形態では、ゲート電極36の脚部36bは2つであり、第6実施形態に係る転送トランジスタTRは、ゲート電極36の2つ脚部36bによって半導体層20に2つの反転層37が形成される両肺型(デュアル型)になっている。
 この第6実施形態に係る固体撮像装置1Fにおいても、上述の第1実施形態に係る固体撮像装置1Aと同様の効果が得られる。
 なお、図21に示すように、画素3のフローティングディフュージョンFD側とは反対側に、半導体層20に電位を供給する給電用のコンタクト領域38が設けられている。
 また、図22に示すように、素子間分離領域30eは、画素間分離領域26と連結されている。
 〔第7実施形態〕
 ≪電子機器への応用例≫
 本技術(本開示に係る技術)は、例えば、デジタルスチルカメラ、デジタルビデオカメラ等の撮像装置、撮像機能を備えた携帯電話機、又は、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図23は、本技術の第10実施形態に係る電子機器(例えば、カメラ)の概略構成を示す図である。
 図23に示すように、電子機器100は、固体撮像装置101と、光学レンズ102と、シャッタ装置103と、駆動回路104と、信号処理回路105とを備えている。この電子機器100は、固体撮像装置101として、本技術の第1から第6実施形態に係る固体撮像装置1A~1Fを電子機器(例えばカメラ)に用いた場合の実施形態を示す。
 光学レンズ102は、被写体からの像光(入射光106)を固体撮像装置101の撮像面上に結像させる。これにより、固体撮像装置101内に一定期間にわたって信号電荷が蓄積される。シャッタ装置103は、固体撮像装置101への光照射期間及び遮光期間を制御する。駆動回路104は、固体撮像装置101の転送動作及びシャッタ装置103のシャッタ動作を制御する駆動信号を供給する。駆動回路104から供給される駆動信号(タイミング信号)により、固体撮像装置101の信号転送を行なう。信号処理回路105は、固体撮像装置101から出力される信号(画素信号(画像信号)に各種信号処理を行う。信号処理が行われた映像信号は、メモリ等の記憶媒体に記憶され、或いはモニタに出力される。
 このような構成により、第6実施形態の電子機器100では、固体撮像装置1Aから1Fにおいて、安定した転送能力を確保しているため、画質の向上を図ることができる。
 なお、上述の実施形態の固体撮像装置を適用できる電子機器100としては、カメラに限られるものではなく、他の電子機器にも適用することができる。例えば、携帯電話機やタブレット端末等のモバイル機器向けカメラモジュール等の撮像装置に適用してもよい。
 また、本技術は、上述したイメージセンサとしての固体撮像装置の他、ToF(Time of Flight)センサと呼称され、距離を測定する測定する測距センサなども含む光検出装置全般に適用することができる。測距センサは、物体に向かって照射光を発光し、その照射光が物体の表面で反射されて返ってくる反射光を検出し、照射光が発光されてから反射光が受光されるまでの飛行時間に基づいて物体までの距離を算出するセンサである。この測距センサの転送トランジスタの構造として、上述した転送トランジスタの構造を採用することができる。
 〔移動体への応用例〕
 本技術(本開示に係る技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図24は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図24に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図24の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図25は、撮像部12031の設置位置の例を示す図である。
 図25では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図25には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本技術が適用され得る車両制御システムの一例について説明した。本技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図1の固体撮像装置1Aは、撮像部12031に適用できる。撮像部12031に本技術を適用することにより、より良好な撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 〔内視鏡手術システムへの応用例〕
 本技術(本開示に係る技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図26は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図26では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図27は、図26に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本技術が適用され得る内視鏡手術システムの一例について説明した。本技術は、以上説明した構成のうち、撮像部11402に適用され得る。具体的には、図1の固体撮像装置1Aは、撮像部10402に適用することができる。撮像部10402に本技術を適用することにより、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 なお、本技術は、以下のような構成としてもよい。
(1)
 互いに反対側に位置する第1の面及び第2の面を有する半導体層と、
 前記半導体層に設けられ、かつ前記半導体層の前記第2の面側から入射した光を光電変換する光電変換部と、
 前記半導体層の前記第1の面側に設けられた電荷保持部と、
 ゲート電極を有し、かつ前記光電変換部で光電変換された信号電荷を前記電荷保持部に転送する転送トランジスタと、
 前記半導体層の前記第1の面側に設けられた分離領域と、を備え、
 前記ゲート電極は、
 前記半導体層の前記第1の面側に設けられた頭部と、
 前記頭部から半導体層の厚さ方向に延伸し、かつゲート絶縁膜を介在して前記半導体層と互いに隣り合って前記分離領域に設けられた脚部と、
 を有する、光検出装置。
(2)
 前記ゲート電極の前記脚部は、前記転送トランジスタが前記光電変換部から前記電荷保持部に信号電荷を転送する電荷転送経路と平面視で交差する方向において、前記頭部の2つの端部側の少なくとも何れ一方の端部側に設けられている、上記(1)に記載の光検出装置。
(3)
 前記ゲート電極の前記頭部は、平面視で前記光電変換部の中心部と前記電荷保持部の中心部とを結ぶ仮想線と重畳する位置に配置され、
 前記ゲート電極の前記脚部は、前記仮想線と平面視で交差する方向において、前記頭部の2つの端部側の少なくとも何れ一方の端部側に設けられている、上記(1)に記載の光検出装置。
(4)
 前記ゲート電極の前記脚部は、平面視で前記転送経路の両側の何れか一方側に配置されている、上記(1)に記載の光検出装置。
(5)
 画素が互いに交差する第1方向及び第2方向のそれぞれの方向に繰り返し配置された画素アレイ部を更に備え、
 前記複数の画素の各々の画素は、前記半導体層の厚さ方向に延伸する画素間分離領域で区間された光電変換領域を備え、
 前記光電変換領域は、前記光電変換部、前記電荷保持部及び前記転送トランジスタを含む、上記(1)から(4)の何れかに記載の光検出装置。
(6)
 前記画素間分離領域は、前記分離領域から離間している、上記(5)に記載の光検出装置。
(7)
 前記画素間分離領域は、前記分離領域と連結されている、上記(5)に記載の光検出装置。
(8)
 前記分離領域は、平面視で互いに隣り合う2つの前記光電変換領域の間に配置されている、上記(5)に記載の光検出装置。
(9)
 前記分離領域は、ジグザク状に前記第1方向及び第2方向のうちの何れか一方の方向に沿って延伸している、上記(5)に記載の光検出装置。
(10)
 前記分離領域は、前記半導体層の前記第1の面側に設けられた掘り込み部と、前記掘り込み部に設けられた分離絶縁膜とを含む、上記(1)から(9)の何れかに記載の光検出装置。
(11)
 前記電荷保持部と電気的に接続された画素回路を更に備え、
 前記画素回路に含まれる画素トランジスタは、前記半導体層に設けられている、上記(1)から(10)の何れかに記載の光検出装置。
(12)
 前記半導体層を第1半導体層とし、
 平面視で前記第1半導体層と重畳して設けられた第2半導体層と、
 前記電荷保持部と電気的に接続された画素回路と、を更に備え、
 前記画素回路に含まれる画素トランジスタは、前記第2半導体層に設けられている、上記(1)から(11)の何れかに記載の光検出装置。
(13)
 光検出装置と、
 被写体からの像光を前記光検出装置の撮像面上に結像させる光学レンズと、
 前記光検出装置から出力される信号に信号処理を行う信号処理回路と、
 を備え、
 前記光検出装置は、
 互いに反対側に位置する第1の面及び第2の面を有する半導体層と、
 前記半導体層に設けられ、かつ前記半導体層の前記第2の面側から入射した光を光電変換する光電変換部と、
 前記半導体層の前記第1の面側に設けけられた電荷保持部と、
 ゲート電極を有し、かつ前記光電変換部で光電変換された信号電荷を前記電荷保持部に転送する転送トランジスタと、
 前記半導体層の前記第1の面側に設けられた分離領域と、を備え、
 前記ゲート電極は、
 前記半導体層の前記第1の面側に設けられた頭部と、
 前記頭部から半導体層の厚さ方向に延伸し、かつゲート絶縁膜を介在して前記半導体層と互いに隣り合って前記分離領域に設けられた脚部と、
 を有する、光検出装置。
 本技術の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本技術が目的とするものと均等な効果をもたらす全ての実施形態をも含む。さらに、本技術の範囲は、請求項により画される発明の特徴の組み合わせに限定されるものではなく、全ての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。
 1A 固体撮像装置
 2 半導体チップ
 2A 画素領域
 2B 周辺領域
 3 画素
 4 垂直駆動回路
 5 カラム信号処理回路
 6 水平駆動回路
 7 出力回路
 8 制御回路
 10 画素駆動線
 12 水平信号線
 13…ロジック回路
 14 ボンディングパッド
 15 画素ブロック
 16 画素回路
 20 半導体層
 21 光電変換領域
 22 p型の半導体領域
 23 n型の半導体領域
 24 オーバーフロードレイン領域
 25 光電変換部
 26 画素間分離領域
 27 掘り込み部
 28 分離絶縁膜
 30 素子間分離領域(分離領域)
 31 掘り込み部
 32 分離絶縁膜
 33 ゲート絶縁膜
 34 間隙部
 35 導電膜
 36 ゲート電極
 36a 頭部(プレナー電極部)
 36b 脚部(バーチカル電極部)
 37 反転層
 38 コンタクト領域
 39,39a,39b 窓部
 41 層間絶縁膜
 42a,42b 貫通孔
 43a,43b コンタクト電極
 44 配線層
 42a,42b 配線
 AMP 増幅トランジスタ
 FD フローティングディフュージョン(電荷保持部)
 FDG 切替トランジスタ
 PD 光電変換素子
 RST リセットトランジスタ
 SEL 選択トランジスタ
 TR 転送トランジスタ
 V 仮想線
 P,P 中心部
 Sd,Sd 交差方向
 R 電荷転送経路

Claims (13)

  1.  互いに反対側に位置する第1の面及び第2の面を有する半導体層と、
     前記半導体層に設けられ、かつ前記半導体層の前記第2の面側から入射した光を光電変換する光電変換部と、
     前記半導体層の前記第1の面側に設けられた電荷保持部と、
     ゲート電極を有し、かつ前記光電変換部で光電変換された信号電荷を前記電荷保持部に転送する転送トランジスタと、
     前記半導体層の前記第1の面側に設けられた分離領域と、を備え、
     前記ゲート電極は、
     前記半導体層の前記第1の面側に設けられた頭部と、
     前記頭部から半導体層の厚さ方向に延伸し、かつゲート絶縁膜を介在して前記半導体層と互いに隣り合って前記分離領域に設けられた脚部と、
     を有する、光検出装置。
  2.  前記ゲート電極の前記脚部は、前記転送トランジスタが前記光電変換部から前記電荷保持部に信号電荷を転送する電荷転送経路と平面視で交差する方向において、前記頭部の2つの端部側の少なくとも何れ一方の端部側に設けられている、請求項1に記載の光検出装置。
  3.  前記ゲート電極の前記頭部は、平面視で前記光電変換部の中心部と前記電荷保持部の中心部とを結ぶ仮想線と重畳する位置に配置され、
     前記ゲート電極の前記脚部は、前記仮想線と平面視で交差する方向において、前記頭部の2つの端部側の少なくとも何れ一方の端部側に設けられている、請求項1に記載の光検出装置。
  4.  前記ゲート電極の前記脚部は、平面視で前記転送経路の両側の何れか一方側に配置されている、請求項1に記載の光検出装置。
  5.  画素が互いに交差する第1方向及び第2方向のそれぞれの方向に繰り返し配置された画素アレイ部を更に備え、
     前記複数の画素の各々の画素は、前記半導体層の厚さ方向に延伸する画素間分離領域で区間された光電変換領域を備え、
     前記光電変換領域は、前記光電変換部、前記電荷保持部及び前記転送トランジスタを含む、請求項1に記載の光検出装置。
  6.  前記画素間分離領域は、前記分離領域から離間している、請求項5に記載の光検出装置。
  7.  前記画素間分離領域は、前記分離領域と連結されている、請求項5に記載の光検出装置。
  8.  前記分離領域は、平面視で互いに隣り合う2つの前記光電変換領域の間に配置されている、請求項5に記載の光検出装置。
  9.  前記分離領域は、ジグザク状に前記第1方向及び第2方向のうちの何れか一方の方向に沿って延伸している、請求項5に記載の光検出装置。
  10.  前記分離領域は、前記半導体層の前記第1の面側に設けられた掘り込み部と、前記掘り込み部に設けられた分離絶縁膜とを含む、請求項1に記載の光検出装置。
  11.  前記電荷保持部と電気的に接続された画素回路を更に備え、
     前記画素回路に含まれる画素トランジスタは、前記半導体層に設けられている、請求項1に記載の光検出装置。
  12.  前記半導体層を第1半導体層とし、
     平面視で前記第1半導体層と重畳して設けられた第2半導体層と、
     前記電荷保持部と電気的に接続された画素回路と、を更に備え、
     前記画素回路に含まれる画素トランジスタは、前記第2半導体層に設けられている、
    請求項1に記載の光検出装置。
  13.  光検出装置と、
     被写体からの像光を前記光検出装置の撮像面上に結像させる光学レンズと、
     前記光検出装置から出力される信号に信号処理を行う信号処理回路と、
     を備え、
     前記光検出装置は、
     互いに反対側に位置する第1の面及び第2の面を有する半導体層と、
     前記半導体層に設けられ、かつ前記半導体層の前記第2の面側から入射した光を光電変換する光電変換部と、
     前記半導体層の前記第1の面側に設けけられた電荷保持部と、
     ゲート電極を有し、かつ前記光電変換部で光電変換された信号電荷を前記電荷保持部に転送する転送トランジスタと、
     前記半導体層の前記第1の面側に設けられた分離領域と、を備え、
     前記ゲート電極は、
     前記半導体層の前記第1の面側に設けられた頭部と、
     前記頭部から半導体層の厚さ方向に延伸し、かつゲート絶縁膜を介在して前記半導体層と互いに隣り合って前記分離領域に設けられた脚部と、
     を有する、電子機器。
PCT/JP2023/012253 2022-04-28 2023-03-27 光検出装置及び電子機器 WO2023210238A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022075167 2022-04-28
JP2022-075167 2022-04-28

Publications (1)

Publication Number Publication Date
WO2023210238A1 true WO2023210238A1 (ja) 2023-11-02

Family

ID=88518653

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/012253 WO2023210238A1 (ja) 2022-04-28 2023-03-27 光検出装置及び電子機器

Country Status (1)

Country Link
WO (1) WO2023210238A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008258316A (ja) * 2007-04-03 2008-10-23 Sharp Corp 固体撮像装置およびその製造方法、電子情報機器
JP2011159757A (ja) * 2010-01-29 2011-08-18 Sony Corp 固体撮像装置とその製造方法、固体撮像装置の駆動方法、及び電子機器
US20170271383A1 (en) * 2016-03-17 2017-09-21 Taiwan Semiconductor Manufacturing Company Ltd. Image device having multi=layered refractive layer on back surface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008258316A (ja) * 2007-04-03 2008-10-23 Sharp Corp 固体撮像装置およびその製造方法、電子情報機器
JP2011159757A (ja) * 2010-01-29 2011-08-18 Sony Corp 固体撮像装置とその製造方法、固体撮像装置の駆動方法、及び電子機器
US20170271383A1 (en) * 2016-03-17 2017-09-21 Taiwan Semiconductor Manufacturing Company Ltd. Image device having multi=layered refractive layer on back surface

Similar Documents

Publication Publication Date Title
US20230033933A1 (en) Imaging element having p-type and n-type solid phase diffusion layers formed in a side wall of an interpixel light shielding wall
WO2021015009A1 (en) Solid-state imaging device and electronic apparatus
US20220367540A1 (en) Imaging device
JP2023169424A (ja) 固体撮像素子
JP7486929B2 (ja) 撮像素子、測距装置
US20220262832A1 (en) Semiconductor device and imaging device
WO2023210238A1 (ja) 光検出装置及び電子機器
WO2024004431A1 (ja) 半導体装置及びその製造方法、並びに電子機器
WO2024127853A1 (ja) 光検出装置及び電子機器
WO2024014209A1 (ja) 撮像装置
WO2024034411A1 (ja) 半導体装置およびその製造方法
WO2023248926A1 (ja) 撮像素子及び電子機器
JP7364826B1 (ja) 光検出装置および電子機器
US12034019B2 (en) Light receiving element, solid-state imaging device, and electronic device
WO2023188899A1 (ja) 光検出装置及び電子機器
WO2023249116A1 (ja) 撮像素子及び電子機器
WO2024142627A1 (en) Photodetector and electronic apparatus
WO2024057805A1 (ja) 撮像素子および電子機器
WO2024014326A1 (ja) 光検出装置
WO2023157818A1 (ja) 光検出装置および光検出装置の製造方法
US20230246042A1 (en) Light receiving element, solid-state imaging device, and electronic device
WO2022270039A1 (ja) 固体撮像装置
WO2023042462A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2024111280A1 (ja) 光検出装置および電子機器
WO2024057814A1 (ja) 光検出装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23795985

Country of ref document: EP

Kind code of ref document: A1