WO2024111280A1 - 光検出装置および電子機器 - Google Patents

光検出装置および電子機器 Download PDF

Info

Publication number
WO2024111280A1
WO2024111280A1 PCT/JP2023/037343 JP2023037343W WO2024111280A1 WO 2024111280 A1 WO2024111280 A1 WO 2024111280A1 JP 2023037343 W JP2023037343 W JP 2023037343W WO 2024111280 A1 WO2024111280 A1 WO 2024111280A1
Authority
WO
WIPO (PCT)
Prior art keywords
transistor
sidewall
gate electrode
semiconductor layer
unit
Prior art date
Application number
PCT/JP2023/037343
Other languages
English (en)
French (fr)
Inventor
隆司 一色
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2024111280A1 publication Critical patent/WO2024111280A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/66007Multistep manufacturing processes
    • H01L29/66075Multistep manufacturing processes of devices having semiconductor bodies comprising group 14 or group 13/15 materials
    • H01L29/66227Multistep manufacturing processes of devices having semiconductor bodies comprising group 14 or group 13/15 materials the devices being controllable only by the electric current supplied or the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched, e.g. three-terminal devices
    • H01L29/66409Unipolar field-effect transistors
    • H01L29/66477Unipolar field-effect transistors with an insulated gate, i.e. MISFET
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/68Types of semiconductor device ; Multistep manufacturing processes therefor controllable by only the electric current supplied, or only the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched
    • H01L29/76Unipolar devices, e.g. field effect transistors
    • H01L29/772Field effect transistors
    • H01L29/78Field effect transistors with field effect produced by an insulated gate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • This disclosure relates to a light detection device and electronic equipment.
  • a device has been proposed that reads out pixel signals and has a surface shield layer that extends to the bottom of the sidewall of the gate electrode to suppress dark current, white spots, etc. (Patent Document 1).
  • a photodetector includes a photoelectric conversion unit that converts light into electric charges, and a readout circuit that includes a first transistor and is capable of outputting a signal based on the electric charge converted by the photoelectric conversion unit.
  • the first transistor has a source region and a drain region provided in a semiconductor layer, a gate insulating film, a gate electrode provided on the gate insulating film, and a sidewall provided on a side surface of the gate electrode. At least a portion of each of the gate insulating film, the gate electrode, and the sidewall is provided within the semiconductor layer. Another portion of the sidewall is provided on the semiconductor layer.
  • An electronic device includes an optical system and a photodetector that receives light transmitted through the optical system.
  • the photodetector has a photoelectric conversion unit that converts light into electric charge, and a readout circuit that includes a first transistor and is capable of outputting a signal based on the electric charge converted by the photoelectric conversion unit.
  • the first transistor has a source region and a drain region provided in a semiconductor layer, a gate insulating film, a gate electrode provided on the gate insulating film, and a sidewall provided on a side surface of the gate electrode. At least a portion of each of the gate insulating film, the gate electrode, and the sidewall is provided within the semiconductor layer. Another portion of the sidewall is provided on the semiconductor layer.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of an imaging device that is an example of a light detection device according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a pixel configuration of an imaging device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating an example of a planar configuration of a transistor in an imaging device according to an embodiment of the present disclosure.
  • FIG. 4 is a diagram for explaining an example of a cross-sectional configuration of a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for explaining an example of a cross-sectional configuration of a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of an imaging device that is an example of a light detection device according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a pixel configuration of an imaging device according to an embodiment of
  • FIG. 6 is a diagram illustrating an example of a cross-sectional configuration of a transistor in an imaging device according to an embodiment of the present disclosure.
  • FIG. 7A is a diagram illustrating an example of a method for manufacturing a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 7B is a diagram illustrating an example of a method for manufacturing a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 7C is a diagram illustrating an example of a method for manufacturing a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 7D is a diagram illustrating an example of a method for manufacturing a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 7A is a diagram illustrating an example of a method for manufacturing a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 7B is a diagram illustrating an example of a method for manufacturing a transistor of an imaging device according to an embodiment of the present disclosure.
  • FIG. 8A is a diagram for explaining an example of a cross-sectional configuration of a transistor in an imaging device according to Modification 1 of the present disclosure.
  • FIG. 8B is a diagram for explaining an example of a cross-sectional configuration of a transistor in the imaging device according to the first modification of the present disclosure.
  • FIG. 8C is a diagram for explaining an example of a cross-sectional configuration of a transistor in an imaging device according to Modification 1 of this disclosure.
  • FIG. 9 is a diagram for explaining an example of a cross-sectional configuration of a transistor in an imaging device according to Modification 2 of the present disclosure.
  • FIG. 10A is a diagram for explaining another example of a cross-sectional configuration of a transistor in an imaging device according to Modification 2 of this disclosure.
  • FIG. 10B is a diagram for explaining another example of the cross-sectional configuration of a transistor in an imaging device according to Modification 2 of this disclosure.
  • FIG. 11 is a diagram illustrating an example of the configuration of a pixel of an imaging device according to the third modification of the present disclosure.
  • FIG. 12 is a block diagram showing an example of the configuration of an electronic device having an imaging device.
  • FIG. 13 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 14 is an explanatory diagram showing an example of the installation positions of the outside-of-vehicle information detection unit and the imaging unit.
  • FIG. 15 is a diagram showing an example of a schematic configuration of an endoscopic surgery system.
  • FIG. 16 is a block diagram showing an example of the functional configuration of the camera head and the CCU.
  • Preferred embodiment 1 is a block diagram showing an example of a schematic configuration of an imaging device which is an example of a photodetection device according to an embodiment of the present disclosure.
  • the photodetection device is a device capable of detecting incident light.
  • the imaging device 1 (photodetection device) has a plurality of pixels P having a photoelectric conversion unit, and is configured to perform photoelectric conversion on the incident light to generate a signal.
  • the imaging device 1 can receive light transmitted through an optical system (not shown) including an optical lens to generate a signal.
  • the photoelectric conversion unit of each pixel P of the imaging device 1 is, for example, a photodiode, and is configured to be capable of photoelectric conversion of light.
  • the imaging device 1 has an area (pixel unit 100) in which multiple pixels P are arranged two-dimensionally in a matrix, as an imaging area.
  • the pixel unit 100 is a pixel array in which multiple pixels P are arranged, and can also be called a light receiving area.
  • the imaging device 1 captures incident light (image light) from a subject through an optical system including an optical lens.
  • the imaging device 1 captures an image of the subject formed by the optical lens.
  • the imaging device 1 can perform photoelectric conversion on the received light to generate a pixel signal.
  • the imaging device 1 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging device 1 can be used in electronic devices such as digital still cameras, video cameras, and mobile phones.
  • the imaging device 1 has, for example, a pixel driving unit 111, a signal processing unit 112, a control unit 113, a processing unit 114, etc. in a peripheral region of a pixel unit 100 (pixel array).
  • the imaging device 1 is provided with a plurality of control lines L1 and a plurality of signal lines L2.
  • the control line L1 is a signal line capable of transmitting a signal that controls the pixel P, and is connected to the pixel drive unit 111 and the pixel P of the pixel unit 100.
  • a plurality of control lines L1 are wired for each pixel row made up of a plurality of pixels P arranged in the horizontal direction (row direction).
  • the control line L1 is configured to transmit a control signal for reading out a signal from the pixel P.
  • the multiple control lines L1 for each pixel row of the imaging device 1 include wiring that transmits signals that control transfer transistors, wiring that transmits signals that control selection transistors, wiring that transmits signals that control reset transistors, etc.
  • the control lines L1 can also be considered drive lines (pixel drive lines) that transmit signals that drive the pixels P.
  • the signal line L2 is a signal line capable of transmitting a signal from the pixel P, and is connected to the pixel P of the pixel unit 100 and the signal processing unit 112.
  • the signal line L2 is wired for each pixel column made up of a plurality of pixels P aligned in the vertical direction (column direction).
  • the signal line L2 is a vertical signal line, and is configured to transmit a signal output from the pixel P.
  • the pixel driving unit 111 is configured to be able to drive each pixel P of the pixel unit 100.
  • the pixel driving unit 111 is composed of a buffer, a shift register, an address decoder, etc.
  • the pixel driving unit 111 generates a signal for driving the pixel P and outputs it to each pixel P of the pixel unit 100 via a control line L1.
  • the pixel driving unit 111 is controlled by the control unit 113, and controls the pixels P of the pixel unit 100.
  • the pixel driving unit 111 generates signals for controlling the pixel P, such as a signal for controlling the transfer transistor of the pixel P and a signal for controlling the reset transistor, and supplies these to each pixel P via a control line L1.
  • the pixel driving unit 111 can control the reading of pixel signals from each pixel P.
  • the pixel driving unit 111 can also be referred to as a pixel control unit configured to be able to control each pixel P.
  • the pixel driving unit 111 and the control unit 113 can also be referred to collectively as a pixel control unit.
  • the signal processing unit 112 is configured to be able to perform signal processing of the input pixel signal.
  • the signal processing unit 112 has, for example, a load circuit unit, an AD (Analog Digital) conversion unit, a horizontal selection switch, etc.
  • the signal processing unit 112 may also have an amplification circuit unit configured to amplify the signal read out from the pixel P via the signal line L2.
  • the signal output from each pixel P selected and scanned by the pixel driving unit 111 is input to the signal processing unit 112 via the signal line L2.
  • the signal processing unit 112 can perform signal processing such as AD conversion of the pixel P signal and CDS (Correlated Double Sampling).
  • the signal of each pixel P transmitted through each of the signal lines L2 is subjected to signal processing by the signal processing unit 112 and output to the processing unit 114.
  • the processing unit 114 is configured to be able to perform signal processing on the input signal.
  • the processing unit 114 is configured, for example, by a circuit that performs various types of signal processing on pixel signals.
  • the processing unit 114 may include a processor and a memory.
  • the processing unit 114 performs signal processing on pixel signals input from the signal processing unit 112, and outputs the processed pixel signals.
  • the processing unit 114 can perform various types of signal processing, for example, noise reduction processing, tone correction processing, etc.
  • the control unit 113 is configured to be able to control each unit of the imaging device 1.
  • the control unit 113 receives an externally provided clock, data instructing the operation mode, etc., and can also output data such as internal information of the imaging device 1.
  • the control unit 113 has a timing generator configured to be able to generate various timing signals.
  • the control unit 113 controls the driving of the pixel driving unit 111, the signal processing unit 112, etc., based on the various timing signals (pulse signals, clock signals, etc.) generated by the timing generator.
  • the control unit 113 and the processing unit 114 may be configured as an integrated unit.
  • the pixel driving unit 111, the signal processing unit 112, the control unit 113, the processing unit 114, etc. may be provided on one semiconductor substrate, or may be provided separately on multiple semiconductor substrates.
  • the imaging device 1 may have a structure (a stacked structure) formed by stacking multiple substrates.
  • FIG. 2 is a diagram showing an example of the configuration of a pixel of an imaging device according to an embodiment.
  • a pixel P has a photoelectric conversion unit 12 and a readout circuit 20.
  • the readout circuit 20 is configured to be able to output a signal based on charges obtained by photoelectric conversion.
  • the readout circuit 20 has, as an example, a transfer transistor 13, a first floating diffusion (FD1), an amplification transistor 14, a selection transistor 15, and a reset transistor 16.
  • the transfer transistor 13, the amplification transistor 14, the selection transistor 15, and the reset transistor 16 are each a MOS transistor (MOSFET) having a gate, a source, and a drain terminal.
  • MOSFET MOS transistor
  • the transfer transistor 13, the amplification transistor 14, the selection transistor 15, and the reset transistor 16 are each composed of an NMOS transistor.
  • the transistor of pixel P may be composed of a PMOS transistor.
  • the photoelectric conversion unit 12 is configured to be capable of generating electric charge by photoelectric conversion.
  • the photoelectric conversion unit 12 is a photodiode (PD) that converts incident light into an electric charge.
  • the photoelectric conversion unit 12 performs photoelectric conversion to generate an electric charge according to the amount of received light.
  • the transfer transistor 13 is configured to be able to transfer the charge photoelectrically converted by the photoelectric conversion unit 12 to FD1. As shown in FIG. 2, the transfer transistor 13 is controlled by a signal TRG to electrically connect or disconnect the photoelectric conversion unit 12 and FD1. The transfer transistor 13 can transfer the charge photoelectrically converted and accumulated by the photoelectric conversion unit 12 to FD1.
  • FD1 is an accumulation unit and is configured to be able to accumulate transferred charges. FD1 can accumulate charges photoelectrically converted by the photoelectric conversion unit 12. FD1 can also be considered a retention unit capable of retaining transferred charges. FD1 accumulates the transferred charges and converts them into a voltage according to the capacity of FD1.
  • the amplification transistor 14 is configured to generate and output a signal based on the charge accumulated in FD1. As shown in FIG. 2, the gate of the amplification transistor 14 is electrically connected to FD1, and the voltage converted by FD1 is input to the gate. The drain of the amplification transistor 14 is connected to a power supply line that supplies a power supply voltage VDD, and the source of the amplification transistor 14 is connected to a signal line L2 via a selection transistor 15. The amplification transistor 14 can generate a signal based on the charge accumulated in FD1, i.e., a signal based on the voltage of FD1, and output it to the signal line L2.
  • the selection transistor 15 is configured to be capable of controlling the output of a pixel signal.
  • the selection transistor 15 is configured to be controlled by a signal SEL and to be capable of outputting a signal from the amplification transistor 14 to a signal line L2.
  • the selection transistor 15 can control the output timing of the pixel signal.
  • the selection transistor 15 may be provided between the power supply line to which the power supply voltage VDD is applied and the amplification transistor 14. Furthermore, the selection transistor 15 may be omitted as necessary.
  • the reset transistor 16 is configured to be able to reset the voltage of FD1.
  • the reset transistor 16 is electrically connected to a power line to which a power supply voltage VDD is applied, and is configured to reset the charge of the pixel P.
  • the reset transistor 16 is controlled by a signal RST, and can reset the charge accumulated in FD1 and reset the voltage of FD1.
  • the reset transistor 16 can also discharge the charge accumulated in the photoelectric conversion unit 12 via the transfer transistor 13.
  • the pixel driving unit 111 (see FIG. 1) supplies control signals to the gates of the transfer transistor 13, selection transistor 15, reset transistor 16, etc. of each pixel P via the above-mentioned control line L1, turning the transistors on (conducting state) or off (non-conducting state).
  • the multiple control lines L1 of the imaging device 1 include wiring that transmits a signal TRG that controls the transfer transistor 13, wiring that transmits a signal SEL that controls the selection transistor 15, wiring that transmits a signal RST that controls the reset transistor 16, etc.
  • the transfer transistor 13, selection transistor 15, reset transistor 16, etc. are controlled to be turned on and off by the pixel driving unit 111.
  • the pixel driving unit 111 controls the readout circuit 20 of each pixel P to output a pixel signal from each pixel P to the signal line L2.
  • the pixel driving unit 111 can control the reading out of the pixel signal of each pixel P to the signal line L2.
  • FIG. 3 is a diagram showing an example of the planar configuration of a transistor in an imaging device according to an embodiment.
  • FIGS. 4 and 5 are diagrams for explaining an example of the cross-sectional configuration of a transistor in an imaging device according to an embodiment.
  • FIG. 4 shows an example of the configuration of a portion of a transistor in the direction of line I-I shown in FIG. 3, i.e., in the direction of the gate length (channel length).
  • FIG. 5 shows an example of the configuration of a portion of a transistor in the direction of line II-II shown in FIG. 3, i.e., in the direction of the gate width.
  • the transistors of the readout circuit 20 of the pixel P described above may have, for example, the structure shown in Figures 3 to 5.
  • the transfer transistor 13 of the readout circuit 20 has the structure shown in Figures 3 to 5.
  • the amplification transistor 14, reset transistor 16, etc. may have the structure shown in Figure 3, etc.
  • all of the transistors used in the readout circuit 20 may have the structure shown in Figure 3, etc.
  • the element structure shown in Figure 3, etc. can also be applied to elements of other circuits of the imaging device 1.
  • the imaging device 1 is configured using a substrate 101 including a semiconductor layer 110.
  • the substrate 101 is, for example, a Si (silicon) substrate, an SOI (silicon on insulator) substrate, or the like.
  • the substrate 101 including the semiconductor layer 110 has, for example, the above-mentioned photoelectric conversion unit 12 and readout circuit 20, etc. formed thereon.
  • the substrate 101 may be a SiGe (silicon germanium) substrate or a SiC substrate, and may be configured from a III-V group compound semiconductor material, etc. In the examples shown in Figures 3 to 5, the substrate 101 is configured to include the semiconductor layer 110 and the wiring layer 120.
  • the imaging device 1 is also provided with an isolation section 70, as shown in Figs. 3 and 5.
  • the isolation section 70 is made of an insulating material and isolates elements from each other.
  • the isolation section 70 has a trench (groove section) and has, for example, an STI (Shallow Trench Isolation) structure.
  • an insulating film such as a silicon oxide film, is provided in the trench of the isolation portion 70.
  • the trench of the isolation portion 70 may be filled with polysilicon, a metal material, or the like.
  • a void (cavity) may be provided in the trench of the isolation portion 70.
  • the isolation portion 70 may be provided so as to penetrate the semiconductor layer 110.
  • the transistor (transistor Tr) of the imaging device 1 has a semiconductor region 31, a semiconductor region 32, a gate insulating film 40, a gate electrode 50, and a sidewall 60.
  • the semiconductor region 31 and the semiconductor region 32 are provided in the semiconductor layer 110 and have mutually different conductivity types.
  • each of the gate insulating film 40, the gate electrode 50, and the sidewall 60 is provided within the semiconductor layer 110. At least a portion of each of the gate insulating film 40, the gate electrode 50, and the sidewall 60 is provided by digging into the semiconductor layer 110, for example, as shown in FIG. 4 and other examples.
  • the semiconductor region 31 is a region where a channel is formed (channel region).
  • the semiconductor region 31 can also be considered as the active region (channel formation region) of a transistor.
  • the semiconductor region 31 is a p-type semiconductor region, and is a region formed using p-type impurities.
  • the semiconductor region 31 is a p-type diffusion region, and can also be considered as a p-type conductive region.
  • the semiconductor region 32 is the source region or drain region of the transistor. As shown in FIG. 3, the transistor has a semiconductor region 32 that is a source region (referred to as source region 32a) and a semiconductor region 32 that is a drain region (referred to as drain region 32b).
  • the source region 32a and the drain region 32b are, for example, n-type semiconductor regions, and are regions formed using n-type impurities.
  • the source region 32a and the drain region 32b are formed, for example, by doping (adding) n-type impurities into a region of the semiconductor layer 110 formed by etching, epitaxial growth, or the like.
  • the source region 32a and the drain region 32b are, for example, n-type diffusion regions, and can also be called n-type conductive regions.
  • the source region 32a and the drain region 32b are provided on either side of a portion of the gate electrode 50 formed by digging into the semiconductor layer 110, as in the examples shown in Figures 3 and 4.
  • the source region 32a and the drain region 32b are disposed around the gate electrode 50 and the sidewall 60. As shown in Figure 3, the source region 32a and the drain region 32b are provided outside the sidewall 60 in a plan view.
  • the semiconductor region 32 (source region 32a or drain region 32b) is electrically connected to a contact plug 80.
  • the semiconductor region 32 is ohmically connected to the contact plug 80 provided on the semiconductor region 32, and is electrically connected to a wiring (not shown) of the wiring layer 120 via the contact plug 80.
  • the contact plug 80 can also be considered a part of the source electrode or drain electrode.
  • the contact plug 80 is formed by embedding (filling) a conductive material such as tungsten (W) into a contact hole.
  • the gate insulating film 40, a portion of the gate electrode 50, and a portion of the sidewall 60 are each provided within the semiconductor layer 110, for example, as shown in Figures 4 and 5.
  • the gate insulating film 40, the gate electrode 50, and a portion of the sidewall 60 are disposed, for example, so as to be embedded in the semiconductor layer 110, and can also be said to be disposed in a groove (recess) of the semiconductor layer 110.
  • Another portion of the sidewall 60 is provided on the semiconductor layer 110.
  • the transistor Tr can also be said to have a structure in which the sidewall 60 rides up onto the semiconductor layer 110.
  • the gate insulating film 40 is provided on the channel region (semiconductor region 31) of the semiconductor layer 110.
  • the gate insulating film 40 e.g., a gate oxide film
  • the gate insulating film 40 is provided between the semiconductor region 31, which is the channel region, and the gate electrode 50, and is arranged so as to cover the semiconductor region 31 of the semiconductor layer 110.
  • the gate insulating film 40 is located below the semiconductor region 32 (the source region 32a or the drain region 32b).
  • the gate insulating film 40 is formed, for example, from a single layer film made of one of silicon oxide (SiO), silicon oxynitride (SiON), hafnium oxide (HfO), etc., or a laminate film made of two or more of these.
  • the gate insulating film 40 can be made of a high-dielectric constant material that has a higher dielectric constant than that of silicon oxide, such as a hafnium-based insulating film.
  • the gate electrode 50 is provided on the gate insulating film 40.
  • the gate electrode 50 is provided above the semiconductor region 31 of the semiconductor layer 110 via the gate insulating film 40.
  • the gate electrode 50 is disposed, for example, by recessing the semiconductor layer 110.
  • the bottom 51 of the gate electrode 50 is located below the upper surface of the semiconductor region 32 (the source region 32a or the drain region 32b).
  • the gate electrode 50 is made of, for example, polysilicon (Poly-Si).
  • the gate electrode 50 may be made of a metal material or a metal compound.
  • the gate electrode 50 may be made of, for example, titanium nitride (TiN), tantalum nitride (TaN), tungsten, etc.
  • the sidewalls 60 are provided on the sides of the gate electrode 50.
  • the sidewalls 60 are made of an insulating film such as silicon oxide (SiO) or silicon nitride (SiN), and are provided around the gate electrode 50.
  • the sidewalls 60 may be made of silicon oxynitride (SiON) or other materials.
  • the sidewall 60 is provided so as to cover the side surface (side portion) of the gate electrode 50. As shown in the example in FIG. 3, the sidewall 60 is formed so as to surround the gate electrode 50 and is located on the side portion of the gate electrode 50. The sidewall 60 is provided so as to contact the side surface of the gate electrode 50 and the semiconductor layer 110.
  • the sidewall 60 can also be called a sidewall insulating film or a sidewall spacer.
  • the sidewall 60 is disposed, for example, by digging into the semiconductor layer 110. As shown in FIG. 4, a portion of the sidewall 60 is provided between the gate electrode 50 and the semiconductor region 32 (the source region 32a or the drain region 32b). Also, a portion of the sidewall 60 is disposed on the semiconductor layer 110. As shown in FIGS. 3 and 4, a portion of the sidewall 60 can be formed on the semiconductor layer 110 and on the separation portion 70.
  • the sidewall 60 is provided, and the semiconductor region 32 (the source region 32a or the drain region 32b) can be formed in a self-aligned manner.
  • the sidewall 60 is used as part of a mask, and the source region 32a and the drain region 32b are formed in a self-aligned manner with respect to the gate electrode 50 and the sidewall 60.
  • each of the gate electrode 50 and the sidewall 60 is provided within the semiconductor layer 110, and another portion of the sidewall 60 is provided on the semiconductor layer 110.
  • the distance D1 between the side 52a of the gate electrode 50 and the semiconductor layer 110 is larger than the distance D2 between the bottom 51 of the gate electrode 50 and the semiconductor layer 110.
  • the transistor Tr can be formed to satisfy the distance relationship D1 ⁇ D2, for example.
  • the imaging device 1 it is possible to prevent a strong electric field from occurring at the end of the gate indicated by the dashed line A. It is possible to reduce the electric field at the gate end and prevent dark current, white spots, etc.
  • the distance D3 between the side surface 52b of the gate electrode 50 and the semiconductor layer 110 is larger than the distance D2 between the bottom portion 51 of the gate electrode 50 and the semiconductor layer 110.
  • the transistor Tr can be formed, for example, so that D3 ⁇ D2 is satisfied.
  • a part of the sidewall 60 is provided on the semiconductor layer 110. This makes it possible to ensure the distance between the gate electrode 50 and the semiconductor region 32 (the source region 32a or the drain region 32b).
  • the PN junction can be separated (moved away) from the interface of the semiconductor layer 110, making it possible to reduce dark current, white spots, etc.
  • the transistor Tr shown in Figures 3 and 4 can be used, for example, as the transfer transistor 13 of the readout circuit 20.
  • a photoelectric conversion unit 12 can be formed on one side of the source region 32a and the drain region 32b, and an FD1 can be formed on the other side of the source region 32a and the drain region 32b.
  • the other side of the source region 32a and the drain region 32b can form part of the FD1.
  • the transistor Tr according to the present disclosure When the transistor Tr according to the present disclosure is applied to the transfer transistor 13, it is possible to reduce the dark current in the transfer transistor 13 and FD1, etc. It is possible to prevent the quality of the pixel signal based on the charge accumulated in FD1 from deteriorating. In addition, when the transistor Tr is applied to the amplification transistor 14, it is expected that the noise mixed into the pixel signal can be reduced.
  • the transistor Tr according to the present disclosure can also be applied to other transistors (such as the reset transistor 16) in the readout circuit 20. It is possible to prevent an increase in dark current in each transistor of the readout circuit 20, such as the FD1, and to suppress the occurrence of defects such as white spots.
  • Figures 7A to 7D are diagrams showing an example of a method for manufacturing a transistor of an image pickup device according to an embodiment.
  • a groove (recess) in the semiconductor layer 110, a region for the semiconductor region 32, etc. are formed on the semiconductor layer 110 by lithography or epitaxial growth.
  • a gate insulating film 40 is formed in the groove in the semiconductor layer 110, and a gate electrode 50 is formed on the gate insulating film 40.
  • FIG. 7C a part of the gate insulating film 40 and a part of the gate electrode 50 are removed by lithography and etching. Furthermore, as shown in FIG. 7D, a sidewall 60 is formed. Then, a semiconductor region 32 and a contact plug 80 are formed.
  • the transistor Tr shown in FIG. 3, FIG. 4, etc. can be manufactured. Note that the above-mentioned manufacturing method is merely one example, and other manufacturing methods may be adopted.
  • the photodetector includes a photoelectric conversion unit (photoelectric conversion unit 12) that converts light into electric charges, and a readout circuit (readout circuit 20) that includes a first transistor (transistor Tr) and is capable of outputting a signal based on the electric charge converted by the photoelectric conversion unit.
  • the first transistor has a source region (source region 32a) and a drain region (drain region 32b) provided in a semiconductor layer (semiconductor layer 110), a gate insulating film (gate insulating film 40), a gate electrode (gate electrode 50) provided on the gate insulating film, and a sidewall (sidewall 60) provided on a side surface of the gate electrode. At least a part of each of the gate insulating film, the gate electrode, and the sidewall is provided in the semiconductor layer. Another part of the sidewall is provided on the semiconductor layer.
  • each of the gate electrode 50 and the sidewall 60 is provided within the semiconductor layer 110, and another portion of the sidewall 60 is provided on the semiconductor layer 110. This makes it possible to suppress dark current and prevent degradation of pixel signal quality. It is possible to realize a photodetection device that can prevent degradation of signal quality.
  • FIGS. 8A to 8C are diagrams for explaining an example of a cross-sectional configuration of a transistor of an imaging device according to a first modification of the present disclosure.
  • the sidewall 60 may be composed of a plurality of insulating films.
  • the sidewall 60 may be a sidewall with a two-layer structure. As shown in the example of FIG. 8A or 8B, a sidewall 60a and a sidewall 60b may be provided. Furthermore, for example, the sidewall 60 may be a sidewall with a three-layer structure. As shown in the example of FIG. 8C, a sidewall 60a, a sidewall 60b, and a sidewall 60c may be provided. In the case of this modified example, the same effect as in the above embodiment can be obtained.
  • FIG. 9 is a diagram for explaining an example of a cross-sectional configuration of a transistor of an imaging device according to Modification 2.
  • the isolation portion 70 may be provided so that the isolation portion 70 is located above the bottom portion 51 of the gate electrode 50.
  • the bottom portion 51 of the gate electrode 50 is located below the bottom surface of the isolation portion 70. It can also be said that the isolation portion 70 has a shallow trench structure.
  • FIG. 10A is a diagram for explaining another example of the cross-sectional configuration of a transistor of an imaging device according to the second modification.
  • the separation portion 70 may be formed of a semiconductor region formed by ion implantation.
  • the separation portion 70 may be formed of a p-type semiconductor region or an n-type semiconductor region.
  • the separation portion 70 may be provided so that the separation portion 70 is located above the bottom portion 51 of the gate electrode 50. In the case of this modification, the same effect as in the above-described embodiment can be obtained.
  • Fig. 11 is a diagram showing an example of the configuration of a pixel of an imaging device according to Modification 3.
  • the pixel P of the imaging device 1 may have a transistor 17 and a second floating diffusion (FD2).
  • the FD2 is configured to be able to accumulate electric charge.
  • the FD2 is connected to the transistor 17 and the reset transistor 16.
  • the transistor 17 is configured to be able to electrically connect the FD1 and the FD2.
  • transistor 17 When transistor 17 is in the off state, FD1 and FD2 are electrically disconnected, and the charge transferred from photoelectric conversion unit 12 is stored in FD1. When transistor 17 is in the on state, FD1 and FD2 are electrically connected, and the charge transferred from photoelectric conversion unit 12 is stored in FD1 and FD2.
  • Transistor 17 When transistor 17 is turned on, the capacitance added to FD1 increases, making it possible to change the conversion efficiency.
  • Transistor 17 can also be considered a switching transistor that switches the capacitance connected to the gate of amplifier transistor 14, thereby changing the conversion efficiency.
  • the transistor Tr according to the present disclosure described above may be applied to the transistor 17. This can suppress dark current in the FD1, FD2, etc. of the readout circuit 20, and can suppress the occurrence of white spots. In the case of this modified example, the same effects as those of the above-mentioned embodiment can be obtained.
  • the imaging device 1 and the like can be applied to any type of electronic device equipped with an imaging function, for example, a camera system such as a digital still camera or a video camera, or a mobile phone with an imaging function.
  • Fig. 12 shows a schematic configuration of an electronic device 1000.
  • the electronic device 1000 includes, for example, a lens group 1001, an imaging device 1, a DSP (Digital Signal Processor) circuit 1002, a frame memory 1003, a display unit 1004, a recording unit 1005, an operation unit 1006, and a power supply unit 1007, which are interconnected via a bus line 1008.
  • a lens group 1001 an imaging device 1
  • a DSP (Digital Signal Processor) circuit 1002 a frame memory 1003, a display unit 1004, a recording unit 1005, an operation unit 1006, and a power supply unit 1007, which are interconnected via a bus line 1008.
  • DSP Digital Signal Processor
  • the lens group 1001 captures incident light (image light) from a subject and forms an image on the imaging surface of the imaging device 1.
  • the imaging device 1 converts the amount of incident light formed on the imaging surface by the lens group 1001 into an electrical signal on a pixel-by-pixel basis and supplies the signal as a pixel signal to the DSP circuit 1002.
  • the DSP circuit 1002 is a signal processing circuit that processes the signal supplied from the imaging device 1.
  • the DSP circuit 1002 outputs image data obtained by processing the signal from the imaging device 1.
  • the frame memory 1003 temporarily holds the image data processed by the DSP circuit 1002 on a frame-by-frame basis.
  • the display unit 1004 is, for example, a panel-type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel, and records image data of moving images or still images captured by the imaging device 1 on a recording medium such as a semiconductor memory or a hard disk.
  • a panel-type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel
  • a recording medium such as a semiconductor memory or a hard disk.
  • the operation unit 1006 outputs operation signals for various functions of the electronic device 1000 in accordance with operations by the user.
  • the power supply unit 1007 appropriately supplies various types of power to the DSP circuit 1002, frame memory 1003, display unit 1004, recording unit 1005, and operation unit 1006 to these devices.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
  • FIG. 13 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • Also shown as functional components of the integrated control unit 12050 are a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 functions as a control device for a drive force generating device for generating the drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.
  • the body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
  • radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
  • the outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030.
  • the outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle and receives the captured images.
  • the outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, or characters on the road surface based on the received images.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output the electrical signal as an image, or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information inside the vehicle.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
  • the microcomputer 12051 can calculate the control target values of the driving force generating device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, and output a control command to the drive system control unit 12010.
  • the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an ADAS (Advanced Driver Assistance System), including avoiding or mitigating vehicle collisions, following based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 can also control the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, thereby performing cooperative control aimed at automatic driving, which allows the vehicle to travel autonomously without relying on the driver's operation.
  • the microcomputer 12051 can also output control commands to the body system control unit 12020 based on information outside the vehicle acquired by the outside-vehicle information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside-vehicle information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching high beams to low beams.
  • the audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying the occupants of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 14 shows an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle cabin of the vehicle 12100.
  • the imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the top of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100.
  • the imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.
  • FIG. 14 shows an example of the imaging ranges of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door.
  • an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for detecting phase differences.
  • the microcomputer 12051 can obtain the distance to each solid object within the imaging ranges 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104, and can extract as a preceding vehicle, in particular, the closest solid object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster). Furthermore, the microcomputer 12051 can set the inter-vehicle distance that should be maintained in advance in front of the preceding vehicle, and perform automatic braking control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of automatic driving, which runs autonomously without relying on the driver's operation.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles.
  • the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, it can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by forcibly decelerating or steering to avoid a collision via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured image of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
  • the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
  • the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology of the present disclosure can be applied to, for example, the imaging unit 12031.
  • the imaging device 1 etc. can be applied to the imaging unit 12031.
  • the technology according to the present disclosure (Application example to endoscopic surgery system)
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 15 is a diagram showing an example of the general configuration of an endoscopic surgery system to which the technology disclosed herein (the present technology) can be applied.
  • an operator (doctor) 11131 is shown using an endoscopic surgery system 11000 to perform surgery on a patient 11132 on a patient bed 11133.
  • the endoscopic surgery system 11000 is composed of an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, a support arm device 11120 that supports the endoscope 11100, and a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 is composed of a lens barrel 11101, the tip of which is inserted into the body cavity of the patient 11132 at a predetermined length, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 is configured as a so-called rigid scope having a rigid lens barrel 11101, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible lens barrel.
  • the tip of the tube 11101 has an opening into which an objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the tube by a light guide extending inside the tube 11101, and is irradiated via the objective lens towards an object to be observed inside the body cavity of the patient 11132.
  • the endoscope 11100 may be a direct-viewing endoscope, an oblique-viewing endoscope, or a side-viewing endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the object of observation is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor to generate an electrical signal corresponding to the observation light, i.e., an image signal corresponding to the observed image.
  • the image signal is sent to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the overall operation of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), in order to display an image based on the image signal.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 under the control of the CCU 11201, displays an image based on the image signal that has been subjected to image processing by the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode) and supplies irradiation light to the endoscope 11100 when photographing the surgical site, etc.
  • a light source such as an LED (Light Emitting Diode) and supplies irradiation light to the endoscope 11100 when photographing the surgical site, etc.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) of the endoscope 11100.
  • the treatment tool control device 11205 controls the operation of the energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, etc.
  • the insufflation device 11206 sends gas into the body cavity of the patient 11132 via the insufflation tube 11111 to inflate the body cavity in order to ensure a clear field of view for the endoscope 11100 and to ensure a working space for the surgeon.
  • the recorder 11207 is a device capable of recording various types of information related to the surgery.
  • the printer 11208 is a device capable of printing various types of information related to the surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies illumination light to the endoscope 11100 when photographing the surgical site can be composed of a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • the white light source is composed of a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so that the white balance of the captured image can be adjusted in the light source device 11203.
  • the light source device 11203 may be controlled to change the intensity of the light it outputs at predetermined time intervals.
  • the image sensor of the camera head 11102 may be controlled to acquire images in a time-division manner in synchronization with the timing of the change in the light intensity, and the images may be synthesized to generate an image with a high dynamic range that is free of so-called blackout and whiteout.
  • the light source device 11203 may be configured to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependency of light absorption in body tissue, a narrow band of light is irradiated compared to the light irradiated during normal observation (i.e., white light), and a predetermined tissue such as blood vessels on the surface of the mucosa is photographed with high contrast, so-called narrow band imaging is performed.
  • fluorescent observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • excitation light is irradiated to the body tissue and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and excitation light corresponding to the fluorescent wavelength of the reagent is irradiated to the body tissue to obtain a fluorescent image.
  • the light source device 11203 may be configured to supply narrow band light and/or excitation light corresponding to such special light observation.
  • FIG. 16 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 15.
  • the camera head 11102 has a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other via a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at the connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is composed of a combination of multiple lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging element.
  • the imaging element constituting the imaging unit 11402 may be one (so-called single-plate type) or multiple (so-called multi-plate type).
  • each imaging element may generate an image signal corresponding to each of RGB, and a color image may be obtained by combining these.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display. By performing 3D display, the surgeon 11131 can more accurately grasp the depth of the biological tissue in the surgical site.
  • 3D dimensional
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101, immediately after the objective lens.
  • the driving unit 11403 is composed of an actuator, and moves the zoom lens and focus lens of the lens unit 11401 a predetermined distance along the optical axis under the control of the camera head control unit 11405. This allows the magnification and focus of the image captured by the imaging unit 11402 to be adjusted appropriately.
  • the communication unit 11404 is configured with a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 also receives control signals for controlling the operation of the camera head 11102 from the CCU 11201, and supplies them to the camera head control unit 11405.
  • the control signals include information on the imaging conditions, such as information specifying the frame rate of the captured image, information specifying the exposure value during imaging, and/or information specifying the magnification and focus of the captured image.
  • the above-mentioned frame rate, exposure value, magnification, focus, and other imaging conditions may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the operation of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured with a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 also transmits to the camera head 11102 a control signal for controlling the operation of the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, etc.
  • the image processing unit 11412 performs various image processing operations on the image signal, which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site, etc. by the endoscope 11100, and the display of the captured images obtained by imaging the surgical site, etc. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • the control unit 11413 also causes the display device 11202 to display the captured image showing the surgical site, etc., based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 can recognize surgical tools such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc., by detecting the shape and color of the edges of objects included in the captured image. When the control unit 11413 causes the display device 11202 to display the captured image, it may use the recognition result to superimpose various types of surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can proceed with the surgery reliably.
  • various image recognition techniques such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc.
  • the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electrical signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable of these.
  • communication is performed wired using a transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may also be performed wirelessly.
  • the technology of the present disclosure can be suitably applied to, for example, the imaging unit 11402 provided in the camera head 11102 of the endoscope 11100.
  • the technology of the present disclosure can be suitably applied to the imaging unit 11402, the sensitivity of the imaging unit 11402 can be increased, and a high-definition endoscope 11100 can be provided.
  • an imaging device has been described as an example, but the light detection device disclosed herein may be, for example, any device that receives incident light and converts the light into an electric charge.
  • the output signal may be a signal of image information or a signal of distance measurement information.
  • the light detection device can be applied to image sensors, distance measuring sensors, etc. This disclosure can be applied to both back-illuminated and front-illuminated image sensors.
  • the optical detection device disclosed herein may also be applied as a distance measurement sensor capable of measuring distance using the Time Of Flight (TOF) method.
  • the optical detection device (imaging device) may also be applied as a sensor capable of detecting events, for example, an event-driven sensor (called an Event Vision Sensor (EVS), Event Driven Sensor (EDS), Dynamic Vision Sensor (DVS), etc.).
  • EVS Event Vision Sensor
  • EDS Event Driven Sensor
  • DVS Dynamic Vision Sensor
  • the photodetection device of one embodiment of the present disclosure includes a photoelectric conversion unit and a readout circuit that includes a first transistor and is capable of outputting a signal based on the charge converted by the photoelectric conversion unit.
  • the first transistor has a source region and a drain region provided in a semiconductor layer, a gate insulating film, a gate electrode provided on the gate insulating film, and a sidewall provided on a side surface of the gate electrode. At least a portion of each of the gate insulating film, the gate electrode, and the sidewall is provided in the semiconductor layer. Another portion of the sidewall is provided on the semiconductor layer. This makes it possible to suppress an increase in dark current in the photodetection device. It becomes possible to realize a photodetection device that can suppress a deterioration in signal quality.
  • An electronic device includes an optical system and a photodetector that receives light transmitted through the optical system.
  • the photodetector has a photoelectric conversion unit and a readout circuit that includes a first transistor and is capable of outputting a signal based on the charge converted by the photoelectric conversion unit.
  • the first transistor has a source region and a drain region provided in the semiconductor layer, a gate insulating film, a gate electrode provided on the gate insulating film, and a sidewall provided on a side of the gate electrode. At least a portion of each of the gate insulating film, the gate electrode, and the sidewall is provided within the semiconductor layer. Another portion of the sidewall is provided on the semiconductor layer. This makes it possible to suppress an increase in dark current. It becomes possible to realize an electronic device that can suppress a deterioration in signal quality.
  • a photoelectric conversion unit that converts light into electricity; a readout circuit including a first transistor and capable of outputting a signal based on the charge converted by the photoelectric conversion unit; the first transistor has a source region and a drain region provided in a semiconductor layer, a gate insulating film, a gate electrode provided on the gate insulating film, and a sidewall provided on a side surface of the gate electrode; at least a part of each of the gate insulating film, the gate electrode, and the sidewall is provided in the semiconductor layer; Another part of the sidewall is provided on the semiconductor layer.
  • the readout circuit includes a first floating diffusion;
  • the readout circuit includes a first floating diffusion and a transfer transistor capable of electrically connecting the photoelectric conversion unit and the first floating diffusion; The photodetector according to any one of (1) to (8), wherein the first transistor is an amplifying transistor capable of outputting a signal based on charge accumulated in the first floating diffusion.
  • the readout circuit includes a first floating diffusion; The photodetector according to any one of (1) to (9), wherein the first transistor is a reset transistor electrically connected to the first floating diffusion.
  • the readout circuit includes a first floating diffusion and a second floating diffusion; The photodetector according to any one of (1) to (10), wherein the first transistor is a transistor capable of electrically connecting the first floating diffusion and the second floating diffusion.
  • the photodetector according to any one of (1) to (11), wherein the sidewall is made of a plurality of insulating films.

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Ceramic Engineering (AREA)
  • Electromagnetism (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本開示の一実施形態の光検出装置は、光を光電変換する光電変換部と、第1トランジスタを含み、前記光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路とを備える。前記第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、前記ゲート絶縁膜の上に設けられたゲート電極と、前記ゲート電極の側面に設けられたサイドウォールとを有する。前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層内に設けられる。前記サイドウォールの他の一部は、前記半導体層の上に設けられる。

Description

光検出装置および電子機器
 本開示は、光検出装置および電子機器に関する。
 暗電流、白点等を抑制するためにゲート電極の側壁の下部まで延在して形成された表面シールド層を有し、画素の信号の読み出しを行う装置が提案されている(特許文献1)。
特開2008-300446号公報
 光を検出する装置では、信号品質の低下を抑えることが求められている。
 信号品質の低下を抑制可能な光検出装置を提供することが望まれる。
 本開示の一実施形態の光検出装置は、光を光電変換する光電変換部と、第1トランジスタを含み、光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路とを備える。第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、ゲート絶縁膜の上に設けられたゲート電極と、ゲート電極の側面に設けられたサイドウォールとを有する。ゲート絶縁膜とゲート電極とサイドウォールの各々の少なくとも一部は、半導体層内に設けられる。サイドウォールの他の一部は、半導体層の上に設けられる。
 本開示の一実施形態の電子機器は、光学系と、光学系を透過した光を受光する光検出装置とを備える。光検出装置は、光を光電変換する光電変換部と、第1トランジスタを含み、光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路とを有する。第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、ゲート絶縁膜の上に設けられたゲート電極と、ゲート電極の側面に設けられたサイドウォールとを有する。ゲート絶縁膜とゲート電極とサイドウォールの各々の少なくとも一部は、半導体層内に設けられる。サイドウォールの他の一部は、半導体層の上に設けられる。
図1は、本開示の実施の形態に係る光検出装置の一例である撮像装置の概略構成の一例を示すブロック図である。 図2は、本開示の実施の形態に係る撮像装置の画素の構成例を示す図である。 図3は、本開示の実施の形態に係る撮像装置のトランジスタの平面構成の一例を示す図である。 図4は、本開示の実施の形態に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。 図5は、本開示の実施の形態に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。 図6は、本開示の実施の形態に係る撮像装置のトランジスタの断面構成の一例を示す図である。 図7Aは、本開示の実施の形態に係る撮像装置のトランジスタの製造方法の一例を示す図である。 図7Bは、本開示の実施の形態に係る撮像装置のトランジスタの製造方法の一例を示す図である。 図7Cは、本開示の実施の形態に係る撮像装置のトランジスタの製造方法の一例を示す図である。 図7Dは、本開示の実施の形態に係る撮像装置のトランジスタの製造方法の一例を示す図である。 図8Aは、本開示の変形例1に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。 図8Bは、本開示の変形例1に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。 図8Cは、本開示の変形例1に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。 図9は、本開示の変形例2に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。 図10Aは、本開示の変形例2に係る撮像装置のトランジスタの断面構成の別の例を説明するための図である。 図10Bは、本開示の変形例2に係る撮像装置のトランジスタの断面構成の別の例を説明するための図である。 図11は、本開示の変形例3に係る撮像装置の画素の構成例を示す図である。 図12は、撮像装置を有する電子機器の構成例を表すブロック図である。 図13は、車両制御システムの概略的な構成の一例を示すブロック図である。 図14は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 図15は、内視鏡手術システムの概略的な構成の一例を示す図である。 図16は、カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 1.実施の形態
 2.変形例
 3.適用例
 4.応用例
<1.実施の形態>
 図1は、本開示の実施の形態に係る光検出装置の一例である撮像装置の概略構成の一例を示すブロック図である。光検出装置は、入射する光を検出可能な装置である。撮像装置1(光検出装置)は、光電変換部を有する複数の画素Pを有し、入射した光を光電変換して信号を生成するように構成される。撮像装置1は、光学レンズを含む光学系(不図示)を透過した光を受光して信号を生成し得る。
 撮像装置1の各画素Pの光電変換部は、例えばフォトダイオードであり、光を光電変換可能に構成される。撮像装置1は、複数の画素Pが行列状に2次元配置された領域(画素部100)を、撮像エリアとして有する。画素部100は、複数の画素Pが配置される画素アレイであり、受光領域ともいえる。
 撮像装置1は、光学レンズを含む光学系を介して、被写体からの入射光(像光)を取り込む。撮像装置1は、光学レンズにより形成される被写体の像を撮像する。撮像装置1は、受光した光を光電変換して画素信号を生成し得る。撮像装置1は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮像装置1は、デジタルスチルカメラ、ビデオカメラ、携帯電話等の電子機器に利用可能である。
[撮像装置の概略構成]
 撮像装置1は、図1に示す例のように、画素部100(画素アレイ)の周辺領域に、例えば、画素駆動部111、信号処理部112、制御部113、処理部114等を有する。また、撮像装置1には、複数の制御線L1と、複数の信号線L2が設けられる。
 制御線L1は、画素Pを制御する信号を伝えることが可能な信号線であり、画素駆動部111と画素部100の画素Pとに接続される。図1に示す例では、画素部100では、水平方向(行方向)に並ぶ複数の画素Pにより構成される画素行ごとに、複数の制御線L1が配線される。制御線L1は、画素Pからの信号読み出しのための制御信号を伝送するように構成される。
 撮像装置1の画素行ごとの複数の制御線L1には、転送トランジスタを制御する信号を伝送する配線、選択トランジスタを制御する信号を伝送する配線、リセットトランジスタを制御する信号を伝送する配線等が含まれる。制御線L1は、画素Pを駆動する信号を伝送する駆動線(画素駆動線)ともいえる。
 信号線L2は、画素Pからの信号を伝えることが可能な信号線であり、画素部100の画素Pと信号処理部112とに接続される。画素部100には、例えば、垂直方向(列方向)に並ぶ複数の画素Pにより構成される画素列ごとに、信号線L2が配線される。信号線L2は、垂直信号線であり、画素Pから出力される信号を伝送するように構成される。
 画素駆動部111は、画素部100の各画素Pを駆動可能に構成される。画素駆動部111は、バッファ、シフトレジスタ、アドレスデコーダ等によって構成される。画素駆動部111は、画素Pを駆動するための信号を生成し、制御線L1を介して画素部100の各画素Pへ出力する。画素駆動部111は、制御部113により制御され、画素部100の画素Pの制御を行う。
 画素駆動部111は、例えば、画素Pの転送トランジスタを制御する信号、及びリセットトランジスタを制御する信号等の画素Pを制御するための信号を生成し、制御線L1によって各画素Pに供給する。画素駆動部111は、各画素Pから画素信号を読み出す制御を行い得る。画素駆動部111は、各画素Pを制御可能に構成された画素制御部ともいえる。なお、画素駆動部111と制御部113とを併せて、画素制御部ということもできる。
 信号処理部112は、入力される画素の信号の信号処理を実行可能に構成される。信号処理部112は、例えば、負荷回路部、AD(Analog Digital)変換部、水平選択スイッチ等を有する。なお、信号処理部112は、信号線L2を介して画素Pから読み出される信号を増幅するように構成された増幅回路部を有していてもよい。
 画素駆動部111によって選択走査された各画素Pから出力される信号は、信号線L2を介して信号処理部112に入力される。信号処理部112は、例えば、画素Pの信号のAD変換、CDS(Correlated Double Sampling:相関二重サンプリング)等の信号処理を行い得る。信号線L2の各々を通して伝送される各画素Pの信号は、信号処理部112により信号処理が施され、処理部114に出力される。
 処理部114は、入力される信号に対して信号処理を実行可能に構成される。処理部114は、例えば、画素信号に対して各種の信号処理を施す回路により構成される。処理部114は、プロセッサ及びメモリを含んでいてもよい。処理部114は、信号処理部112から入力される画素の信号に対して信号処理を行い、処理後の画素の信号を出力する。処理部114は、例えば、ノイズ低減処理、階調補正処理等の各種の信号処理を行い得る。
 制御部113は、撮像装置1の各部を制御可能に構成される。制御部113は、外部から与えられるクロック、動作モードを指令するデータ等を受け取り、また、撮像装置1の内部情報等のデータを出力し得る。制御部113は、各種のタイミング信号を生成可能に構成されたタイミングジェネレータを有する。制御部113は、タイミングジェネレータで生成された各種のタイミング信号(パルス信号、クロック信号等)に基づき、画素駆動部111及び信号処理部112等の駆動制御を行う。なお、制御部113及び処理部114は、一体的に構成されていてもよい。
 画素駆動部111、信号処理部112、制御部113、処理部114等は、1つの半導体基板に設けられていてもよいし、複数の半導体基板に分けて設けられていてもよい。撮像装置1は、複数の基板を積層して構成された構造(積層構造)を有していてもよい。
[画素の構成]
 図2は、実施の形態に係る撮像装置の画素の構成例を示す図である。画素Pは、光電変換部12と、読み出し回路20とを有する。読み出し回路20は、光電変換された電荷に基づく信号を出力可能に構成される。読み出し回路20は、一例として、転送トランジスタ13と、第1のフローティングディフュージョン(FD1)と、増幅トランジスタ14と、選択トランジスタ15と、リセットトランジスタ16とを有する。
 転送トランジスタ13、増幅トランジスタ14、選択トランジスタ15、及びリセットトランジスタ16は、それぞれ、ゲート、ソース、ドレインの端子を有するMOSトランジスタ(MOSFET)である。図2に示す例では、転送トランジスタ13、増幅トランジスタ14、選択トランジスタ15、及びリセットトランジスタ16は、それぞれNMOSトランジスタにより構成される。なお、画素Pのトランジスタは、PMOSトランジスタにより構成されてもよい。
 光電変換部12は、光電変換により電荷を生成可能に構成される。図2に示す例では、光電変換部12は、フォトダイオード(PD)であり、入射する光を電荷に変換する。光電変換部12は、光電変換を行って受光量に応じた電荷を生成する。
 転送トランジスタ13は、光電変換部12で光電変換された電荷をFD1に転送可能に構成される。図2に示すように、転送トランジスタ13は、信号TRGにより制御され、光電変換部12とFD1とを電気的に接続または切断する。転送トランジスタ13は、光電変換部12で光電変換されて蓄積された電荷をFD1に転送し得る。
 FD1は、蓄積部であり、転送された電荷を蓄積可能に構成される。FD1は、光電変換部12で光電変換された電荷を蓄積し得る。FD1は、転送された電荷を保持可能な保持部ともいえる。FD1は、転送された電荷を蓄積し、FD1の容量に応じた電圧に変換する。
 増幅トランジスタ14は、FD1に蓄積された電荷に基づく信号を生成して出力するように構成される。図2に示すように、増幅トランジスタ14のゲートは、FD1と電気的に接続され、FD1で変換された電圧が入力される。増幅トランジスタ14のドレインは、電源電圧VDDが供給される電源線に接続され、増幅トランジスタ14のソースは、選択トランジスタ15を介して信号線L2に接続される。増幅トランジスタ14は、FD1に蓄積された電荷に基づく信号、即ちFD1の電圧に基づく信号を生成し、信号線L2へ出力し得る。
 選択トランジスタ15は、画素の信号の出力を制御可能に構成される。選択トランジスタ15は、信号SELにより制御され、増幅トランジスタ14からの信号を信号線L2に出力可能に構成される。選択トランジスタ15は、画素の信号の出力タイミングを制御し得る。なお、選択トランジスタ15は、電源電圧VDDが与えられる電源線と増幅トランジスタ14との間に設けられてもよい。また、必要に応じて、選択トランジスタ15を省略してもよい。
 リセットトランジスタ16は、FD1の電圧をリセット可能に構成される。図2に示す例では、リセットトランジスタ16は、電源電圧VDDが与えられる電源線と電気的に接続され、画素Pの電荷のリセットを行うように構成される。リセットトランジスタ16は、信号RSTにより制御され、FD1に蓄積された電荷をリセットし、FD1の電圧をリセットし得る。なお、リセットトランジスタ16は、転送トランジスタ13を介して、光電変換部12に蓄積された電荷を排出し得る。
 画素駆動部111(図1参照)は、上述した制御線L1を介して、各画素Pの転送トランジスタ13、選択トランジスタ15、リセットトランジスタ16等のゲートに制御信号を供給し、トランジスタをオン状態(導通状態)又はオフ状態(非導通状態)とする。撮像装置1の複数の制御線L1には、転送トランジスタ13を制御する信号TRGを伝送する配線、選択トランジスタ15を制御する信号SELを伝送する配線、リセットトランジスタ16を制御する信号RSTを伝送する配線等が含まれる。
 転送トランジスタ13、選択トランジスタ15、リセットトランジスタ16等は、画素駆動部111によってオンオフ制御される。画素駆動部111は、各画素Pの読み出し回路20を制御することによって、各画素Pから画素信号を信号線L2に出力させる。画素駆動部111は、各画素Pの画素信号を信号線L2へ読み出す制御を行い得る。
 図3は、実施の形態に係る撮像装置のトランジスタの平面構成の一例を示す図である。図4及び図5は、実施の形態に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。図4は、図3に示したI-I線の方向、即ちゲート長(チャネル長)の方向におけるトランジスタの一部の構成例を表している。また、図5は、図3に示したII-II線の方向、即ちゲート幅の方向におけるトランジスタの一部の構成例を表している。
 上述した画素Pの読み出し回路20のトランジスタは、例えば、図3~図5に示す構造を有し得る。例えば、読み出し回路20の転送トランジスタ13は、図3~図5に示す構造を有する。増幅トランジスタ14、リセットトランジスタ16等が、図3等に示す構造を有していてもよい。また、読み出し回路20に用いられる全てのトランジスタが、図3等に示す構造を有していてもよい。なお、図3等に示す素子構造は、撮像装置1の他の回路の素子にも適用可能である。
 撮像装置1は、半導体層110を含む基板101を用いて構成される。基板101は、例えば、Si(シリコン)基板、SOI(Silicon On Insulator)基板等である。半導体層110を含む基板101には、例えば、上述した光電変換部12及び読み出し回路20等が形成される。なお、基板101は、SiGe(シリコンゲルマニウム)基板またはSiC基板であってもよく、III-V族の化合物半導体材料等により構成されてもよい。図3~図5に示す例では、基板101は、半導体層110及び配線層120を含んで構成される。
 また、撮像装置1には、図3及び図5に示すように、分離部70が設けられる。分離部70は、絶縁材料を用いて構成され、素子間を分離する。分離部70は、トレンチ(溝部)を有し、例えばSTI(Shallow Trench Isolation)構造を有する。
 分離部70のトレンチ内には、一例として、絶縁膜、例えばシリコン酸化膜が設けられる。分離部70のトレンチには、ポリシリコン、金属材料等が埋め込まれていてもよい。また、分離部70のトレンチ内には、空隙(空洞)が設けられていてもよい。なお、分離部70は、半導体層110を貫通するように設けられてもよい。
 撮像装置1のトランジスタ(トランジスタTr)は、半導体領域31と、半導体領域32と、ゲート絶縁膜40と、ゲート電極50と、サイドウォール60とを有する。半導体領域31及び半導体領域32は、半導体層110に設けられ、互いに異なる導電型を有する。
 撮像装置1では、ゲート絶縁膜40、ゲート電極50、及びサイドウォール60の各々の少なくとも一部は、半導体層110内に設けられる。ゲート絶縁膜40とゲート電極50とサイドウォール60の各々の少なくとも一部は、例えば、図4等に示す例のように、半導体層110を掘り込んで設けられる。
 半導体領域31は、チャネルが形成される領域(チャネル領域)である。半導体領域31は、トランジスタの活性領域(チャネル形成領域)ともいえる。例えば、半導体領域31は、p型の半導体領域であり、p型の不純物を用いて形成された領域である。半導体領域31は、p型拡散領域であり、p型の導電領域ともいえる。
 半導体領域32は、トランジスタのソース領域又はドレイン領域である。図3に示すように、トランジスタは、ソース領域である半導体領域32(ソース領域32aと称する)と、ドレイン領域である半導体領域32(ドレイン領域32bと称する)を有する。
 ソース領域32a及びドレイン領域32bは、それぞれ、例えばn型の半導体領域であり、n型の不純物を用いて形成される領域である。ソース領域32a及びドレイン領域32bは、例えば、エッチング、エピタキシャル成長等により形成された半導体層110の領域に、n型の不純物がドープ(添加)されることによって形成される。ソース領域32a、ドレイン領域32bは、それぞれ、n型拡散領域であり、n型の導電領域ともいえる。
 ソース領域32a及びドレイン領域32bは、図3、図4等に示す例のように、半導体層110を掘り込んで形成されたゲート電極50の一部を挟んで設けられる。ゲート電極50及びサイドウォール60の周囲に、ソース領域32a及びドレイン領域32bが配置される。ソース領域32a及びドレイン領域32bは、図3に示すように、平面視において、サイドウォール60の外側に設けられている。
 図4に示す例では、半導体領域32(ソース領域32a又はドレイン領域32b)は、コンタクトプラグ80と電気的に接続される。半導体領域32は、半導体領域32上に設けられたコンタクトプラグ80にオーミック接続され、コンタクトプラグ80を介して配線層120の配線(不図示)と電気的に接続される。コンタクトプラグ80は、ソース電極又はドレイン電極の一部ともいえる。なお、コンタクトプラグ80は、例えば、タングステン(W)等の導電材料をコンタクトホールに埋め込む(充填)ことによって形成される。
 ゲート絶縁膜40、ゲート電極50の一部、及びサイドウォール60の一部は、それぞれ、例えば図4及び図5に示すように、半導体層110内に設けられる。ゲート絶縁膜40とゲート電極50とサイドウォール60の一部は、例えば半導体層110に埋め込まれるように配置され、半導体層110の溝部(凹部)に配置されるともいえる。サイドウォール60の他の一部は、半導体層110の上に設けられる。トランジスタTrは、サイドウォール60が半導体層110上に乗り上げた構造を有するともいえる。
 ゲート絶縁膜40は、半導体層110のチャネル領域(半導体領域31)上に設けられる。ゲート絶縁膜40(例えばゲート酸化膜)は、チャネル領域である半導体領域31とゲート電極50との間に設けられ、半導体層110の半導体領域31を覆うように配置される。図4に示す例では、ゲート絶縁膜40は、半導体領域32(ソース領域32a又はドレイン領域32b)よりも下方に位置する。
 ゲート絶縁膜40は、例えば、酸化シリコン(SiO)、酸窒化シリコン(SiON)、酸化ハフニウム(HfO)等のうちの1種よりなる単層膜、あるいはこれらのうちの2種以上よりなる積層膜により形成される。ゲート絶縁膜40は、ハフニウム系絶縁膜など、酸化シリコンの誘電率よりも高い誘電率を有する高誘電率材料により構成され得る。
 ゲート電極50は、ゲート絶縁膜40の上に設けられる。ゲート電極50は、ゲート絶縁膜40を介して、半導体層110の半導体領域31の上方に設けられる。ゲート電極50は、例えば、半導体層110を掘り込んで配置される。図4等に示す例では、ゲート電極50の底部51は、半導体領域32(ソース領域32a又はドレイン領域32b)の上面よりも下方に位置する。
 ゲート電極50は、例えば、ポリシリコン(Poly-Si)を用いて構成される。ゲート電極50は、金属材料または金属化合物を用いて構成されてもよい。ゲート電極50は、例えば、窒化チタン(TiN)、窒化タンタル(TaN)、タングステン等により構成されてもよい。
 サイドウォール60は、ゲート電極50の側面に設けられる。サイドウォール60は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)等の絶縁膜により構成され、ゲート電極50の周囲に設けられる。なお、サイドウォール60は、酸窒化シリコン(SiON)を用いて構成されてもよいし、その他の材料を用いて構成されてもよい。
 サイドウォール60は、ゲート電極50の側面(側部)を覆うように設けられる。図3に示す例のように、サイドウォール60は、ゲート電極50を囲むように形成され、ゲート電極50の側部に位置する。サイドウォール60は、ゲート電極50の側面と半導体層110とに接するように設けられる。サイドウォール60は、サイドウォール絶縁膜又はサイドウォールスペーサともいえる。
 サイドウォール60は、例えば、半導体層110を掘り込んで配置される。サイドウォール60の一部は、図4に示すように、ゲート電極50と半導体領域32(ソース領域32a又はドレイン領域32b)との間に設けられる。また、サイドウォール60の一部は、半導体層110上に配置される。図3及び図4に示すように、サイドウォール60の一部は、半導体層110上と分離部70上とに形成され得る。
 撮像装置1では、サイドウォール60が設けられ、半導体領域32(ソース領域32a又はドレイン領域32b)は自己整合(セルフアライメント)的に形成され得る。例えば、サイドウォール60をマスクの一部として用いて、ソース領域32a及びドレイン領域32bは、ゲート電極50及びサイドウォール60に対して自己整合して形成される。
 本実施の形態に係る撮像装置1では、上述したように、ゲート電極50とサイドウォール60の各々の一部は、半導体層110内に設けられ、サイドウォール60の他の一部は、半導体層110の上に設けられる。これにより、半導体層110の界面における暗電流の発生を抑制し、画像に白点(白傷)が生じることを抑制することが可能となる。画素の微細化が進んだ場合、例えばサイドウォール60の幅が縮小した場合も、暗電流および白点の発生を抑えることが可能となる。
 図6において、ゲート電極50の側面52aと半導体層110との間隔(距離)D1は、ゲート電極50の底部51と半導体層110との間隔D2よりも大きくなっている。トランジスタTrは、例えば、D1≧D2の距離関係を満たすように形成され得る。撮像装置1では、破線Aで示すゲートの端部において強電界が生じることを抑制することができる。ゲート端電界を緩和し、暗電流、白点等が生じることを抑制することが可能となる。
 また、破線Bで示すように、ゲート電極50の側面52bと半導体層110との間隔D3は、ゲート電極50の底部51と半導体層110との間隔D2よりも大きくなっている。トランジスタTrは、例えば、D3≧D2を満たすように形成され得る。また、サイドウォール60の一部は、半導体層110の上に設けられる。このため、ゲート電極50と、半導体領域32(ソース領域32a又はドレイン領域32b)との距離を確保することができる。PN接合部を半導体層110の界面から離す(遠ざける)ことができ、暗電流、白点等を低減させることが可能となる。
 撮像装置1では、図3及び図4等に示すトランジスタTrは、例えば、読み出し回路20の転送トランジスタ13として適用され得る。この場合、ソース領域32a及びドレイン領域32bの一方側には光電変換部12が形成され、ソース領域32a及びドレイン領域32bの他方側にはFD1が形成され得る。ソース領域32a及びドレイン領域32bの他方は、FD1の一部を構成し得る。
 本開示に係るトランジスタTrを転送トランジスタ13に適用した場合、転送トランジスタ13及びFD1等における暗電流を低減することができる。FD1に蓄積された電荷に基づく画素信号の品質が低下することを抑制することが可能となる。また、トランジスタTrを増幅トランジスタ14に適用した場合、画素信号に混入するノイズを低減させることが期待できる。
 また、本開示に係るトランジスタTrは、読み出し回路20の他のトランジスタ(リセットトランジスタ16等)にも適用可能である。読み出し回路20の各トランジスタ、FD1等における暗電流が増大することを防ぎ、白点等の欠陥が生じることを抑制することが可能となる。
 図7A~図7Dは、実施の形態に係る撮像装置のトランジスタの製造方法の一例を示す図である。まず、図7Aに示すように、半導体層110上に、リソグラフィ又はエピタキシャル成長により、半導体層110の溝部(凹部)、半導体領域32用の領域等を形成する。そして、図7Bに示すように、半導体層110の溝部に対してゲート絶縁膜40を成膜し、ゲート絶縁膜40上にゲート電極50を形成する。
 次に、図7Cに示すように、リソグラフィ及びエッチングにより、ゲート絶縁膜40の一部とゲート電極50の一部が除去される。また、図7Dに示すように、サイドウォール60を形成する。そして、半導体領域32及びコンタクトプラグ80等が形成される。以上のような製造方法によって、図3、図4等に示すトランジスタTrを製造することができる。なお、上述した製造方法は、あくまでも一例であって、他の製造方法を採用してもよい。
[作用・効果]
 本実施の形態に係る光検出装置は、光を光電変換する光電変換部(光電変換部12)と、第1トランジスタ(トランジスタTr)を含み、光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路(読み出し回路20)とを備える。第1トランジスタは、半導体層(半導体層110)に設けられたソース領域(ソース領域32a)及びドレイン領域(ドレイン領域32b)と、ゲート絶縁膜(ゲート絶縁膜40)と、ゲート絶縁膜の上に設けられたゲート電極(ゲート電極50)と、ゲート電極の側面に設けられたサイドウォール(サイドウォール60)とを有する。ゲート絶縁膜とゲート電極とサイドウォールの各々の少なくとも一部は、半導体層内に設けられる。サイドウォールの他の一部は、半導体層の上に設けられる。
 本実施の形態に係る光検出装置(撮像装置1)では、ゲート電極50とサイドウォール60の各々の一部は、半導体層110内に設けられ、サイドウォール60の他の一部は、半導体層110の上に設けられる。これにより、暗電流を抑制することができ、画素信号の品質が低下することを抑制することができる。信号品質の低下を抑制可能な光検出装置を実現することが可能となる。
 次に、本開示の変形例について説明する。以下では、上記実施の形態と同様の構成要素については同一の符号を付し、適宜説明を省略する。
<2.変形例>
(2-1.変形例1)
 上述した実施の形態では、トランジスタの構成例について説明したが、あくまでも一例であって、トランジスタの構成は上述した例に限られない。図8A~図8Cは、本開示の変形例1に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。例えば、サイドウォール60は、複数の絶縁膜により構成されてもよい。
 例えば、サイドウォール60は、2層構造のサイドウォールであってもよい。図8A又は図8Bに示す例のように、サイドウォール60aとサイドウォール60bとを設けるようにしてもよい。また、例えば、サイドウォール60は、3層構造のサイドウォールであってもよい。図8Cに示す例のように、サイドウォール60aとサイドウォール60bとサイドウォール60cを設けるようにしてもよい。本変形例の場合も、上記した実施の形態と同様の効果を得ることができる。
(2-2.変形例2)
 図9は、変形例2に係る撮像装置のトランジスタの断面構成の一例を説明するための図である。撮像装置1では、図9に示す例のように、分離部70がゲート電極50の底部51よりも上方に位置するように、分離部70を設けてもよい。図9に示す例では、ゲート電極50の底部51は、分離部70の底面よりも下方に位置する。分離部70は、浅いトレンチ構造を有するともいえる。
 図10Aは、変形例2に係る撮像装置のトランジスタの断面構成の別の例を説明するための図である。分離部70は、イオン注入によって形成された半導体領域によって構成されてもよい。分離部70は、p型の半導体領域またはn型の半導体領域により構成され得る。なお、図10Bに示す例のように、分離部70がゲート電極50の底部51よりも上方に位置するように、分離部70が設けられてもよい。本変形例の場合も、上記した実施の形態と同様の効果を得ることができる。
(2-3.変形例3)
 上述した実施の形態では、画素Pの構成例について説明したが、画素Pの構成は上述した例に限られない。図11は、変形例3に係る撮像装置の画素の構成例を示す図である。撮像装置1の画素Pは、図11に示すように、トランジスタ17と、第2のフローティングディフュージョン(FD2)を有していてもよい。FD2は、電荷を蓄積可能に構成される。FD2は、トランジスタ17とリセットトランジスタ16とに接続される。トランジスタ17は、FD1とFD2とを電気的に接続可能に構成される。
 トランジスタ17がオフ状態の場合、FD1とFD2とが電気的に切断され、光電変換部12から転送された電荷はFD1に蓄積される。トランジスタ17がオン状態の場合は、FD1とFD2とが電気的に接続され、光電変換部12から転送された電荷はFD1とFD2に蓄積される。
 トランジスタ17がオン状態となることで、FD1に付加される容量が大きくなり、変換効率を変更することが可能となる。トランジスタ17は、増幅トランジスタ14のゲートに接続される容量を切り替え、変換効率を変更する切り替えトランジスタともいえる。
 上述した本開示に係るトランジスタTrを、トランジスタ17に適用してもよい。読み出し回路20のFD1、FD2等における暗電流を抑制することができ、白点の発生を抑制することができる。本変形例の場合も、上記した実施の形態と同様の効果を得ることができる。
<3.適用例>
 上記撮像装置1等は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図12は、電子機器1000の概略構成を表したものである。
 電子機器1000は、例えば、レンズ群1001と、撮像装置1と、DSP(Digital Signal Processor)回路1002と、フレームメモリ1003と、表示部1004と、記録部1005と、操作部1006と、電源部1007とを有し、バスライン1008を介して相互に接続されている。
 レンズ群1001は、被写体からの入射光(像光)を取り込んで撮像装置1の撮像面上に結像するものである。撮像装置1は、レンズ群1001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号としてDSP回路1002に供給する。
 DSP回路1002は、撮像装置1から供給される信号を処理する信号処理回路である。DSP回路1002は、撮像装置1からの信号を処理して得られる画像データを出力する。フレームメモリ1003は、DSP回路1002により処理された画像データをフレーム単位で一時的に保持するものである。
 表示部1004は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなり、撮像装置1で撮像された動画または静止画の画像データを、半導体メモリやハードディスク等の記録媒体に記録する。
 操作部1006は、ユーザによる操作に従い、電子機器1000が所有する各種の機能についての操作信号を出力する。電源部1007は、DSP回路1002、フレームメモリ1003、表示部1004、記録部1005および操作部1006の動作電源となる各種の電源を、これら供給対象に対して適宜供給するものである。
<4.応用例>
(移動体への応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図13は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図13に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図13の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図14は、撮像部12031の設置位置の例を示す図である。
 図14では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図14には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る移動体制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、例えば、撮像装置1等は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、高精細な撮影画像を得ることができ、移動体制御システムにおいて撮影画像を利用した高精度な制御を行うことができる。
(内視鏡手術システムへの応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図15は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図15では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図16は、図15に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100のカメラヘッド11102に設けられた撮像部11402に好適に適用され得る。撮像部11402に本開示に係る技術を適用することにより、撮像部11402を高感度化することができ、高精細な内視鏡11100を提供することができる。
 以上、実施の形態、変形例および適用例ならびに応用例を挙げて本開示を説明したが、本技術は上記実施の形態等に限定されるものではなく、種々の変形が可能である。例えば、上述した変形例は、上記実施の形態の変形例として説明したが、各変形例の構成を適宜組み合わせることができる。
 上記実施の形態等では、撮像装置を例示して説明するようにしたが、本開示の光検出装置は、例えば、入射する光を受光し、光を電荷に変換するものであればよい。出力される信号は、画像情報の信号でもよいし、測距情報の信号でもよい。
 光検出装置(撮像装置)は、イメージセンサ、測距センサ等に適用され得る。本開示は、裏面照射型イメージセンサにも、表面照射型イメージセンサにも適用可能である。
 本開示に係る光検出装置は、TOF(Time Of Flight)方式の距離計測が可能な測距センサとしても適用され得る。光検出装置(撮像装置)は、イベントを検出可能なセンサ、例えば、イベント駆動型のセンサ(EVS(Event Vision Sensor)、EDS(Event Driven Sensor)、DVS(Dynamic Vision Sensor)等と呼ばれる)としても適用され得る。
 本開示の一実施形態の光検出装置は、光電変換部と、第1トランジスタを含み、光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路とを備える。第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、ゲート絶縁膜の上に設けられたゲート電極と、ゲート電極の側面に設けられたサイドウォールとを有する。ゲート絶縁膜とゲート電極とサイドウォールの各々の少なくとも一部は、半導体層内に設けられる。サイドウォールの他の一部は、半導体層の上に設けられる。このため、光検出装置における暗電流の増加を抑制することができる。信号品質の低下を抑制可能な光検出装置を実現することが可能となる。
 本開示の一実施形態の電子機器は、光学系と、光学系を透過した光を受光する光検出装置とを備える。光検出装置は、光電変換部と、第1トランジスタを含み、光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路とを有する。第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、ゲート絶縁膜の上に設けられたゲート電極と、ゲート電極の側面に設けられたサイドウォールとを有する。ゲート絶縁膜とゲート電極とサイドウォールの各々の少なくとも一部は、半導体層内に設けられる。サイドウォールの他の一部は、半導体層の上に設けられる。このため、暗電流の増加を抑制することができる。信号品質の低下を抑制可能な電子機器を実現することが可能となる。
 なお、本明細書中に記載された効果はあくまで例示であってその記載に限定されるものではなく、他の効果があってもよい。また、本開示は以下のような構成をとることも可能である。
(1)
 光を光電変換する光電変換部と、
 第1トランジスタを含み、前記光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路と
 を備え、
 前記第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、前記ゲート絶縁膜の上に設けられたゲート電極と、前記ゲート電極の側面に設けられたサイドウォールとを有し、
 前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層内に設けられ、
 前記サイドウォールの他の一部は、前記半導体層の上に設けられる
 光検出装置。
(2)
 前記サイドウォールの一部は、前記ゲート電極と前記ソース領域または前記ドレイン領域との間に設けられる
 前記(1)に記載の光検出装置。
(3)
 前記ゲート電極の底部は、前記ソース領域または前記ドレイン領域の上面よりも下方に位置する
 前記(1)または(2)に記載の光検出装置。
(4)
 前記ゲート電極の側面と前記半導体層との間隔は、前記ゲート電極の底部と前記半導体層との間隔よりも大きい
 前記(1)から(3)のいずれか1つに記載の光検出装置。
(5)
 前記ゲート絶縁膜は、前記半導体層のチャネル領域上に設けられ、前記ソース領域または前記ドレイン領域よりも下方に位置する
 前記(1)から(4)のいずれか1つに記載の光検出装置。
(6)
 前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層を掘り込んで設けられ、
 前記ソース領域及び前記ドレイン領域は、前記半導体層を掘り込んで設けられた前記ゲート電極の一部を挟んで設けられる
 前記(1)から(5)のいずれか1つに記載の光検出装置。
(7)
 前記ソース領域及び前記ドレイン領域は、平面視において、前記サイドウォールの外側に設けられている
 前記(1)から(6)のいずれか1つに記載の光検出装置。
(8)
 前記読み出し回路は、第1フローティングディフュージョンを含み、
 前記第1トランジスタは、前記光電変換部と前記第1フローティングディフュージョンとを電気的に接続可能な転送トランジスタである
 前記(1)から(7)のいずれか1つに記載の光検出装置。
(9)
 前記読み出し回路は、第1フローティングディフュージョンと、前記光電変換部と前記第1フローティングディフュージョンとを電気的に接続可能な転送トランジスタとを含み、
 前記第1トランジスタは、前記第1フローティングディフュージョンに蓄積された電荷に基づく信号を出力可能な増幅トランジスタである
 前記(1)から(8)のいずれか1つに記載の光検出装置。
(10)
 前記読み出し回路は、第1フローティングディフュージョンを含み、
 前記第1トランジスタは、前記第1フローティングディフュージョンに電気的に接続されるリセットトランジスタである
 前記(1)から(9)のいずれか1つに記載の光検出装置。
(11)
 前記読み出し回路は、第1フローティングディフュージョンと、第2フローティングディフュージョンとを含み、
 前記第1トランジスタは、前記第1フローティングディフュージョンと前記第2フローティングディフュージョンとを電気的に接続可能なトランジスタである
 前記(1)から(10)のいずれか1つに記載の光検出装置。
(12)
 前記サイドウォールは、複数の絶縁膜からなる
 前記(1)から(11)のいずれか1つに記載の光検出装置。
(13)
 光学系と、
 前記光学系を透過した光を受光する光検出装置と
 を備え、
 前記光検出装置は、
 光を光電変換する光電変換部と、
 第1トランジスタを含み、前記光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路と
 を有し、
 前記第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、前記ゲート絶縁膜の上に設けられたゲート電極と、前記ゲート電極の側面に設けられたサイドウォールとを有し、
 前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層内に設けられ、
 前記サイドウォールの他の一部は、前記半導体層の上に設けられる
 電子機器。
 本出願は、日本国特許庁において2022年11月25日に出願された日本特許出願番号2022-187914号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (13)

  1.  光を光電変換する光電変換部と、
     第1トランジスタを含み、前記光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路と
     を備え、
     前記第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、前記ゲート絶縁膜の上に設けられたゲート電極と、前記ゲート電極の側面に設けられたサイドウォールとを有し、
     前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層内に設けられ、
     前記サイドウォールの他の一部は、前記半導体層の上に設けられる
     光検出装置。
  2.  前記サイドウォールの一部は、前記ゲート電極と前記ソース領域または前記ドレイン領域との間に設けられる
     請求項1に記載の光検出装置。
  3.  前記ゲート電極の底部は、前記ソース領域または前記ドレイン領域の上面よりも下方に位置する
     請求項1に記載の光検出装置。
  4.  前記ゲート電極の側面と前記半導体層との間隔は、前記ゲート電極の底部と前記半導体層との間隔よりも大きい
     請求項1に記載の光検出装置。
  5.  前記ゲート絶縁膜は、前記半導体層のチャネル領域上に設けられ、前記ソース領域または前記ドレイン領域よりも下方に位置する
     請求項1に記載の光検出装置。
  6.  前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層を掘り込んで設けられ、
     前記ソース領域及び前記ドレイン領域は、前記半導体層を掘り込んで設けられた前記ゲート電極の一部を挟んで設けられる
     請求項1に記載の光検出装置。
  7.  前記ソース領域及び前記ドレイン領域は、平面視において、前記サイドウォールの外側に設けられている
     請求項1に記載の光検出装置。
  8.  前記読み出し回路は、第1フローティングディフュージョンを含み、
     前記第1トランジスタは、前記光電変換部と前記第1フローティングディフュージョンとを電気的に接続可能な転送トランジスタである
     請求項1に記載の光検出装置。
  9.  前記読み出し回路は、第1フローティングディフュージョンと、前記光電変換部と前記第1フローティングディフュージョンとを電気的に接続可能な転送トランジスタとを含み、
     前記第1トランジスタは、前記第1フローティングディフュージョンに蓄積された電荷に基づく信号を出力可能な増幅トランジスタである
     請求項1に記載の光検出装置。
  10.  前記読み出し回路は、第1フローティングディフュージョンを含み、
     前記第1トランジスタは、前記第1フローティングディフュージョンに電気的に接続されるリセットトランジスタである
     請求項1に記載の光検出装置。
  11.  前記読み出し回路は、第1フローティングディフュージョンと、第2フローティングディフュージョンとを含み、
     前記第1トランジスタは、前記第1フローティングディフュージョンと前記第2フローティングディフュージョンとを電気的に接続可能なトランジスタである
     請求項1に記載の光検出装置。
  12.  前記サイドウォールは、複数の絶縁膜からなる
     請求項1に記載の光検出装置。
  13.  光学系と、
     前記光学系を透過した光を受光する光検出装置と
     を備え、
     前記光検出装置は、
     光を光電変換する光電変換部と、
     第1トランジスタを含み、前記光電変換部で変換された電荷に基づく信号を出力可能な読み出し回路と
     を有し、
     前記第1トランジスタは、半導体層に設けられたソース領域及びドレイン領域と、ゲート絶縁膜と、前記ゲート絶縁膜の上に設けられたゲート電極と、前記ゲート電極の側面に設けられたサイドウォールとを有し、
     前記ゲート絶縁膜と前記ゲート電極と前記サイドウォールの各々の少なくとも一部は、前記半導体層内に設けられ、
     前記サイドウォールの他の一部は、前記半導体層の上に設けられる
     電子機器。
PCT/JP2023/037343 2022-11-25 2023-10-16 光検出装置および電子機器 WO2024111280A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-187914 2022-11-25
JP2022187914 2022-11-25

Publications (1)

Publication Number Publication Date
WO2024111280A1 true WO2024111280A1 (ja) 2024-05-30

Family

ID=91195416

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/037343 WO2024111280A1 (ja) 2022-11-25 2023-10-16 光検出装置および電子機器

Country Status (1)

Country Link
WO (1) WO2024111280A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000124437A (ja) * 1998-10-19 2000-04-28 Toshiba Corp 固体撮像装置
US20040135176A1 (en) * 2003-01-11 2004-07-15 Ji-Young Kim Mosfet having recessed channel and method o fabricating the same
JP2006191095A (ja) * 2004-12-29 2006-07-20 Dongbuanam Semiconductor Inc Cmosイメージセンサとその製造方法
KR20060110508A (ko) * 2005-04-20 2006-10-25 엠텍비젼 주식회사 이미지 센서의 픽셀 구조 및 그 제조 방법
US20070034965A1 (en) * 2005-08-09 2007-02-15 Jong-Wan Jung CMOS Image Sensor Having Drive Transistor with Increased Gate Surface Area and Method of Manufacturing the Same
JP2008193060A (ja) * 2007-01-09 2008-08-21 Sony Corp 半導体装置および半導体装置の製造方法
JP2011138947A (ja) * 2009-12-28 2011-07-14 Sony Corp 半導体装置、および、その製造方法
JP2013069846A (ja) * 2011-09-22 2013-04-18 Toshiba Corp 固体撮像装置
JP2015176969A (ja) * 2014-03-14 2015-10-05 キヤノン株式会社 固体撮像装置及び撮像システム
WO2021095374A1 (ja) * 2019-11-13 2021-05-20 ソニーセミコンダクタソリューションズ株式会社 半導体装置及び半導体装置の製造方法、撮像装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000124437A (ja) * 1998-10-19 2000-04-28 Toshiba Corp 固体撮像装置
US20040135176A1 (en) * 2003-01-11 2004-07-15 Ji-Young Kim Mosfet having recessed channel and method o fabricating the same
JP2006191095A (ja) * 2004-12-29 2006-07-20 Dongbuanam Semiconductor Inc Cmosイメージセンサとその製造方法
KR20060110508A (ko) * 2005-04-20 2006-10-25 엠텍비젼 주식회사 이미지 센서의 픽셀 구조 및 그 제조 방법
US20070034965A1 (en) * 2005-08-09 2007-02-15 Jong-Wan Jung CMOS Image Sensor Having Drive Transistor with Increased Gate Surface Area and Method of Manufacturing the Same
JP2008193060A (ja) * 2007-01-09 2008-08-21 Sony Corp 半導体装置および半導体装置の製造方法
JP2011138947A (ja) * 2009-12-28 2011-07-14 Sony Corp 半導体装置、および、その製造方法
JP2013069846A (ja) * 2011-09-22 2013-04-18 Toshiba Corp 固体撮像装置
JP2015176969A (ja) * 2014-03-14 2015-10-05 キヤノン株式会社 固体撮像装置及び撮像システム
WO2021095374A1 (ja) * 2019-11-13 2021-05-20 ソニーセミコンダクタソリューションズ株式会社 半導体装置及び半導体装置の製造方法、撮像装置

Similar Documents

Publication Publication Date Title
JP7558805B2 (ja) 撮像素子、電子機器
CN113348535A (zh) 摄像元件和半导体元件
JP7558164B2 (ja) 固体撮像素子、固体撮像素子の製造方法
WO2022270039A1 (ja) 固体撮像装置
TW202322373A (zh) 光檢測裝置、光檢測裝置之製造方法及電子機器
WO2024111280A1 (ja) 光検出装置および電子機器
WO2024202672A1 (ja) 光検出装置および電子機器
WO2024154666A1 (ja) 半導体装置
WO2024202748A1 (ja) 光検出装置および電子機器
WO2024214389A1 (ja) 光検出装置、電子機器及び半導体装置
JP7364826B1 (ja) 光検出装置および電子機器
WO2024154600A1 (ja) 半導体装置
WO2024181273A1 (ja) 光検出装置及び電子機器
WO2024202671A1 (ja) 光検出装置および電子機器
WO2024057814A1 (ja) 光検出装置および電子機器
WO2024162114A1 (ja) 光検出装置、光学素子、および電子機器
WO2024202617A1 (ja) 半導体装置、光検出装置及び半導体装置の製造方法
WO2024127853A1 (ja) 光検出装置及び電子機器
WO2024142627A1 (en) Photodetector and electronic apparatus
WO2024034411A1 (ja) 半導体装置およびその製造方法
WO2024116928A1 (ja) 半導体装置及び電子機器
WO2024162113A1 (ja) 光検出装置、光学素子、および電子機器
WO2024166741A1 (ja) 光検出装置および電子機器
WO2023176430A1 (ja) 光検出装置
WO2024202616A1 (ja) 光検出装置、光検出装置の製造方法及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23894292

Country of ref document: EP

Kind code of ref document: A1