WO2019093150A1 - 撮像素子、電子機器 - Google Patents

撮像素子、電子機器 Download PDF

Info

Publication number
WO2019093150A1
WO2019093150A1 PCT/JP2018/039813 JP2018039813W WO2019093150A1 WO 2019093150 A1 WO2019093150 A1 WO 2019093150A1 JP 2018039813 W JP2018039813 W JP 2018039813W WO 2019093150 A1 WO2019093150 A1 WO 2019093150A1
Authority
WO
WIPO (PCT)
Prior art keywords
film
pixel
fixed charge
unit
imaging device
Prior art date
Application number
PCT/JP2018/039813
Other languages
English (en)
French (fr)
Inventor
克規 平松
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2019552714A priority Critical patent/JPWO2019093150A1/ja
Priority to US16/758,547 priority patent/US11798968B2/en
Priority to EP18875397.4A priority patent/EP3709357A4/en
Priority to CN201880066968.0A priority patent/CN111226318A/zh
Publication of WO2019093150A1 publication Critical patent/WO2019093150A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/70Manufacture or treatment of devices consisting of a plurality of solid state components formed in or on a common substrate or of parts thereof; Manufacture of integrated circuit devices or of parts thereof
    • H01L21/71Manufacture of specific parts of devices defined in group H01L21/70
    • H01L21/76Making of isolation regions between components
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding

Definitions

  • the present technology relates to an imaging device and an electronic device, for example, to an imaging device and an electronic device capable of suppressing a dark current.
  • CMOS image sensor provided in a solid-state imaging device includes elements such as a photodiode and a transistor for each pixel. Also, as a CMOS image sensor, there is a configuration provided with DTI (Deep Trench Isolation) for electrically separating adjacent pixels between each pixel, and a configuration provided with a subcontact for grounding static electricity charged in the pixels to the outside of the pixels. It is proposed (refer patent document 1).
  • DTI Deep Trench Isolation
  • the solid-state imaging device in Patent Document 2 is configured to include a photodiode, a pixel separation portion, a conductive member, and an insulating film that covers a circumferential surface except a part of the other surface of the conductive member. The end is connected to the ground.
  • the present technology has been made in view of such a situation, and makes it possible to suppress dark current.
  • the imaging device includes a photoelectric conversion unit that performs photoelectric conversion, a trench that is dug into a semiconductor substrate, and a negative electrode that is formed of an oxide film, a nitrogen film, and an oxide film on the sidewall of the trench.
  • a fixed charge film and an electrode film formed in the fixed charge film are provided.
  • the electronic device includes the imaging device.
  • a photoelectric conversion unit that performs photoelectric conversion, a trench that is dug into a semiconductor substrate, and a negative electrode that is formed of an oxide film, a nitrogen film, and an oxide film on sidewalls of the trench.
  • a fixed charge film and an electrode film formed in the fixed charge film are provided.
  • the imaging device is mounted.
  • dark current can be suppressed.
  • FIG. 1 is a diagram showing an outline of a configuration example of a stacked solid-state imaging device to which the technology according to the present disclosure can be applied.
  • FIG. 21 is a cross-sectional view showing a first configuration example of a stack-type solid-state imaging device 23020.
  • FIG. 19 is a cross-sectional view showing a second configuration example of a stack-type solid-state imaging device 23020.
  • FIG. 31 is a cross-sectional view showing a third configuration example of a stack-type solid-state imaging device 23020.
  • FIG. 18 is a cross-sectional view showing another configuration example of a stacked solid-state imaging device to which the technology according to the present disclosure can be applied. It is a block diagram showing an example of rough composition of an internal information acquisition system. It is a block diagram showing an example of rough composition of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • the present technology can be applied to an imaging device, the case where the present technology is applied to an imaging device will be described as an example here.
  • the imaging device is taken as an example and the description is continued, the present technology is not limited to application to the imaging device, and the imaging function of a digital still camera or a video camera etc.
  • the present invention is applicable to general electronic devices that use an imaging device as an image capturing unit (photoelectric conversion unit), such as a portable terminal device having an imaging device, and an imaging device as an image reading unit.
  • an imaging device as an image capturing unit (photoelectric conversion unit)
  • a portable terminal device having an imaging device such as a portable terminal device having an imaging device
  • an imaging device as an image reading unit.
  • a module form mounted on an electronic device that is, a camera module is used as an imaging device.
  • FIG. 1 is a block diagram showing a configuration example of an imaging device which is an example of the electronic device of the present disclosure.
  • the imaging device 10 includes an optical system including a lens group 11 and the like, an imaging element 12, a DSP circuit 13 which is a camera signal processing unit, a frame memory 14, a display unit 15, a recording unit 16 and an operation system 17. And a power supply system 18 and the like.
  • the DSP circuit 13, the frame memory 14, the display unit 15, the recording unit 16, the operation system 17, and the power supply system 18 are mutually connected via a bus line 19.
  • the CPU 20 controls each unit in the imaging device 10.
  • the lens group 11 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging device 12.
  • the imaging element 12 converts the light amount of incident light focused on the imaging surface by the lens group 11 into an electrical signal in pixel units and outputs the electrical signal as a pixel signal.
  • an image sensor image sensor including pixels described below can be used.
  • the display unit 15 includes a panel type display unit such as a liquid crystal display unit or an organic EL (electro luminescence) display unit, and displays a moving image or a still image captured by the imaging device 12.
  • the recording unit 16 records a moving image or a still image captured by the imaging device 12 on a recording medium such as a video tape or a DVD (Digital Versatile Disk).
  • the operation system 17 issues operation commands for various functions possessed by the imaging device under the operation of the user.
  • the power supply system 18 appropriately supplies various power supplies serving as operation power supplies of the DSP circuit 13, the frame memory 14, the display unit 15, the recording unit 16, and the operation system 17 to these supply targets.
  • FIG. 2 is a block diagram showing a configuration example of the imaging device 12.
  • the imaging device 12 can be a complementary metal oxide semiconductor (CMOS) image sensor.
  • CMOS complementary metal oxide semiconductor
  • the imaging element 12 includes a pixel array unit 41, a vertical drive unit 42, a column processing unit 43, a horizontal drive unit 44, and a system control unit 45.
  • the pixel array unit 41, the vertical drive unit 42, the column processing unit 43, the horizontal drive unit 44, and the system control unit 45 are formed on a semiconductor substrate (chip) not shown.
  • unit pixels for example, pixels 110 in FIG. 3 having photoelectric conversion elements that generate photocharges of charge amounts corresponding to the amount of incident light and store the photocharges inside are two-dimensionally arranged in a matrix There is.
  • the photocharge of the charge amount according to the incident light amount may be simply described as “charge”
  • the unit pixel may be simply described as “pixel”.
  • pixel drive lines 46 are formed along the horizontal direction of the figure (the arrangement direction of the pixels in the pixel row) for each row with respect to the matrix pixel array, and vertical signal lines 47 for each column. Are formed along the vertical direction of the figure (the arrangement direction of the pixels of the pixel row).
  • One end of the pixel drive line 46 is connected to an output end corresponding to each row of the vertical drive unit 42.
  • the imaging device 12 further includes a signal processing unit 48 and a data storage unit 49.
  • the signal processing unit 48 and the data storage unit 49 may be an external signal processing unit provided on a substrate different from the imaging device 12, for example, processing by a DSP (Digital Signal Processor) or software, or on the same substrate as the imaging device 12. It may be mounted on
  • the vertical driving unit 42 is a pixel driving unit that is configured by a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 41 simultaneously in all pixels or in units of rows.
  • the vertical drive unit 42 is not shown in the drawings for its specific configuration, it has a read scan system, a sweep scan system or batch sweep, and batch transfer.
  • the reading scanning system sequentially selects and scans the unit pixels of the pixel array unit 41 row by row.
  • row driving with regard to sweeping
  • sweeping scanning is performed with respect to a reading row on which reading scanning is performed by the reading scanning system prior to the reading scanning by the time of the shutter speed.
  • global exposure global shutter operation
  • batch sweep-out is performed prior to batch transfer by the time of the shutter speed.
  • the electronic shutter operation is an operation of discarding the photocharge of the photoelectric conversion element and newly starting exposure (starting accumulation of photocharge).
  • the signal read out by the readout operation by the readout scanning system corresponds to the amount of light incident after the previous readout operation or the electronic shutter operation.
  • a period from the reading timing of the immediately preceding reading operation or the sweeping timing of the electronic shutter operation to the reading timing of the current reading operation is the photocharge accumulation period (exposure period) in the unit pixel.
  • the period from batch sweep to batch transfer is the accumulation period (exposure period).
  • a pixel signal output from each unit pixel of the pixel row selectively scanned by the vertical drive unit 42 is supplied to the column processing unit 43 through each of the vertical signal lines 47.
  • the column processing unit 43 performs predetermined signal processing on pixel signals output from the unit pixels of the selected row through the vertical signal line 47 for each pixel column of the pixel array unit 41 and also performs pixel signals after signal processing. Hold temporarily.
  • the column processing unit 43 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • the column processing unit 43 may be provided with an AD (analog-digital) conversion function to output a signal level as a digital signal.
  • the horizontal drive unit 44 is configured by a shift register, an address decoder, and the like, and selects the unit circuits corresponding to the pixel rows of the column processing unit 43 in order.
  • the pixel signals subjected to the signal processing in the column processing unit 43 are sequentially output to the signal processing unit 48 by the selective scanning by the horizontal driving unit 44.
  • the system control unit 45 is configured by a timing generator or the like that generates various timing signals, and the vertical drive unit 42, the column processing unit 43, the horizontal drive unit 44, and the like based on various timing signals generated by the timing generator. Drive control is performed.
  • the signal processing unit 48 has at least an addition processing function, and performs various signal processing such as addition processing on the pixel signal output from the column processing unit 43.
  • the data storage unit 49 temporarily stores data necessary for the signal processing in the signal processing unit 48.
  • FIG. 3 is a cross-sectional view showing a configuration example of a solid-state imaging device to which the technology according to the present disclosure can be applied.
  • a PD (photodiode) 119 constituting the pixel 110 receives incident light 101 incident from the back surface (upper surface in the drawing) side of the semiconductor substrate 118.
  • a planarizing film 113, a CF (color filter) 112, and a micro lens 111 are provided above the PD 119, and the light receiving surface 117 of the PD 119 receives the incident light 101, which sequentially enters through the respective parts. Photoelectric conversion is performed.
  • the n-type semiconductor region 120 is formed as a charge storage region for storing charges (electrons).
  • the n-type semiconductor region 120 is provided inside the p-type semiconductor regions 116 and 141 of the semiconductor substrate 118.
  • a p-type semiconductor region 141 having an impurity concentration higher than that of the back surface (upper surface) is provided. That is, the PD 119 has a hole-accumulation diode (HAD) structure, and the p-type semiconductor is controlled to suppress generation of dark current at each interface between the upper surface side and the lower surface side of the n-type semiconductor region 120. Regions 116 and 141 are formed.
  • a pixel separating portion 130 for electrically separating the plurality of pixels 110 is provided, and in the region partitioned by the pixel separating portion 130, the PD 119 is provided.
  • the pixel separation unit 130 is formed in a lattice shape so as to be interposed between the plurality of pixels 110, for example. It is formed in the area divided by.
  • each PD 119 the anode is grounded, and in the solid-state imaging device, the signal charge (for example, electrons) stored in the PD 119 is read out via a transfer Tr (MOS FET) or the like (not shown) and is used as an electrical signal. It is output to VSL (vertical signal line) not shown.
  • MOS FET MOS FET
  • the wiring layer 150 is provided on the surface (lower surface) of the semiconductor substrate 118 opposite to the back surface (upper surface) on which the light shielding film 114, the CF 112, the microlens 111, and the like are provided.
  • the wiring layer 150 includes the wiring 151 and the insulating layer 152, and the wiring 151 is formed in the insulating layer 152 so as to be electrically connected to each element.
  • the wiring layer 150 is a layer of so-called multilayer wiring, and is formed by alternately laminating an interlayer insulating film forming the insulating layer 152 and the wiring 151 a plurality of times.
  • a wiring to Tr for reading charge from the PD 119 such as a transfer Tr or a wiring such as VSL is stacked via the insulating layer 152.
  • a support substrate 161 is provided on the surface of the wiring layer 150 opposite to the side on which the PD 119 is provided.
  • a substrate made of a silicon semiconductor with a thickness of several hundred ⁇ m is provided as the support substrate 161.
  • the light shielding film 114 is provided on the side of the back surface (upper surface in the drawing) of the semiconductor substrate 118.
  • the light shielding film 114 is configured to shield a part of the incident light 101 traveling from the upper side of the semiconductor substrate 118 to the lower side of the semiconductor substrate 118.
  • the light shielding film 114 is provided above the pixel separating portion 130 provided inside the semiconductor substrate 118.
  • the light shielding film 114 is provided on the back surface (upper surface) of the semiconductor substrate 118 so as to protrude in a convex shape via the insulating film 115 such as a silicon oxide film.
  • the light shielding film 114 is not provided but opened so that the incident light 101 is incident on the PD 119.
  • the planar shape of the light shielding film 114 is a lattice, and an opening through which the incident light 101 passes to the light receiving surface 117 is formed.
  • the light shielding film 114 is formed of a light shielding material that shields light.
  • the light shielding film 114 is formed by sequentially laminating a titanium (Ti) film and a tungsten (W) film.
  • the light shielding film 114 can be formed, for example, by sequentially laminating a titanium nitride (TiN) film and a tungsten (W) film.
  • the light shielding film 114 may be covered with a nitride (N) or the like.
  • the light shielding film 114 is covered with a planarization film 113.
  • the planarization film 113 is formed using an insulating material that transmits light.
  • the pixel separating unit 130 has a trench 131, a fixed charge film 132, and an electrode film 133.
  • the fixed charge film 132 is formed on the side of the back surface (upper surface) of the semiconductor substrate 118 so as to cover the trench 131 which divides the plurality of pixels 110.
  • the fixed charge film 132 has a three-layer structure, and the inner surface of the trench 131 formed on the surface (lower surface) side in the semiconductor substrate 118 has a constant thickness. It is provided to cover. Then, the electrode film 133 is provided (filled) so as to fill the inside of the trench 131 covered with the fixed charge film 132.
  • the fixed charge film 132 is made of a high dielectric material having a negative fixed charge so that a positive charge (hole) storage region is formed at the interface with the semiconductor substrate 118 and generation of dark current is suppressed. It is formed. Since the fixed charge film 132 is formed to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 118 by the negative fixed charge, and a positive charge (hole) storage region is formed.
  • FIG. 4 is a plan view of the 3 ⁇ 3 nine pixels 110 arranged in the pixel array unit 41 (FIG. 2) viewed from the front side (the upper side in FIG. 3 in FIG. 3). It is a circuit diagram for demonstrating the connection relation of each transistor shown in FIG.
  • FIG. 4 One square in FIG. 4 represents one pixel 110. As shown in FIG. 4, the trench 131 is formed to surround the pixel 110 (PD 119 included in the pixel 110). In addition, on the surface side of the pixel 110, a transfer transistor (gate) 190, an FD (floating diffusion) 191, a reset transistor 192, an amplification transistor 193, and a selection transistor 194 are formed.
  • the PD 119 generates and accumulates a charge (signal charge) according to the received light amount.
  • the PD 119 has an anode terminal grounded and a cathode terminal connected to the FD 191 via the transfer transistor 190.
  • the transfer transistor 190 reads the charge generated by the PD 190 and transfers it to the FD 191 when it is turned on by the transfer signal TR.
  • the FD 191 holds the charge read from the PD 190.
  • the reset transistor 192 is turned on by the reset signal RST, the charge stored in the FD 191 is discharged to the drain (constant voltage source Vdd), thereby resetting the potential of the FD 191.
  • the amplification transistor 193 outputs a pixel signal according to the potential of the FD 191. That is, amplification transistor 193 forms a load follower (not shown) as a constant current source connected via vertical signal line 33 and a source follower circuit, and shows a level according to the charge stored in FD 191
  • the pixel signal is output from the amplification transistor 193 to the column processing unit 43 (FIG. 2) via the selection transistor 194 and the vertical signal line 47.
  • the selection transistor 194 is turned on when the pixel 31 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 31 to the column processing unit 43 via the vertical signal line 33.
  • Each signal line to which the transfer signal TR, the selection signal SEL, and the reset signal RST are transmitted corresponds to the pixel drive line 46 in FIG.
  • the pixel 110 can be configured as described above, but is not limited to this configuration, and other configurations can also be adopted.
  • FIG. 6 is a diagram showing a detailed configuration of the fixed charge film 132. As shown in FIG. 6
  • the fixed charge film 132 is provided to cover the inner surface of the trench 131 formed on the surface (lower surface in the drawing) side of the semiconductor substrate 118 with a certain thickness. Then, the electrode film 133 is provided (filled) so as to fill the inside of the trench 131 covered with the fixed charge film 132.
  • the fixed charge film 132 is formed in the pixel separating portion 130, and is formed in a three-layer structure. Three layers constituting the fixed charge film 132 are a SiO (silicon monoxide) film 201, a SiN (silicon nitride) film 202, and an SiO film 203. As described above, the fixed charge film 132 is configured such that the SiN film is sandwiched between the SiO films.
  • the fixed charge film 132 has a configuration similar to that of a charge storage film formed of an ONO film (oxide film-nitrogen film-storage film of oxide film).
  • the fixed charge film 132 can function as a charge storage film, and the electrode film 133 is formed on the inner side of the fixed charge film 132, and a voltage is applied to the electrode film 133, whereby the fixed charge film is formed. 132 functions as a negative fixed charge film.
  • the contact 171 is connected to the electrode film 133, and the contact 171 is connected to the wiring 151 in the wiring layer 150.
  • the wiring 151 is connected to a power supply, and a predetermined voltage is applied at a predetermined timing.
  • the number of times the voltage is applied to the fixed charge film 132 may be one, for example, it may be applied once when the pixel 110 is manufactured.
  • a voltage may be applied to the fixed charge film 132 at a timing when the power of the imaging device including the pixel 110 is turned on. In such a configuration, a voltage may be applied to the fixed charge film 132 each time the power of the imaging device is turned on.
  • the fixed charge film 132 Once a voltage is applied to the fixed charge film 132 even once, it functions as a charge film having a negative fixed charge, and the negative fixed charge causes an electric field to be applied to the interface with the semiconductor substrate 118, Hole) An accumulation region is formed, and generation of dark current can be suppressed.
  • the fixed charge film 132 can function as the negative fixed charge film 132 by applying a voltage at least once, the negative fixed charge film 132 is generated without consuming power. Can.
  • the SiO film 201, the SiN film 202, and the SiO film 203 constituting the fixed charge film 132 may be formed to have the same film thickness, or may be formed to have different film thicknesses. Further, the film thicknesses of the SiO film 201 and the SiO film 203 may be the same film thickness, and the film thickness of the SiO film 201 on the PD 119 side is smaller than that of the SiO film 203 inside the fixed charge film 132. It may be formed with a thin film thickness.
  • the fixed charge film 132 may be formed up to a position where the upper part is in contact with the insulating film 115 as shown in FIG. 3 or as shown in FIG. 7 up to a position not in contact with the insulating film 115 Also good.
  • the p-type semiconductor region 116 exists between the upper portion of the fixed charge film 132 and the insulating film 115, and the upper portion of the fixed charge film 132 is not in contact with the insulating film 115 It is considered to be a structure.
  • the trench 131 may be formed without penetrating the semiconductor substrate 118. Also in this case, by forming the fixed charge film 132 in the trench 131, as in the case where the trench 131 shown in FIG. 3 is formed in a state of penetrating the semiconductor substrate 118, generation of dark current is suppressed. can do.
  • the contact 171 is formed on the surface side (the opposite side to the light incident side and the lower side in the drawing) is shown.
  • the contact 171 may be formed on the back surface side (the light incident side, which is the upper side in the drawing).
  • FIG. 8 shows the configuration of a pixel 110 '' in which the contact 171 '' is formed on the back side.
  • the contact 171 ′ ′ is formed on the back surface side (light incident side), one is connected to the electrode film 133, and the other is connected to the light shielding film 114.
  • the light shielding film 114 is formed of a material that shields light, and can be formed of an electrical conductor such as metal. By forming the light shielding film 114 of an electrical conductor and applying a predetermined voltage to the light shielding film 114, a voltage is applied to the electrode film 133 connected to the light shielding film 114 via the contact 171 ′ ′. Can be applied.
  • the contact 171 may be connected to the wiring 151 in the wiring layer 150 or may be connected to the light shielding film 114.
  • the contacts 171 can be formed at the positions and the number as shown in FIG. 9 or FIG. FIG. 9 shows the case where the contact 171 is disposed for each pixel 110, and FIG. 10 shows the configuration shared by the plurality of pixels 110.
  • FIG. FIGS. 9 and 10 are plan views of the pixel 110 shown in FIG. 3 as viewed from the back side (lower side), for example.
  • FIG. 9 shows four 2 ⁇ 2 pixels 110 arranged in an array in the pixel array unit 41 (FIG. 2).
  • One pixel 110 (PD 119) is surrounded by a trench 131. Since the fixed charge film 132 is formed in the trench 131, one PD 119 is configured to be surrounded by the fixed charge film 132.
  • the contacts 171 are formed at the four corners of one pixel 110, respectively.
  • the contacts 171 respectively formed at the four corners of the pixel 110 are connected to the wiring 151 (FIG. 3), and the wiring 151 is connected to the power supply voltage.
  • an electrode film 133 is formed in the trench 131. Further, referring to the plan view of the pixel 110 shown in FIG. 9, the electrode film 133 is formed so as to surround the pixel 110, and the electrode film 133 formed around each pixel 110 is adjacent It is formed continuously with the electrode film 133 formed around the pixel 110. That is, the electrode film 133 formed in the pixel array unit 41 is continuously and continuously formed.
  • the contact 171 may be formed for each pixel 110, but as shown in FIG. 10, the contact 171 may be formed for each of the plurality of pixels 110.
  • one contact 171 is shared by a plurality of pixels 110 arranged in the row direction. Further, the contact 171 is provided at the end of the pixel array unit 41.
  • FIG. 10 shows a configuration in which one contact 171 is shared by a plurality of pixels 110 arranged in the row direction, as described above, the electrode film 133 formed in the pixel array portion 41 is continuous Since all the pixels 110 of the pixel array unit 41 share one contact 171, it is possible to form a single contact 171.
  • three contacts 171 are shown in FIG. 10, for example, only the contacts 171 shown at the top may be formed.
  • each pixel 110 is surrounded by the trench 131 (the fixed charge film 132 and the electrode film 133 formed in the trench 131), but as shown in FIG.
  • the pixel 110 may not be completely surrounded by the trench 131, but may be partially surrounded.
  • the trench 131 is formed so as to completely surround the pixel 110, in other words, the pixel separating portion 130 completely surrounds the pixel 110.
  • the pixel 110 shown in FIG. 11 has a structure that is not complete pixel separation.
  • one contact 171 is connected to three continuously formed sides. In the example shown in FIG. 11, one contact 171 is shared by a plurality of pixels 110 arranged in the row direction.
  • all the pixel separating sections 130 (electrode films 133) in the pixel array section 41 may be formed in a connected state, or the example shown in FIG. As in the above, all the electrode films 133 in the pixel array unit 41 may not be in a connected state, and may be formed in a shape in which a part is cut. Further, the number of the contacts 171 and the positions to be formed may be such that the electrode film 133 is formed continuously or discontinuously, or the same voltage is applied to all the pixels, or separately (predetermined It may be set appropriately by, for example, applying different voltages to the number).
  • step S101 a front end of line (FEOL) step is performed.
  • a front end of line (FEOL) step is performed.
  • an element of a transistor for example, a transfer transistor 190 (FIG. 4) or the like
  • the PD 119 or the like is also formed in the semiconductor substrate 118.
  • a trench 131 is also formed. The trench 131 can be formed by lithography and dry etching.
  • step S102 the fixed charge film 132 is formed, and the electrode film 133 is formed.
  • the fixed charge film 132 is formed of the SiO film 201, the SiN film 202, and the SiO film 203, and the film is formed in this order, and then the electrode film 133 is formed (the electrode film 133 is formed). Materials are filled).
  • the MONOS structure is a Metal Oxide Nitride Oxide Silicon structure, in which three layers (corresponding to the fixed charge film 132 in this case) of oxide film / nitride film / oxide film are formed on a silicon substrate, and An electrode (a metal, which corresponds to the electrode film 133 in this case) is disposed.
  • the electrode film 133 As a material for forming the electrode film 133, a metal such as tungsten (W) or polysilicon can be used. Further, although the fixed charge film 132 is described here as the SiO film 201, the SiN film 202, and the SiO film 203, the ONO film may be formed by a combination of materials other than SiO and SiN. good.
  • the SiN film 202 (nitride film) may be a polysilicon (Poly-Si) film or a High-k film (high dielectric constant film) instead of SiN.
  • the SiN film 202 is a high-k film
  • an oxide of hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, a lanthanoid element or the like can be used as a material of the high-k film.
  • step S103 a BEOL (Back End Of Line) step is performed.
  • the wiring 151 in the wiring layer 150 of the pixel 110 is formed by the BEOL process.
  • a contact 171 connected to the electrode film 133 is formed, connected to the wiring 151, and a structure to which a voltage can be applied is formed.
  • a voltage may be applied to the fixed charge film 132 to generate a negative fixed charge film, and in the subsequent steps, the voltage may be reduced. It may be applied.
  • step S104 a color filter (CF) 112, an OCL 111, and the like are formed.
  • the fixed charge film 132 is formed, and the pixel 110 having the fixed charge film 132 is manufactured.
  • Such a process is an example, and the order of the processes may be changed, or film formation may be performed by another method.
  • the fixed charge film 132 is formed of three layers, and when forming the fixed charge film 132, heat treatment, in particular, treatment at a high temperature is not required.
  • the fixed charge film 132 can be formed after forming such a wiring. Therefore, the pixel 110 having the fixed charge film 132 can be manufactured without increasing the number of steps. In addition, it is possible to prevent the step accumulation from decreasing.
  • the fixed charge film 132 can be formed of an ONO film, and can be configured to trap electrons in the charge storage layer of the ONO film. Therefore, generation of dark current can be suppressed.
  • the fixed charge film 132 to which the present technology is applied may be provided to a pixel of vertical spectroscopy or an avalanche photodiode, and the application range is not limited to the pixel 110 described above.
  • the pixel 110 to which the present technology is applied can also be applied to a pixel configured by stacking a plurality of substrates as follows, for example.
  • FIG. 13 is a diagram showing an outline of a configuration example of a stacked solid-state imaging device to which the technology according to the present disclosure can be applied.
  • a of FIG. 13 illustrates a schematic configuration example of a non-stacked solid-state imaging device.
  • the solid-state imaging device 23010 has one die (semiconductor substrate) 23011 as shown in A of FIG. On the die 23011 are mounted a pixel region 23012 in which pixels are arranged in an array, a control circuit 23013 for performing various controls such as driving of the pixels, and a logic circuit 23014 for signal processing.
  • B and C of FIG. 13 show schematic configuration examples of the stacked solid-state imaging device. As shown in B and C of FIG. 13, in the solid-state imaging device 23020, two dies of a sensor die 23021 and a logic die 23024 are stacked and electrically connected to be configured as one semiconductor chip.
  • the pixel region 23012 and the control circuit 23013 are mounted on the sensor die 23021, and the logic circuit 23014 including a signal processing circuit that performs signal processing is mounted on the logic die 23024.
  • the pixel region 23012 is mounted on the sensor die 23021, and the control circuit 23013 and the logic circuit 23014 are mounted on the logic die 23024.
  • FIG. 14 is a cross-sectional view showing a first configuration example of the stacked solid-state imaging device 23020. As shown in FIG.
  • PD photodiode
  • FD floating diffusion
  • Tr MOS FET
  • Tr to be a control circuit 23013 and the like are formed.
  • the control circuit 23013 (Tr) can be configured not in the sensor die 23021 but in the logic die 23024.
  • a Tr that constitutes the logic circuit 23014 is formed. Further, in the logic die 23024, a wiring layer 23161 having a plurality of wirings 23170 in a plurality of layers, in this example, three layers, is formed. Further, in the logic die 23024, a connection hole 23171 in which an insulating film 23172 is formed on the inner wall surface is formed, and in the connection hole 23171, a connection conductor 23173 connected to the wiring 23170 or the like is embedded.
  • the sensor die 23021 and the logic die 23024 are pasted together so that the wiring layers 23101 and 23161 face each other, thereby forming a stacked solid-state imaging device 23020 in which the sensor die 23021 and the logic die 23024 are stacked.
  • a film 23191 such as a protective film is formed on the surface to which the sensor die 23021 and the logic die 23024 are bonded.
  • the sensor die 23021 is formed with a connection hole 23111 that penetrates the sensor die 23021 from the back surface side (the side on which light is incident on the PD) (upper side) of the sensor die 23021 and reaches the wiring 23170 of the uppermost layer of the logic die 23024. Further, in the sensor die 23021, a connection hole 23121 is formed in the vicinity of the connection hole 23111 to reach the first layer wiring 23110 from the back surface side of the sensor die 23021. An insulating film 23112 is formed on the inner wall surface of the connection hole 23111, and an insulating film 23122 is formed on the inner wall surface of the connection hole 23121. Then, connection conductors 23113 and 23123 are embedded in the connection holes 23111 and 23121, respectively.
  • connection conductor 23113 and the connection conductor 23123 are electrically connected on the back surface side of the sensor die 23021, whereby the sensor die 23021 and the logic die 23024 are connected to the wiring layer 23101, the connection hole 23121, the connection hole 23111, and the wiring layer. It is electrically connected through 23161.
  • FIG. 15 is a cross-sectional view showing a second configuration example of the stacked solid-state imaging device 23020. As shown in FIG.
  • the sensor die 23021 (wiring layer 23101 (wiring 23110)) and the logic die 23024 (wiring layer 23161 (wiring) in one connection hole 23211 formed in the sensor die 23021 23170)) are electrically connected.
  • connection holes 23211 are formed so as to penetrate the sensor die 23021 from the back surface side of the sensor die 23021 to reach the wire 23170 of the uppermost layer of the logic die 23024 and reach the wire 23110 of the uppermost layer of the sensor die 23021 Be done.
  • An insulating film 23212 is formed on the inner wall surface of the connection hole 23211, and a connection conductor 23213 is embedded in the connection hole 23211.
  • the sensor die 23021 and the logic die 23024 are electrically connected by two connection holes 23111 and 23121. However, in FIG. 15, the sensor die 23021 and the logic die 23024 are connected by one connection hole 23211. Electrically connected.
  • FIG. 16 is a cross-sectional view showing a third configuration example of the stacked solid-state imaging device 23020. As shown in FIG.
  • the solid-state imaging device 23020 of FIG. 16 has a surface on which the sensor die 23021 and the logic die 23024 are bonded, in that a film 23191 such as a protective film is not formed on the surface to which the sensor die 23021 and the logic die 23024 are bonded. This is different from the case of FIG. 14 in which a film 23191 such as a protective film is formed.
  • the sensor die 23021 and the logic die 23024 are superimposed on each other so that the wires 23110 and 23170 are in direct contact, heating is performed while applying a predetermined weight, and the wires 23110 and 23170 are directly bonded.
  • FIG. 17 is a cross-sectional view showing another configuration example of a stacked solid-state imaging device to which the technology according to the present disclosure can be applied.
  • the solid-state imaging device 23401 has a three-layer stacked structure in which three dies of a sensor die 23411, a logic die 23412, and a memory die 23413 are stacked.
  • the memory die 23413 has, for example, a memory circuit that stores data temporarily necessary for signal processing performed in the logic die 23412.
  • the logic die 23412 and the memory die 23413 are stacked in that order under the sensor die 23411, but the logic die 23412 and the memory die 23413 are in the reverse order, ie, the memory die 23413 and the logic die 23412 in that order. It can be stacked under 23411.
  • PDs serving as photoelectric conversion parts of pixels and source / drain regions of the pixel Tr are formed.
  • a gate electrode is formed around the PD via a gate insulating film, and a pixel Tr23421 and a pixel Tr23422 are formed by the source / drain region paired with the gate electrode.
  • the pixel Tr23421 adjacent to the PD is a transfer Tr, and one of the pair of source / drain regions constituting the pixel Tr23421 is an FD.
  • connection holes are formed in the interlayer insulating film.
  • a connection conductor 23431 which is connected to the pixel Tr 23421 and the pixel Tr 23422 is formed.
  • a wiring layer 23433 having a plurality of layers of wiring 23432 connected to the connection conductors 23431 is formed.
  • an aluminum pad 23434 serving as an electrode for external connection is formed in the lowermost layer of the wiring layer 23433 of the sensor die 23411. That is, in the sensor die 23411, the aluminum pad 23434 is formed at a position closer to the bonding surface 23440 with the logic die 23412 than the wiring 23432.
  • the aluminum pad 23434 is used as one end of a wire related to input / output of signals with the outside.
  • the sensor die 23411 is formed with contacts 23441 used for electrical connection with the logic die 23412.
  • the contact 23441 is connected to the contact 23451 of the logic die 23412 and also connected to the aluminum pad 23442 of the sensor die 23411.
  • a pad hole 23443 is formed in the sensor die 23411 so as to reach the aluminum pad 23442 from the back surface side (upper side) of the sensor die 23411.
  • the technology according to the present disclosure can be applied to the solid-state imaging device as described above.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 18 is a block diagram showing an example of a schematic configuration of an in-vivo information acquiring system for a patient using a capsule endoscope to which the technology (the present technology) according to the present disclosure can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach and intestine by peristaltic movement and the like while being naturally discharged from the patient, Images (hereinafter, also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information on the in-vivo images is sequentially wirelessly transmitted to the external control device 10200 outside the body.
  • the external control device 10200 centrally controls the operation of the in-vivo information acquisition system 10001. Further, the external control device 10200 receives the information on the in-vivo image transmitted from the capsule endoscope 10100, and based on the information on the received in-vivo image, the in-vivo image is displayed on the display device (not shown). Generate image data to display the
  • the in-vivo information acquisition system 10001 can obtain an in-vivo image obtained by imaging the appearance of the inside of the patient's body at any time during the period from when the capsule endoscope 10100 is swallowed until it is discharged.
  • the capsule endoscope 10100 has a capsule type casing 10101, and in the casing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power feeding unit 10115, a power supply unit 10116 and a control unit 10117 are accommodated.
  • the light source unit 10111 includes, for example, a light source such as an LED (Light Emitting Diode), and emits light to the imaging field of the imaging unit 10112.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the imaging unit 10112 includes an imaging device and an optical system including a plurality of lenses provided in front of the imaging device. Reflected light of light irradiated to the body tissue to be observed (hereinafter referred to as observation light) is collected by the optical system and is incident on the imaging device. In the imaging unit 10112, in the imaging device, observation light incident thereon is photoelectrically converted, and an image signal corresponding to the observation light is generated. The image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 supplies the image signal subjected to the signal processing to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal subjected to the signal processing by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Also, the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A. The wireless communication unit 10114 supplies the control signal received from the external control device 10200 to the control unit 10117.
  • the feeding unit 10115 includes an antenna coil for receiving power, a power regeneration circuit that regenerates power from the current generated in the antenna coil, a booster circuit, and the like.
  • the power supply unit 10115 generates power using the principle of so-called contactless charging.
  • the power supply unit 10116 is formed of a secondary battery, and stores the power generated by the power supply unit 10115.
  • illustration of the arrow etc. which show the supply destination of the electric power from the power supply part 10116 is abbreviate
  • the electric power electrically stored by the power supply part 10116 is a light source part 10111.
  • the image processing unit 10113, the wireless communication unit 10114, and the control unit 10117 and can be used to drive them.
  • the control unit 10117 is configured of a processor such as a CPU, and is a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115. Control as appropriate.
  • the external control device 10200 is configured of a processor such as a CPU or a GPU, or a microcomputer or control board or the like in which memory elements such as a processor and a memory are mixed.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • the control condition from the external control device 10200 may change the irradiation condition of light to the observation target in the light source unit 10111.
  • an imaging condition for example, a frame rate in the imaging unit 10112, an exposure value, and the like
  • the contents of processing in the image processing unit 10113 and conditions (for example, transmission interval, number of transmission images, etc.) under which the wireless communication unit 10114 transmits an image signal may be changed by a control signal from the external control device 10200. .
  • the external control device 10200 performs various types of image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaicing processing), high image quality processing (band emphasis processing, super-resolution processing, NR (noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various signal processing such as electronic zoom processing can be performed.
  • the external control device 10200 controls driving of the display device to display the in-vivo image captured based on the generated image data.
  • the external control device 10200 may cause the generated image data to be recorded on a recording device (not shown) or cause the printing device (not shown) to print out.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile object such as a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot May be
  • FIG. 19 is a block diagram showing a schematic configuration example of a vehicle control system which is an example of a moving object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an external information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the driveline control unit 12010 controls the operation of devices related to the driveline of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • Body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device of various lamps such as a headlamp, a back lamp, a brake lamp, a blinker or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device substituting a key.
  • Body system control unit 12020 receives the input of these radio waves or signals, and controls a door lock device, a power window device, a lamp and the like of the vehicle.
  • Outside vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the external information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing or distance detection processing of a person, a vehicle, an obstacle, a sign, characters on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • In-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects a state of a driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera for imaging the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver does not go to sleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information inside and outside the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040, and a drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040 so that the driver can Coordinated control can be performed for the purpose of automatic driving that travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the external information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits at least one of an audio and an image output signal to an output device capable of visually or aurally notifying information to a passenger or an outside of a vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as the output device.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 20 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose of the vehicle 12100, a side mirror, a rear bumper, a back door, and an upper portion of a windshield of a vehicle interior.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle cabin mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100. Images in the front acquired by the imaging units 12101 and 12105 are mainly used to detect a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 20 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by overlaying the image data captured by the imaging units 12101 to 12104, a bird's eye view of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for phase difference detection.
  • the microcomputer 12051 measures the distance to each three-dimensional object in the imaging ranges 12111 to 12114, and the temporal change of this distance (relative velocity with respect to the vehicle 12100). In particular, it is possible to extract a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in substantially the same direction as the vehicle 12100 as a leading vehicle, in particular by finding the it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. As described above, it is possible to perform coordinated control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data relating to three-dimensional objects into two-dimensional vehicles such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, telephone poles, and other three-dimensional objects. It can be classified, extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk is a setting value or more and there is a possibility of a collision, through the audio speaker 12061 or the display unit 12062 By outputting a warning to the driver or performing forcible deceleration or avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as an infrared camera, and pattern matching processing on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not
  • the procedure is to determine
  • the audio image output unit 12052 generates a square outline for highlighting the recognized pedestrian.
  • the display unit 12062 is controlled so as to display a superimposed image. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the example of the vehicle control system to which the technology according to the present disclosure can be applied has been described above.
  • the technology according to the present disclosure may be applied to the imaging unit 12031 and the like among the configurations described above.
  • the present technology can also be configured as follows.
  • a photoelectric conversion unit that performs photoelectric conversion A trench which is dug into a semiconductor substrate, On the side walls of the trench, an oxide film, a nitrogen film, and a negative fixed charge film composed of an oxide film, And an electrode film formed in the fixed charge film.
  • the nitrogen film constituting the fixed charge film is a polysilicon film or a High-k film (high dielectric constant film). The imaging device according to (1) or (2).
  • the nitrogen film constituting the fixed charge film is a film using any material of silicon nitride, hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium and lanthanoid elements.
  • the imaging element in any one of (3).
  • Wires connected to a power supply that applies a voltage The imaging element according to any one of (1) to (4), further including: a contact that connects the wiring and the electrode film.
  • the image pickup device according to any one of (1) to (4), further including a contact that connects the light shielding film and the electrode film.
  • the contact is shared by a plurality of pixels.
  • the image sensor is A photoelectric conversion unit that performs photoelectric conversion; A trench which is dug into a semiconductor substrate, On the side walls of the trench, an oxide film, a nitrogen film, and a negative fixed charge film composed of an oxide film, And an electrode film formed in the fixed charge film.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Element Separation (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本技術は、暗電流を抑制することができるようにする撮像素子、電子機器に関する。 光電変換を行う光電変換部と、半導体基板に掘り込まれているトレンチと、トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、固定電荷膜内に形成された電極膜とを備える。固定電荷膜を構成する酸化膜は、SiO(一酸化シリコン)であり、窒素膜は、SiN(シリコンナイトライド)である。固定電荷膜を構成する窒素膜は、ポリシリコン膜、またはHigh-k膜(高誘電率膜)とすることもできる。本技術は、例えば、裏面照射型CMOSイメージセンサに適用できる。

Description

撮像素子、電子機器
 本技術は撮像素子、電子機器に関し、例えば、暗電流を抑制することができる撮像素子、電子機器に関する。
 従来、固体撮像装置に設けられるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサは、フォトダイオードおよびトランジスタなどの素子を画素毎に備える。また、CMOSイメージセンサとして、各画素の間に隣接する画素を電気的に分離するDTI(Deep Trench Isolation)を備える構成や、画素に帯電した静電気を画素外部へアースするサブコンタクトとを備える構成が提案されている(特許文献1参照)。
 各画素に、DTIとサブコンタクトを設けると、各画素における素子形成面積が狭くなる。各画素における素子形成面積の拡大を図り、画素に帯電した静電気を画素の外部に排出する構成が提案されている(特許文献2参照)。
 特許文献2における固体撮像装置は、フォトダイオード、画素分離部、導電性部材、導電性部材の他方の面側の一部を除く周面を被覆する絶縁膜を含む構成とされ、導電性部材の端部がグランドに接続されている。
特開2014-96490号公報 特開2017-54890号公報
 イメージセンサにおいては、暗電流を抑制することも望まれている。
 本技術は、このような状況に鑑みてなされたものであり、暗電流を抑制することができるようにするものである。
 本技術の一側面の撮像素子は、光電変換を行う光電変換部と、半導体基板に掘り込まれているトレンチと、前記トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、前記固定電荷膜内に形成された電極膜とを備える。
 本技術の一側面の電子機器は、前記撮像素子を搭載している。
 本技術の一側面の撮像素子においては、光電変換を行う光電変換部と、半導体基板に掘り込まれているトレンチと、トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、固定電荷膜内に形成された電極膜とが備えられる。
 本技術の一側面の電子機器においては、前記撮像素子が搭載されている。
 本技術の一側面によれば、暗電流を抑制することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
撮像装置の構成例を示す図である。 撮像素子の構成例を示す図である。 本技術が適用された画素の構成例を示す垂直方向断面図である。 本技術が適用された画素の表面側の平面図である。 画素の回路図である。 固定電荷膜の構成について説明するための図である。 画素の他の構成例を示す垂直方向断面図である。 画素のさらに他の構成例を示す垂直方向断面図である。 コンタクトの配置について説明するための図である。 コンタクトの配置について説明するための図である。 コンタクトの配置について説明するための図である。 画素の製造について説明するための図である。 本開示に係る技術を適用し得る積層型の固体撮像装置の構成例の概要を示す図である。 積層型の固体撮像装置23020の第1の構成例を示す断面図である。 積層型の固体撮像装置23020の第2の構成例を示す断面図である。 積層型の固体撮像装置23020の第3の構成例を示す断面図である。 本開示に係る技術を適用し得る積層型の固体撮像装置の他の構成例を示す断面図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部および撮像部の設置位置の一例を示す説明図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。
 本技術は、撮像装置に適用できるため、ここでは、撮像装置に本技術を適用した場合を例に挙げて説明を行う。なおここでは、撮像装置を例に挙げて説明を続けるが、本技術は、撮像装置への適用に限られるものではなく、デジタルスチルカメラやビデオカメラ等の撮像装置、携帯電話機などの撮像機能を有する携帯端末装置、画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に撮像装置を用いる電子機器全般に対して適用可能である。なお、電子機器に搭載されるモジュール状の形態、即ちカメラモジュールを撮像装置とする場合もある。
 図1は、本開示の電子機器の一例である撮像装置の構成例を示すブロック図である。図1に示すように、撮像装置10は、レンズ群11等を含む光学系、撮像素子12、カメラ信号処理部であるDSP回路13、フレームメモリ14、表示部15、記録部16、操作系17、及び、電源系18等を有している。
 そして、DSP回路13、フレームメモリ14、表示部15、記録部16、操作系17、及び、電源系18がバスライン19を介して相互に接続された構成となっている。CPU20は、撮像装置10内の各部を制御する。
 レンズ群11は、被写体からの入射光(像光)を取り込んで撮像素子12の撮像面上に結像する。撮像素子12は、レンズ群11によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この撮像素子12として、以下に説明する画素を含む撮像素子(イメージセンサ)を用いることができる。
 表示部15は、液晶表示部や有機EL(electro luminescence)表示部等のパネル型表示部からなり、撮像素子12で撮像された動画または静止画を表示する。記録部16は、撮像素子12で撮像された動画または静止画を、ビデオテープやDVD(Digital Versatile Disk)等の記録媒体に記録する。
 操作系17は、ユーザによる操作の下に、本撮像装置が持つ様々な機能について操作指令を発する。電源系18は、DSP回路13、フレームメモリ14、表示部15、記録部16、及び、操作系17の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 <撮像素子の構成>
 図2は、撮像素子12の構成例を示すブロック図である。撮像素子12は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサとすることができる。
 撮像素子12は、画素アレイ部41、垂直駆動部42、カラム処理部43、水平駆動部44、およびシステム制御部45を含んで構成される。画素アレイ部41、垂直駆動部42、カラム処理部43、水平駆動部44、およびシステム制御部45は、図示しない半導体基板(チップ)上に形成されている。
 画素アレイ部41には、入射光量に応じた電荷量の光電荷を発生して内部に蓄積する光電変換素子を有する単位画素(例えば、図3の画素110)が行列状に2次元配置されている。なお、以下では、入射光量に応じた電荷量の光電荷を、単に「電荷」と記述し、単位画素を、単に「画素」と記述する場合もある。
 画素アレイ部41にはさらに、行列状の画素配列に対して行ごとに画素駆動線46が図の左右方向(画素行の画素の配列方向)に沿って形成され、列ごとに垂直信号線47が図の上下方向(画素列の画素の配列方向)に沿って形成されている。画素駆動線46の一端は、垂直駆動部42の各行に対応した出力端に接続されている。
 撮像素子12はさらに、信号処理部48およびデータ格納部49を備えている。信号処理部48およびデータ格納部49については、撮像素子12とは別の基板に設けられる外部信号処理部、例えばDSP(Digital Signal Processor)やソフトウェアによる処理でも良いし、撮像素子12と同じ基板上に搭載しても良い。
 垂直駆動部42は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部41の各画素を、全画素同時あるいは行単位等で駆動する画素駆動部である。この垂直駆動部42は、その具体的な構成については図示を省略するが、読み出し走査系と、掃き出し走査系あるいは、一括掃き出し、一括転送を有する構成となっている。
 読み出し走査系は、単位画素から信号を読み出すために、画素アレイ部41の単位画素を行単位で順に選択走査する。行駆動(ローリングシャッタ動作)の場合、掃き出しについては、読み出し走査系によって読み出し走査が行われる読み出し行に対して、その読み出し走査よりもシャッタスピードの時間分だけ先行して掃き出し走査が行なわれる。また、グローバル露光(グローバルシャッタ動作)の場合は、一括転送よりもシャッタスピードの時間分先行して一括掃き出しが行なわれる。
 この掃き出しにより、読み出し行の単位画素の光電変換素子から不要な電荷が掃き出される(リセットされる)。そして、不要電荷の掃き出し(リセット)により、いわゆる電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の光電荷を捨てて、新たに露光を開始する(光電荷の蓄積を開始する)動作のことを言う。
 読み出し走査系による読み出し動作によって読み出される信号は、その直前の読み出し動作または電子シャッタ動作以降に入射した光量に対応するものである。行駆動の場合は、直前の読み出し動作による読み出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読み出し動作による読み出しタイミングまでの期間が、単位画素における光電荷の蓄積期間(露光期間)となる。グローバル露光の場合は、一括掃き出しから一括転送までの期間が蓄積期間(露光期間)となる。
 垂直駆動部42によって選択走査された画素行の各単位画素から出力される画素信号は、垂直信号線47の各々を通してカラム処理部43に供給される。カラム処理部43は、画素アレイ部41の画素列ごとに、選択行の各単位画素から垂直信号線47を通して出力される画素信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理部43は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling;相関二重サンプリング)処理を行う。このカラム処理部43による相関二重サンプリングにより、リセットノイズや増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。なお、カラム処理部43にノイズ除去処理以外に、例えば、AD(アナログ-デジタル)変換機能を持たせ、信号レベルをデジタル信号で出力することも可能である。
 水平駆動部44は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部43の画素列に対応する単位回路を順番に選択する。この水平駆動部44による選択走査により、カラム処理部43で信号処理された画素信号が順番に信号処理部48に出力される。
 システム制御部45は、各種のタイミング信号を生成するタイミングジェネレータ等によって構成され、タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動部42、カラム処理部43、および水平駆動部44などの駆動制御を行う。
 信号処理部48は、少なくとも加算処理機能を有し、カラム処理部43から出力される画素信号に対して加算処理等の種々の信号処理を行う。データ格納部49は、信号処理部48での信号処理に当たって、その処理に必要なデータを一時的に格納する。
 <単位画素の構造>
 次に、画素アレイ部41に行列状に配置されている単位画素110の具体的な構造について説明する。
 図3は、本開示に係る技術を適用し得る固体撮像装置の構成例を示す断面図である。
 固体撮像装置では、画素110を構成するPD(フォトダイオード)119が、半導体基板118の裏面(図では上面)側から入射する入射光101を受光する。PD119の上方には、平坦化膜113,CF(カラーフィルタ)112、及び、マイクロレンズ111が設けられており、PD119では、各部を順次介して入射した入射光101を、受光面117で受光して光電変換が行われる。
 例えば、PD119は、n型半導体領域120が、電荷(電子)を蓄積する電荷蓄積領域として形成されている。PD119においては、n型半導体領域120は、半導体基板118のp型半導体領域116,141の内部に設けられている。n型半導体領域120の、半導体基板118の表面(下面)側には、裏面(上面)側よりも不純物濃度が高いp型半導体領域141が設けられている。つまり、PD119は、HAD(Hole-Accumulation Diode)構造になっており、n型半導体領域120の上面側と下面側との各界面において、暗電流が発生することを抑制するように、p型半導体領域116,141が形成されている。
 半導体基板118の内部には、複数の画素110の間を電気的に分離する画素分離部130が設けられており、この画素分離部130で区画された領域に、PD119が設けられている。図中、上面側から、固体撮像装置を見た場合、画素分離部130は、例えば、複数の画素110の間に介在するように格子状に形成されており、PD119は、この画素分離部130で区画された領域内に形成されている。
 各PD119では、アノードが接地されており、固体撮像装置において、PD119が蓄積した信号電荷(例えば、電子)は、図示せぬ転送Tr(MOS FET)等を介して読み出され、電気信号として、図示せぬVSL(垂直信号線)へ出力される。
 配線層150は、半導体基板118のうち、遮光膜114,CF112、マイクロレンズ111等の各部が設けられた裏面(上面)とは反対側の表面(下面)に設けられている。
 配線層150は、配線151と絶縁層152とを含み、絶縁層152内において、配線151が各素子に電気的に接続するように形成されている。配線層150は、いわゆる多層配線の層になっており、絶縁層152を構成する層間絶縁膜と配線151とが交互に複数回積層されて形成されている。ここでは、配線151としては、転送Tr等のPD119から電荷を読み出すためのTrへの配線や、VSL等の各配線が、絶縁層152を介して積層されている。
 配線層150の、PD119が設けられている側に対して反対側の面には、支持基板161が設けられている。例えば、厚みが数百μmのシリコン半導体からなる基板が、支持基板161として設けられている。
 遮光膜114は、半導体基板118の裏面(図では上面)の側に設けられている。
 遮光膜114は、半導体基板118の上方から半導体基板118の下方へ向かう入射光101の一部を、遮光するように構成されている。
 遮光膜114は、半導体基板118の内部に設けられた画素分離部130の上方に設けられている。ここでは、遮光膜114は、半導体基板118の裏面(上面)上において、シリコン酸化膜等の絶縁膜115を介して、凸形状に突き出るように設けられている。これに対して、半導体基板118の内部に設けられたPD119の上方においては、PD119に入射光101が入射するように、遮光膜114は、設けられておらず、開口している。
 つまり、図中、上面側から、固体撮像装置を見た場合、遮光膜114の平面形状は、格子状になっており、入射光101が受光面117へ通過する開口が形成されている。
 遮光膜114は、光を遮光する遮光材料で形成されている。例えば、チタン(Ti)膜とタングステン(W)膜とを、順次、積層することで、遮光膜114が形成されている。この他に、遮光膜114は、例えば、窒化チタン(TiN)膜とタングステン(W)膜とを、順次、積層することで形成することができる。また、遮光膜114は、ナイトライド(N)などで被覆されていても良い。
 遮光膜114は、平坦化膜113によって被覆されている。平坦化膜113は、光を透過する絶縁材料を用いて形成されている。
 画素分離部130は、トレンチ131、固定電荷膜132、及び、電極膜133を有する。
 固定電荷膜132は、半導体基板118の裏面(上面)の側において、複数の画素110の間を区画しているトレンチ131を覆うように形成されている。
 詳細は図6を参照して後述するが、固定電荷膜132は、3層構造とされており、半導体基板118において表面(下面)側に形成されたトレンチ131の内側の面を一定の厚みで被覆するように設けられている。そして、その固定電荷膜132で被覆されたトレンチ131の内部を埋め込むように、電極膜133が設けられている(充填されている)。
 ここでは、固定電荷膜132は、半導体基板118との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜132が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板118との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。
 図4、図5を参照し、画素110に形成されているトランジスタの配置と、各トランジスタの動作について説明する。図4は、画素アレイ部41(図2)に配置されている3×3の9画素110を表面側(図3において、図中上側)から見たときの平面図であり、図5は、図4に示した各トランジスタの接続関係を説明するための回路図である。
 図4中、1つの四角形は、1画素110を表す。図4に示したように、トレンチ131は、画素110(画素110に含まれるPD119)を取り囲むように形成されている。また、画素110の表面側には、転送トランジスタ(ゲート)190、FD(フローティングディフュージョン)191、リセットトランジスタ192、増幅トランジスタ193、および選択トランジスタ194が形成されている。
 PD119は、受光した光量に応じた電荷(信号電荷)を生成し、かつ、蓄積する。PD119は、アノード端子が接地されているとともに、カソード端子が転送トランジスタ190を介して、FD191に接続されている。
 転送トランジスタ190は、転送信号TRによりオンされたとき、PD190で生成された電荷を読み出し、FD191に転送する。
 FD191は、PD190から読み出された電荷を保持する。リセットトランジスタ192は、リセット信号RSTによりオンされたとき、FD191に蓄積されている電荷がドレイン(定電圧源Vdd)に排出されることで、FD191の電位をリセットする。
 増幅トランジスタ193は、FD191の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ193は、垂直信号線33を介して接続されている定電流源としての負荷MOS(不図示)とソースフォロワ回路を構成し、FD191に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ193から選択トランジスタ194と垂直信号線47を介してカラム処理部43(図2)に出力される。
 選択トランジスタ194は、選択信号SELにより画素31が選択されたときオンされ、画素31の画素信号を、垂直信号線33を介してカラム処理部43に出力する。転送信号TR、選択信号SEL、及びリセット信号RSTが伝送される各信号線は、図2の画素駆動線46に対応する。
 画素110は、以上のように構成することができるが、この構成に限定されるものではなく、その他の構成を採用することもできる。
 <固定電荷膜の構成>
 図6は、固定電荷膜132の詳細な構成を示す図である。
 固定電荷膜132は、半導体基板118において表面(図中下面)側に形成されたトレンチ131の内側の面を一定の厚みで被覆するように設けられている。そして、その固定電荷膜132で被覆されたトレンチ131の内部を埋め込むように、電極膜133が設けられている(充填されている)。
 固定電荷膜132は、画素分離部130に形成されており、3層構造で形成されている。固定電荷膜132を構成する3層は、SiO(一酸化シリコン)膜201、SiN(シリコンナイトライド)膜202、およびSiO膜203である。このように、固定電荷膜132は、SiO膜にSiN膜が挟み込まれた構成とされている。固定電荷膜132は、ONO膜(酸化膜―窒素膜―酸化膜の蓄積膜)で構成される電荷蓄積膜と同様の構成を有している。
 固定電荷膜132は、電荷蓄積膜として機能させることができ、固定電荷膜132の内部側には、電極膜133が形成されており、この電極膜133に電圧がかけられることで、固定電荷膜132は、負の固定電荷膜として機能する。電極膜133には、コンタクト171が接続されており、このコンタクト171は、配線層150内の配線151と接続されている。この配線151は、電源と接続されており、所定の電圧が、所定のタイミングで印加されるように構成されている。
 固定電荷膜132に電圧が印加される回数は、1回でも良く、例えば、画素110の製造時に一度印加されるようにしても良い。
 また、画素110が備えられた撮像装置の電源がオンにされるタイミングで、固定電荷膜132に電圧が印加されるようにしても良い。そのように構成した場合、撮像装置の電源がオンにされる毎に、固定電荷膜132に電圧が印加されるようにしても良い。
 固定電荷膜132に電圧が一度でも印加されると、負の固定電荷を有する電荷膜として機能するようになり、その負の固定電荷によって、半導体基板118との界面に電界が加わり、正電荷(ホール)蓄積領域が形成され、暗電流の発生が抑制される構成とすることができる。
 このように固定電荷膜132は、少なくとも1度電圧を印加することで、負の固定電荷膜132として機能させることができるため、電力を消費することなく、負の固定電荷膜132を生成することができる。
 固定電荷膜132を構成するSiO膜201、SiN膜202、およびSiO膜203は、同一の膜厚で形成されていても良いし、異なる膜厚で形成されていても良い。また、SiO膜201とSiO膜203の膜厚は、同一の膜厚で形成されていても良いし、PD119側のSiO膜201の膜厚は、固定電荷膜132の内側のSiO膜203よりも薄い膜厚で形成されていても良い。
 固定電荷膜132は、図3に示したように、上部が絶縁膜115と接する位置まで形成されていても良いし、図7に示すように、絶縁膜115と接しない位置まで形成されていても良い。図7に示した画素110’は、固定電荷膜132の上部と、絶縁膜115との間には、p型半導体領域116が存在し、固定電荷膜132の上部と、絶縁膜115は接しない構造とされている。
 図7に示したようにトレンチ131は、半導体基板118を貫通しない状態で形成されても良い。この場合もトレンチ131に、固定電荷膜132を形成することで、図3に示したトレンチ131が半導体基板118を貫通した状態で形成されている場合と同じく、暗電流の発生を抑制する構成とすることができる。
 図3に示した画素110、図7に示した画素110’は、コンタクト171が、表面側(光入射側とは逆側であり、図中下側)に形成されている場合を示したが、コンタクト171は、裏面側(光入射側であり、図中上側)に形成されていても良い。
 図8に、裏面側にコンタクト171”が形成された画素110”の構成を示す。図8に示したように、コンタクト171”は、裏面側(光入射側)に形成され、一方は、電極膜133と接続され、他方は、遮光膜114と接続されている。
 遮光膜114は、光を遮光する材料で形成され、金属など、電気導電体で形成することができる。遮光膜114を電気導電体で形成し、この遮光膜114に所定の電圧が印加されるように構成することで、遮光膜114にコンタクト171”を介して接続されている電極膜133に電圧を印加することができる。
 コンタクト171は、配線層150内の配線151と接続される構成としても良いし、遮光膜114と接続される構成としても良い。
 またコンタクト171は、図9または図10に示すような位置や個数で形成されているようにすることができる。図9は、画素110毎に、コンタクト171を配置した場合を示し、図10は、複数の画素110で共有された構成を示している。図9と図10は、例えば、図3に示した画素110の裏面側(下側)から見たときの平面図である。
 図9には、画素アレイ部41(図2)にアレイ状に配置されている2×2の4個の画素110を示している。1つの画素110(PD119)は、トレンチ131で囲まれている。トレンチ131には、固定電荷膜132が形成されているため、1つのPD119は、固定電荷膜132で囲まれた構成とされている。
 コンタクト171は、1つの画素110の四隅にそれぞれ形成されている。画素110の四隅にそれぞれ形成されているコンタクト171は、それぞれ配線151(図3)と接続され、配線151は、電源電圧と接続されている。
 図3に示した画素110の断面図を再度参照するに、トレンチ131内には、電極膜133が形成されている。また図9に示した画素110の平面図を参照するに、電極膜133は、画素110を囲むように形成されているとともに、各画素110の周りに形成されている電極膜133は、隣接する画素110の周りに形成されている電極膜133と連続して形成されている。すなわち、画素アレイ部41内に形成されている電極膜133は、連続的に、途切れることなく形成されている。
 よって、図9に示したように、画素110毎にコンタクト171を形成しても良いが、図10に示すように複数の画素110毎にコンタクト171が形成されていても良い。図10に示した画素110では、行方向に配列された複数の画素110で1つのコンタクト171を共有する構成とされている。またコンタクト171は、画素アレイ部41の端部に設けられている。
 図10では、行方向に配列された複数の画素110で1つのコンタクト171を共有する構成を示したが、上記したように、画素アレイ部41内に形成されている電極膜133は、連続的に形成されているため、画素アレイ部41の全ての画素110で1つのコンタクト171を共有する構成とすることもできる。例えば、図示はしないが、図10には、3個のコンタクト171が図示してあるが、例えば、一番上に図示してあるコンタクト171のみが形成されている構造とすることもできる。
 また、図9や図10では、各画素110が、トレンチ131(トレンチ131に形成されている固定電荷膜132や電極膜133)で囲まれた構造とされていたが、図11に示すように、画素110は、トレンチ131で完全に囲まれている構成ではなく、一部が囲まれている構成とすることも可能である。
 図9や図10に示した画素110のように、トレンチ131が画素110の周りを完全に囲むように形成されている構成、換言すれば、画素110の周りを画素分離部130が完全に囲むように形成されている構成を画素完全分離と記述した場合、図11に示した画素110は、画素完全分離ではない構造とされている。
 図11に示した画素110を囲む4辺の画素分離部130(トレンチ131内の電極膜133)のうち3辺は、連続的に形成されているが、残り1辺は、接続されていない。連続的に形成されている3辺に、1つのコンタクト171が接続されている。図11に示した例では、行方向に配列された複数の画素110で1つのコンタクト171が共有する構成とされている。
 図9、図10に示した例のように、画素アレイ部41内の全ての画素分離部130(電極膜133)が、繋がった状態で形成されていても良いし、図11に示した例のように画素アレイ部41内の全ての電極膜133が、繋がった状態ではなく、一部が切れているような形状で形成されていても良い。また、コンタクト171の個数や形成される位置などは、電極膜133を連続的に形成するか、または不連続に形成するか、全ての画素に同一の電圧を印加するか、または個別(所定の個数)に異なる電圧を印加するかなどにより、適切に設定されれば良い。
 <画素の製造について>
 画素110の製造について、図12を参照して説明を加える。
 工程S101において、FEOL(Front End Of Line)工程が実行される。FEOL工程により、画素110の表面側にトランジスタ(例えば、転送トランジスタ190(図4)など)の素子が形成される。また工程S101において、PD119なども半導体基板118内に形成される。さらに、工程S101においては、トレンチ131も形成される。トレンチ131は、リソグラフィとドライエッチングにて形成することができる。
 工程S102において、固定電荷膜132が成膜され、電極膜133が成膜される。固定電荷膜132は、上記したように、SiO膜201、SiN膜202、およびSiO膜203で形成されており、この順で成膜され、その後、電極膜133が成膜(電極膜133を形成する材料が充填)される。
 成膜後、エッチバックすることで、MONOS構造が形成される。MONOS構造とは、Metal Oxide Nitride Oxide Silicon構造のことであり、シリコン基板上に、酸化膜/窒化膜/酸化膜の3層(この場合、固定電荷膜132に該当)を形成し、その上に電極(メタル、この場合、電極膜133に該当)を配置する構造である。
 電極膜133を形成する材料としては、金属、例えば、タングステン(W)などや、ポリシリコンなどを用いることができる。また、固定電荷膜132としては、ここでは、SiO膜201、SiN膜202、およびSiO膜203であるとして説明したが、SiOとSiN以外の材料の組み合わせで、ONO膜を形成するようにしても良い。例えば、SiN膜202(窒化膜)は、SiNではなく、ポリシリコン(Poly-Si)膜や、High-k膜(高誘電率膜)とすることもできる。
 SiN膜202をHigh-k膜とした場合、High-k膜の材料としては、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素などの酸化物を用いることができる。
 工程S103において、BEOL(Back End Of Line)工程が実行される。BEOL工程により、画素110の配線層150内の配線151が形成される。この工程S103において、電極膜133に接続されるコンタクト171が形成され、配線151と接続され、電圧を印加できる構造が形成される。
 この工程S103において、電圧を印加できる構造とされた時点で、固定電荷膜132に電圧が印加され、負の固定電荷膜が生成されるようにしても良いし、この後の工程で、電圧が印加されても良い。
 工程S104において、カラーフィルタ(CF)112や、OCL111などが形成される。
 このように、固定電荷膜132が形成され、固定電荷膜132を有する画素110が製造される。このような工程は一例であり、工程の順番が入れ替わったり、他の方法で成膜などが行われたりしても良い。
 固定電荷膜132は、上記したように、3層で形成され、固定電荷膜132を成膜するとき、熱処理、特に高温での処理を必要としないため、例えば、高温に弱い金属を配線として用いたり、そのような配線を形成した後に、固定電荷膜132を形成したりすることも可能である。よって、工程数が増加することなく、固定電荷膜132を有する画素110を製造することができる。また、歩溜りが低下するようなことも防ぐことができる。
 本技術によれば、固定電荷膜132をONO膜で形成し、このONO膜の電荷蓄積層に、電子をトラップできる構成とすることができる。よって、暗電流の発生を抑制することができる。
 なお、本技術を適用した固定電荷膜132は、縦型分光の画素や、アバランシェフォトダイオードに設けることもでき、上記した画素110に適用範囲が限定されるわけではない。
 <他の変形例>
 本技術を適用した画素110は、例えば以下のように複数の基板を積層して構成する画素にも適用できる。
 <本開示に係る技術を適用し得る積層型の固体撮像装置の構成例>
 図13は、本開示に係る技術を適用し得る積層型の固体撮像装置の構成例の概要を示す図である。
 図13のAは、非積層型の固体撮像装置の概略構成例を示している。固体撮像装置23010は、図13のAに示すように、1枚のダイ(半導体基板)23011を有する。このダイ23011には、画素がアレイ状に配置された画素領域23012と、画素の駆動その他の各種の制御を行う制御回路23013と、信号処理するためのロジック回路23014とが搭載されている。
 図13のB及びCは、積層型の固体撮像装置の概略構成例を示している。固体撮像装置23020は、図13のB及びCに示すように、センサダイ23021とロジックダイ23024との2枚のダイが積層され、電気的に接続されて、1つの半導体チップとして構成されている。
 図13のBでは、センサダイ23021には、画素領域23012と制御回路23013が搭載され、ロジックダイ23024には、信号処理を行う信号処理回路を含むロジック回路23014が搭載されている。
 図13のCでは、センサダイ23021には、画素領域23012が搭載され、ロジックダイ23024には、制御回路23013及びロジック回路23014が搭載されている。
 図14は、積層型の固体撮像装置23020の第1の構成例を示す断面図である。
 センサダイ23021には、画素領域23012となる画素を構成するPD(フォトダイオード)や、FD(フローティングディフュージョン)、Tr(MOS FET)、及び、制御回路23013となるTr等が形成される。さらに、センサダイ23021には、複数層、本例では3層の配線23110を有する配線層23101が形成される。なお、制御回路23013(となるTr)は、センサダイ23021ではなく、ロジックダイ23024に構成することができる。
 ロジックダイ23024には、ロジック回路23014を構成するTrが形成される。さらに、ロジックダイ23024には、複数層、本例では3層の配線23170を有する配線層23161が形成される。また、ロジックダイ23024には、内壁面に絶縁膜23172が形成された接続孔23171が形成され、接続孔23171内には、配線23170等と接続される接続導体23173が埋め込まれる。
 センサダイ23021とロジックダイ23024とは、互いの配線層23101及び23161が向き合うように貼り合わされ、これにより、センサダイ23021とロジックダイ23024とが積層された積層型の固体撮像装置23020が構成されている。センサダイ23021とロジックダイ23024とが貼り合わされる面には、保護膜等の膜23191が形成されている。
 センサダイ23021には、センサダイ23021の裏面側(PDに光が入射する側)(上側)からセンサダイ23021を貫通してロジックダイ23024の最上層の配線23170に達する接続孔23111が形成される。さらに、センサダイ23021には、接続孔23111に近接して、センサダイ23021の裏面側から1層目の配線23110に達する接続孔23121が形成される。接続孔23111の内壁面には、絶縁膜23112が形成され、接続孔23121の内壁面には、絶縁膜23122が形成される。そして、接続孔23111及び23121内には、接続導体23113及び23123がそれぞれ埋め込まれる。接続導体23113と接続導体23123とは、センサダイ23021の裏面側で電気的に接続され、これにより、センサダイ23021とロジックダイ23024とが、配線層23101、接続孔23121、接続孔23111、及び、配線層23161を介して、電気的に接続される。
 図15は、積層型の固体撮像装置23020の第2の構成例を示す断面図である。
 固体撮像装置23020の第2の構成例では、センサダイ23021に形成する1つの接続孔23211によって、センサダイ23021(の配線層23101(の配線23110))と、ロジックダイ23024(の配線層23161(の配線23170))とが電気的に接続される。
 すなわち、図15では、接続孔23211が、センサダイ23021の裏面側からセンサダイ23021を貫通してロジックダイ23024の最上層の配線23170に達し、且つ、センサダイ23021の最上層の配線23110に達するように形成される。接続孔23211の内壁面には、絶縁膜23212が形成され、接続孔23211内には、接続導体23213が埋め込まれる。上述の図14では、2つの接続孔23111及び23121によって、センサダイ23021とロジックダイ23024とが電気的に接続されるが、図15では、1つの接続孔23211によって、センサダイ23021とロジックダイ23024とが電気的に接続される。
 図16は、積層型の固体撮像装置23020の第3の構成例を示す断面図である。
 図16の固体撮像装置23020は、センサダイ23021とロジックダイ23024とが貼り合わされる面に、保護膜等の膜23191が形成されていない点で、センサダイ23021とロジックダイ23024とが貼り合わされる面に、保護膜等の膜23191が形成されている図14の場合と異なる。
 図16の固体撮像装置23020は、配線23110及び23170が直接接触するように、センサダイ23021とロジックダイ23024とを重ね合わせ、所要の加重をかけながら加熱し、配線23110及び23170を直接接合することで構成される。
 図17は、本開示に係る技術を適用し得る積層型の固体撮像装置の他の構成例を示す断面図である。
 図17では、固体撮像装置23401は、センサダイ23411と、ロジックダイ23412と、メモリダイ23413との3枚のダイが積層された3層の積層構造になっている。
 メモリダイ23413は、例えば、ロジックダイ23412で行われる信号処理において一時的に必要となるデータの記憶を行うメモリ回路を有する。
 図17では、センサダイ23411の下に、ロジックダイ23412及びメモリダイ23413が、その順番で積層されているが、ロジックダイ23412及びメモリダイ23413は、逆順、すなわち、メモリダイ23413及びロジックダイ23412の順番で、センサダイ23411の下に積層することができる。
 なお、図17では、センサダイ23411には、画素の光電変換部となるPDや、画素Trのソース/ドレイン領域が形成されている。
 PDの周囲にはゲート絶縁膜を介してゲート電極が形成され、ゲート電極と対のソース/ドレイン領域により画素Tr23421、画素Tr23422が形成されている。
 PDに隣接する画素Tr23421が転送Trであり、その画素Tr23421を構成する対のソース/ドレイン領域の一方がFDになっている。
 また、センサダイ23411には、層間絶縁膜が形成され、層間絶縁膜には、接続孔が形成される。接続孔には、画素Tr23421、及び、画素Tr23422に接続する接続導体23431が形成されている。
 さらに、センサダイ23411には、各接続導体23431に接続する複数層の配線23432を有する配線層23433が形成されている。
 また、センサダイ23411の配線層23433の最下層には、外部接続用の電極となるアルミパッド23434が形成されている。すなわち、センサダイ23411では、配線23432よりもロジックダイ23412との接着面23440に近い位置にアルミパッド23434が形成されている。アルミパッド23434は、外部との信号の入出力に係る配線の一端として用いられる。
 さらに、センサダイ23411には、ロジックダイ23412との電気的接続に用いられるコンタクト23441が形成されている。コンタクト23441は、ロジックダイ23412のコンタクト23451に接続されるとともに、センサダイ23411のアルミパッド23442にも接続されている。
 そして、センサダイ23411には、センサダイ23411の裏面側(上側)からアルミパッド23442に達するようにパッド孔23443が形成されている。
 本開示に係る技術は、以上のような固体撮像装置に適用することができる。
 <体内情報取得システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図18は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能および無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成および機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、および制御部10117が収納されている。
 光源部10111は、例えばLED(Light Emitting Diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、および当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central ProcesSing Unit)やGPU(Graphics ProcesSing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、および昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図18では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、および制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、および、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理および/若しくは手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部10112に適用することができる。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、および統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、および車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、および、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver AsSistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声および画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ12061、表示部12062およびインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイおよびヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図20は、撮像部12031の設置位置の例を示す図である。
 図20では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドアおよび車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101および車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101および12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図20には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 本技術は以下のような構成も取ることができる。
(1)
 光電変換を行う光電変換部と、
 半導体基板に掘り込まれているトレンチと、
 前記トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、
 前記固定電荷膜内に形成された電極膜と
 を備える撮像素子。
(2)
 前記固定電荷膜を構成する酸化膜は、SiO(一酸化シリコン)であり、窒素膜は、SiN(シリコンナイトライド)である
 前記(1)に記載の撮像素子。
(3)
 前記固定電荷膜を構成する窒素膜は、ポリシリコン膜、またはHigh-k膜(高誘電率膜)である
 前記(1)または(2)に記載の撮像素子。
(4)
 前記固定電荷膜を構成する窒素膜は、シリコンナイトライド、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素のうちのいずれかの材料が用いられた膜である
 前記(1)乃至(3)のいずれかに記載の撮像素子。
(5)
 電圧を印加する電源と接続されている配線と、
 前記配線と前記電極膜を接続するコンタクトと
 をさらに備える
 前記(1)乃至(4)のいずれかに記載の撮像素子。
(6)
 前記光電変換部の受光面側に形成されている遮光膜と、
 前記遮光膜と前記電極膜を接続するコンタクトと
 をさらに備える
 前記(1)乃至(4)のいずれかに記載の撮像素子。
(7)
 前記トレンチは、前記半導体基板を貫通していない
 前記(1)乃至(6)のいずれかに記載の撮像素子。
(8)
 前記コンタクトは、画素毎に形成されている
 前記(5)に記載の撮像素子。
(9)
 前記コンタクトは、複数の画素で共有されている
 前記(5)に記載の撮像素子。
(10)
 前記トレンチは、画素を囲むように形成され、一部が繋がってない状態で形成されている
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(11)
 撮像素子が搭載された電子機器において、
 前記撮像素子は、
 光電変換を行う光電変換部と、
 半導体基板に掘り込まれているトレンチと、
 前記トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、
 前記固定電荷膜内に形成された電極膜と
 を備える
 電子機器。
 10 撮像装置, 11 レンズ群, 12 撮像素子, 13 DSP回路, 14 フレームメモリ, 15 表示部, 16 記録部, 17 操作系, 18 電源系, 19 バスライン, 20 CPU, 31 画素, 33 垂直信号線, 41 画素アレイ部, 42 垂直駆動部,43 カラム処理部, 44 水平駆動部, 45 システム制御部, 46 画素駆動線, 47 垂直信号線, 48 信号処理部, 49 データ格納部, 101 入射光, 110 画素, 111 マイクロレンズ, 113 平坦化膜, 114 遮光膜, 115 絶縁膜, 116 p型半導体領域, 117 受光面, 118 半導体基板, 120 n型半導体領域, 130 画素分離部, 131 トレンチ, 132 固定電荷膜, 133 電極膜, 141 p型半導体領域, 150 配線層, 151 配線, 152 絶縁層, 161 支持基板, 171 コンタクト, 190 転送トランジスタ, 192 リセットトランジスタ, 193 増幅トランジスタ, 194 選択トランジスタ, 201 SiO膜, 202 SiN膜, 203 SiO膜

Claims (11)

  1.  光電変換を行う光電変換部と、
     半導体基板に掘り込まれているトレンチと、
     前記トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、
     前記固定電荷膜内に形成された電極膜と
     を備える撮像素子。
  2.  前記固定電荷膜を構成する酸化膜は、SiO(一酸化シリコン)であり、窒素膜は、SiN(シリコンナイトライド)である
     請求項1に記載の撮像素子。
  3.  前記固定電荷膜を構成する窒素膜は、ポリシリコン膜、またはHigh-k膜(高誘電率膜)である
     請求項1に記載の撮像素子。
  4.  前記固定電荷膜を構成する窒素膜は、シリコンナイトライド、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素のうちのいずれかの材料が用いられた膜である
     請求項1に記載の撮像素子。
  5.  電圧を印加する電源と接続されている配線と、
     前記配線と前記電極膜を接続するコンタクトと
     をさらに備える
     請求項1に記載の撮像素子。
  6.  前記光電変換部の受光面側に形成されている遮光膜と、
     前記遮光膜と前記電極膜を接続するコンタクトと
     をさらに備える
     請求項1に記載の撮像素子。
  7.  前記トレンチは、前記半導体基板を貫通していない
     請求項1に記載の撮像素子。
  8.  前記コンタクトは、画素毎に形成されている
     請求項5に記載の撮像素子。
  9.  前記コンタクトは、複数の画素で共有されている
     請求項5に記載の撮像素子。
  10.  前記トレンチは、画素を囲むように形成され、一部が繋がってない状態で形成されている
     請求項1に記載の撮像素子。
  11.  撮像素子が搭載された電子機器において、
     前記撮像素子は、
     光電変換を行う光電変換部と、
     半導体基板に掘り込まれているトレンチと、
     前記トレンチの側壁に、酸化膜、窒素膜、酸化膜から構成される負の固定電荷膜と、
     前記固定電荷膜内に形成された電極膜と
     を備える
     電子機器。
PCT/JP2018/039813 2017-11-09 2018-10-26 撮像素子、電子機器 WO2019093150A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019552714A JPWO2019093150A1 (ja) 2017-11-09 2018-10-26 撮像素子、電子機器
US16/758,547 US11798968B2 (en) 2017-11-09 2018-10-26 Image pickup device and electronic apparatus
EP18875397.4A EP3709357A4 (en) 2017-11-09 2018-10-26 IMAGE CAPTURE ELEMENT AND ELECTRONIC DEVICE
CN201880066968.0A CN111226318A (zh) 2017-11-09 2018-10-26 摄像器件和电子设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017216076 2017-11-09
JP2017-216076 2017-11-09

Publications (1)

Publication Number Publication Date
WO2019093150A1 true WO2019093150A1 (ja) 2019-05-16

Family

ID=66439110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/039813 WO2019093150A1 (ja) 2017-11-09 2018-10-26 撮像素子、電子機器

Country Status (5)

Country Link
US (1) US11798968B2 (ja)
EP (1) EP3709357A4 (ja)
JP (1) JPWO2019093150A1 (ja)
CN (1) CN111226318A (ja)
WO (1) WO2019093150A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022085695A1 (ja) * 2020-10-20 2022-04-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置
TWI763362B (zh) * 2020-08-10 2022-05-01 台灣積體電路製造股份有限公司 影像感測器及其形成方法
JP2022165377A (ja) * 2021-04-19 2022-10-31 台湾積體電路製造股▲ふん▼有限公司 イメージセンサ及びその製造方法
WO2023013493A1 (ja) * 2021-08-06 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2023042462A1 (ja) 2021-09-16 2023-03-23 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出装置の製造方法、及び電子機器
WO2023084989A1 (ja) * 2021-11-11 2023-05-19 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器
WO2023106156A1 (ja) * 2021-12-08 2023-06-15 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器
WO2023153245A1 (ja) * 2022-02-08 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2023188891A1 (ja) * 2022-03-28 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102643624B1 (ko) * 2018-06-07 2024-03-05 삼성전자주식회사 이미지 센서

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001230400A (ja) * 1999-12-06 2001-08-24 Canon Inc 固体撮像装置
JP2011129633A (ja) * 2009-12-16 2011-06-30 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2011138905A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 固体撮像装置
JP2014096490A (ja) 2012-11-09 2014-05-22 Sony Corp 撮像素子、製造方法
JP2017054890A (ja) 2015-09-08 2017-03-16 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
JP2017168566A (ja) * 2016-03-15 2017-09-21 ソニー株式会社 固体撮像素子、および電子機器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8378398B2 (en) * 2010-09-30 2013-02-19 Omnivision Technologies, Inc. Photodetector isolation in image sensors
JP5581954B2 (ja) * 2010-10-07 2014-09-03 ソニー株式会社 固体撮像装置、固体撮像装置の製造方法、及び電子機器
JP6299058B2 (ja) * 2011-03-02 2018-03-28 ソニー株式会社 固体撮像装置、固体撮像装置の製造方法及び電子機器
KR20140147508A (ko) * 2013-06-20 2014-12-30 삼성전자주식회사 이미지 센서
US9496304B2 (en) * 2013-08-15 2016-11-15 Omnivision Technologies, Inc. Image sensor pixel cell with switched deep trench isolation structure
JP6465545B2 (ja) * 2013-09-27 2019-02-06 ソニー株式会社 撮像素子およびその製造方法ならびに電子機器
FR3019378A1 (fr) * 2014-03-25 2015-10-02 St Microelectronics Crolles 2 Structure d'isolement entre des photodiodes
FR3026891A1 (fr) * 2014-10-06 2016-04-08 St Microelectronics Crolles 2 Sas Dispositif d'imagerie integre a illumination face arriere avec routage d'interconnexion simplifie
JP2016100347A (ja) * 2014-11-18 2016-05-30 ソニー株式会社 固体撮像装置及びその製造方法、並びに電子機器
KR20170019542A (ko) * 2015-08-11 2017-02-22 삼성전자주식회사 자동 초점 이미지 센서
CN107710414B (zh) * 2016-04-25 2023-06-20 索尼公司 固态成像元件及其制造方法和电子设备
US9917126B1 (en) * 2016-09-13 2018-03-13 Stmicroelectronics (Crolles 2) Sas Metal shield trenches and metal substrate contacts supported within the premetallization dielectric (PMD) layer of an integrated circuit using a middle end of line (MEOL) process
KR20180079518A (ko) * 2016-12-30 2018-07-11 삼성전자주식회사 씨모스 이미지 센서

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001230400A (ja) * 1999-12-06 2001-08-24 Canon Inc 固体撮像装置
JP2011129633A (ja) * 2009-12-16 2011-06-30 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2011138905A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 固体撮像装置
JP2014096490A (ja) 2012-11-09 2014-05-22 Sony Corp 撮像素子、製造方法
JP2017054890A (ja) 2015-09-08 2017-03-16 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
JP2017168566A (ja) * 2016-03-15 2017-09-21 ソニー株式会社 固体撮像素子、および電子機器

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI763362B (zh) * 2020-08-10 2022-05-01 台灣積體電路製造股份有限公司 影像感測器及其形成方法
WO2022085695A1 (ja) * 2020-10-20 2022-04-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置
JP2022165377A (ja) * 2021-04-19 2022-10-31 台湾積體電路製造股▲ふん▼有限公司 イメージセンサ及びその製造方法
JP7430206B2 (ja) 2021-04-19 2024-02-09 台湾積體電路製造股▲ふん▼有限公司 イメージセンサ及びその製造方法
WO2023013493A1 (ja) * 2021-08-06 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2023042462A1 (ja) 2021-09-16 2023-03-23 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出装置の製造方法、及び電子機器
KR20240058850A (ko) 2021-09-16 2024-05-03 소니 세미컨덕터 솔루션즈 가부시키가이샤 광 검출 장치, 광 검출 장치의 제조 방법 및 전자 기기
WO2023084989A1 (ja) * 2021-11-11 2023-05-19 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器
WO2023106156A1 (ja) * 2021-12-08 2023-06-15 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器
WO2023153245A1 (ja) * 2022-02-08 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2023188891A1 (ja) * 2022-03-28 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器

Also Published As

Publication number Publication date
JPWO2019093150A1 (ja) 2020-11-26
CN111226318A (zh) 2020-06-02
EP3709357A4 (en) 2020-12-23
EP3709357A1 (en) 2020-09-16
US20200350345A1 (en) 2020-11-05
US11798968B2 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
WO2019093150A1 (ja) 撮像素子、電子機器
CN110100312B (zh) 固态成像装置和电子设备
JP2023086799A (ja) 光検出素子
WO2018066256A1 (ja) 固体撮像素子および固体撮像装置
JPWO2018008614A1 (ja) 撮像素子、撮像素子の製造方法、及び、電子機器
US11336860B2 (en) Solid-state image capturing device, method of driving solid-state image capturing device, and electronic apparatus
CN110785849B (zh) 摄像装置和电子设备
US10880506B2 (en) Solid-state imaging device, electronic apparatus, and driving method
CN112789725A (zh) 固态成像单元和电子设备
JP7472032B2 (ja) 撮像素子および電子機器
US20220013557A1 (en) Solid-state imaging device and electronic apparatus
WO2020045142A1 (ja) 撮像装置および電子機器
WO2021095285A1 (en) Imaging device
US20220021853A1 (en) Imaging element and electronic apparatus
WO2019093149A1 (ja) 固体撮像装置、および電子機器
US20240014230A1 (en) Solid-state imaging element, method of manufacturing the same, and electronic device
US12003878B2 (en) Imaging device
US20220103775A1 (en) Imaging device
US10985202B2 (en) Solid-state imaging apparatus, electronic device, and driving method
CN118156280A (zh) 成像装置和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18875397

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019552714

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018875397

Country of ref document: EP

Effective date: 20200609