WO2017098830A1 - 固体撮像素子、撮像装置、および、固体撮像素子の製造方法 - Google Patents

固体撮像素子、撮像装置、および、固体撮像素子の製造方法 Download PDF

Info

Publication number
WO2017098830A1
WO2017098830A1 PCT/JP2016/081806 JP2016081806W WO2017098830A1 WO 2017098830 A1 WO2017098830 A1 WO 2017098830A1 JP 2016081806 W JP2016081806 W JP 2016081806W WO 2017098830 A1 WO2017098830 A1 WO 2017098830A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
light
solid
imaging device
receiving surface
Prior art date
Application number
PCT/JP2016/081806
Other languages
English (en)
French (fr)
Inventor
晴美 田中
到 押山
創造 横川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201680071102.XA priority Critical patent/CN108292665B/zh
Priority to EP16872730.3A priority patent/EP3389092B1/en
Priority to KR1020187012708A priority patent/KR102648932B1/ko
Priority to US15/778,994 priority patent/US10715751B2/en
Publication of WO2017098830A1 publication Critical patent/WO2017098830A1/ja
Priority to US16/236,933 priority patent/US11159751B2/en
Priority to US16/898,961 priority patent/US11310444B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • G02B1/118Anti-reflection coatings having sub-optical wavelength surface structures designed to provide an enhanced transmittance, e.g. moth-eye structures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/26Reflecting filters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14689MOS based technologies

Definitions

  • the present technology relates to a solid-state imaging device, an imaging apparatus, and a manufacturing method of the solid-state imaging device.
  • the present invention relates to a solid-state imaging device, an imaging apparatus, and a method for manufacturing the solid-state imaging device that are supposed to be imaged under low illuminance.
  • a solid-state imaging device is used to capture image data.
  • IR InfraRed
  • visible light pixels that receive visible light
  • the amount of infrared light is often insufficient compared to visible light, so it is necessary to improve the sensitivity of the IR pixel with priority.
  • a solid-state imaging device in which fine irregularities are provided on the light receiving surface of an IR pixel has been proposed (see, for example, Patent Document 1).
  • the reflectance at the light receiving surface is reduced and the transmittance is relatively increased. Therefore, the amount of light photoelectrically converted by the pixel is increased, and the sensitivity of the IR pixel is improved as compared with the case where the unevenness is not provided.
  • the present technology has been created in view of such a situation, and aims to improve sensitivity while suppressing color mixing in a solid-state imaging device.
  • a solid-state imaging device including a light-receiving surface side trench that is a trench and a light-receiving surface-side member embedded in the light-receiving surface-side trench.
  • the interval between the representative points of the plurality of protrusions may not be narrower than 250 nanometers. This brings about the effect that the reflectance of the light receiving surface is lowered by the plurality of protrusions having an interval of 250 nanometers or more.
  • the interval between the representative points of the plurality of protrusions may substantially coincide with a divisor of the size of the pixel in a predetermined direction parallel to the light receiving surface. This brings about the effect that the reflectance of the light receiving surface is lowered by the plurality of protrusions at intervals of about several times the size of the pixel.
  • the plurality of protrusions may be formed in a partial region of the pixel on the light receiving surface. This brings about the effect that the reflectance of the light receiving surface is lowered by the plurality of protrusions formed in a partial region of the pixel.
  • the depth of the light receiving surface side trench may not be smaller than 2 micrometers. As a result, light is shielded by the light receiving surface side trench having a depth of 2 micrometers or more.
  • the light receiving surface side member may include a member having a refractive index lower than that of the pixel. This brings about the effect that light is reflected and scattered by a member having a refractive index lower than that of the pixel.
  • the light receiving surface side member may include a metal. This brings about the effect that light is absorbed by the metal.
  • the pixel may include an infrared light pixel that receives infrared light and a visible light pixel that receives visible light. This brings about the effect that infrared light and visible light pixels are received.
  • the plurality of protrusions may be formed on the infrared light pixel. This brings about the effect that the reflectance of the light receiving surface of the infrared light pixel is lowered.
  • the plurality of protrusions may be formed on both the infrared light pixel and the visible light pixel. This brings about the effect that the reflectance of the light receiving surfaces of the infrared light pixel and the visible light pixel is lowered.
  • an infrared light blocking filter that blocks the infrared light out of the visible light and the infrared light is further included, and the infrared light blocking filter includes the visible light pixel and the imaging. You may arrange
  • the infrared light pixel includes a first photoelectric conversion unit that photoelectrically converts the infrared light
  • the visible light pixel includes a second photoelectric conversion that photoelectrically converts the visible light.
  • a conversion unit may be provided, and the first photoelectric conversion unit may be extended below the second photoelectric conversion unit with a direction toward the imaging lens as an upper direction. This brings about the effect
  • the infrared light pixel includes a photoelectric conversion unit that photoelectrically converts light, and the depth of the light receiving surface side trench is smaller than the photoelectric conversion unit of the infrared light pixel. Also good. This brings about the effect
  • a plurality of the pixels are provided, each of the plurality of pixels receives light having a different wavelength, and each of the plurality of pixels has a depth corresponding to the wavelength of the light.
  • a photoelectric conversion unit may be provided. This brings about the effect
  • a plurality of the pixels are provided, each of the plurality of pixels receives light having a different wavelength, and the interval between the representative points of the plurality of protrusions is the plurality of the plurality of pixels.
  • a value corresponding to the wavelength of light received by the pixel provided with the protrusion may be used. This brings about the effect
  • an opposing surface side trench formed in an opposing surface facing the light receiving surface of the substrate on which the pixel is formed, and an opposing surface side member embedded in the opposing surface side trench are provided. Furthermore, you may comprise. Thereby, the effect
  • the facing surface side member may include a member having a refractive index lower than that of the pixel. This brings about the effect that light is reflected and scattered by a member having a refractive index lower than that of the pixel.
  • the second aspect of the present technology includes a pixel having a plurality of protrusions formed on the light receiving surface, a light receiving surface side trench that is a trench formed around the pixel on the light receiving surface, and the light receiving surface side trench.
  • An image pickup apparatus comprising: a solid-state image pickup device including a light-receiving surface-side member embedded in; and an image pickup lens that guides light to the solid-state image pickup device.
  • the infrared light blocking filter for blocking infrared light for blocking infrared light
  • An insertion / extraction unit that either removes the infrared light blocking filter from the position, and the pixel includes an infrared light pixel that receives infrared light and a visible light pixel that receives visible light. May be included. This brings about the effect
  • the solid-state imaging device may further include a signal processing unit that processes a pixel signal from the pixel. This brings about the effect that image data is generated from the signal-processed pixel signal.
  • a pixel forming procedure for forming a pixel on the substrate a protrusion forming procedure for forming a plurality of protrusions on the light receiving surface of the pixel, and a trench around the pixel on the light receiving surface.
  • a method for manufacturing a solid-state imaging device comprising: a trench forming procedure for forming a light receiving surface side trench; and a burying procedure for embedding a light receiving surface side member in the light receiving surface side trench. It is.
  • a solid-state imaging device including a pixel having a plurality of protrusions formed on the light receiving surface, a light receiving surface side trench formed around the pixel, and a light receiving surface side light-shielding member embedded in the light receiving surface side trench is manufactured. It brings about the effect of being.
  • the plurality of protrusions may be formed by wet etching.
  • the present technology it is possible to achieve an excellent effect that the sensitivity can be improved while suppressing color mixing in the solid-state imaging device.
  • the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • FIG. 3 is an example of a circuit diagram of a pixel circuit in the first embodiment of the present technology.
  • FIG. 3 is an example of a cross-sectional view of a pixel array unit in the first embodiment of the present technology. It is an example of a sectional view showing typically the structure of the pixel array part in a 1st embodiment of this art.
  • FIG. 3 is an example of a top view of a pixel array unit showing a position of a transistor in the first embodiment of the present technology.
  • FIG. 10 is a diagram for describing a manufacturing process until an n + layer and a pixel isolation region are formed in the first embodiment of the present technology. It is a figure showing an example of a mask for forming an n + layer and a pixel separation region in the first embodiment of the present technology. It is a figure which shows an example of the mask for forming the area
  • FIG. 3 is a flowchart illustrating an example of a method for manufacturing a pixel array unit according to the first embodiment of the present technology.
  • top view of the pixel array part in the 2nd modification of the 2nd Embodiment of this technique It is an example of the top view of the pixel array part in the 3rd modification of a 2nd embodiment of this art. It is an example of a sectional view showing typically the structure of the pixel array part in the 4th modification of a 2nd embodiment of this art. It is an example of a sectional view showing typically the structure of the pixel array part in the 5th modification of a 2nd embodiment of this art. It is an example of a sectional view showing typically the structure of the pixel array part in a 3rd embodiment of this art.
  • First embodiment an example in which an IR pixel has a moth-eye structure and a trench is provided around it
  • Second Embodiment Example in which IR pixel and visible light pixel have a moth-eye structure, and a trench is provided around them
  • Third Embodiment An example in which an IR pixel has a moth-eye structure, a trench is provided around the IR pixel, and an IR cut filter is disposed
  • Fourth embodiment (example in which the IR pixel has a moth-eye structure on the back surface, a trench is provided around the IR pixel, and a trench is also provided on the front surface)
  • FIG. 1 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to the first embodiment.
  • the imaging apparatus 100 includes an imaging lens 110, a solid-state imaging device 200, an image processing unit 120, a control unit 130, a recording unit 140, and a photometric unit 150.
  • the imaging lens 110 collects light and guides it to the solid-state imaging device 200.
  • the solid-state imaging device 200 captures image data under the control of the control unit 130 and supplies the image data to the image processing unit 120 and the photometry unit 150 via a signal line 209.
  • the solid-state imaging device 200 includes a visible light pixel that receives visible light and a near-infrared light pixel that receives near-infrared light.
  • This near-infrared light pixel for example, an IR pixel that receives infrared light through an IR transmission filter that selectively transmits near-infrared light in a wavelength range of 0.14 to 1.4 micrometers ( ⁇ m). Is provided.
  • the image data before image processing output from the solid-state imaging device 200 is called RAW image data.
  • the near-infrared light pixel is an example of the infrared light pixel described in the claims.
  • the image processing unit 120 performs predetermined image processing on the RAW image data under the control of the control unit 130.
  • the image processing unit 120 supplies the processed image data to the recording unit 140 via the signal line 129.
  • the recording unit 140 records image data.
  • the photometric unit 150 measures the amount of light based on the image data.
  • the photometric unit 150 supplies the photometric amount to the control unit 130.
  • the control unit 130 controls the entire solid-state imaging device 200.
  • the control unit 130 controls the solid-state imaging device 200 to capture image data, and controls the image processing unit 120 to execute image processing in synchronization with the imaging of the image data. Further, the control unit 130 changes the content of the image processing performed by the image processing unit 120 based on the photometric amount. For example, the control unit 130 causes the image processing unit 120 to generate monochrome image data based on the pixel signal of the IR pixel in the RAW image data when the photometric amount is equal to or less than the threshold value. On the other hand, when the photometric amount is higher than the threshold, the control unit 130 generates color image data by demosaic processing or the like based on the pixel signal of the visible light pixel in the RAW image data.
  • control unit 130 may control the image processing unit 120 based on information other than the photometric amount. For example, the control unit 130 generates image data from a pixel signal of an IR pixel based on time information indicating a time zone such as nighttime, and generates image data from a visible light pixel based on the time information indicating a daytime time zone. Generate. Alternatively, the control unit 130 controls the image processing unit 120 based on an operation signal generated by a user operation.
  • FIG. 2 is a block diagram illustrating a configuration example of the solid-state imaging device 200 according to the first embodiment.
  • the solid-state imaging device 200 includes a vertical drive circuit 210, a pixel array unit 300, a control circuit 220, a column signal processing unit 230, a horizontal drive circuit 240, and an output circuit 250.
  • a pixel array unit 300 a plurality of pixels are arranged in a two-dimensional grid.
  • the pixels arranged in the horizontal direction are hereinafter referred to as “rows”, and the pixels arranged in the vertical direction are hereinafter referred to as “columns”.
  • the column signal processing unit 230 is provided with a signal processing circuit 231 for each column.
  • the control circuit 220 controls the entire solid-state image sensor 200.
  • the control circuit 220 generates a timing signal in accordance with the control of the control unit 130 and supplies the timing signal to the vertical drive circuit 210 and the horizontal drive circuit 240. This timing signal indicates the timing for selecting a row or a column.
  • the vertical drive circuit 210 selects and exposes rows in order under the control of the control circuit 220.
  • the signal processing circuit 231 performs predetermined signal processing on the pixel signals from the pixels in the corresponding column. For example, a correlated double sampling (CDS) process or an AD (Analog to Digital) conversion process for removing fixed pattern noise unique to a pixel is performed as a signal process.
  • the signal processing circuit 231 supplies the processed pixel signal to the output circuit 250 under the control of the horizontal drive circuit 240.
  • the horizontal driving circuit 240 selects the signal processing circuit 231 in order under the control of the control circuit 220 and outputs a pixel signal.
  • the output circuit 250 buffers the pixel signal from the column signal processing unit 230 and outputs it to the image processing unit 120.
  • the output circuit 250 performs various digital signal processing such as black level adjustment and column variation correction in addition to buffering as necessary.
  • FIG. 3 is an example of a top view of the pixel array unit 300 according to the first embodiment.
  • the pixel array unit 300 is provided with visible light pixels and near-infrared light pixels.
  • an R pixel 310, a Gr pixel 320, a B pixel 330, and a Gb pixel 350 are provided as visible light pixels.
  • the R pixel 310 is a pixel that receives light through a color filter that selectively transmits red light
  • the Gr pixel 320 and the Gb pixel 350 are color filters that selectively transmit green light.
  • This is a pixel that receives light through the pixel.
  • the B pixel 330 is a pixel that receives light through a color filter that selectively transmits blue light.
  • an IR pixel 340 is provided as the near-infrared light pixel.
  • the optical filter in each pixel is omitted for convenience of description.
  • Each of the R pixel 310, the Gr pixel 320, the B pixel 330, the IR pixel 340, and the Gb pixel 350 is arranged in a predetermined pattern. Further, a pixel separation region is formed between these pixels. The interval between respective representative points (centers, etc.) of adjacent pixels is hereinafter referred to as “pixel pitch”.
  • a trench having a certain depth is formed in the pixel isolation region around the IR pixel, and a metal 401 is buried in the trench.
  • a plurality of protrusions having a predetermined shape are formed on the light receiving surface of the IR pixel 340 at regular intervals.
  • the shape of these protrusions is, for example, a quadrangular pyramid.
  • the interval between the representative points (vertices and the like) of the adjacent protrusions is hereinafter referred to as “inter-protrusion pitch”.
  • the pitch between the protrusions is smaller than the wavelength of infrared light (for example, 800 nanometers) received by the IR pixel.
  • the reflectance with respect to the light of a light-receiving surface falls, and the transmittance
  • the structure of a surface on which a plurality of protrusions are arranged at an interval shorter than the wavelength of received light is generally called a moth-eye structure.
  • the moth-eye structure of the IR pixel 340 improves the transmittance of the light receiving surface and improves the sensitivity of the IR pixel 340. Further, the light in the IR pixel 340 is absorbed by the metal in the trench around the IR pixel 340 and does not leak to the adjacent pixel. Thereby, the sensitivity of the IR pixel is improved and the color mixture is reduced. By improving the sensitivity and reducing the color mixture, the image quality of the image data captured by the solid-state imaging device 200 is improved.
  • the pitch between protrusions is set to an optimum value according to the wavelength, but may be set to a divisor of the pixel pitch, for example.
  • the pitch between protrusions is set to a divisor of 250 nanometers (nm).
  • the manufacturing apparatus forms a moth-eye structure with a set inter-protrusion pitch in a region including one side of the IR pixel 340 and a part of the surrounding pixel portion region and having the same length as the pixel pitch. Then, after the formation of the moth-eye structure, the manufacturing apparatus forms a trench by removing a part of the protrusion straddling the boundary between the IR pixel 340 and the pixel isolation region.
  • no projection is provided on the light receiving surface of a visible light pixel (such as the R pixel 310) other than the IR pixel 340, and it is a flat surface.
  • a transistor formation region 360 where a transistor (such as a reset transistor) shared by a plurality of pixels is formed is provided.
  • all the IR pixels 340 have a moth-eye structure, and it is not necessary to form trenches around all the IR pixels 340.
  • only a part of the IR pixels 340 may have a moth-eye structure, and a trench may be formed only around the IR pixels 340.
  • FIG. 4 is an example of a circuit diagram of the pixel circuit in the first embodiment.
  • the Gr pixel 320 includes a transfer transistor 321 and a photodiode 322, and the B pixel 330 includes a transfer transistor 331 and a photodiode 332.
  • the IR pixel 340 includes a transfer transistor 341 and a photodiode 342, and the Gb pixel 350 includes a transfer transistor 351 and a photodiode 352.
  • a floating diffusion layer 370 is provided in the pixel isolation region, and a reset transistor 361, an amplification transistor 362, and a selection transistor 363 are provided in the transistor formation region 360.
  • the photodiode 322 photoelectrically converts received light into electric charges.
  • the photodiode 322 supplies the generated charge to the transfer transistor 321.
  • the transfer transistor 321 transfers the charge from the photodiode 322 to the floating diffusion layer 370 according to the control of the vertical drive circuit 210.
  • the configuration of the photodiodes 332, 342, and 352 is the same as that of the photodiode 322.
  • the configuration of the transfer transistors 331, 341, and 351 is the same as that of the transfer transistor 321.
  • the floating diffusion layer 370 accumulates electric charges from any of the transfer transistors 321, 331, 341, and 351 and generates a voltage corresponding to the accumulated amount.
  • the floating diffusion layer 370 supplies the generated voltage pixel signal to the amplification transistor 362.
  • the reset transistor 361 sweeps out the electric charge of the floating diffusion layer 370 and initializes the voltage of the floating diffusion layer 370 according to the control of the vertical drive circuit 210.
  • the amplification transistor 362 amplifies the electric signal from the floating diffusion layer 370 and supplies it to the selection transistor 363 as a pixel signal.
  • the selection transistor 363 supplies the pixel signal to the signal processing circuit 231 through the vertical signal line according to the control of the vertical drive circuit 210.
  • the floating diffusion layer 370 and the transistor formation region 360 are shared by four adjacent pixels, the present invention is not limited to this configuration. A configuration in which the floating diffusion layer 370 or the like is shared by two adjacent pixels may be used, or a configuration in which the floating diffusion layer 370 or the like is not shared and is provided separately for each pixel may be used.
  • FIG. 5 is an example of a cross-sectional view of the pixel array unit 300 according to the first embodiment. This cross-sectional view is a cross-sectional view along the X0-X3 axis in FIG.
  • the adhesion layer 432 is formed on the support substrate 433 with the direction from the support substrate 433 to the light receiving surface as an upward direction, and the planarization layer 431 is formed on the adhesion layer 432.
  • An insulating layer 420 is formed over the planarization layer 431, and a transfer transistor 421 and a wiring 422 are provided on the insulating layer 420.
  • a pixel such as the IR pixel 340 and the Gb pixel 350 and a pixel isolation region 402 are provided on the insulating layer 420.
  • the thickness of the silicon on the insulating layer 420 including wirings and transistors is, for example, 5 micrometers ( ⁇ m).
  • n + layer 405 is formed in the IR pixel 340, and an n + layer 415 is formed in the Gb pixel 350.
  • These n + layers function as photodiodes.
  • the region of the n + layer 405 in the IR pixel 340 is extended below the adjacent n + layer 415.
  • the photodiode (n + layer 405) of the IR pixel 340 the sensitivity of the IR pixel 340 can be improved. Note that it is not always necessary to expand the photodiodes in all of the IR pixels 340.
  • the photodiode may be expanded only for some of the IR pixels 340, and the photodiodes of the remaining IR pixels 340 may have the same configuration as the visible light pixels. If the sensitivity is sufficient with only the moth-eye structure, the area 405 need not be expanded.
  • a hole accumulation portion 406 for suppressing dark current from the interface is provided between the n + layer 405 and the n + layer 415 and the insulating layer 420 including a wiring and a transistor.
  • the hole accumulating portion 406 is formed by a p + layer or the like.
  • a p + layer 404 serving as a hole accumulation portion is also formed on the n + layer 405, and a plurality of protrusions are formed on the surface of the p + layer 414.
  • the p + layer 414 is also formed on the n + layer 415, but the surface thereof is a plane.
  • a trench 403 having a constant depth D trench 1 is formed in the pixel isolation region 402 around the IR pixel 340.
  • the depth of the trench 403 is assumed to be smaller than the n + layer 405.
  • the trench 403 by shallower than the n + layer 405, so Wrapping trench 403, it is possible to extend the n + layer 405 under the n + layer 415.
  • the trench 403 is an example of a light-receiving surface side trench described in the claims.
  • a fixed charge film 413 is formed on the surfaces of the trench 403 and the p + layers 404 and 414.
  • An oxide film 412 having a refractive index lower than that of silicon is formed on the fixed charge film 413. From the Fresnel formula, a part of light incident on a medium (oxide film 412) having a low refractive index from a medium having a high refractive index (such as the p + layer 404) is reflected at the interface thereof, and thus the oxide film 412 is reflected. Functions as a material for preventing leakage of light from the pixel.
  • a metal 401 is embedded in a trench around the IR pixel 340.
  • no trench is formed in the pixel isolation region 402 between the Gb pixel 350 and the adjacent visible light pixel, and a metal 411 is disposed above the trench with an oxide film 412 interposed therebetween.
  • These metals also function as a light shielding material that prevents light leakage from the pixels.
  • the metal 411 is an example of a light receiving surface side member described in the claims.
  • the solid-state imaging device 200 having the light receiving surface on the back surface facing the insulating layer 420 including the wiring and transistors on the front surface is generally called a back-illuminated solid-state imaging device.
  • FIG. 6 is an example of a cross-sectional view schematically showing the structure of the pixel array unit 300 in the first embodiment.
  • FIG. 6 is a cross-sectional view taken along the X1-X2 axis in FIG.
  • the IR pixel is provided with an on-chip IR transmission filter 442 that transmits only infrared light, and the visible light (such as R pixel) selectively transmits visible light having a corresponding wavelength (such as red).
  • An on-chip color filter 443 is provided.
  • an on-chip lens 441 is provided above these optical filters.
  • an antireflection film for example, an oxide film (not shown) of 100 nanometers (nm) is formed.
  • a trench is provided in the pixel isolation region around the IR pixel, and metal 401 is buried in the trench. Further, the photodiode 342 of the IR pixel is extended below the photodiode 352 of the visible light pixel.
  • the solid line arrow is an example of a locus of infrared light incident on the IR pixel. Since the reflectance of the light receiving surface of the IR pixel is reduced by the moth-eye structure of the IR pixel, most of infrared light is transmitted through the light receiving surface. Since the transmitted light is shielded by the metal 401 around the IR pixel, leakage of infrared light from the IR pixel to the adjacent pixel is suppressed, and color mixing is prevented. Further, the photodiode 342 of the IR pixel is expanded as compared with the visible light pixel.
  • the infrared light is slightly incident on the visible light pixel.
  • the infrared light incident on the visible light pixel is detected by the photodiode 342 of the IR pixel extended below the visible light pixel, the color balance of the visible light pixel is hardly lost by the infrared light. Absent.
  • the IR transmission filter 442 that transmits only infrared light is provided in the IR pixel
  • an optical filter that transmits infrared light and visible light may be provided instead.
  • W (White) pixels are arranged instead of IR pixels.
  • the image processing unit 120 at the subsequent stage separates the visible light component and the infrared light component by calculation to generate a monochrome image or a color image.
  • FIG. 7 is a diagram for explaining the relationship between the pitch between the protrusions and the depth of the trench in the first embodiment. Since the light transmittance is different between the apex of the protrusion in the moth-eye structure and the lower part thereof, infrared light diffraction occurs in the moth-eye structure with the protrusion as a unit of diffraction (that is, a diffraction grating). In general, from a medium of refractive index n in, the exit angle of the light diffracted incident on the medium having the refractive index n out (i.e., the diffraction angle) R out is obtained by the following equation.
  • R in is an incident angle of light incident from a medium having a refractive index n in to a medium having a refractive index n out
  • the unit of the incident angle R in and the outgoing angle R out is, for example, “degree”.
  • P is an inter-grating interval (that is, an inter-protrusion pitch) of the diffraction grating (protrusion), and its unit is, for example, nanometers (nm).
  • m is the diffraction order.
  • Lambda is the wavelength of diffracted light (such as infrared light) diffracted by a diffraction grating, and its unit is, for example, nanometers (nm).
  • the other value can be calculated from the equations 1 and 2. For example, assuming that the trench depth D trench 1 is 2000 nanometers (nm) and the pixel size S pixel is 2400 nanometers (nm), approximately 31 degrees is calculated as the emission angle R out from Equation 2.
  • the diffraction order m is set to “1”, and the wavelength of the infrared light is set to 800 nanometers (nm).
  • the refractive index n in of air which is the medium on the incident side, is set to “1.000”, and the incident angle R in is set to “0” degrees.
  • the pitch P between the protrusions is about 418 nanometers (nm) from Equation 1. Is calculated.
  • the emission angle Rout is allowed to have a margin and the inter-protrusion pitch P is 400 nanometers (nm) or less.
  • the emission angle Rout is 32.6 degrees, which is sufficiently larger than 31 degrees.
  • the pitch P between the protrusions may be determined, and the trench depth D trench 1 may be calculated from Equations 1 and 2.
  • the trench depth D trench 1 is about 2227 nanometers (nm), that is, about 2.227 micrometers ( ⁇ m).
  • the trench depth D trench 1 is preferably 2 micrometers ( ⁇ m) or more.
  • FIG. 8 is a graph showing an example of the relationship between the reflectance and the wavelength in the first embodiment.
  • the vertical axis indicates the reflectance
  • the horizontal axis indicates the wavelength of light.
  • the solid line indicates the reflectance characteristics for each wavelength in a pixel whose light receiving surface is a flat surface
  • the dotted line indicates the reflectance for each wavelength in a pixel whose light receiving surface is a moth-eye structure and the pitch between protrusions is 200 nanometers (nm).
  • the characteristics of The alternate long and short dash line indicates the reflectance characteristics for each wavelength in a pixel having a moth-eye structure on the light receiving surface and a pitch between protrusions of 100 nanometers (nm).
  • the moth-eye structure has a lower reflectance than the planar structure. Further, in the moth-eye structure, a pixel having a pitch between protrusions of 200 nanometers (nm) has a lower reflectance than a pixel having a pitch of 100 nanometers (nm).
  • FIG. 9 is a graph showing an example of the relationship between the transmission diffraction intensity and the wavelength in the first embodiment.
  • the vertical axis represents transmission diffraction intensity
  • the horizontal axis represents wavelength.
  • the solid line shows the characteristics of transmission diffraction intensity for each wavelength in a pixel whose light-receiving surface is a plane
  • the dotted line shows the transmission for each wavelength in a pixel whose light-receiving surface is a moth-eye structure and the pitch between protrusions is 200 nanometers (nm).
  • the characteristic of diffraction intensity is shown.
  • the alternate long and short dash line indicates transmission diffraction intensity characteristics for each wavelength in a pixel having a light-receiving surface with a moth-eye structure and a pitch between protrusions of 100 nanometers (nm).
  • a transmission diffraction intensity is higher in a pixel having an interprotrusion pitch of 200 nanometers (nm) than in a pixel having 100 nanometers (nm).
  • the pitch between protrusions is determined from the characteristics shown in FIGS. 8 and 9 and Expressions 1 and 2 so as to satisfy the conditions such as reflectance required by the system.
  • FIG. 10 is an example of a top view of the pixel array unit 300 showing the photodiode region in the first embodiment.
  • a portion surrounded by a thick solid line indicates a region of the photodiode 342 in the IR pixel.
  • a region surrounded by a dotted line indicates a region of the photodiodes 322, 332, and 352 in the visible light pixel and a region of the floating diffusion layer 370.
  • Two visible light pixels are arranged between adjacent IR pixels 340 in the X direction and the Y direction parallel to the light receiving surface.
  • the region of the photodiode 342 in the IR pixel is extended below the photodiodes of the adjacent Gr pixel, Gb pixel, and B pixel, avoiding the floating diffusion layer 370. Thereby, compared with the case where it does not expand, the sensitivity of IR pixel can be made high.
  • FIG. 11 is an example of a top view of the pixel array portion showing the positions of the transistors in the first embodiment.
  • Four pixels share the floating diffusion layer 370, and transfer transistors 321, 331, 341, and 351 are provided in these pixels.
  • the reset transistor 361, the amplification transistor 362, and the selection transistor 363 shared by the four pixels are provided in the transistor formation region 360 in the pixel isolation region.
  • FIG. 12 is a diagram for explaining a manufacturing process until an n + layer and a pixel isolation region are formed in the first embodiment.
  • a is a cross-sectional view showing an example of an SOI (Silicon On Insulator) substrate 450 placed on the manufacturing apparatus of the solid-state imaging device 200.
  • the area a filled with black represents an oxide film such as silicon dioxide (SiO 2 ).
  • a p + layer 414 is formed in the vicinity of the oxide film by boron implantation or the like. Then, an n + layer, a pixel separation region, and a storage portion are formed as illustrated in c in FIG.
  • the n + layer, the pixel isolation region, and the storage portion described above are formed by a plurality of processes.
  • the lower part 451 of the n + layer is formed with the direction toward the oxide film being downward, and then the upper part 452 of the n + layer is formed.
  • the lower portion 451 does not include a portion of the n + layer that is extended to the visible light pixel side.
  • the upper portion 452 includes a portion of the n + layer that is extended to the visible light pixel side.
  • a lower part 453 of the pixel separation region is formed, and then a lower part 454 of the storage unit is formed.
  • an upper portion 455 of the storage portion and an upper portion 456 of the pixel isolation region are formed.
  • FIG. 13 is a diagram illustrating an example of a mask for forming the n + layer and the pixel isolation region in the first embodiment.
  • a is a plan view of the mask 461 for forming the lower part 451 of the n + layer
  • b in the figure is a plan view of the mask 462 for forming the upper part 452 of the n + layer.
  • C in the figure is a plan view of a mask 463 for forming the lower portion 453 of the pixel isolation region.
  • the white part shows the opened part.
  • the mask 461 is a mask in which a pixel region is opened.
  • the manufacturing apparatus injects 5E11 phosphors per square centimeter (cm 2 ), for example, by irradiation with an ion beam of 3 megaelectron volts (MeV).
  • 1E12 ions are injected per square centimeter (cm 2 ) by irradiation with an ion beam of 2.5 megaelectron volts (MeV).
  • the lower portion 451 of the n + layer is formed.
  • the mask 462 is a mask in which an area including four adjacent pixels is opened. Through this mask 462, the manufacturing apparatus injects 5E12 phosphors per square centimeter (cm 2 ), for example, by irradiation with an ion beam of 1.0 megaelectron volts (MeV). This step forms an upper portion 452 of the n + layer.
  • the mask 463 is a mask in which a region between pixels is opened. Through this mask 463, the manufacturing apparatus injects 3E12 boron atoms per square centimeter (cm 2 ), for example, by irradiation with an ion beam of 1.0 megaelectron volts (MeV). By this step, the lower portion 453 of the pixel isolation region is formed.
  • FIG. 14 is a diagram illustrating an example of a mask for forming a region for separating n + and a pixel separation region in the first embodiment.
  • a in the figure is a plan view of a mask 464 for forming a p + region 454 that separates the n + in the vertical direction, b in the figure, the p + region 455 that separates the n + longitudinally
  • the white part shows the opened part.
  • the mask 464 is a mask in which a visible light pixel region is opened. Through this mask 464, the manufacturing apparatus implants 5E12 boron ions per square centimeter (cm 2 ), for example, by irradiation with an ion beam of 0.7 megaelectron volts (MeV). By this step, the lower portion 454 of the storage portion is formed.
  • the mask 465 is a mask in which a part of the visible light pixel is opened between the pixels, the region of the IR pixel, and the visible light pixel.
  • the manufacturing apparatus implants 5E12 boron ions per square centimeter (cm 2 ), for example, by irradiation with an ion beam of 0.4 megaelectron volts (MeV).
  • MeV megaelectron volts
  • an upper portion 455 of the storage portion and an upper portion 456 of the pixel area are formed.
  • the manufacturing apparatus activates the impurity element by an annealing process at an annealing temperature of 1000 ° C.
  • FIG. 15 is a diagram for explaining a manufacturing process until a transistor and a floating diffusion layer are formed in the first embodiment.
  • the manufacturing apparatus After the formation of the n + layer, the pixel isolation region, and the storage portion, the manufacturing apparatus forms the gate 457 of the transistor as illustrated in a in the figure, and forms the sidewall 458 as illustrated in b in the figure. To do.
  • the manufacturing apparatus the hole accumulation unit 406 which is a p + region as illustrated in c of FIG formed to connect the p + regions separating the n + layer, forming a floating diffusion layer 416.
  • the manufacturing apparatus also forms the source and drain of the transistor.
  • FIG. 16 is a diagram for explaining a manufacturing process until the planarization layer and the adhesion layer in the first embodiment are formed.
  • the manufacturing apparatus forms a salicide block film as illustrated by a in FIG.
  • the manufacturing apparatus forms an insulating layer 420 including a wiring layer and a transistor as illustrated in b in the figure, and sequentially forms a planarizing layer 431 and an adhesion layer 432 as illustrated in c in the figure.
  • titanium nitride (TiN) is formed as the adhesion layer 432 by a chemical vapor deposition (CVD: Chemical Vapor Deposition) method.
  • CVD Chemical Vapor Deposition
  • FIG. 17 is a diagram for explaining a manufacturing process until the oxide film is removed in the first embodiment.
  • the manufacturing apparatus attaches the support substrate 433 to the adhesion layer 432. Then, the manufacturing apparatus inverts the upper and lower sides of the solid-state imaging device 200 and removes the oxide film to expose the p + layer 414 as illustrated in FIG.
  • FIG. 18 is a diagram for explaining a manufacturing process until the oxide film is filled in the first embodiment.
  • the manufacturing apparatus After the removal of the oxide film on the SIO substrate, the manufacturing apparatus forms a moth-eye structure in the p + layer 404 of the IR pixel and then forms a trench 403 as illustrated in a in FIG.
  • the moth-eye structure is formed by, for example, a method described in JP2013-033864A. In this method, the moth-eye structure is formed by wet etching using a dot-shaped resist pattern covering the apex portion of the protrusion as a mask.
  • the manufacturing apparatus forms the trench 403 by dry etching using sulfur hexafluoride (SF 6 ) / 8 fluorocyclobutane (C 4 F 8 ) gas.
  • SF 6 sulfur hexafluoride
  • C 4 F 8 fluorocyclobutane
  • a resist mask subjected to resist patterning that opens a part of each pixel isolation region is used.
  • the size of the opening of the resist mask is set to 200 nanometers (nm), for example.
  • the manufacturing apparatus forms a fixed charge film 413 at the interface.
  • Al 2 O 3 is formed as the fixed charge film 413 by an atomic layer deposition (ALD) method.
  • the manufacturing apparatus closes the trench 403 by isotropically forming an oxide film 412 that is an insulating film having a refractive index lower than that of silicon.
  • the thickness of the oxide film 412 is, for example, 50 nanometers (nm).
  • the manufacturing apparatus may further form a film for optimizing the reflectivity with respect to the light receiving surface by a physical vapor deposition (PVD) method after the fixed charge film 413 is formed.
  • PVD physical vapor deposition
  • the pixel array section 300 having the cross section illustrated in FIG. 5 is manufactured.
  • the pixel array section 300 having the cross section illustrated in FIG. 6 is completed by forming an optical filter and an on-chip lens.
  • FIG. 20 is a flowchart illustrating an example of a method for manufacturing the pixel array unit 300 according to the first embodiment.
  • the manufacturing apparatus forms a P + layer in the vicinity of the oxide film (step S901). Then, the manufacturing apparatus forms an n + layer and a pixel separation region using a plurality of masks (step S902).
  • the manufacturing apparatus generates a gate of the transistor (Step S903) and forms a sidewall (Step S904). Then, the manufacturing apparatus forms an accumulation part for accumulating charges (step S905), and forms a floating diffusion layer (step S906). Further, the manufacturing apparatus forms the source and drain of the transistor (step S907), and forms the salicide block film (step S908).
  • the manufacturing apparatus forms a wiring layer (step S909), and forms a planarization layer and an adhesion layer (step S910).
  • the manufacturing apparatus performs bonding with the support substrate (step S911), and forms a moth-eye structure in the IR pixel by wet etching or the like (step S912).
  • the manufacturing apparatus forms a trench around the IR pixel by dry etching or the like (step S913), and forms an oxide film (step S914).
  • the manufacturing apparatus embeds metal in the trench (step S915), performs the remaining processes such as formation of an on-chip lens, and ends the manufacturing of the pixel array unit.
  • the plurality of protrusions are formed on the light receiving surface of the IR pixel 340, and the metal is embedded in the trench around the IR pixel 340, whereby the reflectance of the light receiving surface is increased.
  • the light leaking from the IR pixel 340 can be absorbed by the metal.
  • the sensitivity of the IR pixel 340 can be improved by reducing the reflectance. Further, by absorbing the leaked light, it is possible to prevent color mixing between the wavelength of the light leaked from the IR pixel 340 to the adjacent visible light pixel and the wavelength of the incident light of the visible light pixel.
  • the manufacturing measure is to form a moth-eye structure in a region including the entire light receiving surface of the IR pixel 340, and to remove a part of the protrusion straddling the boundary between the IR pixel 340 and the pixel isolation region.
  • the manufacturing apparatus it is desirable for the manufacturing apparatus to form a moth-eye structure so that protrusions do not straddle the boundary between the IR pixel 340 and the pixel separation region.
  • a moth-eye structure may be formed only in a part of the region arranged in the center of the IR pixel 340.
  • the pixel array unit 300 of the first modification example in the first embodiment is different from the first embodiment in that a moth-eye structure is formed only in a partial region at the center of the IR pixel 340.
  • FIG. 21 is an example of a top view of the pixel array unit 300 in the first modification of the first embodiment.
  • the pixel array unit 300 according to the first modification is different from the first embodiment in that a moth-eye structure is formed only in a central region on the light receiving surface of the IR pixel 340.
  • the remaining part of the IR pixel 340 has a planar structure like the visible light pixel.
  • the moth-eye structure is formed at the center, but the moth-eye structure may be formed at a location other than the center.
  • the incident angle of the chief ray varies depending on the position of the IR pixel 340 in the pixel array unit 300. For example, the incident angle decreases at the right end and the left end of the pixel array unit 300, but increases near the center of the pixel array unit 300. As a result, the incident position of the chief ray is different between the center and the end of the pixel array unit 300.
  • the position where the moth-eye structure is provided may be changed in accordance with the incident position.
  • a moth-eye structure is formed at the center of the pixel.
  • a moth-eye structure is formed at positions such as the right end and the left end.
  • the plurality of protrusions are formed in a partial region of the IR pixel 340. It is no longer necessary to cut a part of Thereby, generation
  • the metal 401 is embedded in the trench 403 around the IR pixel 340.
  • a member other than the metal 401 (for example, the oxide film 412) is embedded in the trench as a member that reflects light. You can also.
  • the pixel array unit 300 of the second modification example of the first embodiment is different from the first embodiment in that a member other than the metal 401 is embedded in the trench 403.
  • FIG. 22 is an example of a cross-sectional view of the pixel array unit 300 according to the second modification of the first embodiment.
  • the pixel array unit 300 according to the second modified example is different from the first embodiment in that an oxide film 412 is embedded in the trench 403.
  • the thickness of the oxide film 412 is, for example, 150 nanometers (nm).
  • the refractive index of the oxide film 412 is lower than that of silicon, light leaking from the IR pixel 340 is reflected from the Fresnel formula, and color mixing can be prevented.
  • the metal 401 is not embedded in the trench 403 but is disposed on the pixel isolation region 402.
  • IR pixels are arranged for every two visible light pixels in the X-axis direction and the Y-direction, but the number of IR pixels 340 in the pixel array unit 300 is reduced, Accordingly, the number of visible light pixels can be increased.
  • the pixel array unit 300 according to the third modification of the first embodiment is different from the first embodiment in that the number of visible light pixels is increased.
  • FIG. 23 is an example of a top view of the pixel array unit 300 showing the photodiode region in the third modification of the first embodiment.
  • the third modification three visible light pixels are arranged between the IR pixels 340 that are in close contact with each other in the X-axis direction and the Y-axis direction. That is, an IR pixel is arranged for every three visible light pixels. Therefore, the number of IR pixels 340 is reduced as compared with the first embodiment in which the IR pixels 340 are arranged every two, and the number of visible light pixels is increased correspondingly.
  • the arrangement of the photodiodes 332 is also changed.
  • the shape and area of the photodiode 332 of the third modification are the same as those of the first embodiment.
  • the number of visible light pixels is increased, so that the image quality of the image data including the visible light pixels can be improved.
  • the four pixels share the floating diffusion layer 370 and the reset transistor 361.
  • the two pixels may share the floating diffusion layer 370 and the like.
  • the pixel array unit 300 in the fourth modification example of the first embodiment is different from the first embodiment in that two pixels share the floating diffusion layer 370 and the like.
  • FIG. 24 is an example of a top view of the pixel array portion showing the photodiode region in the fourth modification of the first embodiment.
  • the pixel array unit 300 of the fourth modified example two adjacent pixels share the floating diffusion layer 370, so the number of floating diffusion layers 370 is larger than that in the first embodiment in which four pixels share. Is doubled. Further, the area of the photodiode 352 formed so as to avoid the floating diffusion layer 370 becomes smaller than that of the first embodiment due to the increase of the floating diffusion layer 370.
  • FIG. 25 is an example of a circuit diagram of a pixel circuit in a fourth modification of the first embodiment.
  • the floating diffusion layer 370, the reset transistor 361, the amplification transistor 362, and the selection transistor 363 are shared by two pixels such as the IR pixel 340 and the Gb pixel 350. Since the number of shared pixels is reduced, the number of charge accumulation and emission of the floating diffusion layer 370 and the number of shared transistor operations are reduced. Thereby, compared with 1st Embodiment, the lifetime of the solid-state image sensor 200 can be extended.
  • the number of charge accumulation and emission of the floating diffusion layer 370 can be reduced.
  • the depth of the photodiode of the visible light pixel is the same.
  • the depth of the photodiode of the visible light pixel may be a value corresponding to the wavelength of light received by the pixel.
  • the pixel array unit 300 according to the fifth modification of the first embodiment differs from the first embodiment in that a photodiode having a depth corresponding to the wavelength of light received by the pixel is provided.
  • FIG. 26 is an example of a cross-sectional view schematically showing the structure of the pixel array unit 300 in the fifth modification example of the first embodiment.
  • the depth of the photodiode is made shallower as the wavelength of received light is shorter from the viewpoint of optimizing sensitivity for each wavelength.
  • the wavelength of the B pixel 330 is short, and hereinafter, the wavelength becomes longer in the order of the G pixel (320 and 350), the R pixel 310, and the IR pixel 340.
  • the pixel array unit 300 is formed such that the photodiode 332 of the B pixel 330 is the shallowest, and the photodiodes become deeper in the order of the G pixel (320 and 350), the R pixel 310, and the IR pixel 340.
  • B pixels and G pixels having a relatively shallow photodiode depth are preferentially arranged at positions adjacent to the IR pixels. If the photodiode of the visible light pixel adjacent to the IR pixel is made shallower, the trench can be made shallower.
  • the depth D trench 2 of the fifth modification is smaller than the depth D trench 1 of the first embodiment. By making the trench shallow, the volume of the photodiode 342 extending below the trench and the visible light pixel can be increased.
  • the photodiode having the shallow depth is disposed in the visible light pixel adjacent to the IR pixel. Can be increased.
  • the moth-eye structure and the trench are formed in the back-illuminated solid-state image sensor 200.
  • the moth-eye structure and A trench may be formed in the front-illuminated solid-state image sensor 200 having the light receiving surface on the wiring layer side.
  • the pixel array unit 300 according to the sixth modification of the first embodiment is different from the first embodiment in that the light receiving surface is the wiring layer side.
  • FIG. 27 is an example of a cross-sectional view of the pixel array section in the sixth modification of the first embodiment.
  • An n + layer 501 is formed in the IR pixel 340, and an n + layer 502 is formed in the adjacent Gb pixel 350. These n + layers function as photodiodes.
  • the n + layer 501 is extended below the n + layer 502 with the direction toward the light receiving surface as the upward direction.
  • a p + layer 505 is formed on the n + layer 501, and a p + layer 507 is formed on the n + layer 502.
  • the p + layer 505 has a moth-eye structure, while the p + layer 507 has a planar structure.
  • a trench 503 is formed in a pixel isolation region around the IR pixel 340, and a metal 504 is embedded in the trench 503.
  • a floating diffusion layer 506 is formed in the pixel isolation region.
  • an insulating layer 509 including a wiring layer is provided above the p + layer 505 and the p + layer 507, and the transfer transistor 508 and the like are disposed in the wiring layer 509.
  • pixels such as the IR pixel 340 photoelectrically convert the light received through the wiring layer 509 that is the surface.
  • Such a front-illuminated solid-state imaging device is generally easier to manufacture than a back-illuminated type because it eliminates the need for steps such as shaving the substrate.
  • FIG. 28 is an example of a top view of the pixel array unit 300 in the sixth modification example of the first embodiment.
  • a trench 503 is provided around the IR pixel 340, and a metal 504 is embedded in the trench 503.
  • the trench 503 is formed to avoid the floating diffusion layer 506 and the transistor formation region 360 in which the reset transistor and the like are formed.
  • the solid-state imaging device is of the front side irradiation type, it can be easily manufactured as compared with the back side irradiation type.
  • a moth-eye structure is provided only in the IR pixel 340, and a trench is provided around the IR pixel 340, thereby improving the sensitivity of the IR pixel 340 and preventing leakage of light from the IR pixel 340.
  • the sensitivity of the visible light pixel is insufficient, and light leakage from the visible light pixel may occur.
  • the solid-state imaging device 200 of the second embodiment is different from the first embodiment in that the sensitivity of visible light pixels is improved and light leakage from the visible light pixels is prevented.
  • FIG. 29 is an example of a top view of the pixel array unit 300 according to the second embodiment.
  • the pixel array unit 300 according to the second embodiment is different from the first embodiment in that a plurality of protrusions are formed on the light receiving surface of a visible light pixel such as the B pixel 330 to form a moth-eye structure.
  • the present embodiment is different from the first embodiment in that a trench is also provided around the visible light pixel and the metal 401 is embedded in the trench.
  • the pitch between the protrusions of each pixel is the same.
  • the moth-eye structure is formed at the center, but the moth-eye structure may be formed at a place other than the center.
  • a moth-eye structure is formed in the center of the pixel.
  • a moth-eye structure is formed at the incident position of the principal ray, such as the right end or the left end. The same applies to the IR pixel 340.
  • FIG. 30 is an example of a cross-sectional view schematically showing the structure of the pixel array unit 300 according to the second embodiment. Since the reflectance of the light receiving surface of the visible light pixel is reduced by the moth-eye structure of the visible light pixel, most of the visible light is transmitted through the light receiving surface. Moreover, since the metal 401 in the trench around the visible light pixel shields the light transmitted through the visible light pixel and emitted to the adjacent pixel, leakage of light from the visible light pixel to the adjacent pixel is suppressed. Color mixing is prevented.
  • FIG. 31 is a graph showing an example of the relationship between the sensitivity and wavelength of a pixel having an inter-projection pitch of 125 nanometers (nm) according to the second embodiment.
  • the vertical axis indicates the sensitivity of the pixel
  • the horizontal axis indicates the wavelength of light incident on the pixel.
  • a thick solid line indicates sensitivity for each wavelength of the R pixel having the planar structure
  • a thin solid line indicates sensitivity for each wavelength of the R pixel having the moth-eye structure.
  • the thick dotted line indicates the sensitivity for each wavelength of the G pixel having the planar structure
  • the thin dotted line indicates the sensitivity for each wavelength of the G pixel having the moth-eye structure.
  • a thick alternate long and short dash line indicates sensitivity for each wavelength of a B pixel having a planar structure
  • a thin alternate long and short dashed line indicates sensitivity for each wavelength of a B pixel having a moth-eye structure.
  • FIG. 32 is a graph showing an example of the relationship between the sensitivity and wavelength of a pixel having an interprotrusion pitch of 250 nanometers (nm) in the second embodiment. As illustrated in the figure, when the pitch between protrusions is 250 nanometers (nm), the sensitivity is higher in each of the R pixel, G pixel, and B pixel than in the case of 100 nanometers (nm). There is a difference.
  • FIG. 33 is a graph showing an example of the relationship between the sensitivity and wavelength of a pixel having an interprotrusion pitch of 300 nanometers (nm) according to the second embodiment. As illustrated in the figure, when the pitch between protrusions is set to 300 nanometers (nm), the sensitivity of each of the R pixel, G pixel, and B pixel is higher than that of 250 nanometers (nm). The difference becomes even greater.
  • the pitch between protrusions is 250 nanometers (nm) or more, the effect of improving sensitivity can be sufficiently obtained. Therefore, the pitch between protrusions is desirably 250 nanometers (nm) or more.
  • a plurality of protrusions are formed on the light receiving surface of the visible light pixel, a trench is provided around the protrusion, and the metal 401 is embedded, thereby forming the visible light pixel.
  • the reflectance can be reduced, and the light leaking from the visible light pixel can be absorbed by the metal.
  • the sensitivity of the visible light pixel can be improved by reducing the reflectance. Further, color mixing can be prevented by absorption of leaked light.
  • the manufacturing measure forms a moth-eye structure in a region including the entire light-receiving surface of the pixel, and forms a trench by cutting a part of the protrusion across the boundary between the pixel and the pixel separation region. It was. However, in this manufacturing method, there is a possibility that a defect may occur when a part of the protrusion is cut. For this reason, it is desirable for the manufacturing apparatus to form a moth-eye structure so that the protrusions do not straddle the boundary between the pixel and the pixel separation region. For example, the moth-eye structure may be formed only in a part of the region arranged in the center of the pixel.
  • the pixel array unit 300 according to the first modification of the first embodiment is different from the first embodiment in that a moth-eye structure is formed only in a partial region at the center of the pixel.
  • FIG. 34 is an example of a top view of the pixel array unit 300 in the first modified example of the second embodiment.
  • the pixel array unit 300 according to the first modification is the first embodiment in that a moth-eye structure is formed only in a partial region of the center on the light receiving surfaces of the IR pixel 340 and the visible light pixel. And different.
  • the manufacturing apparatus since the plurality of protrusions are formed in a partial region of the pixel, the manufacturing apparatus uses one of the protrusions when forming the trench. No need to cut parts. Thereby, generation
  • the manufacturing apparatus forms a moth-eye structure at a part of the center of the pixel.
  • the sensitivity is improved as compared with the case where it is formed partially.
  • the manufacturing apparatus may cut off a part of the protrusion when the trench is formed, which may cause a defect.
  • the solid-state imaging device 200 according to the second modification of the second embodiment has a second feature in that a moth-eye structure is formed on the entire surface of the pixel so that the protrusion does not straddle the boundary between the pixel and the pixel separation region. Different from the embodiment.
  • FIG. 35 is an example of a top view of the pixel array unit 300 in the second modification example of the second embodiment.
  • the pixel array unit 300 according to the second modification is different from the second embodiment in that a plurality of protrusions are formed at a pitch between protrusions that approximately matches the divisor of the pixel size in the X direction or the Y direction.
  • the pitch between protrusions is set to 480 nanometers.
  • a plurality of protrusions may be formed at a pitch between protrusions that approximately matches the divisor of the pixel size.
  • the inter-projection pitch substantially matches the divisor of the pixel size in the predetermined direction.
  • the protrusion will not straddle. This eliminates the possibility of a defect occurring when the manufacturing apparatus forms the trench.
  • the pitch between the protrusions of each pixel is the same.
  • the greater the pitch between the protrusions the more easily the effect of reducing the reflectance.
  • the shorter the incident light wavelength the larger the diffraction angle and the higher the possibility of color mixing from Equation 1 and Equation 2.
  • the optimum interprotrusion pitch value at which the reflectance is reduced and color mixing is difficult to occur depends on the wavelength of incident light of the pixel.
  • a solid-state imaging device 200 according to a third modification of the second embodiment is different from the second embodiment in that a plurality of protrusions are formed at a pitch between protrusions corresponding to the wavelength of incident light.
  • FIG. 36 is an example of a top view of the pixel array unit 300 according to the third modification of the second embodiment.
  • the pixel array unit 300 of the third modification is different from the second embodiment in that the pitch between the protrusions of the pixel is reduced as the wavelength of the incident light of the pixel is shorter.
  • the wavelength of the B pixel 330 is short, and hereinafter, the wavelength becomes longer in the order of the G pixel (320 and 350), the R pixel 310, and the IR pixel 340.
  • the moth-eye structure is formed such that the pitch between the protrusions of the B pixel 330 is the shortest, and the pitch between the protrusions increases in the order of the G pixel (320 and 350), the R pixel 310, and the IR pixel 340.
  • a plurality of protrusions are formed in each pixel at a pitch between protrusions corresponding to the wavelength of incident light. Color mixing is less likely to occur than when the pitch between the protrusions is the same.
  • both the IR pixel 340 and the visible light pixel are provided in the solid-state imaging device 200.
  • the IR pixel 340 and the visible light pixel must be provided with optical filters separately, the number of manufacturing steps is increased as compared with the case where only the IR pixel is provided. Therefore, from the viewpoint of facilitating manufacturing, a configuration in which only IR pixels are provided and a moth-eye structure and a trench are formed may be used.
  • the solid-state imaging device 200 of the fourth modification example of the second embodiment is different from the second embodiment in that only IR pixels are provided and a moth-eye structure and a trench are formed.
  • FIG. 37 is an example of a cross-sectional view schematically showing the structure of the pixel array unit 300 in the fourth modification example of the second embodiment.
  • the pixel array unit 300 of the fourth modification is different from the second embodiment in that no visible light pixel is provided and only the IR pixel 340 is provided.
  • Each light receiving surface of the IR pixel 340 has a moth-eye structure, and a trench is provided around the IR pixel 340 and a metal 401 is buried.
  • the fourth modification of the second embodiment of the present technology by providing only the IR pixel 340, forming a plurality of protrusions on the light receiving surface, and embedding metal in the surrounding trenches, The reflectance of the light receiving surface can be reduced, and light leaking from the pixel can be absorbed by the metal.
  • the fourth modification of the second embodiment since no visible light pixel is provided, there is no need to provide a color filter for visible light pixels, and the second embodiment in which a visible light pixel is also provided. In comparison, the manufacturing becomes easier.
  • the metal 401 is embedded in the trench around each of the pixels (such as the R pixel 310).
  • a member other than the metal 401 for example, the oxide film 412 may be embedded in the trench. it can.
  • the solid-state imaging device 200 according to the fifth modification of the second embodiment is different from the second embodiment in that the oxide film 412 is embedded in the trench.
  • FIG. 38 is an example of a cross-sectional view schematically showing the structure of the pixel array unit 300 in the fifth modification example of the second embodiment.
  • the pixel array unit 300 according to the fifth modification is different from the first embodiment in that an oxide film 412 is embedded in the trench 403.
  • the refractive index of the oxide film 412 is lower than that of silicon, light leaking from the IR pixel 340 is reflected from the Fresnel formula, and color mixing can be prevented.
  • the metal 401 is not embedded in the trench 403 but is disposed on the pixel isolation region 402.
  • the IR cut filter is not provided.
  • the optical filter that transmits visible light also transmits some infrared light in addition to visible light. There is a possibility that the image quality is deteriorated by being incident on a visible light pixel.
  • the solid-state imaging device 200 according to the third embodiment is different from the first embodiment in that infrared light to visible light pixels is blocked.
  • FIG. 39 is an example of a cross-sectional view schematically showing the structure of the pixel array unit 300 in the third embodiment.
  • the pixel array unit 300 of the third embodiment is different from the first embodiment in that it further includes an IR cut filter 444.
  • the IR cut filter 444 blocks infrared light to the visible light pixel.
  • the IR cut filter 444 is provided above the on-chip lens 441. However, in the IR cut filter 444, the portion of the IR pixel 340 is opened, and only the infrared light to the visible light pixel is blocked.
  • the IR cut filter 444 in which the IR pixel 340 is opened is provided, it is possible to block infrared light from entering the visible light pixel. Thereby, the image quality of image data can be improved.
  • the IR cut filter 444 in which the IR pixel 340 portion is opened is provided, but infrared light from the opened portion may be incident on the visible light pixel.
  • the solid-state imaging device 200 according to the first modification of the third embodiment is different from the third embodiment in that an IR cut filter without an opening is inserted.
  • FIG. 40 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to a modification of the third embodiment.
  • the imaging apparatus 100 according to the modification of the third embodiment is different from the third embodiment in that an IR cut filter 160 and a motor 170 are further provided.
  • the solid-state imaging device 200 according to the modification of the third embodiment is different from the third embodiment in that the IR cut filter 444 is not provided.
  • the IR cut filter 160 blocks infrared light. It is assumed that the visible light pixel portion is not opened in the IR cut filter 160.
  • the motor 170 performs either insertion of the IR cut filter 160 at a predetermined position between the imaging lens 110 and the solid-state imaging device 200 or removal from the position according to the control of the control unit 130. .
  • the IR cut filter 160 is an example of an infrared light blocking filter described in the claims.
  • the motor 170 is an example of the insertion / extraction part as described in a claim.
  • the control unit 130 controls the motor 170 based on the photometric quantity and causes the IR cut filter 160 to be inserted or removed.
  • the control unit 130 causes the IR cut filter 160 to be removed when the photometric amount is equal to or smaller than the threshold value, and inserts the IR cut filter 160 otherwise.
  • the control unit 130 may control the motor 170 based on information other than the photometric amount.
  • the control unit 130 removes the IR cut filter 160 based on time information indicating a time zone such as nighttime, and inserts the IR cut filter 160 based on time information indicating a daytime time zone.
  • the control unit 130 controls the motor 170 based on the operation signal.
  • FIG. 41 is an example of a cross-sectional view of the IR cut filter 160 and the pixel array unit 300 in a modification of the third embodiment.
  • the IR cut filter 160 has no IR pixel 340 portion, so that no infrared light is incident on the visible light pixel. For this reason, the image quality of the image data can be improved as compared with the third embodiment.
  • the IR cut filter 160 without an opening is inserted or removed, so that infrared light to the visible light pixel can be blocked. Thereby, the image quality of the image data generated from the pixel signal of the visible light pixel can be improved.
  • the trench is formed only on the light receiving surface (back surface), but a trench may be further formed on the surface facing the back surface.
  • the solid-state imaging device 200 of the fourth embodiment is different from the first embodiment in that a trench is further formed on the surface side.
  • FIG. 42 is an example of a cross-sectional view schematically illustrating the structure of the pixel array unit 300 according to the fourth embodiment of the present technology.
  • the pixel array unit 300 according to the fourth embodiment is different from the first embodiment in that a trench 472 is also formed on the surface side.
  • the trench 472 is formed near the center of each pixel on the surface.
  • an oxide film is buried in the trench 472 as well as the trench 403 on the back surface side.
  • a planarization film 471 is provided on the upper portion of the trench 403.
  • the trench 472 is an example of the facing surface side trench described in the claims.
  • the oxide film in the trench 472 is an example of a facing surface side member described in the claims.
  • the pixel array unit 300 of the fourth embodiment is the first in that a moth-eye structure is formed not only in the IR pixel but also in the visible light pixel, and the trench 403 is formed around the visible light pixel on the back surface. This is different from the embodiment. Another difference from the first embodiment is that the photodiode of the IR pixel is not extended to the IR pixel side. Further, the trenches 403 and 452 are different from the first embodiment in that no metal is provided and only the oxide film is buried.
  • the trench 472 is provided on the surface side as described above, light is reflected and scattered in the trench 472 in addition to light scattering by the moth-eye structure unevenness, so that the trench 472 is not provided. This increases the optical path length. Thereby, the sensitivity of a pixel can be improved.
  • a trench 472 may be formed on the surface side of each pixel array unit 300 in the first, second, and third embodiments and their modifications, as in the fourth embodiment. .
  • the surface is a light receiving surface, and therefore the trench 472 is provided on the back surface.
  • FIG. 43 is an example of a cross-sectional view showing the structure of the pixel array unit 300 according to the fourth embodiment.
  • a trench 472 is formed in the center of the pixel on the surface on the insulating layer 420 side of the substrate provided with the pixel, that is, the surface.
  • the depth of the trench 472 viewed from the front surface is shorter than the distance between the front surface and the back surface.
  • FIG. 43 the photodiode of the infrared light pixel is not expanded, but the photodiode may not be expanded.
  • FIG. 44 is an example of a cross-sectional view illustrating the structure of the pixel array unit 300 according to the fourth embodiment in an example in which the photodiode of the infrared light pixel is expanded.
  • the trench 472 is formed in the central portion of the pixel only on the surface on the insulating layer 420 side, that is, the surface of the substrate on which the infrared light pixel is provided.
  • the depth of the trench 472 viewed from the front surface is shorter than the distance between the front surface and the back surface.
  • FIG. 45 is an example of a bottom view of the pixel array unit 300 according to the fourth embodiment.
  • the figure shows a pixel array unit 300 viewed from the bottom surface with the front surface being the bottom surface of the substrate.
  • a trench 472 is provided at the center like an island.
  • FIG. 46 is a graph showing an example of the relationship between pixel sensitivity and wavelength in the fourth embodiment.
  • the vertical axis indicates the sensitivity of the pixel
  • the horizontal axis indicates the wavelength of light incident on the pixel.
  • a thick solid line indicates the sensitivity for each wavelength of the R pixel having no trench 472 on the surface side
  • a thin solid line indicates the sensitivity for each wavelength of the R pixel having the trench 472 on the surface side.
  • a thick dotted line indicates sensitivity for each wavelength of the G pixel having no trench 472 on the surface side
  • a thin dotted line indicates sensitivity for each wavelength of the G pixel having the trench 472 on the surface side.
  • a thick alternate long and short dash line indicates sensitivity for each wavelength of the B pixel without the trench 472 on the surface side
  • a thin alternate long and short dashed line indicates sensitivity for each wavelength of the B pixel with the trench 472 on the surface side.
  • the sensitivity of the pixel is improved by providing the trench 472 on the surface side. For example, the sensitivity is improved by about 5 percent (%).
  • the trench 472 is also provided on the front surface side and the oxide film is buried, so that light is reflected and scattered by the trench 472 to further improve the sensitivity of the pixel. Can be made.
  • this technique can also take the following structures.
  • a solid-state imaging device comprising: a light receiving surface side member embedded in the light receiving surface side trench.
  • the solid-state imaging device according to any one of (1) to (7), wherein the pixel includes an infrared light pixel that receives infrared light and a visible light pixel that receives visible light.
  • the plurality of protrusions are formed on the infrared light pixel.
  • the plurality of protrusions are formed in both the infrared light pixel and the visible light pixel.
  • the solid-state imaging device according to any one of (8) to (10), wherein the infrared light blocking filter is disposed between the visible light pixel and an imaging lens.
  • the infrared light pixel includes a first photoelectric conversion unit that photoelectrically converts the infrared light
  • the visible light pixel includes a second photoelectric conversion unit that photoelectrically converts the visible light
  • the solid-state imaging device according to any one of (8) to (11), wherein the first photoelectric conversion unit is extended below the second photoelectric conversion unit with a direction toward the imaging lens as an upper direction.
  • the infrared light pixel includes a photoelectric conversion unit that photoelectrically converts light
  • the depth of the said light-receiving surface side trench is a solid-state image sensor in any one of said (8) to (12) smaller than the photoelectric conversion part of the said infrared light pixel.
  • a plurality of the pixels are provided, Each of the plurality of pixels receives light of different wavelengths, Each of the plurality of pixels is the solid-state imaging device according to any one of (1) to (13) including a photoelectric conversion unit having a depth corresponding to the wavelength of the light.
  • a plurality of the pixels are provided, Each of the plurality of pixels receives light of different wavelengths,
  • a facing surface side trench formed in a facing surface facing the light receiving surface of the substrate on which the pixels are formed;
  • the solid-state imaging device according to any one of (1) to (15), further including a facing surface side member embedded in the facing surface side trench.
  • a solid-state imaging device comprising: An imaging apparatus comprising: an imaging lens that guides light to the solid-state imaging device.
  • an infrared light blocking filter for blocking infrared light
  • An insertion / removal unit that performs either insertion of the infrared light blocking filter at a predetermined position between the imaging lens and the solid-state imaging device or removal of the infrared light blocking filter from the predetermined position;
  • the pixel includes an infrared light pixel that receives infrared light and a visible light pixel that receives visible light.
  • the solid-state imaging device further includes a signal processing unit that processes a pixel signal from the pixel.
  • a pixel formation procedure for forming pixels on the substrate A protrusion forming procedure for forming a plurality of protrusions on the light receiving surface of the pixel;
  • a solid-state imaging device manufacturing method comprising: a burying procedure for embedding a light receiving surface side member in the light receiving surface side trench.
  • Imaging apparatus 110 Imaging lens 120 Image processing part 130 Control part 140 Recording part 150 Photometry part 160 IR cut filter 170 Motor 200 Solid-state image sensor 210 Vertical drive circuit 220 Control circuit 230 Column signal processing part 231 Signal processing circuit 240 Horizontal drive circuit 250 Output circuit 300 Pixel array section 310 R pixel 320 Gr pixel 321, 331, 341, 351, 421, 508 Transfer transistor 322, 332, 342, 352 Photo diode 330 B pixel 340 IR pixel 350 Gb pixel 360 Transistor formation region 361 Reset transistor 362 Amplifying transistor 363 Select transistor 370, 416, 506 Floating diffusion layer 401, 411, 504, 473 Metal 402 Pixel isolation region 403, 47 , 503 trench 404,414,505,507 p + layer 405,415,501,502 n + layer 406 hole accumulation unit 412 oxide film 413 fixed charge film 420,509 insulating layer 422 lines 431 planarization layer 432 contact layer 433 support

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Optical Filters (AREA)
  • Surface Treatment Of Optical Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

固体撮像素子において混色を抑制しつつ、主に近赤外光の感度を向上させる。 固体撮像素子は、画素、受光面側トレンチ、および、受光面側遮光部材を具備する。固体撮像素子において、画素の受光面には複数の突起が形成される。また、固体撮像素子において、受光面側トレンチは、受光面において複数の突起が形成された画素の周囲に形成される。また、固体撮像素子において、受光面に複数の突起が形成された画素の周囲に形成された受光面側トレンチには、受光面側部材が埋め込まれている。また、近赤外光画素の光電変換領域は可視光画素の光電変換領域の受光面に対向する面側に拡張される。また、受光面に対向する面において、さらに画素の内部にトレンチを形成する。

Description

固体撮像素子、撮像装置、および、固体撮像素子の製造方法
 本技術は、固体撮像素子、撮像装置、および、固体撮像素子の製造方法に関する。詳しくは、低照度下での撮像が想定される固体撮像素子、撮像装置、および、固体撮像素子の製造方法に関する。
 従来より、撮像装置では、画像データを撮像するために固体撮像素子が用いられている。この固体撮像素子において、夜間などの低照度下での撮像が想定される場合には、赤外光を受光するIR(InfraRed)画素と、可視光を受光する可視光画素とが配置される。このような固体撮像素子では、赤外光の光量が可視光よりも不足することが多いため、IR画素の感度を優先的に向上させる必要がある。例えば、感度を向上させる目的で、IR画素の受光面に微細な凹凸を設けた固体撮像素子が提案されている(例えば、特許文献1参照。)。この凹凸により、受光面における反射率が低下して相対的に透過率が上昇するため、画素が光電変換する光の量が多くなり、凹凸を設けない場合よりもIR画素の感度が向上する。
特開2010-199289号公報
 しかしながら、上述の従来技術では、IR画素に入射された光が、隣の可視光画素に漏出して、混色が生じるおそれがある。また、光の漏出により、IR画素の感度が十分に向上しないおそれがある。そして、これらの混色や感度不足により画質が低下してしまうという問題が生じる。また、可視光画素についても、上述の混色や感度不足が問題になる場合もある。
 本技術はこのような状況に鑑みて生み出されたものであり、固体撮像素子において混色を抑制しつつ、感度を向上させることを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、受光面に複数の突起が形成された画素と、上記受光面において上記画素の周囲に形成されたトレンチである受光面側トレンチと、上記受光面側トレンチに埋め込まれた受光面側部材とを具備する固体撮像素子である。これにより、受光面の反射率が低下し、混色が防止されるという作用をもたらす。
 また、この第1の側面において、上記複数の突起のそれぞれの代表点の間隔は250ナノメートルより狭くなくてもよい。これにより、250ナノメートル以上の間隔の複数の突起により受光面の反射率が低下するという作用をもたらす。
 また、この第1の側面において、上記複数の突起のそれぞれの代表点の間隔は、上記受光面に平行な所定方向における上記画素のサイズの約数に略一致してもよい。これにより、画素のサイズの約数の間隔で複数の突起により受光面の反射率が低下するという作用をもたらす。
 また、この第1の側面において、上記複数の突起は、上記受光面において上記画素の一部の領域に形成されてもよい。これにより、画素の一部の領域に形成された複数の突起により受光面の反射率が低下するという作用をもたらす。
 また、この第1の側面において、上記受光面側トレンチの深さは、2マイクロメートルより小さくなくてもよい。これにより、2マイクロメートル以上の深さの受光面側トレンチで光が遮光されるという作用をもたらす。
 また、この第1の側面において、上記受光面側部材は、上記画素よりも屈折率の低い部材を含んでもよい。これにより、画素よりも屈折率の低い部材によって光が反射および散乱されるという作用をもたらす。
 また、この第1の側面において、上記受光面側部材は、メタルを含んでもよい。これにより、メタルによって光が吸収されるという作用をもたらす。
 また、この第1の側面において、上記画素は、赤外光を受光する赤外光画素と可視光を受光する可視光画素とを含んでもよい。これにより、赤外光および可視光画素が受光されるという作用をもたらす。
 また、この第1の側面において、上記複数の突起は、上記赤外光画素に形成されてもよい。これにより、赤外光画素の受光面の反射率が低下するという作用をもたらす。
 また、この第1の側面において、上記複数の突起は、上記赤外光画素および上記可視光画素の両方に形成されてもよい。これにより、赤外光画素および可視光画素の受光面の反射率が低下するという作用をもたらす。
 また、この第1の側面において、上記可視光および上記赤外光のうち上記赤外光を遮断する赤外光遮断フィルタをさらに具備し、上記赤外光遮断フィルタは、上記可視光画素と撮像レンズとの間に配置されてもよい。これにより、赤外光が遮断されるという作用をもたらす。
 また、この第1の側面において、上記赤外光画素は、上記赤外光を光電変換する第1の光電変換部を備え、上記可視光画素は、上記可視光を光電変換する第2の光電変換部を備え、上記第1の光電変換部は、撮像レンズへの方向を上方として上記第2の光電変換部の下方に拡張されていてもよい。これにより、赤外光画素の感度が向上するという作用をもたらす。
 また、この第1の側面において、上記赤外光画素は、光を光電変換する光電変換部を備え、上記受光面側トレンチの深さは、上記赤外光画素の光電変換部よりも小さくてもよい。これにより、受光面側トレンチを回り込んで光電変換部を拡張することができるという作用をもたらす。
 また、この第1の側面において、上記画素は、複数設けられ、上記複数の画素のそれぞれは、互いに異なる波長の光を受光し、上記複数の画素のそれぞれは、上記光の波長に応じた深さの光電変換部を備えてもよい。これにより、波長に応じた深さの光電変換部により光電変換が行われるという作用をもたらす。
 また、この第1の側面において、上記画素は、複数設けられ、上記複数の画素のそれぞれは、互いに異なる波長の光を受光し、上記複数の突起のそれぞれの代表点の間隔は、当該複数の突起が設けられた画素が受光する光の波長に応じた値であってもよい。これにより、光の波長に応じた反射率の低下を実現するという作用をもたらす。
 また、この第1の側面において、上記画素が形成された基板の上記受光面に対向する対向面に形成された対向面側トレンチと、上記対向面側トレンチに埋め込まれた対向面側部材とをさらに具備してもよい。これにより、対向面側トレンチに埋め込まれた対向面側部材により光が反射および散乱されるという作用をもたらす。
 また、この第1の側面において、上記対向面側部材は、上記画素よりも屈折率の低い部材を含んでもよい。これにより、画素よりも屈折率の低い部材によって光が反射および散乱されるという作用をもたらす。
 また、本技術の第2の側面は、受光面に複数の突起が形成された画素と、上記受光面において上記画素の周囲に形成されたトレンチである受光面側トレンチと、上記受光面側トレンチに埋め込まれた受光面側部材とを具備する固体撮像素子と、上記固体撮像素子に光を導く撮像レンズとを具備する撮像装置である。これにより、受光面の反射率が低下し、混色が防止されるという作用をもたらす。
 また、この第2の側面において、赤外光を遮断する赤外光遮断フィルタと、上記撮像レンズと上記固体撮像素子との間の所定の位置への上記赤外光遮断フィルタの挿入と上記所定の位置からの上記赤外光遮断フィルタの抜去とのいずれかを行う挿抜部とをさらに具備し、上記画素は、赤外光を受光する赤外光画素と可視光を受光する可視光画素とを含んでもよい。これにより、赤外光が遮断されるという作用をもたらす。
 また、この第2の側面において、上記固体撮像素子は、上記画素からの画素信号を処理する信号処理部をさらに備えてもよい。これにより、信号処理された画素信号から画像データが生成されるという作用をもたらす。
 また、本技術の第3の側面は、基板において画素を形成する画素形成手順と、上記画素の受光面において複数の突起を形成する突起形成手順と、上記受光面において上記画素の周囲にトレンチを受光面側トレンチとして形成するトレンチ形成手順と、上記受光面側トレンチに受光面側部材を埋め込む埋め込み手順とを具備する固体撮像素子の製造方法。である。これにより、受光面に複数の突起が形成された画素と、その周囲に形成された受光面側トレンチと、受光面側トレンチに埋め込まれた受光面側遮光部材とを具備する固体撮像素子が製造されるという作用をもたらす。
 また、この第2の側面において、上記複数の突起は、ウェットエッチングにより形成されてもよい。これにより、ウェットエッチングにより複数の突起が生成されるという作用をもたらす。
 本技術によれば、固体撮像素子において混色を抑制しつつ、感度を向上させることができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第1の実施の形態における固体撮像素子の一構成例を示すブロック図である。 本技術の第1の実施の形態における画素アレイ部の上面図の一例である。 本技術の第1の実施の形態における画素回路の回路図の一例である。 本技術の第1の実施の形態における画素アレイ部の断面図の一例である。 本技術の第1の実施の形態における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第1の実施の形態における突起間ピッチとトレンチの深さとの関係を説明するための図である。 本技術の第1の実施の形態における反射率と波長との関係の一例を示すグラフである。 本技術の第1の実施の形態における透過回折強度と波長との関係の一例を示すグラフである。 本技術の第1の実施の形態におけるフォトダイオードの領域を示す画素アレイ部の上面図の一例である。 本技術の第1の実施の形態におけるトランジスタの位置を示す画素アレイ部の上面図の一例である。 本技術の第1の実施の形態における、n層および画素分離領域を形成するまでの製造工程を説明するための図である。 本技術の第1の実施の形態におけるn層および画素分離領域を形成するためのマスクの一例を示す図である。 本技術の第1の実施の形態におけるnを分離する領域および画素分離領域を形成するためのマスクの一例を示す図である。 本技術の第1の実施の形態における、トランジスタおよび浮遊拡散層を形成するまでの製造工程を説明するための図である。 本技術の第1の実施の形態における平坦化層および密着層を形成するまでの製造工程を説明するための図である。 本技術の第1の実施の形態における酸化膜を取り除くまでの製造工程を説明するための図である。 本技術の第1の実施の形態における酸化膜を充填するまでの製造工程を説明するための図である。 本技術の第1の実施の形態におけるメタルの埋め込み直前までの製造工程を説明するための図である。 本技術の第1の実施の形態における画素アレイ部の製造方法の一例を示すフローチャートである。 本技術の第1の実施の形態の第1の変形例における画素アレイ部の上面図の一例である。 本技術の第1の実施の形態の第2の変形例における画素アレイ部の断面図の一例である。 本技術の第1の実施の形態の第3の変形例におけるフォトダイオードの領域を示す画素アレイ部の上面図の一例である。 本技術の第1の実施の形態の第4の変形例におけるフォトダイオードの領域を示す画素アレイ部の上面図の一例である。 本技術の第1の実施の形態の第4の変形例における画素回路の回路図の一例である。 本技術の第1の実施の形態の第5の変形例における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第1の実施の形態の第6の変形例における画素アレイ部の断面図の一例である。 本技術の第1の実施の形態の第6の変形例における画素アレイ部の上面図の一例である。 本技術の第2の実施の形態における画素アレイ部の上面図の一例である。 本技術の第2の実施の形態における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第2の実施の形態における突起間ピッチが125ナノメートル(nm)の画素の感度と波長との関係の一例を示すグラフである。 本技術の第2の実施の形態における突起間ピッチが250ナノメートル(nm)の画素の感度と波長との関係の一例を示すグラフである。 本技術の第2の実施の形態における突起間ピッチが400ナノメートル(nm)の画素の感度と波長との関係の一例を示すグラフである。 本技術の第2の実施の形態の第1の変形例における画素アレイ部の上面図の一例である。 本技術の第2の実施の形態の第2の変形例における画素アレイ部の上面図の一例である。 本技術の第2の実施の形態の第3の変形例における画素アレイ部の上面図の一例である。 本技術の第2の実施の形態の第4の変形例における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第2の実施の形態の第5の変形例における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第3の実施の形態における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第3の実施の形態の変形例における撮像装置の一構成例を示すブロック図である。 本技術の第3の実施の形態の変形例におけるIRカットフィルタおよび画素アレイ部の断面図の一例である。 本技術の第4の実施の形態における画素アレイ部の構造を模式的に示した断面図の一例である。 本技術の第4の実施の形態における、フォトダイオードを拡張していない画素アレイ部の断面図の一例である。 本技術の第4の実施の形態における、フォトダイオードを拡張した画素アレイ部の断面図の一例である。 本技術の第4の実施の形態における画素アレイ部の下面図の一例である。 本技術の第4の実施の形態における画素の感度と波長との関係の一例を示すグラフである。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.第1の実施の形態(IR画素をモスアイ構造とし、その周囲にトレンチを設けた例)
 2.第2の実施の形態(IR画素および可視光画素をモスアイ構造とし、それらの周囲にトレンチを設けた例)
 3.第3の実施の形態(IR画素をモスアイ構造とし、その周囲にトレンチを設け、IRカットフィルタを配置した例)
 4.第4の実施の形態(裏面においてIR画素をモスアイ構造とし、その周囲にトレンチを設け、表面にもトレンチを設けた例)
 <1.第1の実施の形態>
 [撮像装置の構成例]
 図1は、第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、撮像レンズ110、固体撮像素子200、画像処理部120、制御部130、記録部140および測光部150を備える。
 撮像レンズ110は、光を集光して固体撮像素子200に導くものである。固体撮像素子200は、制御部130の制御に従って画像データを撮像して、画像処理部120および測光部150に信号線209を介して供給するものである。この固体撮像素子200には、可視光を受光する可視光画素と、近赤外光を受光する近赤外光画素とを備える。この近赤外光画素として、例えば、0.14乃至1.4マイクロメートル(μm)の波長域の近赤外光を選択的に透過するIR透過フィルタを介して赤外光を受光するIR画素が設けられる。固体撮像素子200から出力された画像処理前の画像データは、RAW画像データと呼ばれる。なお、近赤外光画素は、特許請求の範囲に記載の赤外光画素の一例である。
 画像処理部120は、制御部130の制御に従って、RAW画像データに対して所定の画像処理を行うものである。この画像処理部120は、処理後の画像データを記録部140に信号線129を介して供給する。記録部140は、画像データを記録するものである。測光部150は、画像データに基づいて光量を測定するものである。この測光部150は、測光量を制御部130に供給する。
 制御部130は、固体撮像素子200全体を制御するものである。この制御部130は、固体撮像素子200を制御して画像データを撮像させ、画像処理部120を制御して、画像データの撮像に同期して画像処理を実行させる。また、制御部130は、測光量に基づいて、画像処理部120が行う画像処理の内容を変更する。例えば、制御部130は、測光量が閾値以下である場合に、RAW画像データ内のIR画素の画素信号に基づいて画像処理部120に、モノクロの画像データを生成させる。一方、制御部130は、測光量が閾値より高い場合にRAW画像データ内の可視光画素の画素信号に基づいて、デモザイク処理などによりカラーの画像データを生成させる。
 なお、制御部130は、測光量以外の情報に基づいて画像処理部120を制御してもよい。例えば、制御部130は、夜間などの時間帯を示す時刻情報に基づいて、IR画素の画素信号から画像データを生成させ、昼間の時間帯を示す時刻情報に基づいて可視光画素から画像データを生成させる。あるいは、制御部130は、ユーザの操作により生成された操作信号に基づいて、画像処理部120を制御する。
 [固体撮像素子の構成例]
 図2は、第1の実施の形態における固体撮像素子200の一構成例を示すブロック図である。この固体撮像素子200は、垂直駆動回路210、画素アレイ部300、制御回路220、カラム信号処理部230、水平駆動回路240および出力回路250を備える。画素アレイ部300には、複数の画素が二次元格子状に配置される。ここで、水平方向に並んだ画素を以下、「行」と称し、垂直方向に並んだ画素を以下、「列」と称する。カラム信号処理部230には、列ごとに信号処理回路231が設けられる。
 制御回路220は、固体撮像素子200全体を制御するものである。この制御回路220は、例えば、制御部130の制御に従ってタイミング信号を生成し、垂直駆動回路210および水平駆動回路240に供給する。このタイミング信号は、行や列を選択するタイミングを示す。
 垂直駆動回路210は、制御回路220の制御に従って、行を順に選択して露光させるものである。
 信号処理回路231は、対応する列内の画素からの画素信号に対して、所定の信号処理を行うものである。例えば、画素固有の固定パターンノイズを除去するための相関二重サンプリング(CDS:Correlated Double Sampling)処理やAD(Analog to Digital)変換処理が信号処理として行われる。この信号処理回路231は、水平駆動回路240の制御に従って、処理後の画素信号を出力回路250に供給する。
 水平駆動回路240は、制御回路220の制御に従って、信号処理回路231を順に選択して画素信号を出力させるものである。
 出力回路250は、カラム信号処理部230からの画素信号をバッファリングして画像処理部120に出力するものである。この出力回路250は、バッファリングの他、黒レベル調整や列ばらつき補正などの各種デジタル信号処理を必要に応じて行う。
 [画素アレイ部の構成例]
 図3は、第1の実施の形態における画素アレイ部300の上面図の一例である。この画素アレイ部300には、可視光画素と近赤外光画素とが設けられる。
 可視光画素として、例えば、R画素310、Gr画素320、B画素330およびGb画素350が設けられる。これらのうちR画素310は、赤色光を選択的に透過するカラーフィルタを介して光を受光する画素であり、Gr画素320およびGb画素350は、緑色の光を選択的に透過するカラーフィルタを介して光を受光する画素である。また、B画素330は、青色の光を選択的に透過するカラーフィルタを介して光を受光する画素である。
 また、近赤外光画素として、例えば、IR画素340が設けられる。なお、図3において各画素における光学フィルタは記載の便宜上、省略されている。
 R画素310、Gr画素320、B画素330、IR画素340およびGb画素350のそれぞれは、所定のパターンで配列されている。また、これらの画素と画素との間には画素分離領域が形成されている。隣接する画素のそれぞれの代表点(中心など)の間隔を以下、「画素ピッチ」と称する。そして、IR画素の周囲の画素分離領域には、一定の深さのトレンチが形成され、そのトレンチにはメタル401が埋め込まれている。
 また、IR画素340の受光面には、所定形状の複数の突起が一定の間隔で形成されている。これらの突起の形状は、例えば、四角錐である。隣接する突起のそれぞれの代表点(頂点など)の間隔を以下、「突起間ピッチ」と称する。この突起間ピッチは、IR画素が受光する赤外光の波長(例えば、800ナノメートル)よりも小さい。このように微細な間隔で突起が設けられると、その突起の頂点から底面に向けて、突起を設けない場合と比較して屈折率が緩やかに変化する。これにより、受光面の光に対する反射率が低下し、その分、光の透過率が高くなる。このように、受光する光(赤外光など)の波長よりも短い間隔で、複数の突起を配置した面の構造は、一般に、モスアイ構造と呼ばれる。
 IR画素340のモスアイ構造により、受光面の透過率が向上し、IR画素340の感度が向上する。また、IR画素340の周囲のトレンチ内のメタルにより、IR画素340を透過した光が吸収され、隣りの画素へ漏れることが無くなる。これにより、IR画素の感度が向上し、混色が低減する。感度の向上と混色の低減とにより、固体撮像素子200により撮像された画像データの画質が向上する。
 ここで、突起間ピッチは、波長に応じて最適な値に設定するが、例えば、画素ピッチの約数に設定されていてもよい。画素ピッチを2500ナノメートル(nm)とした場合、例えば、突起間ピッチは、その約数の250ナノメートル(nm)に設定される。製造装置は、IR画素340と、その周囲の画素分領域の一部とを含む、一辺が画素ピッチと同じ長さになる領域に、設定された突起間ピッチでモスアイ構造を形成する。そして、モスアイ構造の形成後に、製造装置は、IR画素340および画素分離領域の境界を跨ぐ突起の一部を削ってトレンチを形成する。
 一方、IR画素340以外の可視光画素(R画素310など)の受光面には、突起が設けられておらず、平面である。
 また、画素分離領域には、複数の画素が共有するトランジスタ(リセットトランジスタなど)が形成されるトランジスタ形成領域360が設けられる。
 なお、必ずしも、IR画素340の全てをモスアイ構造とし、全てのIR画素340の周囲にトレンチを形成する必要はない。例えば、一部のIR画素340のみモスアイ構造とし、そのIR画素340の周囲にのみトレンチを形成する構成であってもよい。
 [画素回路の構成例]
 図4は、第1の実施の形態における画素回路の回路図の一例である。Gr画素320は、転送トランジスタ321およびフォトダイオード322を備え、B画素330は、転送トランジスタ331およびフォトダイオード332を備える。IR画素340は、転送トランジスタ341およびフォトダイオード342を備え、Gb画素350は、転送トランジスタ351およびフォトダイオード352を備える。また、画素分離領域には、浮遊拡散層370が設けられ、トランジスタ形成領域360には、リセットトランジスタ361、増幅トランジスタ362および選択トランジスタ363が設けられる。
 フォトダイオード322は、受光した光を電荷に光電変換するものである。このフォトダイオード322は、生成した電荷を転送トランジスタ321に供給する。転送トランジスタ321は、垂直駆動回路210の制御に従って、フォトダイオード322からの電荷を浮遊拡散層370に転送するものである。
 フォトダイオード332、342および352の構成は、フォトダイオード322と同様である。また、転送トランジスタ331、341および351の構成は、転送トランジスタ321と同様である。
 浮遊拡散層370は、転送トランジスタ321、331、341および351のいずれかからの電荷を蓄積して蓄積量に応じた電圧を生成するものである。この浮遊拡散層370は、生成した電圧の画素信号を増幅トランジスタ362に供給する。
 リセットトランジスタ361は、垂直駆動回路210の制御に従って、浮遊拡散層370の電荷を掃きだして、浮遊拡散層370の電圧を初期化するものである。
 増幅トランジスタ362は、浮遊拡散層370からの電気信号を増幅して選択トランジスタ363に画素信号として供給するものである。
 選択トランジスタ363は、垂直駆動回路210の制御に従って、画素信号を信号処理回路231に垂直信号線を介して供給するものである。
 なお、浮遊拡散層370およびトランジスタ形成領域360が隣接する4つの画素により共有されているが、この構成に限定されない。浮遊拡散層370等が隣接する2つの画素に共有される構成であってもよいし、浮遊拡散層370等を共有せず、画素のそれぞれに個別に設ける構成であってもよい。
 図5は、第1の実施の形態における画素アレイ部300の断面図の一例である。この断面図は、図3におけるX0-X3軸に沿った断面図である。
 支持基板433から受光面への方向を上方向として、支持基板433の上に密着層432が形成され、その密着層432の上に平坦化層431が形成されている。この平坦化層431の上に絶縁層420が形成され、この絶縁層420には転送トランジスタ421や配線422が設けられる。絶縁層420の上部には、IR画素340やGb画素350などの画素と、画素分離領域402とが設けられる。配線やトランジスタを含む絶縁層420の上部のシリコンの厚さは、例えば、5マイクロメートル(μm)である。
 IR画素340には、n層405が形成され、Gb画素350にはn層415が形成される。これらのn層は、フォトダイオードとして機能する。また、IR画素340内のn層405の領域は、隣のn層415の下方に拡張されている。このようにIR画素340のフォトダイオード(n層405)を拡張することにより、IR画素340の感度を向上させることができる。なお、必ずしも、IR画素340の全てにおいて、フォトダイオードを拡張する必要はない。例えば、一部のIR画素340についてのみ、フォトダイオードを拡張し、残りのIR画素340のフォトダイオードは可視光画素と同一の構成であってもよい。また、モスアイ構造のみで感度が十分であれば、405の領域の拡張はなくともよい。
 また、n層405およびn層415と、配線やトランジスタを含む絶縁層420との間には、界面からの暗電流抑制のためのホール蓄積部406が設けられる。このホール蓄積部406は、p層などにより形成される。
 また、n層405の上部にも、ホール蓄積部となるp層404が形成され、そのp層414の表面には複数の突起が形成されている。一方、n層415の上部にもp層414が形成されているが、その表面は平面である。
 そして、IR画素340の周囲の画素分離領域402には、一定の深さDtrench1のトレンチ403が形成されている。このトレンチ403の深さは、n層405より小さいものとする。トレンチ403をn層405より浅くすることにより、トレンチ403を回り込ませて、n+層405をn層415の下方に拡張することができる。なお、トレンチ403は、特許請求の範囲に記載の受光面側トレンチの一例である。
 また、トレンチ403と、p層404および414の表面には、固定電荷膜413が形成されている。固定電荷膜413の上部には、シリコンより屈折率の低い酸化膜412が形成されている。フレネルの公式より、屈折率の高い媒質(p層404など)から、屈折率の低い媒質(酸化膜412)へ入射する光の一部は、それらの界面で反射するため、この酸化膜412は、画素からの光の漏出を防止する材料として機能する。
 また、IR画素340の周囲のトレンチには、メタル401が埋め込まれている。一方、Gb画素350と、その隣の可視光画素との間の画素分離領域402にトレンチは形成されておらず、その上部には、酸化膜412を挟んで、メタル411が配置される。これらのメタルも、画素からの光の漏出を防止する遮光材料として機能する。なお、メタル411は、特許請求の範囲に記載の受光面側部材の一例である。
 上述のように、表面である配線やトランジスタを含む絶縁層420と対向する裏面を受光面とする固体撮像素子200は、一般に裏面照射型の固体撮像素子と呼ばれる。
 図6は、第1の実施の形態における画素アレイ部300の構造を模式的に示した断面図の一例である。図6は図3におけるX1-X2軸に沿った断面図となる。IR画素には、赤外光のみを透過する、オンチップのIR透過フィルタ442が設けられ、可視光画素(R画素など)には、対応する波長(赤色など)の可視光を選択的に透過する、オンチップのカラーフィルタ443が設けられる。また、これらの光学フィルタの上部には、オンチップレンズ441が設けられる。このオンチップレンズ441上には反射防止膜として、例えば、100ナノメートル(nm)の酸化膜(不図示)が成膜されている。
 そして、IR画素の周囲の画素分離領域にはトレンチが設けられ、そのトレンチにメタル401が埋め込まれている。また、IR画素のフォトダイオード342は、可視光画素のフォトダイオード352の下方に拡張されている。
 図6において実線の矢印は、IR画素に入射された赤外光の軌跡の一例である。IR画素のモスアイ構造により、IR画素の受光面の反射率が低減するため、赤外光の大部分が受光面を透過する。そして、その透過光を、IR画素の周囲のメタル401が遮光するため、IR画素から隣の画素への赤外光の漏出が抑制され、混色が防止される。また、IR画素のフォトダイオード342は、可視光画素と比較して拡張されている。
 ここで、可視光画素の上部には、赤外光を遮断するIRカットフィルタが設けられていないため、可視光画素には赤外光が若干入射されてしまう。しかしながら、可視光画素に入射した赤外光は、可視光画素の下方に拡張された、IR画素のフォトダイオード342により検出されるため、赤外光により可視光画素の色バランスが崩れることはほとんどない。
 これらのモスアイ構造、メタル401での反射、および、フォトダイオード342の拡張により、IR画素の感度が向上する。また、メタル401による遮光により混色を防止することができる。これらの感度の向上と混色の防止とにより、画像データの画質を向上させることができる。
 なお、IR画素に赤外光のみを透過するIR透過フィルタ442を設けているが、赤外光および可視光を透過する光学フィルタを代わりに設けてもよい。また、IR画素の位置に光学フィルタを設けない構成としてもよい。この場合には、IR画素の代わりにW(White)画素が配置されることとなる。これらの構成においては、後段の画像処理部120が、演算により、可視光成分と赤外光成分とを分離してモノクロ画像やカラー画像を生成する。
 図7は、第1の実施の形態における突起間ピッチとトレンチの深さとの関係を説明するための図である。モスアイ構造における突起の頂点と、その下部とでは、光の透過率が異なるため、モスアイ構造において、突起を回折の単位(すなわち、回折格子)とした赤外光の回折が生じる。一般に、屈折率ninの媒質から、屈折率noutの媒質に入射して回折した光の出射角(すなわち、回折角度)Routは、次の式により求められる。
Figure JPOXMLDOC01-appb-M000001
上式において、Rinは、屈折率ninの媒質から屈折率noutの媒質へ入射する光の入射角であり、この入射角Rinおよび出射角Routの単位は、例えば、「度」である。Pは、回折格子(突起)の格子間間隔(すなわち、突起間ピッチ)であり、単位は、例えば、ナノメートル(nm)である。mは回折次数である。ラムダは、回折格子で回折した回折光(赤外光など)の波長であり、単位は、例えば、ナノメートル(nm)である。
 また、画素の中心で回折した光がトレンチの底部ぎりぎりの位置をすり抜けて漏出する際において、画素の一辺のサイズSpixelとトレンチの深さDtrench1との関係は三角関数を用いて次の式により表される。
  Dtrench1×sin(Rout)=Spixel/2         ・・・式2
 トレンチの深さDtrench1と突起間ピッチPとの一方を決定すれば、式1および式2から他方の値を算出することができる。例えば、トレンチの深さDtrench1を2000ナノメートル(nm)とし、画素サイズSpixelを2400ナノメートル(nm)とすると、式2から出射角Routとして約31度が算出される。
 また、回折光のうち一次回折光が最も支配的であるため、回折次数mを「1」とし、赤外光の波長を800ナノメートル(nm)とする。また、入射側の媒質である空気の屈折率ninを「1.000」とし、入射角Rinを「0」度とする。そして、出射側の媒質であるシリコンの屈折率noutを「3.712」とすると、出射角Routが31度の際には、式1から突起間ピッチPとして約418ナノメートル(nm)が算出される。この突起間ピッチPを小さくするほど、式1より、出射角Routが大きくなり、トレンチの下方を赤外光がすり抜けるおそれが少なくなる。したがって上述の条件下では、出射角Routに若干余裕をもたせて、突起間ピッチPを400ナノメートル(nm)以下にすることが望ましい。例えば、突起間ピッチPを400ナノメートル(nm)にすれば、出射角Routが32.6度となり、31度よりも十分に大きくなる。
 また、逆に、突起間ピッチPを決定して、式1および式2からトレンチの深さDtrench1を算出してもよい。例えば、突起間ピッチPを400ナノメートル(nm)程度とすれば、トレンチの深さDtrench1として、約2227ナノメートル(nm)、すなわち約2.227マイクロメートル(μm)が得られる。トレンチの深さDtrench1は、2マイクロメートル(μm)以上であることが望ましい。
 図8は、第1の実施の形態における反射率と波長との関係の一例を示すグラフである。同図における縦軸は、反射率を示し、横軸は光の波長を示す。また、実線は、受光面が平面である画素における波長ごとの反射率の特性を示し、点線は、受光面がモスアイ構造で突起間ピッチが200ナノメートル(nm)の画素における波長ごとの反射率の特性を示す。一点鎖線は、受光面がモスアイ構造で突起間ピッチが100ナノメートル(nm)の画素における波長ごとの反射率の特性を示す。
 図8に例示するように、モスアイ構造では、平面構造よりも反射率が低減する。また、モスアイ構造において、突起間ピッチが200ナノメートル(nm)の画素の方が、100ナノメートル(nm)の画素よりも反射率が低くなる。
 図9は、第1の実施の形態における透過回折強度と波長との関係の一例を示すグラフである。同図における縦軸は、透過回折強度を示し、横軸は波長を示す。また、実線は、受光面が平面である画素における波長ごとの透過回折強度の特性を示し、点線は、受光面がモスアイ構造で突起間ピッチが200ナノメートル(nm)の画素における波長ごとの透過回折強度の特性を示す。一点鎖線は、受光面がモスアイ構造で突起間ピッチが100ナノメートル(nm)の画素における波長ごとの透過回折強度の特性を示す。
 図9に例示するように、モスアイ構造において、突起間ピッチが200ナノメートル(nm)の画素の方が、100ナノメートル(nm)の画素よりも透過回折強度が高くなる。
 図8および図9に例示したように、突起間ピッチが大きいほど、反射率が低下し、透過回折強度が高くなる。このため、システムで要求される反射率等の条件を満たすように、図8や図9の特性と式1および式2とから突起間ピッチが決定される。
 図10は、第1の実施の形態におけるフォトダイオードの領域を示す画素アレイ部300の上面図の一例である。同図において太い実線で囲まれた部分は、IR画素内のフォトダイオード342の領域を示す。また、点線で囲まれた領域は、可視光画素内のフォトダイオード322、332および352の領域と、浮遊拡散層370の領域とを示す。受光面に平行なX方向およびY方向において、隣り合うIR画素340の間には、2つの可視光画素が配置される。
 IR画素内のフォトダイオード342の領域は、浮遊拡散層370を避けて、隣接するGr画素、Gb画素およびB画素のそれぞれのフォトダイオードの下方に拡張されている。これにより、拡張しない場合と比較して、IR画素の感度を高くすることができる。
 図11は、第1の実施の形態におけるトランジスタの位置を示す画素アレイ部の上面図の一例である。浮遊拡散層370を4つの画素が共有し、それらの画素に転送トランジスタ321、331、341および351が設けられる。また、4つの画素が共有するリセットトランジスタ361、増幅トランジスタ362および選択トランジスタ363が、画素分離領域内のトランジスタ形成領域360に設けられる。
 [固体撮像素子の製造方法]
 図12は、第1の実施の形態におけるn層および画素分離領域が形成されるまでの製造工程を説明するための図である。同図におけるaは、固体撮像素子200の製造装置に載置されたSOI(Silicon On Insulator)基板450の一例を示す断面図である。同図におけるaの黒で塗り潰された領域は、二酸化シリコン(SiO)などの酸化膜を示す。同図におけるbに例示するように、その酸化膜の近辺に、ボロンの注入などによりp層414が形成される。そして、同図におけるcに例示するようにn層、画素分離領域、および、蓄積部が形成される。
 上述のn層、画素分離領域、および、蓄積部は、複数の工程により形成される。まず、酸化膜への方向を下方として、n層の下部451が形成され、次に、n層の上部452が形成される。下部451は、n層のうち可視光画素側に拡張された部分を含まない。一方、上部452は、n層のうち可視光画素側に拡張された部分を含む。そして、画素分離領域の下部453が形成され、次に蓄積部の下部454が形成される。次いで、蓄積部の上部455と、画素分離領域の上部456とが形成される。
 図13は、第1の実施の形態におけるn層および画素分離領域を形成するためのマスクの一例を示す図である。同図におけるaは、n層の下部451を形成するためのマスク461の平面図であり、同図におけるbは、n層の上部452を形成するためのマスク462の平面図である。同図におけるcは、画素分離領域の下部453を形成するためのマスク463の平面図である。同図において、白抜きの部分は、開口された部分を示す。
 マスク461は、画素の領域が開口されたマスクである。このマスク461を介して、製造装置は、例えば、3メガエレクトロンボルト(MeV)のイオンビームの照射によりリンを1平方センチメートル(cm)あたり、5E11個注入する。あるいは、2.5メガエレクトロンボルト(MeV)のイオンビームの照射により、1平方センチメートル(cm)あたり、1E12個が注入される。この工程により、n層の下部451が形成される。
 マスク462は、隣接する4つの画素を含む領域が開口されたマスクである。このマスク462を介して、製造装置は、例えば、1.0メガエレクトロンボルト(MeV)のイオンビームの照射によりリンを1平方センチメートル(cm)あたり、5E12個注入する。この工程により、n層の上部452が形成される。
 マスク463は、画素と画素との間の領域が開口されたマスクである。このマスク463を介して、製造装置は、例えば、1.0メガエレクトロンボルト(MeV)のイオンビームの照射によりボロンを1平方センチメートル(cm)あたり、3E12個注入する。この工程により、画素分離領域の下部453が形成される。
 図14は、第1の実施の形態におけるnを分離する領域および画素分離領域を形成するためのマスクの一例を示す図である。同図におけるaは、nを上下方向に分離するp領域454を形成するためのマスク464の平面図であり、同図におけるbは、nを縦方向に分離するp領域455と画素分離領域の上部456とを形成するためのマスク465の平面図である。同図において、白抜きの部分は、開口された部分を示す。
 マスク464は、可視光画素の領域が開口されたマスクである。このマスク464を介して製造装置は、例えば、0.7メガエレクトロンボルト(MeV)のイオンビームの照射によりボロンを1平方センチメートル(cm)あたり、5E12個注入する。この工程により、蓄積部の下部454が形成される。
 マスク465は、画素の間と、IR画素の領域と、可視光画素の一部が開口されたマスクである。このマスク465を介して製造装置は、例えば、0.4メガエレクトロンボルト(MeV)のイオンビームの照射によりボロンを1平方センチメートル(cm)あたり、5E12個注入する。この工程により、蓄積部の上部455と画素分領域の上部456とが形成される。そして、製造装置は、アニール温度が1000℃のアニール処理により、不純物元素を活性化する。
 図15は、第1の実施の形態における、トランジスタおよび浮遊拡散層を形成するまでの製造工程を説明するための図である。n層、画素分離領域、および、蓄積部の形成後に製造装置は、同図におけるaに例示するようにトランジスタのゲート457を形成し、同図におけるbに例示するようにサイドウォール458を形成する。そして、製造装置は、同図におけるcに例示するようにp領域となるホール蓄積部406を上記n層を分離したp領域と繋げるように形成し、浮遊拡散層416を形成する。また、製造装置は、トランジスタのソースおよびドレインを形成する。
 図16は、第1の実施の形態における平坦化層および密着層を形成するまでの製造工程を説明するための図である。浮遊拡散層416の形成後に製造装置は、同図におけるaに例示するようにサリサイドブロック膜を形成する。そして、製造装置は、同図におけるbに例示するように配線層およびトランジスタを含む絶縁層420を形成し、同図におけるcに例示するように平坦化層431および密着層432を順に形成する。例えば、化学蒸着(CVD:Chemical Vapor Deposition)法により、窒化チタン(TiN)が密着層432として形成される。
 図17は、第1の実施の形態における酸化膜を取り除くまでの製造工程を説明するための図である。密着層432の形成後に製造装置は、支持基板433を、密着層432に貼りあわせる。そして、製造装置は、同図におけるbに例示するように、固体撮像素子200の上下を反転させ、酸化膜を取り除いてp層414を露出させる。
 図18は、第1の実施の形態における酸化膜を充填するまでの製造工程を説明するための図である。SIO基板の酸化膜の除去後に製造装置は、同図におけるaに例示するように、IR画素のp層404にモスアイ構造を形成し、次にトレンチ403を形成する。ここで、モスアイ構造は、例えば、特開2013-033864号公報に記載の方法により形成される。この方法では、突起の頂点部分を覆うドット形状のレジストパターンをマスクとするウェットエッチングによりモスアイ構造が形成される。
 モスアイ構造の形成後に製造装置は、6フッ化硫黄(SF)/8フッ化シクロブタン(C)ガスを用いたドライエッチングによりトレンチ403を形成する。このドライエッチングでは、それぞれの画素分離領域の一部を開口するレジストパターニングを行ったレジストマスクが用いられる。このレジストマスクの開口部のサイズは、例えば、200ナノメートル(nm)に設定される。界面起因の暗電流を抑制するため、掘り込んだ領域の界面にはp+層でホールが存在することが望ましい
 次に、製造装置は、図19に例示するように、界面に固定電荷膜413を成膜する。例えば、原子層堆積(ALD:Atomic layer deposition)法により、Alが固定電荷膜413として成膜される。そして、製造装置は、シリコンよりも屈折率の低い絶縁膜である酸化膜412を、等方的に成膜してトレンチ403内を閉塞する。この酸化膜412の膜厚は、例えば、50ナノメートル(nm)である。なお、製造装置は、固定電荷膜413の成膜後に、受光面に対して反射率を最適化するための膜を物理蒸着(PVD:Physical Vapor Deposition)法により、さらに成膜してもよい。
 そして、CVD法により、タングステン(W)やアルミニウム(Al)などのメタルが埋め込まれ、図5に例示した断面の画素アレイ部300が製造される。次いで、光学フィルタやオンチップレンズの形成により、図6に例示した断面の画素アレイ部300が完成する。
 図20は、第1の実施の形態における画素アレイ部300の製造方法の一例を示すフローチャートである。SOI基板が載置されると、製造装置は、酸化膜の近辺にP層を形成する(ステップS901)。そして、製造装置は、複数のマスクにより、n層および画素分離領域を形成する(ステップS902)。
 次いで製造装置は、トランジスタのゲートを生成し(ステップS903)、サイドウォールを形成する(ステップS904)。そして、製造装置は、電荷を蓄積する蓄積部を形成し(ステップS905)、浮遊拡散層を形成する(ステップS906)。また、製造装置は、トランジスタのソースおよびドレインを形成し(ステップS907)、サリサイドブロック膜を形成する(ステップS908)。
 続いて、製造装置は、配線層を形成し(ステップS909)、平坦化層および密着層を形成する(ステップS910)。製造装置は、支持基板との貼りあわせを行い(ステップS911)、IR画素においてモスアイ構造をウェットエッチングなどにより形成する(ステップS912)。そして、製造装置は、IR画素の周囲にトレンチをドライエッチングなどにより形成し(ステップS913)、酸化膜を成膜する(ステップS914)。次いで、製造装置は、トレンチにメタルを埋め込み(ステップS915)、オンチップレンズの形成などの残りの処理を行って画素アレイ部の製造を終了する。
 このように、本技術の第1の実施の形態によれば、IR画素340の受光面に複数の突起を形成し、IR画素340の周囲のトレンチにメタルを埋め込むことにより、受光面の反射率を低減し、IR画素340から漏出する光をメタルにより吸収することができる。この反射率の低減によりIR画素340の感度を向上させることができる。また、漏出する光を吸収することにより、IR画素340から隣の可視光画素へ漏出した光の波長と、その可視光画素の入射光の波長との混色を防止することができる。
 [第1の変形例]
 上述の第1の実施形態では、製造措置は、IR画素340の受光面の全面を含む領域にモスアイ構造を形成し、IR画素340および画素分離領域の境界を跨ぐ突起の一部を削ってトレンチを形成していた。しかし、この製造方法では、突起の一部を削る際に欠陥が生じるおそれがある。このため、製造装置は、IR画素340および画素分離領域の境界を突起が跨ぐことが無いように、モスアイ構造を形成することが望ましい。例えば、IR画素340の中央に配置された一部の領域のみにモスアイ構造を形成すればよい。この第1の実施の形態における第1の変形例の画素アレイ部300は、IR画素340の中央の一部の領域のみにモスアイ構造を形成した点において第1の実施の形態と異なる。
 図21は、第1の実施の形態の第1の変形例における画素アレイ部300の上面図の一例である。この第1の変形例の画素アレイ部300は、IR画素340の受光面において、中央の一部の領域にのみモスアイ構造が形成されている点において第1の実施の形態と異なる。IR画素340の残りの部分は、可視光画素と同じく平面構造である。
 なお、IR画素340において、中央にモスアイ構造を形成しているが、中央以外の個所にモスアイ構造を形成してもよい。画素アレイ部300におけるIR画素340の位置により、主光線の入射角度が異なる。例えば、画素アレイ部300の右端や左端では、入射角度が小さくなるが、画素アレイ部300の中央付近では、入射角度が大きくなる。この結果、画素アレイ部300の中央と端部とでは、主光線の入射位置が異なる。その入射位置に合わせて、モスアイ構造を設ける位置を変えればよい。例えば、画素アレイ部300の中央付近のIR画素340では、その画素の中央にモスアイ構造が形成される。一方、画素アレイ部300の端部付近のIR画素340では、右端や左端などの位置にモスアイ構造が形成される。
 このように、本技術の第1の実施の形態における第1の変形例によれば、IR画素340の一部の領域に複数の突起を形成したため、製造装置は、トレンチの形成の際に突起の一部を削る必要がなくなる。これにより、欠陥の発生を抑制することができる。
 [第2の変形例]
 上述の第1の実施形態では、IR画素340の周囲のトレンチ403にメタル401が埋め込まれていたが、光を反射する部材として、メタル401以外の部材(例えば、酸化膜412)をトレンチに埋め込むこともできる。この第1の実施の形態の第2の変形例の画素アレイ部300は、メタル401以外の部材をトレンチ403に埋め込む点において第1の実施の形態と異なる。
 図22は、第1の実施の形態の第2の変形例における画素アレイ部300の断面図の一例である。この第2の変形例の画素アレイ部300は、トレンチ403に酸化膜412が埋め込まれている点において第1の実施の形態と異なる。この酸化膜412の膜厚は、例えば、150ナノメートル(nm)である。前述したように、酸化膜412の屈折率はシリコンより低いため、フレネルの公式より、IR画素340から漏出する光が反射され、混色を防止することができる。また、メタル401は、トレンチ403に埋め込まれず、画素分離領域402の上部に配置される。
 [第3の変形例]
 上述の第1の実施の形態では、X軸方向およびY方向において、可視光画素2つごとに、IR画素が配置されていたが、画素アレイ部300内のIR画素340の個数を少なくし、その分、可視光画素の画素数を増加することもできる。第1の実施の形態の第3の変形例における画素アレイ部300は、可視光画素の画素数を増加した点において第1の実施の形態と異なる。
 図23は、第1の実施の形態の第3の変形例におけるフォトダイオードの領域を示す画素アレイ部300の上面図の一例である。この第3の変形例では、X軸方向およびY軸方向において、離接するIR画素340の間に、3つの可視光画素が配置される。すなわち、可視光画素3つごとにIR画素が配置される。このため、2つごとにIR画素340を配置する第1の実施の形態と比較してIR画素340の画素数が少なくなり、その分、可視光画素の画素数が多くなる。IR画素340の配置の変更に伴い、フォトダイオード332の配置も変更される。ただし、第3の変形例のフォトダイオード332の形状や面積は第1の実施の形態と同様である。
 このように、本技術の第1の実施の形態における第3の変形例によれば、可視光画素の画素数を増加したため、可視光画素からなる画像データの画質を向上させることができる。
 [第4の変形例]
 上述の第1の実施の形態では、4つの画素が浮遊拡散層370やリセットトランジスタ361を共有していたが、2つの画素が浮遊拡散層370等を共有する構成とすることもできる。第1の実施の形態の第4の変形例における画素アレイ部300は、2つの画素が浮遊拡散層370等を共有する点において第1の実施の形態と異なる。
 図24は、第1の実施の形態の第4の変形例におけるフォトダイオードの領域を示す画素アレイ部の上面図の一例である。この第4の変形例の画素アレイ部300では、隣接する2つ画素が浮遊拡散層370を共有するため、4つの画素が共有する第1の実施の形態と比較して浮遊拡散層370の個数が2倍となる。また、浮遊拡散層370を避けて形成されるフォトダイオード352の面積は、浮遊拡散層370の増加により、第1の実施の形態と比較して小さくなる。
 図25は、第1の実施の形態の第4の変形例における画素回路の回路図の一例である。同図に例示するように、第4の変形例では、IR画素340およびGb画素350などの2つの画素により、浮遊拡散層370、リセットトランジスタ361、増幅トランジスタ362および選択トランジスタ363が共有される。共有する画素数が減少したため、浮遊拡散層370の電荷蓄積および放出の回数や、共有されるトランジスタの動作回数が減少する。これにより、第1の実施の形態と比較して、固体撮像素子200の寿命を延ばすことができる。
 このように、本技術の第1の実施の形態における第4の変形例によれば、2つの画素が浮遊拡散層370やトランジスタを共有するため、浮遊拡散層370の電荷蓄積および放出の回数やトランジスタの動作回数を低減することができる。
 [第5の変形例]
 上述の第1の実施の形態では、可視光画素のフォトダイオードの深さは、いずれも同じであった。しかし、波長ごとの感度を最適化する観点から、可視光画素のフォトダイオードの深さは、画素の受光する光の波長に応じた値であってもよい。第1の実施の形態の第5の変形例における画素アレイ部300は、画素の受光する光の波長に応じた深さのフォトダイオードを設けた点において第1の実施の形態と異なる。
 図26は、第1の実施の形態の第5の変形例における画素アレイ部300の構造を模式的に示した断面図の一例である。第5の変形例の画素アレイ部300においてフォトダイオードの深さは、波長ごとの感度を最適化する観点から、受光する光の波長が短いほど浅いものとする。具体的には、B画素330の波長が短く、以下、G画素(320および350)、R画素310、および、IR画素340の順で波長が長くなる。このため、B画素330のフォトダイオード332が最も浅く、G画素(320および350)、R画素310、および、IR画素340の順でフォトダイオードが深くなるように画素アレイ部300が形成される。
 そして、比較的フォトダイオードの深さの浅いB画素やG画素が優先的に、IR画素に隣接する位置に配列される。IR画素に隣接する可視光画素のフォトダイオードを浅くすれば、その分、トレンチを浅くすることができる。第5の変形例のトレンチの深さDtrench2は、第1の実施の形態の深さDtrench1より小さい。トレンチを浅くしたことにより、トレンチおよび可視光画素の下方に拡張するフォトダイオード342の体積を大きくすることができる。
 このように、本技術の第1の実施の形態における第5の変形例によれば、IR画素に隣接する可視光画素に深さの浅いフォトダイオードを配置したため、IR画素のフォトダイオード342の体積を大きくすることができる。
 [第6の変形例]
 上述の第1の実施形態では、裏面照射型の固体撮像素子200において、モスアイ構造およびトレンチを形成していたが、配線層側を受光面とする表面照射型の固体撮像素子200においてモスアイ構造およびトレンチを形成してもよい。第1の実施の形態の第6の変形例における画素アレイ部300は、配線層側を受光面とした点において第1の実施の形態と異なる。
 図27は、第1の実施の形態の第6の変形例における画素アレイ部の断面図の一例である。IR画素340には、n層501が形成され、隣のGb画素350にはn層502が形成されている。これらのn層は、フォトダイオードとして機能する。受光面への方向を上方向として、n層501は、n層502の下方に拡張されている。また、n層501の上部にはp層505が形成され、n層502の上部には、p層507が形成されている。このp層505はモスアイ構造であり、一方、p層507は、平面構造である。また、IR画素340の周囲の画素分離領域にはトレンチ503が形成され、そのトレンチ503にメタル504が埋め込まれる。また、画素分離領域には浮遊拡散層506が形成される。また、p層505およびp層507の上部には、配線層を含む絶縁層509が設けられ、この配線層509内に転送トランジスタ508などが配置される。
 上述の構成により、IR画素340等の画素は、表面である配線層509を介して受光した光を光電変換する。このような表面照射型の固体撮像素子は、一般に裏面照射型のものと比較して、基板を削るなどの工程が不要となるため、製造が簡易となる。
 図28は、第1の実施の形態の第6の変形例における画素アレイ部300の上面図の一例である。IR画素340の周囲には、トレンチ503が設けられ、そのトレンチ503にメタル504が埋め込まれる。ただし、トレンチ503は、浮遊拡散層506と、リセットトランジスタ等が形成されたトランジスタ形成領域360とを避けて形成される。
 このように、本技術の第1の実施の形態における第6の変形例によれば、固体撮像素子を表面照射型としたため、裏面照射型と比較して、容易に製造することができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態では、IR画素340のみにモスアイ構造を設け、その周囲にトレンチを設けて、IR画素340の感度を向上させ、IR画素340からの光の漏出を防止していた。しかし、可視光画素の感度が不足し、可視光画素からの光の漏出が生じることもある。この第2の実施の形態の固体撮像素子200は、可視光画素の感度を向上させ、可視光画素からの光の漏出を防止した点において第1の実施の形態と異なる。
 図29は、第2の実施の形態における画素アレイ部300の上面図の一例である。この第2の実施の形態の画素アレイ部300は、B画素330などの可視光画素の受光面にも複数の突起を形成してモスアイ構造にした点において第1の実施の形態と異なる。また、可視光画素の周囲にもトレンチを設け、そのトレンチにメタル401を埋め込む点において第1の実施の形態と異なる。ここで、画素のそれぞれの突起間ピッチは、同一であるものとする。
 なお、必ずしも、可視光画素の全てをモスアイ構造とする必要はなく、また、全ての可視光画素の周囲にトレンチを形成する必要もない。例えば、一部の可視光画素のみモスアイ構造とし、その画素の周囲にのみトレンチを形成する構成であってもよい。IR画素340についても同様である。
 また、可視光画素において、中央にモスアイ構造を形成しているが、中央以外の個所にモスアイ構造を形成してもよい。例えば、画素アレイ部300の中央付近の可視光画素では、その画素の中央にモスアイ構造が形成される。一方、画素アレイ部300の端部付近の可視光画素では、右端や左端などの、主光線の入射位置にモスアイ構造が形成される。IR画素340についても同様である。
 図30は、第2の実施の形態における画素アレイ部300の構造を模式的に示した断面図の一例である。可視光画素のモスアイ構造により、可視光画素の受光面の反射率が低減するため、可視光の大部分が受光面を透過する。また、可視光画素を透過して隣の画素へ出射される光を、可視光画素の周囲のトレンチ内のメタル401が遮光するため、可視光画素から隣の画素への光の漏出が抑制され、混色が防止される。
 図31は、第2の実施の形態における突起間ピッチが125ナノメートル(nm)の画素の感度と波長との関係の一例を示すグラフである。同図における縦軸は、画素の感度を示し、横軸は、画素に入射した光の波長を示す。また、太い実線は、平面構造のR画素の波長ごとの感度を示し、細い実線は、モスアイ構造のR画素の波長ごとの感度を示す。太い点線は、平面構造のG画素の波長ごとの感度を示し、細い点線は、モスアイ構造のG画素の波長ごとの感度を示す。太い一点鎖線は、平面構造のB画素の波長ごとの感度を示し、細い一点鎖線は、モスアイ構造のB画素の波長ごとの感度を示す。同図に例示するように、突起間ピッチが125ナノメートル(nm)の場合には、モスアイ構造と平面構造との間で感度にあまり差異が生じない。
 図32は、第2の実施の形態における突起間ピッチが250ナノメートル(nm)の画素の感度と波長との関係の一例を示すグラフである。同図に例示するように、突起間ピッチを250ナノメートル(nm)とした場合には、100ナノメートル(nm)の場合と比較して、R画素、G画素およびB画素のそれぞれで、感度に差異が生じている。
 図33は、第2の実施の形態における突起間ピッチが300ナノメートル(nm)の画素の感度と波長との関係の一例を示すグラフである。同図に例示するように、突起間ピッチを300ナノメートル(nm)とした場合には、250ナノメートル(nm)の場合と比較して、R画素、G画素およびB画素のそれぞれで、感度の差異がさらに大きくなる。
 図31乃至33に例示したように、突起間ピッチを250ナノメートル(nm)以上とすれば、感度向上の効果が十分に得られる。したがって、突起間ピッチは、250ナノメートル(nm)以上であることが望ましい。
 このように、本技術の第2の実施の形態によれば、可視光画素の受光面にも複数の突起を形成し、その周囲にトレンチを設けてメタル401を埋め込むことにより、可視光画素の反射率を低減し、可視光画素から漏出する光をメタルにより吸収することができる。この反射率の低減により可視光画素の感度を向上させることができる。また、漏出する光の吸収により混色を防止することができる。
 [第1の変形例]
 上述の第2の実施形態では、製造措置は、画素の受光面の全面を含む領域にモスアイ構造を形成し、画素および画素分離領域の境界を跨ぐ突起の一部を削ってトレンチを形成していた。しかし、この製造方法では、突起の一部を削る際に欠陥が生じるおそれがある。このため、製造装置は、画素および画素分離領域の境界を突起が跨ぐことが無いように、モスアイ構造を形成することが望ましい。例えば、画素の中央に配置された一部の領域のみにモスアイ構造を形成すればよい。この第1の実施の形態における第1の変形例の画素アレイ部300は、画素の中央の一部の領域のみにモスアイ構造を形成した点において第1の実施の形態と異なる。
 図34は、第2の実施の形態の第1の変形例における画素アレイ部300の上面図の一例である。この第1の変形例の画素アレイ部300は、IR画素340および可視光画素のそれぞれの受光面において、中央の一部の領域にのみモスアイ構造が形成されている点において第1の実施の形態と異なる。
 このように、本技術の第2の実施の形態における第1の変形例によれば、画素の一部の領域に複数の突起を形成したため、製造装置は、トレンチの形成の際に突起の一部を削る必要がなくなる。これにより、欠陥の発生を抑制することができる。
 [第2の変形例]
 上述の第2の実施形態の第1の変形例では、製造装置は、画素の中央の一部にモスアイ構造を形成していた。しかし、画素の全面に亘ってモスアイ構造を形成した方が、一部に形成するよりも感度が向上する。ただし、突起が画素および画素分離領域の境界を跨ぐと、前述のように、製造装置がトレンチの形成時に突起の一部を削ることとなり欠陥が生じるおそれがある。第2の実施の形態の第2の変形例の固体撮像素子200は、突起が画素および画素分離領域の境界を跨ぐことがないように、画素の全面にモスアイ構造を形成する点において第2の実施の形態と異なる。
 図35は、第2の実施の形態の第2の変形例における画素アレイ部300の上面図の一例である。この第2の変形例の画素アレイ部300は、X方向またはY方向における画素のサイズの約数に略一致する突起間ピッチで複数の突起を形成した点において第2の実施の形態と異なる。例えば、画素の一辺のサイズSpixelが、2400ナノメートル(nm)である場合には、480ナノメートルを突起間ピッチとする。これにより、突起が画素および画素分離領域の境界を跨ぐことが無くなるため、トレンチ形成時に欠陥が生じるおそれが無くなる。
 なお、IR画素340のみにモスアイ構造を形成していた第1の実施の形態においても同様に、画素のサイズの約数に略一致する突起間ピッチで複数の突起を形成してもよい。
 このように、本技術の第2の実施の形態における第2の変形例によれば、所定方向における画素のサイズの約数に突起間ピッチが略一致するため、画素および画素分離領域の領域を突起が跨ぐことが無くなる。これにより、製造装置がトレンチを形成する際に欠陥が生じるおそれがなくなる。
 [第3の変形例]
 上述の第2の実施の形態では、画素のそれぞれの突起間ピッチを同一にしていた。ここで、前述したように、突起間ピッチが大きいほど、反射率が低減する効果が得られやすい。ただし、突起間ピッチが同一の条件下では、式1および式2より、入射光の波長が短いほど、回折角度が大きくなり、混色が生じる可能性が高くなる。このため、波長が短いほど、回折角度を大きくするために、突起間ピッチを小さくする必要がある。したがって、反射率が低減する効果が生じつつ、混色が生じにくい最適の突起間ピッチの値は、画素の入射光の波長に依存する。このため、入射光の波長に応じて、突起間ピッチを設定することが望ましい。第2の実施の形態の第3の変形例の固体撮像素子200は、入射光の波長に応じた突起間ピッチで複数の突起を形成した点において第2の実施の形態と異なる。
 図36は、第2の実施の形態の第3の変形例における画素アレイ部300の上面図の一例である。この第3の変形例の画素アレイ部300は、画素の入射光の波長が短いほど、その画素の突起間ピッチを小さくした点において第2の実施の形態と異なる。具体的には、B画素330の波長が短く、以下、G画素(320および350)、R画素310、および、IR画素340の順で波長が長くなる。このため、B画素330の突起間ピッチが最も短く、G画素(320および350)、R画素310、および、IR画素340の順で突起間ピッチが大きくなるようにモスアイ構造が形成される。
 このように、本技術の第2の実施の形態における第3の変形例によれば、入射光の波長に応じた突起間ピッチで複数の突起が画素のそれぞれに形成されているため、画素毎の突起間ピッチを同一にした場合よりも混色が生じにくくなる。
 [第4の変形例]
 上述の第2の実施の形態では、IR画素340および可視光画素の両方を固体撮像素子200に設けていた。しかし、IR画素340と可視光画素とで、光学フィルタを別々に設けなくてはならないため、IR画素のみを設ける場合と比較して製造工程が増加する。そこで、製造を容易にする観点から、IR画素のみを設け、モスアイ構造およびトレンチを形成する構成であってもよい。第2の実施の形態の第4の変形例の固体撮像素子200は、IR画素のみを設け、モスアイ構造およびトレンチを形成した点において第2の実施の形態と異なる。
 図37は、第2の実施の形態の第4の変形例における画素アレイ部300の構造を模式的に示した断面図の一例である。この第4の変形例の画素アレイ部300は、可視光画素が設けられず、IR画素340のみである点において第2の実施の形態と異なる。IR画素340のそれぞれの受光面はモスアイ構造であり、その周囲にはトレンチが設けられてメタル401が埋め込まれる。
 このように、本技術の第2の実施の形態の第4の変形例によれば、IR画素340のみを設け、受光面に複数の突起を形成し、周囲のトレンチにメタルを埋め込むことにより、受光面の反射率を低減し、画素から漏出する光をメタルにより吸収することができる。また、第2の実施の形態における第4の変形例では、可視光画素を設けていないため、可視光画素用のカラーフィルタを設ける必要がなくなり、可視光画素も設ける第2の実施の形態と比較して製造が容易となる。
 [第5の変形例]
 上述の第2の実施の形態では、画素(R画素310など)のそれぞれの周囲のトレンチにメタル401を埋め込んでいたが、メタル401以外の部材(例えば、酸化膜412)をトレンチに埋め込むこともできる。この第2の実施の形態の第5の変形例の固体撮像素子200は、酸化膜412をトレンチに埋め込んだ点において第2の実施の形態と異なる。
 図38は、第2の実施の形態の第5の変形例における画素アレイ部300の構造を模式的に示した断面図の一例である。この第5の変形例の画素アレイ部300は、トレンチ403に酸化膜412が埋め込まれている点において第1の実施の形態と異なる。前述したように、酸化膜412の屈折率はシリコンより低いため、フレネルの公式より、IR画素340から漏出する光が反射され、混色を防止することができる。また、メタル401は、トレンチ403に埋め込まれず、画素分離領域402の上部に配置される。
 <3.第3の実施の形態>
 上述の第1の実施の形態では、IRカットフィルタを設けていなかったが、可視光を透過する光学フィルタは、可視光に加えて、若干の赤外光も透過するため、その赤外光が可視光画素に入射されて画質が低下するおそれがある。この第3の実施の形態の固体撮像素子200は、可視光画素への赤外光を遮断する点において第1の実施の形態と異なる。
 図39は、第3の実施の形態における画素アレイ部300の構造を模式的に示した断面図の一例である。この第3の実施の形態の画素アレイ部300は、IRカットフィルタ444をさらに備えるにおいて第1の実施の形態と異なる。
 IRカットフィルタ444は、可視光画素への赤外光を遮断するものである。このIRカットフィルタ444は、オンチップレンズ441の上部に設けられる。ただし、IRカットフィルタ444においてIR画素340の部分が開口しており、可視光画素への赤外光のみが遮断される。
 このように、本技術の第3の実施の形態によれば、IR画素340の部分が開口したIRカットフィルタ444を設けたため、可視光画素への赤外光の入射を遮断することができる。これにより、画像データの画質を向上させることができる。
 [変形例]
 上述の第3の実施の形態では、IR画素340の部分が開口したIRカットフィルタ444を設けていたが、その開口した部分からの赤外光が、可視光画素に入射されてしまうおそれがある。第3の実施の形態の第1の変形例の固体撮像素子200は、開口部分の無いIRカットフィルタを挿入する点において第3の実施の形態と異なる。
 図40は、第3の実施の形態の変形例における撮像装置100の一構成例を示すブロック図である。第3の実施の形態の変形例の撮像装置100は、IRカットフィルタ160およびモータ170をさらに備える点において第3の実施の形態と異なる。また、第3の実施の形態の変形例の固体撮像素子200は、IRカットフィルタ444を備えない点において第3の実施の形態と異なる。
 IRカットフィルタ160は、赤外光を遮断するものである。このIRカットフィルタ160において可視光画素の部分は開口されていないものとする。モータ170は、制御部130の制御に従って、撮像レンズ110と固体撮像素子200との間の所定の位置へのIRカットフィルタ160の挿入と、その位置からの抜去とのいずれかを行うものである。なお、IRカットフィルタ160は、特許請求の範囲に記載の赤外光遮断フィルタの一例である。また、モータ170は、特許請求の範囲に記載の挿抜部の一例である。
 第3の実施の形態の変形例の制御部130は、測光量に基づいてモータ170を制御し、IRカットフィルタ160の挿入または抜去を実行させる。例えば、制御部130は、測光量が閾値以下である場合にIRカットフィルタ160を抜去させ、そうでない場合にIRカットフィルタ160を挿入させる。なお、制御部130は、測光量以外の情報に基づいてモータ170を制御してもよい。例えば、制御部130は、夜間などの時間帯を示す時刻情報に基づいてIRカットフィルタ160を抜去させ、昼間の時間帯を示す時刻情報に基づいてIRカットフィルタ160を挿入させる。あるいは、制御部130は、操作信号に基づいて、モータ170を制御する。
 図41は、第3の実施の形態の変形例におけるIRカットフィルタ160および画素アレイ部300の断面図の一例である。同図に例示するように、IRカットフィルタ160は、IR画素340の部分が開口されていないため、赤外光が可視光画素に入射されることが無い。このため、第3の実施の形態と比較して画像データの画質を向上させることができる。
 このように、本技術の第3の実施の形態における変形例によれば、開口部の無いIRカットフィルタ160を挿入または抜去するため、可視光画素への赤外光を遮断することができる。これにより、可視光画素の画素信号から生成された画像データの画質を向上させることができる。
 <4.第4の実施の形態>
 上述の第1の実施の形態では、受光面(裏面)にのみトレンチを形成していたが、その裏面に対向する表面にさらにトレンチを形成することもできる。この第4の実施の形態の固体撮像素子200は、表面側にさらにトレンチを形成した点において第1の実施の形態と異なる。
 図42は、本技術の第4の実施の形態における画素アレイ部300の構造を模式的に示した断面図の一例である。この第4の実施の形態の画素アレイ部300は、表面側にもトレンチ472が形成されている点において第1の実施の形態と異なる。このトレンチ472は、表面において、それぞれの画素の中央部付近に形成される。また、トレンチ472にも、裏面側のトレンチ403と同様に酸化膜が埋め込まれている。また、トレンチ403の上部には、平坦化膜471が設けられている。なお、トレンチ472は、特許請求の範囲に記載の対向面側トレンチの一例である。また、トレンチ472内の酸化膜は、特許請求の範囲に記載の対向面側部材の一例である。
 また、第4の実施形態の画素アレイ部300は、IR画素に加えて可視光画素にもモスアイ構造が形成され、裏面において可視光画素の周囲にもトレンチ403が形成されている点において第1の実施の形態と異なる。また、IR画素のフォトダイオードがIR画素側まで拡張されていない点も第1の実施の形態と異なる。さらに、トレンチ403および452にはメタルが設けられず、酸化膜のみが埋め込まれている点も第1の実施の形態と異なる。
 上述のように表面側にトレンチ472を設けたことにより、モスアイ構造の凹凸での光の散乱に加えて、そのトレンチ472でも光が反射および散乱されるため、トレンチ472を設けない場合と比較して光路長が長くなる。これにより、画素の感度を向上させることができる。
 なお、第1、第2および第3の実施の形態と、それらの変形例とのそれぞれの画素アレイ部300に、第4の実施の形態と同様に表面側にトレンチ472を形成してもよい。ただし、第1の実施の形態の第6の変形例(表面照射型)にトレンチ472を設ける場合、表面が受光面となるため、トレンチ472は裏面に設けられる。
 図43は、第4の実施の形態における画素アレイ部300の構造を示す断面図の一例である。画素が設けられた基板の絶縁層420側の面、すなわち表面において、画素の中央部にトレンチ472が形成される。表面から見たトレンチ472の深さは、表面と裏面との間の距離よりも短い。
 なお、図43では赤外光画素のフォトダイオードを拡張していないが、このフォトダイオードを拡張しない構成としてもよい。図44は、赤外光画素のフォトダイオードが拡張された例における、第4の実施の形態における画素アレイ部300の構造を示す断面図の一例である。この場合は赤外光画素が設けられた基板の絶縁層420側の面、すなわち表面においてのみ、画素の中央部にトレンチ472が形成される。表面から見たトレンチ472の深さは、表面と裏面との間の距離よりも短い。
 図45は、第4の実施の形態における画素アレイ部300の下面図の一例である。同図は、表面を基板の下面として下面からみた画素アレイ部300を示す。画素のそれぞれにおいて、その中央部にアイランドのように、トレンチ472が設けられる。
 図46は、第4の実施の形態における画素の感度と波長との関係の一例を示すグラフである。同図における縦軸は、画素の感度を示し、横軸は、画素に入射した光の波長を示す。また、太い実線は、表面側にトレンチ472の無いR画素の波長ごとの感度を示し、細い実線は、表面側にトレンチ472のあるR画素の波長ごとの感度を示す。太い点線は、表面側にトレンチ472の無いG画素の波長ごとの感度を示し、細い点線は、表面側にトレンチ472のあるG画素の波長ごとの感度を示す。太い一点鎖線は、表面側にトレンチ472の無いB画素の波長ごとの感度を示し、細い一点鎖線は、表面側にトレンチ472のあるB画素の波長ごとの感度を示す。同図に例示するように、表面側にトレンチ472を設けることにより、画素の感度が向上する。例えば、感度が約5パーセント(%)向上する。
 このように本技術の第4の実施の形態によれば、表面側にもトレンチ472を設けて、酸化膜を埋め込んだため、そのトレンチ472で光を反射および散乱させて画素の感度をさらに向上させることができる。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
 なお、本技術は以下のような構成もとることができる。
(1)受光面に複数の突起が形成された画素と、
 前記受光面において前記画素の周囲に形成されたトレンチである受光面側トレンチと、
 前記受光面側トレンチに埋め込まれた受光面側部材と
を具備する固体撮像素子。
(2)前記複数の突起のそれぞれの代表点の間隔は250ナノメートルより狭くない
前記(1)記載の固体撮像素子。
(3)前記複数の突起のそれぞれの代表点の間隔は、前記受光面に平行な所定方向における前記画素のサイズの約数に略一致する
前記(1)または(2)に記載の固体撮像素子。
(4)前記複数の突起は、前記受光面において前記画素の一部の領域に形成される
前記(1)または(2)に記載の固体撮像素子。
(5)前記受光面側トレンチの深さは、2マイクロメートルより小さくない
前記(1)から(4)のいずれかに記載の固体撮像素子。
前記(1)から(4)のいずれかに記載の固体撮像素子。
(6)前記受光面側部材は、前記画素よりも屈折率の低い部材を含む
前記(1)から(5)のいずれかに記載の固体撮像素子。
(7)前記受光面側部材は、メタルを含む
前記(1)から(6)のいずれかに記載の固体撮像素子。
(8)前記画素は、赤外光を受光する赤外光画素と可視光を受光する可視光画素とを含む
前記(1)から(7)のいずれかに記載の固体撮像素子。
(9)前記複数の突起は、前記赤外光画素に形成される
前記(8)記載の固体撮像素子。
(10)前記複数の突起は、前記赤外光画素および前記可視光画素の両方に形成される
前記(8)記載の固体撮像素子。
(11)前記可視光および前記赤外光のうち前記赤外光を遮断する赤外光遮断フィルタをさらに具備し、
 前記赤外光遮断フィルタは、前記可視光画素と撮像レンズとの間に配置される
前記(8)から(10)のいずれかに記載の固体撮像素子。
(12)前記赤外光画素は、前記赤外光を光電変換する第1の光電変換部を備え、
 前記可視光画素は、前記可視光を光電変換する第2の光電変換部を備え、
 前記第1の光電変換部は、撮像レンズへの方向を上方として前記第2の光電変換部の下方に拡張されている
前記(8)から(11)のいずれかに記載の固体撮像素子。
(15)前記赤外光画素は、光を光電変換する光電変換部を備え、
 前記受光面側トレンチの深さは、前記赤外光画素の光電変換部よりも小さい
前記(8)から(12)のいずれかに記載の固体撮像素子。
(14)前記画素は、複数設けられ、
 前記複数の画素のそれぞれは、互いに異なる波長の光を受光し、
 前記複数の画素のそれぞれは、前記光の波長に応じた深さの光電変換部を備える
前記(1)から(13)のいずれかに記載の固体撮像素子。
(15)前記画素は、複数設けられ、
 前記複数の画素のそれぞれは、互いに異なる波長の光を受光し、
 前記複数の突起のそれぞれの代表点の間隔は、当該複数の突起が設けられた画素が受光する光の波長に応じた値である
前記(1)から(14)のいずれかに記載の固体撮像素子。
(16)前記画素が形成された基板の前記受光面に対向する対向面に形成された対向面側トレンチと、
 前記対向面側トレンチに埋め込まれた対向面側部材と
をさらに具備する
前記(1)から(15)のいずれかに記載の固体撮像素子。
(17)前記対向面側部材は、前記画素よりも屈折率の低い部材を含む
前記(16)記載の固体撮像素子。
(18)受光面に複数の突起が形成された画素と、前記受光面において前記画素の周囲に形成されたトレンチである受光面側トレンチと、前記受光面側トレンチに埋め込まれた受光面側部材とを具備する固体撮像素子と、
 前記固体撮像素子に光を導く撮像レンズと
を具備する撮像装置。
(19)赤外光を遮断する赤外光遮断フィルタと、
 前記撮像レンズと前記固体撮像素子との間の所定の位置への前記赤外光遮断フィルタの挿入と前記所定の位置からの前記赤外光遮断フィルタの抜去とのいずれかを行う挿抜部と
をさらに具備し、
 前記画素は、赤外光を受光する赤外光画素と可視光を受光する可視光画素とを含む
前記(18)記載の撮像装置。
(20)前記固体撮像素子は、前記画素からの画素信号を処理する信号処理部をさらに備える
前記(18)または(19)記載の撮像装置。
(21)基板において画素を形成する画素形成手順と、
 前記画素の受光面において複数の突起を形成する突起形成手順と、
 前記受光面において前記画素の周囲にトレンチを受光面側トレンチとして形成するトレンチ形成手順と、
 前記受光面側トレンチに受光面側部材を埋め込む埋め込み手順と
を具備する固体撮像素子の製造方法。
(22)前記複数の突起は、ウェットエッチングにより形成される
前記(21)記載の製造方法。
 100 撮像装置
 110 撮像レンズ
 120 画像処理部
 130 制御部
 140 記録部
 150 測光部
 160 IRカットフィルタ
 170 モータ
 200 固体撮像素子
 210 垂直駆動回路
 220 制御回路
 230 カラム信号処理部
 231 信号処理回路
 240 水平駆動回路
 250 出力回路
 300 画素アレイ部
 310 R画素
 320 Gr画素
 321、331、341、351、421、508 転送トランジスタ
 322、332、342、352 フォトダイオード
 330 B画素
 340 IR画素
 350 Gb画素
 360 トランジスタ形成領域
 361 リセットトランジスタ
 362 増幅トランジスタ
 363 選択トランジスタ
 370、416、506 浮遊拡散層
 401、411、504、473 メタル
 402 画素分離領域
 403、472、503 トレンチ
 404、414、505、507 p
 405、415、501、502 n
 406 ホール蓄積部
 412 酸化膜
 413 固定電荷膜
 420、509 絶縁層
 422 配線
 431 平坦化層
 432 密着層
 433 支持基板
 441 オンチップレンズ
 442 IR透過フィルタ
 443 カラーフィルタ
 444 IRカットフィルタ
 450 SOI基板
 457 ゲート
 458 サイドウォール
 461、462、463、464、465 マスク
 471 平坦化膜

Claims (22)

  1.  受光面に複数の突起が形成された画素と、
     前記受光面において前記画素の周囲に形成されたトレンチである受光面側トレンチと、
     前記受光面側トレンチに埋め込まれた受光面側部材と
    を具備する固体撮像素子。
  2.  前記複数の突起のそれぞれの代表点の間隔は250ナノメートルより狭くない
    請求項1記載の固体撮像素子。
  3.  前記複数の突起のそれぞれの代表点の間隔は、前記受光面に平行な所定方向における前記画素のサイズの約数に略一致する
    請求項1記載の固体撮像素子。
  4.  前記複数の突起は、前記受光面において前記画素の一部の領域に形成される
    請求項1記載の固体撮像素子。
  5.  前記受光面側トレンチの深さは、2マイクロメートルより小さくない
    請求項1記載の固体撮像素子。
  6.  前記受光面側部材は、前記画素よりも屈折率の低い部材を含む
    請求項1記載の固体撮像素子。
  7.  前記受光面側部材は、メタルを含む
    請求項1記載の固体撮像素子。
  8.  前記画素は、赤外光を受光する赤外光画素と可視光を受光する可視光画素とを含む
    請求項1記載の固体撮像素子。
  9.  前記複数の突起は、前記赤外光画素に形成される
    請求項8記載の固体撮像素子。
  10.  前記複数の突起は、前記赤外光画素および前記可視光画素の両方に形成される
    請求項8記載の固体撮像素子。
  11.  前記可視光および前記赤外光のうち前記赤外光を遮断する近赤外光遮断フィルタをさらに具備し、
     前記近赤外光遮断フィルタは、前記可視光画素と撮像レンズとの間に配置される
    請求項8記載の固体撮像素子。
  12.  前記赤外光画素は、前記赤外光を光電変換する第1の光電変換部を備え、
     前記可視光画素は、前記可視光を光電変換する第2の光電変換部を備え、
     前記第1の光電変換部は、撮像レンズへの方向を上方として前記第2の光電変換部の下方に拡張されている
    請求項8記載の固体撮像素子。
  13.  前記赤外光画素は、光を光電変換する光電変換部を備え、
     前記受光面側トレンチの深さは、前記赤外光画素の光電変換部よりも小さい
    請求項8記載の固体撮像素子。
  14.  前記画素は、複数設けられ、
     前記複数の画素のそれぞれは、互いに異なる波長の光を受光し、
     前記複数の画素のそれぞれは、前記光の波長に応じた深さの光電変換部を備える
    請求項1記載の固体撮像素子。
  15.  前記画素は、複数設けられ、
     前記複数の画素のそれぞれは、互いに異なる波長の光を受光し、
     前記複数の突起のそれぞれの代表点の間隔は、当該複数の突起が設けられた画素が受光する光の波長に応じた値である
    請求項1記載の固体撮像素子。
  16.  前記画素が形成された基板の前記受光面に対向する対向面に形成された対向面側トレンチと、
     前記対向面側トレンチに埋め込まれた対向面側部材と
    をさらに具備する
    請求項1記載の固体撮像素子。
  17.  前記対向面側部材は、前記画素よりも屈折率の低い部材を含む
    請求項16記載の固体撮像素子。
  18.  受光面に複数の突起が形成された画素と、前記受光面において前記画素の周囲に形成されたトレンチである受光面側トレンチと、前記受光面側トレンチに埋め込まれた受光面側部材とを具備する固体撮像素子と、
     前記固体撮像素子に光を導く撮像レンズと
    を具備する撮像装置。
  19.  赤外光を遮断する赤外光遮断フィルタと、
     前記撮像レンズと前記固体撮像素子との間の所定の位置への前記赤外光遮断フィルタの挿入と前記所定の位置からの前記赤外光遮断フィルタの抜去とのいずれかを行う挿抜部と
    をさらに具備し、
     前記画素は、赤外光を受光する赤外光画素と可視光を受光する可視光画素とを含む
    請求項18記載の撮像装置。
  20.  前記固体撮像素子は、前記画素からの画素信号を処理する信号処理部をさらに備える
    請求項18記載の撮像装置。
  21.  基板において画素を形成する画素形成手順と、
     前記画素の受光面において複数の突起を形成する突起形成手順と、
     前記受光面において前記画素の周囲にトレンチを受光面側トレンチとして形成するトレンチ形成手順と、
     前記受光面側トレンチに受光面側部材を埋め込む埋め込み手順と
    を具備する固体撮像素子の製造方法。
  22.  前記複数の突起は、ウェットエッチングにより形成される
    請求項21記載の製造方法。
PCT/JP2016/081806 2015-12-11 2016-10-27 固体撮像素子、撮像装置、および、固体撮像素子の製造方法 WO2017098830A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201680071102.XA CN108292665B (zh) 2015-12-11 2016-10-27 固态图像拾取元件、图像拾取装置以及制造固态图像拾取元件的方法
EP16872730.3A EP3389092B1 (en) 2015-12-11 2016-10-27 Solid-state image capture element, image capture device, and method for manufacturing solid-state image capture element
KR1020187012708A KR102648932B1 (ko) 2015-12-11 2016-10-27 고체 촬상 소자, 촬상 장치 및 고체 촬상 소자의 제조 방법
US15/778,994 US10715751B2 (en) 2015-12-11 2016-10-27 Solid-state image pickup element, image pickup device, and method of manufacturing solid-state image pickup element
US16/236,933 US11159751B2 (en) 2015-12-11 2018-12-31 Solid-state image pickup element, image pickup device, and method of manufacturing solid-state image pickup element
US16/898,961 US11310444B2 (en) 2015-12-11 2020-06-11 Solid-state image pickup element, image pickup device, and method of manufacturing solid-state image pickup element

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015242261A JP2017108062A (ja) 2015-12-11 2015-12-11 固体撮像素子、撮像装置、および、固体撮像素子の製造方法
JP2015-242261 2015-12-11

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/778,994 A-371-Of-International US10715751B2 (en) 2015-12-11 2016-10-27 Solid-state image pickup element, image pickup device, and method of manufacturing solid-state image pickup element
US16/236,933 Continuation US11159751B2 (en) 2015-12-11 2018-12-31 Solid-state image pickup element, image pickup device, and method of manufacturing solid-state image pickup element

Publications (1)

Publication Number Publication Date
WO2017098830A1 true WO2017098830A1 (ja) 2017-06-15

Family

ID=59013980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/081806 WO2017098830A1 (ja) 2015-12-11 2016-10-27 固体撮像素子、撮像装置、および、固体撮像素子の製造方法

Country Status (6)

Country Link
US (3) US10715751B2 (ja)
EP (1) EP3389092B1 (ja)
JP (1) JP2017108062A (ja)
KR (1) KR102648932B1 (ja)
CN (1) CN108292665B (ja)
WO (1) WO2017098830A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310965A (zh) * 2018-03-20 2019-10-08 三星电子株式会社 每个像素区域具有多个透镜的图像传感器
TWI677993B (zh) * 2017-11-27 2019-11-21 台灣積體電路製造股份有限公司 半導體裝置與影像感測器積體晶片的形成方法
CN111034178A (zh) * 2017-09-14 2020-04-17 松下知识产权经营株式会社 固体摄像装置及具备该固体摄像装置的摄像装置
CN111034179A (zh) * 2017-09-14 2020-04-17 松下知识产权经营株式会社 固体摄像装置及具备该固体摄像装置的摄像装置
WO2022153758A1 (ja) * 2021-01-13 2022-07-21 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6303803B2 (ja) 2013-07-03 2018-04-04 ソニー株式会社 固体撮像装置およびその製造方法
US10600213B2 (en) * 2016-02-27 2020-03-24 Focal Sharp, Inc. Method and apparatus for color-preserving spectrum reshape
KR102391042B1 (ko) * 2016-04-25 2022-04-27 소니그룹주식회사 고체 촬상 소자 및 그 제조 방법, 및 전자 기기
US12009379B2 (en) * 2017-05-01 2024-06-11 Visera Technologies Company Limited Image sensor
US10121811B1 (en) * 2017-08-25 2018-11-06 Taiwan Semiconductor Manufacturing Co., Ltd. Method of high-aspect ratio pattern formation with submicron pixel pitch
US10319768B2 (en) 2017-08-28 2019-06-11 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor scheme for optical and electrical improvement
JP6990550B2 (ja) * 2017-09-27 2022-01-12 富士通株式会社 赤外線検出器、撮像素子、及び撮像システム
US10367023B1 (en) * 2018-06-12 2019-07-30 Taiwan Semiconductor Manufacturing Co., Ltd. Semiconductor image sensor
JP2020027884A (ja) * 2018-08-13 2020-02-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
US11211419B2 (en) 2018-08-15 2021-12-28 Taiwan Semiconductor Manufacturing Company, Ltd. Composite bsi structure and method of manufacturing the same
KR102309358B1 (ko) 2018-08-15 2021-10-08 타이완 세미콘덕터 매뉴팩쳐링 컴퍼니 리미티드 복합 bsi 구조물 및 그 제조 방법
JP2022002229A (ja) * 2018-09-05 2022-01-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および撮像素子
US10991746B2 (en) * 2018-10-29 2021-04-27 Taiwan Semiconductor Manufacturing Co., Ltd. High performance image sensor
DE102019102176B4 (de) * 2019-01-29 2022-11-24 Senorics Gmbh Hybrides multispektrales Bauelement
US20220124261A1 (en) * 2019-02-04 2022-04-21 Flir Commercial Systems, Inc. Imager optical systems and methods
DE112020000903T5 (de) 2019-02-21 2021-11-11 Sony Semiconductor Solutions Corporation Lawinen-fotodiodensensor und abstandsmessvorrichtung
KR102393910B1 (ko) * 2019-03-22 2022-05-03 아크소프트 코포레이션 리미티드 타일형 이미지 센서
TW202114241A (zh) * 2019-09-25 2021-04-01 日商索尼半導體解決方案公司 光接收元件、距離測量模組及電子儀器
JP2021068788A (ja) 2019-10-21 2021-04-30 キヤノン株式会社 光電変換装置、光電変換装置の製造方法、および撮像システム
JP2021082724A (ja) * 2019-11-20 2021-05-27 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
JP2021090022A (ja) * 2019-12-06 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
US11244979B2 (en) * 2019-12-19 2022-02-08 Omnivision Technologies, Inc. Deep trench isolation (DTI) structure for CMOS image sensor
US11670725B2 (en) 2020-02-25 2023-06-06 Taiwan Semiconductor Manufacturing Company, Ltd. Image sensor with absorption enhancement structure
US11600647B2 (en) 2020-02-27 2023-03-07 Taiwan Semiconductor Manufacturing Company, Ltd. Absorption enhancement structure to increase quantum efficiency of image sensor
DE102020111371A1 (de) 2020-02-27 2021-09-02 Taiwan Semiconductor Manufacturing Co. Ltd. Absorptionsanreicherungsstruktur zur erhöhung der quanteneffizienz eines bildsensors
CN115462066A (zh) * 2020-03-03 2022-12-09 华为技术有限公司 图像传感器和图像感光方法
CN113785396B (zh) 2020-04-10 2022-05-10 株式会社光轮 半导体图像传感器
WO2021215303A1 (ja) * 2020-04-20 2021-10-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子機器
CN115380381A (zh) * 2020-04-20 2022-11-22 索尼半导体解决方案公司 固态摄像元件
KR20210145405A (ko) * 2020-05-25 2021-12-02 에스케이하이닉스 주식회사 이미지 센싱 장치
TWI737482B (zh) * 2020-09-04 2021-08-21 力晶積成電子製造股份有限公司 影像感測器
FR3114441B1 (fr) * 2020-09-24 2022-10-07 Commissariat Energie Atomique Photodiode de type spad
EP3979322A1 (en) * 2020-09-30 2022-04-06 AMS Sensors Belgium BVBA Pixel structure and method for manufacturing a pixel structure
KR20230132484A (ko) 2021-01-26 2023-09-15 고쿠리츠 다이가꾸 호우진 시즈오까 다이가꾸 고체 촬상 장치 및 고체 촬상 장치의 제조 방법
CN115332274A (zh) * 2021-05-10 2022-11-11 联华电子股份有限公司 影像传感器
JP2023005457A (ja) * 2021-06-29 2023-01-18 ゼタテクノロジーズ株式会社 固体撮像装置、固体撮像装置の製造方法、および電子機器
TW202332029A (zh) * 2021-11-19 2023-08-01 新加坡商普里露尼庫斯新加坡私人有限公司 包括可見光和近紅外感測器的像素陣列的反向結構設計
JP2023098007A (ja) * 2021-12-28 2023-07-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009158944A (ja) * 2007-12-06 2009-07-16 Sony Corp 固体撮像装置、固体撮像装置の製造方法、及び電子機器
JP2009277798A (ja) * 2008-05-13 2009-11-26 Sony Corp 固体撮像装置及び電子機器
JP2010041031A (ja) * 2008-07-11 2010-02-18 Panasonic Corp 固体撮像装置
JP2010199289A (ja) 2009-02-25 2010-09-09 Hamamatsu Photonics Kk フォトダイオードの製造方法及びフォトダイオード
JP2011149901A (ja) * 2010-01-25 2011-08-04 Rohm Co Ltd 受光装置およびモバイル機器
JP2011222900A (ja) * 2010-04-14 2011-11-04 Hamamatsu Photonics Kk 固体撮像装置
JP2012104753A (ja) * 2010-11-12 2012-05-31 Sony Corp 固体撮像装置及び電子機器
US20120313205A1 (en) * 2011-06-10 2012-12-13 Homayoon Haddad Photosensitive Imagers Having Defined Textures for Light Trapping and Associated Methods
JP2013033864A (ja) 2011-08-02 2013-02-14 Sony Corp 固体撮像素子の製造方法、固体撮像素子、および電子機器
JP2015029054A (ja) * 2013-07-03 2015-02-12 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2015216187A (ja) * 2014-05-09 2015-12-03 ソニー株式会社 固体撮像素子および電子機器

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5252509A (en) * 1988-03-15 1993-10-12 Texas Instruments Incorporated Ccd imager responsive to long wavelength radiation
US7252869B2 (en) * 2003-10-30 2007-08-07 Niyaz Khusnatdinov Microtextured antireflective surfaces with reduced diffraction intensity
JP4396684B2 (ja) * 2006-10-04 2010-01-13 ソニー株式会社 固体撮像装置の製造方法
US8395686B2 (en) 2007-12-06 2013-03-12 Sony Corporation Solid-state imaging device, method of manufacturing the same, and camera
US7888266B2 (en) * 2008-06-26 2011-02-15 International Business Machines Corporation Band gap modulated optical sensor
US8008696B2 (en) * 2008-06-26 2011-08-30 International Business Machines Corporation Band gap modulated optical sensor
KR101608903B1 (ko) * 2009-11-16 2016-04-20 삼성전자주식회사 적외선 이미지 센서
TW201405792A (zh) 2012-07-30 2014-02-01 Sony Corp 固體攝像裝置、固體攝像裝置之製造方法及電子機器
JP6186900B2 (ja) * 2013-06-04 2017-08-30 ソニー株式会社 固体撮像装置、電子機器、レンズ制御方法、および撮像モジュール
JP2015012126A (ja) * 2013-06-28 2015-01-19 ソニー株式会社 固体撮像素子および駆動方法、並びに電子機器
JP2015065270A (ja) * 2013-09-25 2015-04-09 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2015146356A (ja) * 2014-01-31 2015-08-13 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
US9768220B2 (en) * 2014-04-15 2017-09-19 Taiwan Semiconductor Manufacturing Co., Ltd. Deep trench isolation structure for image sensors
JP2015220313A (ja) 2014-05-16 2015-12-07 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US9825073B2 (en) * 2014-05-23 2017-11-21 Omnivision Technologies, Inc. Enhanced back side illuminated near infrared image sensor
US9653507B2 (en) * 2014-06-25 2017-05-16 Taiwan Semiconductor Manufacturing Co., Ltd. Deep trench isolation shrinkage method for enhanced device performance
US9686457B2 (en) * 2015-09-11 2017-06-20 Semiconductor Components Industries, Llc High efficiency image sensor pixels with deep trench isolation structures and embedded reflectors
KR102577844B1 (ko) * 2016-08-09 2023-09-15 삼성전자주식회사 이미지 센서
JP2018107358A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 撮像装置の製造方法および撮像システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009158944A (ja) * 2007-12-06 2009-07-16 Sony Corp 固体撮像装置、固体撮像装置の製造方法、及び電子機器
JP2009277798A (ja) * 2008-05-13 2009-11-26 Sony Corp 固体撮像装置及び電子機器
JP2010041031A (ja) * 2008-07-11 2010-02-18 Panasonic Corp 固体撮像装置
JP2010199289A (ja) 2009-02-25 2010-09-09 Hamamatsu Photonics Kk フォトダイオードの製造方法及びフォトダイオード
JP2011149901A (ja) * 2010-01-25 2011-08-04 Rohm Co Ltd 受光装置およびモバイル機器
JP2011222900A (ja) * 2010-04-14 2011-11-04 Hamamatsu Photonics Kk 固体撮像装置
JP2012104753A (ja) * 2010-11-12 2012-05-31 Sony Corp 固体撮像装置及び電子機器
US20120313205A1 (en) * 2011-06-10 2012-12-13 Homayoon Haddad Photosensitive Imagers Having Defined Textures for Light Trapping and Associated Methods
JP2013033864A (ja) 2011-08-02 2013-02-14 Sony Corp 固体撮像素子の製造方法、固体撮像素子、および電子機器
JP2015029054A (ja) * 2013-07-03 2015-02-12 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2015216187A (ja) * 2014-05-09 2015-12-03 ソニー株式会社 固体撮像素子および電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3389092A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111034178A (zh) * 2017-09-14 2020-04-17 松下知识产权经营株式会社 固体摄像装置及具备该固体摄像装置的摄像装置
CN111034179A (zh) * 2017-09-14 2020-04-17 松下知识产权经营株式会社 固体摄像装置及具备该固体摄像装置的摄像装置
CN111034178B (zh) * 2017-09-14 2022-09-20 新唐科技日本株式会社 固体摄像装置及具备该固体摄像装置的摄像装置
CN111034179B (zh) * 2017-09-14 2022-09-20 新唐科技日本株式会社 固体摄像装置及具备该固体摄像装置的摄像装置
TWI677993B (zh) * 2017-11-27 2019-11-21 台灣積體電路製造股份有限公司 半導體裝置與影像感測器積體晶片的形成方法
CN110310965A (zh) * 2018-03-20 2019-10-08 三星电子株式会社 每个像素区域具有多个透镜的图像传感器
US10868070B2 (en) 2018-03-20 2020-12-15 Samsung Electronics Co., Ltd. Image sensors with multiple lenses per pixel region
WO2022153758A1 (ja) * 2021-01-13 2022-07-21 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置

Also Published As

Publication number Publication date
EP3389092A4 (en) 2019-01-02
US11159751B2 (en) 2021-10-26
EP3389092A1 (en) 2018-10-17
US10715751B2 (en) 2020-07-14
US20200304733A1 (en) 2020-09-24
KR20180093884A (ko) 2018-08-22
EP3389092B1 (en) 2021-04-07
US20180359434A1 (en) 2018-12-13
CN108292665A (zh) 2018-07-17
US11310444B2 (en) 2022-04-19
JP2017108062A (ja) 2017-06-15
KR102648932B1 (ko) 2024-03-19
US20190158766A1 (en) 2019-05-23
CN108292665B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
WO2017098830A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の製造方法
US10950642B2 (en) Image sensor including partition patterns
US9786704B2 (en) CMOS image sensor structure with crosstalk improvement
US10490587B2 (en) CIS structure with complementary metal grid and deep trench isolation and method for manufacturing the same
JP5814626B2 (ja) 光電変換装置及び光電変換装置の製造方法
JP5123701B2 (ja) 光電変換装置、撮像システム、及び光電変換装置の製造方法
CN104183611A (zh) 固态成像装置和电子设备
JP5547260B2 (ja) 固体撮像装置
CN103545335A (zh) 固态成像装置及其制造方法以及电子设备
CN105308746A (zh) 固态成像器件及其制造方法以及电子设备
US9780131B1 (en) Image sensor having grid pattern
CN104347648A (zh) 固体摄像装置的制造方法以及固体摄像装置
US9257464B2 (en) Solid-state image device, method of fabricating the same, and electronic apparatus
US10734433B2 (en) Solid-state imaging device
KR101476035B1 (ko) 고체 촬상 장치의 제조 방법 및 고체 촬상 장치
JP2006339339A (ja) 固体撮像装置及びその製造方法
JP2011023455A (ja) 固体撮像装置
JP2011151420A (ja) 固体撮像素子および固体撮像素子の製造方法及び画像撮影装置
JP7008054B2 (ja) 光電変換装置および機器
JP4751717B2 (ja) 固体撮像素子の製造方法
KR20120120669A (ko) Cmos 이미지 센서

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16872730

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20187012708

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016872730

Country of ref document: EP