WO2018070259A1 - 固体撮像素子およびその製造方法、並びに、電子機器 - Google Patents

固体撮像素子およびその製造方法、並びに、電子機器 Download PDF

Info

Publication number
WO2018070259A1
WO2018070259A1 PCT/JP2017/035190 JP2017035190W WO2018070259A1 WO 2018070259 A1 WO2018070259 A1 WO 2018070259A1 JP 2017035190 W JP2017035190 W JP 2017035190W WO 2018070259 A1 WO2018070259 A1 WO 2018070259A1
Authority
WO
WIPO (PCT)
Prior art keywords
antireflection film
microlens
pixel
solid
pixels
Prior art date
Application number
PCT/JP2017/035190
Other languages
English (en)
French (fr)
Inventor
浩一 板橋
雄二 西村
充 石川
勇一 関
誠也 下地
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/336,009 priority Critical patent/US10847561B2/en
Publication of WO2018070259A1 publication Critical patent/WO2018070259A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • G02B1/113Anti-reflection coatings using inorganic layer materials only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers

Definitions

  • the present technology relates to a solid-state imaging device, a manufacturing method thereof, and an electronic device, and in particular, a solid-state imaging device capable of suppressing deterioration in image quality caused by moisture between a microlens and an antireflection film, and a manufacturing method thereof,
  • the present invention relates to an electronic device.
  • the back-illuminated solid-state imaging device is advantageous compared to the front-illuminated solid-state imaging device in terms of pixel miniaturization, high sensitivity, and improvement of shading characteristics.
  • the back-illuminated solid-state imaging device does not have a metal wiring layer in the path until incident light is received by the PD (photodiode), so the front-illuminated solid image has a metal wiring layer formed.
  • the back-illuminated solid-state imaging device is more likely to cause flare, ghost, and color mixing than the front-illuminated solid-state imaging device, and causes image quality degradation of the generated image.
  • Patent Document 1 proposes a configuration of a back-illuminated solid-state imaging device in which a two-layer antireflection film is formed on the surface of a microlens.
  • Patent Document 2 proposes a solid-state imaging device in which a microlens is formed of two layers, a first lens layer and a second lens layer, and an antireflection film is formed on the upper second lens layer. Yes.
  • the microlens material When forming an antireflection film on the surface of the microlens, if a material with low moisture permeability is used as the antireflection film, the microlens material is not sufficiently dehumidified, and spots may occur.
  • the present technology has been made in view of such a situation, and prevents reflection of the surface of the microlens and suppresses generation of a stain due to insufficient dehumidification of the microlens material. It is.
  • the solid-state imaging device includes each pixel including a photoelectric conversion unit that performs photoelectric conversion according to incident light, and a microlens that condenses the incident light on the photoelectric conversion unit, A pixel in which a plurality of antireflection films are formed on the surface of the microlens and a pixel in which a single antireflection film is formed on the surface of the microlens are mixed.
  • a pixel in which a single-layer antireflection film is formed on the surface of the microlens is more transparent than a pixel in which a plurality of antireflection films are formed on the surface of the microlens.
  • the antireflection film having low wettability can be removed.
  • At least 1/4 of the pixels can be pixels in which a single-layer antireflection film is formed on the surface of the microlens.
  • the solid-state imaging device may further include a color filter formed between the photoelectric conversion unit and the microlens, and the color filter is a predetermined pixel among all the pixels. All the pixels of the color can be pixels in which a single-layer antireflection film is formed on the surface of the microlens.
  • the color filters form a Bayer array, and among all the pixels, all the pixels of which the color filter is G can be pixels in which a single-layer antireflection film is formed on the surface of the microlens.
  • the color filters form a Bayer array, and among all the pixels, all the pixels having the color filter B can be pixels having a single-layer antireflection film formed on the surface of the microlens.
  • the multi-layer antireflection film includes a first antireflection film and a second antireflection film, and the single-layer antireflection film includes the second antireflection film, and the first antireflection film includes the first antireflection film and the first antireflection film.
  • the antireflection film may be a silicon nitride film or a silicon oxynitride film, and the second antireflection film may be a silicon oxide film or a silicon oxycarbide film.
  • the refractive indexes of the microlens, the first antireflection film, and the second antireflection film have a relationship of the first antireflection film> the microlens> the second antireflection film. Can do.
  • the solid-state image sensor can be a back-illuminated type.
  • a microlens that collects incident light on a photoelectric conversion unit is formed in each pixel, and a plurality of first lenses are formed on the surface of the microlens.
  • a layer of antireflection film is formed, and in the second pixel, a single layer of antireflection film is formed on the surface of the microlens.
  • the electronic device includes each pixel including a photoelectric conversion unit that performs photoelectric conversion according to incident light, and a microlens that collects the incident light on the photoelectric conversion unit,
  • the solid-state imaging device includes a pixel in which a plurality of antireflection films are formed on the surface of the microlens and a pixel in which a single-layer antireflection film is formed on the surface of the microlens.
  • the solid-state imaging device includes a pixel in which a plurality of antireflection films are formed on the surface of the microlens, and a single-layer antireflection film on the surface of the microlens. Formed pixels.
  • the present technology it is possible to suppress the occurrence of flare, ghost, and color mixing, to suppress the generation of spots due to moisture, and to further suppress the deterioration of the sensitivity characteristics of the pixels. it can.
  • FIG. 10 is a plan view showing a pixel arrangement of the first antireflection film in FIG. 9.
  • FIG. 11 is a cross-sectional view taken along line Y-Y ′ of FIG.
  • FIG. 11 is a cross-sectional view of the back-illuminated solid-state imaging device of FIG. It is a figure explaining the manufacturing method of the back irradiation type solid-state image sensor of FIG.
  • the back-illuminated solid-state image sensor has been put to practical use in advance for image sensors having fine pixels with a unit pixel size of about 1.75 ⁇ m, which are typified by compact digital cameras and mobile camera applications.
  • the back-illuminated solid-state image sensor was applicable to digital camera applications such as the so-called APS size, 35 mm, and 1-inch size, but the pixel size of these image sensors was sufficiently larger than the pixel size of about 1.75 um. Therefore, the introduction was delayed.
  • FIG. 1 is a cross-sectional view showing a basic pixel structure of a back-illuminated solid-state image sensor.
  • the n-type semiconductor region 2 is formed for each pixel with respect to the semiconductor substrate 1 formed of the p-type semiconductor region, whereby a pn junction type photodiode PD is configured for each pixel.
  • the photodiode PD is a photoelectric conversion unit that performs photoelectric conversion according to incident light.
  • the upper surface of the semiconductor substrate 1 in FIG. 1 is a light incident surface, and although not shown on the lower surface, a pixel transistor for reading out charges accumulated in the photodiode PD, a plurality of layers of metal wiring and an interlayer insulating film, A metal wiring layer made of is formed.
  • An antireflection film 3 is formed on the entire upper surface, which is the light incident surface of the semiconductor substrate 1.
  • the antireflection film 3 is formed with a two-layer structure of a hafnium oxide (HfO2) film and a silicon oxide film, for example.
  • the back-illuminated solid-state imaging device configured as described above has excellent sensitivity characteristics because there is no metal wiring layer on the light incident side, so that incident light can be efficiently taken into the photodiode PD.
  • the optical color mixing is reduced by arranging the light shielding film 4 between the pixels.
  • the light incident on the photodiode PD includes light reflected from the adjacent pixels, reflected light from the sealing glass surface, reflected light from the infrared cut filter, reflected light from the camera set optical system, etc.
  • As one of the causes of the generation of flare, ghost, and mixed color component light as shown in FIG.
  • the material of the microlens 7 is, for example, acrylic, styrene, novolac, or a copolymer resin thereof, and its refractive index is about 1.48 to 1.62.
  • the surface reflection of the microlens 7 is about 3.8 to 5.6%. If the refractive index of the microlens 7 is large, its surface reflectance is also high.
  • the average reflectance of visible light (400 to 700 nm) is about 5.2%.
  • a fine pixel with a unit pixel size of about 1.75um, but a large unit pixel with a unit pixel size of 1.90um or more (hereinafter referred to as a fine pixel)
  • a fine pixel In the case of a large-size pixel, the single-layer antireflection film 11 cannot obtain a sufficient effect, resulting in deterioration of image quality.
  • Equation (1) when the wavelength ⁇ of the incident light is constant, the diffraction order m decreases as the microlens pitch P decreases, and the diffraction order m increases as the microlens pitch P increases. At the same time, the diffraction angle ⁇ at the same diffraction order m increases as the pitch P of the microlenses decreases. Furthermore, the diffraction order m increases relatively as the wavelength ⁇ of the incident light is relatively small.
  • the diffraction order m of the diffracted reflected light is increased and the diffraction angle ⁇ is also smaller. Therefore, the larger the pixel size is, the larger the influence of the reflected light is. Therefore, the necessity for reducing the reflected light is further increased.
  • FIG. 5 is a cross-sectional view of a back-illuminated solid-state imaging device in which two antireflection films are formed on the surface of the microlens.
  • another antireflection film 12 is formed between the antireflection film 11 formed on the surface of the microlens 7 and the microlens 7 in FIG. It is said that.
  • Other structures are the same as those of the solid-state imaging device of FIG.
  • the antireflection film 12 close to the microlens 7 is referred to as a first antireflection film 12, and the outermost antireflection film 11 is referred to as a second antireflection film 11.
  • the upper second antireflection film 11 is formed with a film thickness of, for example, about 80 um using a silicon oxide film (SiO) having a refractive index of about 1.46, as in FIG. 12 is formed using a silicon nitride film (SiN) having a refractive index of about 1.86 with a film thickness of about 120 ⁇ m, for example.
  • the average reflectance of visible light 400 to 700 nm
  • the average reflectance of the microlens 7 is about 2.6%. Therefore, the reflectance in the case of the two-layer structure is the case of the single-layer structure. Therefore, it is about 1 ⁇ 4 of the case where the antireflection film is not formed, so that a good antireflection effect could be obtained.
  • a test was performed in which a back-illuminated solid-state imaging device having a two-layer antireflection film formed thereon was stored for a certain period in a high temperature and high humidity environment. Specifically, a test was performed in which a solid-state image sensor having a two-layer antireflection film was stored for 1000 hours in an environment of a temperature of 85 ° C. and a humidity of 85%. After storage in the above-mentioned environment, in the solid-state image pickup device having a two-layer antireflection film, a spot not found in the solid-state image pickup device having a single-layer antireflection film as shown in FIG. 6 was discovered.
  • Secondary ion mass spectrometry (Secondary1Ion Mass Spectrometry) is used for the portions of the second antireflection film 11, the first antireflection film 12 and the microlens 7 in the region where the stain is generated as shown in FIG. As a result, the measurement results indicated by the broken lines in FIG. 7 were obtained for H and O secondary ions related to moisture.
  • both the ion concentrations of H and O are increased. From this measurement result, since the silicon nitride film (SiN) used as the first antireflection film 12 is a film having low moisture permeability, moisture stays between the first antireflection film 12 and the microlens 7. It is considered that a stain as shown in FIG.
  • a pixel structure in which a trench 21 in which the first antireflection film 12 is removed is formed at a boundary portion in a diagonal direction of the pixel is experimentally manufactured, and positions in each layer are measured. The ion concentration was analyzed.
  • the H and O ion concentrations of the pixel structure in which the trench 21 is formed in the diagonal boundary portion of the pixel are measurement results indicated by solid lines in FIG.
  • the first antireflection film is formed by forming the trench 21. There is no peak between 12 and the microlens 7, and the moisture permeability is improved. This indicates that the trench 21 from which the first antireflection film 12 has been removed functions as a moisture permeable port and can suppress the occurrence of spots due to moisture.
  • the second antireflection film 11 is formed on the entire surface including the trench 21 portion, it can be seen that the second antireflection film 11 is a highly moisture permeable film.
  • the present inventors in the back-illuminated solid-state imaging device having a large pixel having a unit pixel size of 1.90 um or more, suppresses the occurrence of spots due to moisture, reduces reflected light, and A pixel structure has been devised that does not provide a gap in the microlens and prevents deterioration of sensitivity characteristics due to the gap.
  • FIG. 9 is a cross-sectional view illustrating a configuration example of a back-illuminated solid-state imaging device that is an embodiment of the present technology.
  • a color filter 54 is formed below the microlens 51, and a flattening film 5 and a light-shielding film are formed below the color filter 54, as in the configuration shown in FIG. 4.
  • An antireflection film 3 and a pn junction type photodiode PD are formed.
  • FIG. 9 the description of the parts denoted by the same reference numerals as those in FIG. 1 is omitted.
  • the microlens 51 is made of acrylic, styrene, novolac, or a copolymer resin thereof, and its refractive index is about 1.48 to 1.62.
  • the first antireflection film 52 is made of SiN, SiON or the like having a refractive index higher than that of the microlens 51 and has a film thickness within a range of 90 to 155 nm (for example, 120 nm).
  • the refractive index of SiN is about 1.81 to 1.90
  • the refractive index of SiON is about 1.52 to 1.80.
  • the second antireflection film 53 is formed with a film thickness within a range of 60 to 100 nm (for example, 80 nm), using SiO, SiOC, or the like having a refractive index lower than that of the microlens 51 as a material.
  • the refractive index of SiO is about 1.47, and the refractive index of SiOC is about 1.40.
  • the first antireflection film 52 is the same as the first antireflection film 12 of FIG. 8
  • the second antireflection film 53 is the same as the second antireflection film 11 of FIG.
  • the antireflection film 52 is a film having lower moisture permeability than the second antireflection film 53.
  • the refractive indexes of the microlens 51, the first antireflection film 52, and the second antireflection film 53 have a relationship of first antireflection film 52> microlens 51> second antireflection film 53.
  • the color arrangement of the color filter 54 for example, a Bayer arrangement in which 2 ⁇ 2 4 pixels are repeatedly arranged in an arrangement of G, R, B, and G is employed.
  • the color arrangement of the color filter 54 is not limited to the Bayer arrangement and is arbitrary.
  • the first antireflection film 52 is formed on the surface of the microlens 51 in the two G pixels among the four G, R, B, and G pixels that form a repeating unit in the Bayer array. Only the second antireflection film 53 is formed, and the two antireflection films of the first antireflection film 52 and the second antireflection film 53 are formed on the two pixels R and B. ing. In all the pixels of the pixel array in which the pixels are two-dimensionally arranged, all the G pixels are pixels in which a single-layer antireflection film (only the second antireflection film 53) is formed on the surface of the microlens 51. .
  • FIG. 10 is a plan view showing a pixel arrangement in which the first antireflection film 52 is formed in a 3 ⁇ 3 pixel region.
  • the color arrangement of the color filter 54 in each pixel is indicated by characters G, R, B, and G.
  • the same pattern as the first antireflection film 52 of FIG. 9 is given to the pixel on which the first antireflection film 52 is formed.
  • the first antireflection film 52 is formed on the R pixel and the B pixel, but is not formed on the G pixel.
  • the second antireflection film 53 is formed on all the pixels, the pixel on which the first antireflection film 52 is not formed is a pixel on which only the second antireflection film 53 is formed.
  • FIG. 11 shows a cross-sectional view in the diagonal direction along the line segment YY ′ shown in FIG.
  • the second antireflection film 53 is formed, but the first antireflection film 52 is formed only at the pixel boundary portion in the diagonal direction. However, it is not formed in the path of light incident on the photodiode PD.
  • FIG. 12 shows a cross-sectional view in the diagonal direction along the line segment Z-Z ′ shown in FIG.
  • the pixels in the line segment Z-Z ′ are R or B pixels, a two-layer antireflection film of the first antireflection film 52 and the second antireflection film 53 is formed.
  • the back-illuminated solid-state imaging device 50 includes a pixel in which a single-layer antireflection film (second antireflection film 53) is formed on the surface of the microlens 51, and a two-layer antireflection film ( And a pixel on which a first antireflection film 52 and a second antireflection film 53) are formed.
  • the pixel on which the two-layer antireflection film is formed can sufficiently prevent the reflection of incident light on the surface of the microlens 51, the occurrence of flare, ghost, and color mixture can be suppressed.
  • the first pixel between the G pixel on which the single-layer antireflection film is formed and the R and B pixels on which the two-layer antireflection film is formed.
  • the second antireflection film 53 depending on the presence or absence of the first antireflection film 52, there is no gap as in the case where the trench 21 is formed. It does not cause deterioration of characteristics.
  • the G pixel in which the single-layer antireflection film is formed and the R and B pixels in which the two-layer antireflection film is formed are arranged in a Bayer array.
  • the periodicity of the formation pitch P of the microlenses 51 is twice the pixel pitch.
  • the first antireflection film 52 is formed on the microlens 51 for all the pixels using a material having a refractive index higher than that of the microlens 51. Form.
  • the first antireflection film 52 is removed only for the G pixel, and then the microlens is applied to all the pixels.
  • a second antireflection film 53 is formed on the first antireflection film 52 using a material having a refractive index lower than that of the microlens 51.
  • an antireflection film 3, a light shielding film 4, a planarizing film 5, and a color filter 6 are provided on the light incident surface side of the semiconductor substrate 1 on which the photodiode PD is formed for each pixel. Sequentially formed.
  • the upper surface of the color filter 6 is a photosensitive resin film made of, for example, a positive photosensitive acrylic resin, a positive photosensitive styrene resin, or a copolymer resin thereof having thermal fluidity and thermosetting properties.
  • the photosensitive resin film 71 is patterned on a pixel basis by lithography.
  • the photosensitive resin film 71 patterned in pixel units is deformed by a reflow process into a lens shape having a convex surface and a curved surface as shown in FIG. Is done.
  • a first antireflection film 52 is formed on the entire surface of the microlens 51.
  • a silicon nitride film (SiN) or a silicon oxynitride film (SiON) can be formed by using, for example, a plasma CVD method.
  • the first antireflection film 52 has a thickness in the range of 90 to 155 nm (for example, 120 nm).
  • the first antireflection film 52 of the pixel which is a single-layer antireflection film, is removed using dry etching or the like.
  • the first antireflection film 52 is not formed on the two G pixels out of the four pixels G, R, B, and G that form repeating units in the Bayer array, and the second antireflection layer is formed. Since only the film 53 is used, in FIG. 13D, the first antireflection film 52 of the G pixel is removed.
  • a second antireflection film 53 is formed on the upper surface of the microlens 51 in the G pixel and on the upper surface of the first antireflection film 52 in the R and B pixels. Is done.
  • the second antireflection film 53 for example, a silicon oxide film (SiO) or a silicon oxycarbide film (SiOC) can be formed by using a plasma CVD method.
  • the thickness of the second antireflection film 53 is set to a thickness in the range of 60 to 100 nm (for example, 80 nm).
  • a predetermined pixel for example, a G pixel
  • the antireflection film 53 is formed, and two layers of antireflection films (the first antireflection film 52 and the second antireflection film 53) are formed on the other pixels (for example, the R pixel and the B pixel).
  • the backside illumination type solid-state imaging device 50 shown in FIG. 9 is completed.
  • a single-layer antireflection film (second antireflection film 53) is formed on two of G, R, B, and G, which are repeating units in the Bayer array.
  • the R pixel and the B pixel are pixels on which two layers of antireflection films (the first antireflection film 52 and the second antireflection film 53) are formed.
  • the arrangement of the pixels as the single-layer antireflection film is not limited to this example, and other arrangements can be taken.
  • FIG. 14 is a plan view showing a pixel arrangement in which the first antireflection film 52 is formed, as in FIG. A pixel in which the first antireflection film 52 is not formed becomes a pixel in which only the second antireflection film 53 is formed.
  • one pixel of G among the four pixels forming the repeating unit in the Bayer array is a pixel on which only the second antireflection film 53 is formed
  • the four repeating units shown in FIG. Compared to the case where the two G pixels are pixels in which only the second antireflection film 53 is formed, the number of pixels having moisture permeability, that is, the number of pixels in which the antireflection film is formed in a single layer is smaller. Therefore, although the moisture permeability is reduced by half, the ratio of pixels on which two layers of antireflection films are formed increases, so that the effect of suppressing the occurrence of flare, ghost, and color mixture can be enhanced.
  • FIG. 15 is a plan view showing a pixel arrangement in which the first antireflection film 52 is formed, as in FIG. 10. A pixel in which the first antireflection film 52 is not formed becomes a pixel in which only the second antireflection film 53 is formed.
  • all the B pixels are pixels in which a single-layer antireflection film (only the second antireflection film 53) is formed on the surface of the microlens 51. .
  • each of R, G, and B of four pixels of G, R, B, and G that form a repeating unit in a Bayer array is formed as a single-layer antireflection film (first layer). 2 may be adopted.
  • FIG. 16 is a plan view showing a pixel arrangement in which the first antireflection film 52 is formed, as in FIG. 10. A pixel in which the first antireflection film 52 is not formed becomes a pixel in which only the second antireflection film 53 is formed.
  • the color filter array is a Bayer array
  • at least one of the four G, R, B, and G pixels that form a repeating unit in the Bayer array is a single-layer antireflection film ( The pixel is provided with the second antireflection film 53 only).
  • at least 1/4 of the total number of pixels in the pixel array in which the pixels are two-dimensionally arranged is a pixel in which a single-layer antireflection film is formed on the surface of the microlens 51.
  • the present technology is not limited to application to a solid-state imaging device. That is, the present technology is applied to an image capturing unit (photoelectric conversion unit) such as an imaging device such as a digital still camera or a video camera, a portable terminal device having an imaging function, or a copying machine using a solid-state imaging device as an image reading unit.
  • the present invention can be applied to all electronic devices using a solid-state image sensor.
  • the solid-state imaging device may be formed as a one-chip, or may be in a module shape having an imaging function in which an imaging unit and a signal processing unit or an optical system are packaged together.
  • FIG. 17 is a block diagram illustrating a configuration example of an imaging apparatus as an electronic apparatus to which the present technology is applied.
  • An imaging apparatus 100 in FIG. 17 includes an optical unit 101 including a lens group, a solid-state imaging device (imaging device) 102 that employs the configuration of the back-illuminated solid-state imaging device 50 in FIG. 9, and a DSP that is a camera signal processing circuit.
  • a (Digital / Signal / Processor) circuit 103 is provided.
  • the imaging apparatus 100 also includes a frame memory 104, a display unit 105, a recording unit 106, an operation unit 107, and a power supply unit 108.
  • the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, the operation unit 107, and the power supply unit 108 are connected to each other via a bus line 109.
  • the optical unit 101 takes in incident light (image light) from a subject and forms an image on the imaging surface of the solid-state imaging device 102.
  • the solid-state imaging device 102 converts the amount of incident light imaged on the imaging surface by the optical unit 101 into an electrical signal in units of pixels and outputs the electrical signal.
  • a back-illuminated solid-state image sensor 50 in FIG. 9 that is, a pixel in which a single-layer antireflection film (second antireflection film 53) is formed on the surface of the microlens 51, 2 It is possible to use a solid-state imaging device having pixels on which layer antireflection films (first antireflection film 52 and second antireflection film 53) are formed.
  • the display unit 105 includes a thin display such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display, and displays a moving image or a still image captured by the solid-state image sensor 102.
  • the recording unit 106 records a moving image or a still image captured by the solid-state imaging device 102 on a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 107 issues operation commands for various functions of the imaging apparatus 100 under the operation of the user.
  • the power supply unit 108 appropriately supplies various power sources serving as operation power sources for the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, and the operation unit 107 to these supply targets.
  • the solid-state image sensor 102 by using the back-illuminated solid-state image sensor 50 described above as the solid-state image sensor 102, while suppressing the occurrence of spots, the reflected light is reduced, and the occurrence of flare, ghost, and color mixing is suppressed. It is also possible to prevent deterioration of the sensitivity characteristics due to the microlens gap. Accordingly, even in the imaging apparatus 100 such as a video camera, a digital still camera, or a camera module for a mobile device such as a mobile phone, it is possible to improve the image quality of the captured image.
  • FIG. 18 is a diagram showing an example of use of an image sensor using the back-illuminated solid-state imaging device 50 described above.
  • An image sensor using the above-described back-illuminated solid-state imaging device 50 can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below. it can.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports-Equipment used for sports such as action cameras and wearable cameras for sports applications-Used for agriculture such as cameras for monitoring the condition of fields and crops apparatus
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an in-vivo information acquisition system for a patient using a capsule endoscope.
  • FIG. 19 is a diagram illustrating an example of a schematic configuration of an in-vivo information acquisition system 5400 to which the technology according to the present disclosure can be applied.
  • the in-vivo information acquisition system 5400 includes a capsule endoscope 5401 and an external control device 5423 that comprehensively controls the operation of the in-vivo information acquisition system 5400.
  • the capsule endoscope 5401 is swallowed by the patient.
  • the capsule endoscope 5401 has an imaging function and a wireless communication function, and moves inside the organs such as the stomach and intestine by peristaltic movement or the like until it is spontaneously discharged from the patient.
  • Images are sequentially captured at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to the external control device 5423 outside the body.
  • the external control device 5423 generates image data for displaying the in-vivo image on a display device (not shown) based on the received information about the in-vivo image.
  • an image obtained by imaging the state of the patient's body can be obtained at any time from when the capsule endoscope 5401 is swallowed until it is discharged.
  • the light source unit 5405 is composed of a light source such as an LED (light emitting diode), and irradiates light onto the imaging field of the imaging unit 5407.
  • a light source such as an LED (light emitting diode)
  • the imaging unit 5407 includes an imaging device and an optical system including a plurality of lenses provided in the preceding stage of the imaging device. Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor. The imaging element receives the observation light and photoelectrically converts it to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal generated by the imaging unit 5407 is provided to the image processing unit 5409.
  • various known imaging devices such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor may be used.
  • the image processing unit 5409 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 5407.
  • the signal processing may be minimal processing (for example, image data compression, frame rate conversion, data rate conversion, and / or format conversion, etc.) for transmitting the image signal to the external control device 5423.
  • the image processing unit 5409 is configured to perform only the minimum necessary processing, the image processing unit 5409 can be realized with a smaller size and lower power consumption. Is preferred. However, if there is room in the space or power consumption in the housing 5403, the image processing unit 5409 may perform further signal processing (for example, noise removal processing or other high image quality processing). Good.
  • the image processing unit 5409 provides the image signal subjected to signal processing to the wireless communication unit 5411 as RAW data.
  • the state detection unit 5419 acquires information about the state (movement, posture, etc.) of the capsule endoscope 5401
  • the image processing unit 5409 associates the information with the information and wirelessly transmits the image signal.
  • the communication unit 5411 may be provided. Thereby, the position in the body where the image was captured, the imaging direction of the image, and the like can be associated with the captured image.
  • the wireless communication unit 5411 includes a communication device that can transmit and receive various types of information to and from the external control device 5423.
  • the communication apparatus includes an antenna 5413, a processing circuit that performs modulation processing for signal transmission and reception, and the like.
  • the wireless communication unit 5411 performs predetermined processing such as modulation processing on the image signal subjected to signal processing by the image processing unit 5409, and transmits the image signal to the external control device 5423 via the antenna 5413.
  • the wireless communication unit 5411 receives a control signal related to drive control of the capsule endoscope 5401 from the external control device 5423 via the antenna 5413.
  • the wireless communication unit 5411 provides the received control signal to the control unit 5421.
  • the power feeding unit 5415 includes a power receiving antenna coil, a power regeneration circuit that regenerates power from a current generated in the antenna coil, a booster circuit, and the like.
  • the power feeding unit 5415 generates power using a so-called non-contact charging principle. Specifically, when an external magnetic field (electromagnetic wave) is applied to the antenna coil of the power feeding unit 5415, an induced electromotive force is generated in the antenna coil.
  • the electromagnetic wave may be a carrier wave transmitted from the external control device 5423 via the antenna 5425, for example. Electric power is regenerated from the induced electromotive force by the power regeneration circuit, and the potential is appropriately adjusted in the booster circuit, thereby generating power for storage.
  • the electric power generated by the power supply unit 5415 is stored in the power supply unit 5417.
  • the power supply unit 5417 is configured by a secondary battery and stores the electric power generated by the power supply unit 5415.
  • FIG. 19 in order to avoid complication of the drawing, illustration of an arrow indicating a power supply destination from the power supply unit 5417 is omitted, but the power stored in the power supply unit 5417 is stored in the light source unit 5405.
  • the imaging unit 5407, the image processing unit 5409, the wireless communication unit 5411, the state detection unit 5419, and the control unit 5421 can be used for driving them.
  • the state detection unit 5419 includes a sensor for detecting the state of the capsule endoscope 5401 such as an acceleration sensor and / or a gyro sensor.
  • the state detection unit 5419 can acquire information about the state of the capsule endoscope 5401 from the detection result of the sensor.
  • the state detection unit 5419 provides the acquired information about the state of the capsule endoscope 5401 to the image processing unit 5409.
  • information about the state of the capsule endoscope 5401 can be associated with the image signal.
  • the control unit 5421 is configured by a processor such as a CPU, and performs overall control of the operation of the capsule endoscope 5401 by operating according to a predetermined program.
  • the control unit 5421 drives the light source unit 5405, the imaging unit 5407, the image processing unit 5409, the wireless communication unit 5411, the power supply unit 5415, the power supply unit 5417, and the state detection unit 5419 according to a control signal transmitted from the external control device 5423. By appropriately controlling, the function in each unit as described above is realized.
  • the external control device 5423 may be a processor such as a CPU or GPU, or a microcomputer or a control board in which a processor and a storage element such as a memory are mounted.
  • the external control device 5423 includes an antenna 5425 and is configured to be able to transmit and receive various types of information to and from the capsule endoscope 5401 through the antenna 5425.
  • the external control device 5423 controls the operation of the capsule endoscope 5401 by transmitting a control signal to the control unit 5421 of the capsule endoscope 5401.
  • the light irradiation condition for the observation target in the light source unit 5405 can be changed by a control signal from the external control device 5423.
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 5407
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 5407
  • the content of processing in the image processing unit 5409 and the conditions for example, the transmission interval and the number of transmission images
  • the wireless communication unit 5411 to transmit an image signal may be changed by a control signal from the external control device 5423.
  • the external control device 5423 performs various image processing on the image signal transmitted from the capsule endoscope 5401, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various known signal processing such as electronic zoom processing may be performed.
  • the external control device 5423 controls driving of a display device (not shown) to display an in-vivo image captured based on the generated image data.
  • the external control device 5423 may cause the generated image data to be recorded on a recording device (not shown) or may be printed out on a printing device (not shown).
  • the technology according to the present disclosure can be suitably applied to the imaging unit 5407 among the configurations described above.
  • the back-illuminated solid-state imaging device 50 of FIG. 9 can be applied to the imaging unit 5407.
  • a clearer surgical part image can be obtained, and thus the accuracy of the examination is improved.
  • the technology according to the present disclosure is, for example, any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), etc. You may implement
  • FIG. 20 is a block diagram illustrating a schematic configuration example of a vehicle control system 7000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. .
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for communicating with other control units via a communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I / F for performing communication is provided. In FIG.
  • a microcomputer 7610 As a functional configuration of the integrated control unit 7600, a microcomputer 7610, a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, an audio image output unit 7670, An in-vehicle network I / F 7680 and a storage unit 7690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the battery control unit 7300 controls the secondary battery 7310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the outside information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 21 shows an example of installation positions of the imaging unit 7410 and the vehicle outside information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided at, for example, at least one of the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirror mainly acquire an image of the side of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or
  • FIG. 21 shows an example of shooting ranges of the respective imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, an overhead image when the vehicle 7900 is viewed from above is obtained.
  • the vehicle outside information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 7920, 7926, and 7930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 7900 may be, for example, LIDAR devices.
  • These outside information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 7400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 7410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera.
  • the passenger can input information using a gesture.
  • data obtained by detecting the movement of the wearable device worn by the passenger may be input.
  • the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600.
  • a passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • General-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution-Advanced
  • another wireless communication protocol such as a wireless LAN (also referred to as Wi-Fi (registered trademark)), Bluetooth (registered trademark), or the like may be implemented.
  • the general-purpose communication I / F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point. May be.
  • the general-purpose communication I / F 7620 is a terminal (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle using, for example, P2P (Peer To Peer) technology. You may connect with.
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in vehicles.
  • the dedicated communication I / F 7630 is a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
  • the dedicated communication I / F 7630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) Perform V2X communication, which is a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I / F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 7660 is connected to a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile) via a connection terminal (and a cable if necessary). Wired connection such as High-definition Link) may be established.
  • the in-vehicle network I / F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I / F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is connected via at least one of a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, and an in-vehicle network I / F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the acquired information. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Also good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 is information acquired via at least one of the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, and the in-vehicle network I / F 7680.
  • the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a collision of a vehicle, approach of a pedestrian or the like or an approach to a closed road based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include at least one of an on-board display and a head-up display, for example.
  • the display portion 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units. That is, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 7010. .
  • the back-illuminated solid-state imaging device 50 to which the present technology is applied can be applied to the imaging unit 7410 shown in FIG.
  • the back-illuminated solid-state imaging device 50 of FIG. 9 By applying the back-illuminated solid-state imaging device 50 of FIG. 9 to the imaging unit 7410, it is possible to obtain a captured image that is easier to see and to acquire distance information. In addition, it is possible to reduce driver fatigue and increase the safety level of the driver and the vehicle by using the obtained captured image and distance information.
  • Each pixel is A photoelectric conversion unit that performs photoelectric conversion according to incident light; A microlens for condensing the incident light on the photoelectric conversion unit, A solid-state imaging device in which a pixel in which a plurality of antireflection films are formed on the surface of the microlens and a pixel in which a single-layer antireflection film is formed on the surface of the microlens are mixed.
  • a pixel in which a single-layer antireflection film is formed on the surface of the microlens is more transparent than a pixel in which a plurality of antireflection films are formed on the surface of the microlens.
  • the color filters form a Bayer array, All the pixels whose color filter is G among all the pixels are pixels in which a single-layer antireflection film is formed on the surface of the microlens.
  • the color filters form a Bayer array, All the pixels where the color filter is B among all the pixels are pixels in which a single-layer antireflection film is formed on the surface of the microlens.
  • the solid-state imaging device according to any one of (1) to (8), wherein the solid-state imaging device is a backside illumination type.
  • a microlens that collects incident light on the photoelectric conversion unit is formed on each pixel, A plurality of antireflection films are formed on the surface of the microlens on the first pixel, and a single-layer antireflection film is formed on the surface of the microlens on the second pixel.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Inorganic Chemistry (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Surface Treatment Of Optical Elements (AREA)
  • Endoscopes (AREA)
  • Color Television Image Signal Generators (AREA)
  • Optical Filters (AREA)

Abstract

本技術は、フレアやゴースト、混色の発生を抑止するとともに、水分に起因するシミの発生を抑止することができるようにする固体撮像素子およびその製造方法、並びに、電子機器に関する。 固体撮像素子は、マイクロレンズの表面に単層の反射防止膜が形成されている画素と、2層の反射防止膜が形成されている画素とを有する。本技術は、例えば、裏面照射型の固体撮像素子に適用できる。

Description

固体撮像素子およびその製造方法、並びに、電子機器
 本技術は、固体撮像素子およびその製造方法、並びに、電子機器に関し、特に、マイクロレンズと反射防止膜との間の水分に起因する画質劣化を抑止できるようにした固体撮像素子およびその製造方法、並びに、電子機器に関する。
 昨今、裏面照射型固体撮像素子が普及している。裏面照射型固体撮像素子は、表面照射型固体撮像素子に比較し、画素の微細化、高感度化、シェーディング特性改善等の点で有利とされている。
 その反面、裏面照射型固体撮像素子には、入射光がPD(フォトダイオード)に受光されるまでの経路にメタル配線層が形成されていないので、メタル配線層が形成されている表面照射型固体撮像素子に比較して、マイクロレンズ表面等における反射光がより多くPDに取り込まれてしまう。このため、裏面照射型固体撮像素子は、表面照射型固体撮像素子よりもフレアやゴースト、混色が発生し易く、生成される画像の画質劣化を招く要因となっている。
 そこで、例えば、特許文献1には、マイクロレンズの表面に2層の反射防止膜が形成された裏面照射型固体撮像素子の構成が提案されている。
 また、特許文献2には、マイクロレンズを第1レンズ層と第2レンズ層の2層で形成し、上側の第2レンズ層の上に、反射防止膜を形成した固体撮像素子が提案されている。
特開2012-84608号公報 特開2007-19435号公報
 マイクロレンズの表面に反射防止膜を形成する際、反射防止膜として透湿性の低い材料を用いると、マイクロレンズ材の除湿が十分になされず、シミが発生することがあった。
 本技術はこのような状況に鑑みてなされたものであり、マイクロレンズ表面の反射を防止するとともに、マイクロレンズ材の除湿が十分になされないことに起因するシミの発生を抑止できるようにするものである。
 本技術の第1の側面である固体撮像素子は、各画素が、入射光に応じて光電変換を行う光電変換部と、前記光電変換部に前記入射光を集光するマイクロレンズとを備え、前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが混在する。
 前記マイクロレンズの表面に単層の反射防止膜が形成されている画素は、前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素から、前記単層の反射防止膜よりも透湿性が低い反射防止膜を除去したものとすることができる。
 全画素のうち、少なくとも1/4の画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とすることができる。
 本技術の第1の側面である固体撮像素子は、前記光電変換部と前記マイクロレンズとの間に形成されているカラーフィルタをさらに備えることができ、全画素のうち、前記カラーフィルタが所定の色の全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とすることができる。
 前記カラーフィルタはベイヤ配列を成し、全画素のうち、前記カラーフィルタがGの全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とすることができる。
 前記カラーフィルタはベイヤ配列を成し、全画素のうち、前記カラーフィルタがBの全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とすることができる。
 前記複数層の反射防止膜は、第1の反射防止膜と第2の反射防止膜で構成され、前記単層の反射防止膜は、前記第2の反射防止膜で構成され、前記第1の反射防止膜は、シリコン窒化膜またはシリコン酸化窒化膜であり、前記第2の反射防止膜は、シリコン酸化膜またはシリコン酸化炭化膜であるようにすることができる。
 前記マイクロレンズ、前記第1の反射防止膜、および、前記第2の反射防止膜の屈折率は、前記第1の反射防止膜>前記マイクロレンズ>前記第2の反射防止膜の関係とすることができる。
 前記固体撮像素子は、裏面照射型とすることができる。
 本技術の第2の側面である固体撮像素子の製造方法は、光電変換部に入射光を集光するマイクロレンズを各画素に形成し、第1の画素には、前記マイクロレンズの表面に複数層の反射防止膜を形成し、第2の画素には、前記マイクロレンズの表面に単層の反射防止膜を形成する。
 本技術の第3の側面である電子機器は、各画素が、入射光に応じて光電変換を行う光電変換部と、前記光電変換部に前記入射光を集光するマイクロレンズとを備え、前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが混在する固体撮像素子を備える。
 本技術の第1乃至第3の側面においては、固体撮像素子に、マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが設けられる。
 本技術の第1および第2の側面によれば、フレアやゴースト、混色の発生を抑止するとともに、水分に起因するシミの発生を抑止し、さらに、画素の感度特性の劣化も抑止することができる。
裏面照射型固体撮像素子の基本画素構造を示す断面図である。 マイクロレンズの表面の反射を説明する図である。 マイクロレンズの表面に1層の反射防止膜が形成されている裏面照射型固体撮像素子の断面図である。 単位画素サイズと反射光の回折反射光との関係を説明する図である。 マイクロレンズの表面に2層の反射防止膜が形成されている裏面照射型固体撮像素子の断面図である。 2層の反射防止膜を形成した場合に発生するシミの例を示す図である。 2層の反射防止膜とマイクロレンズの水分を解析した結果を説明する図である。 2層の反射防止膜の画素境界にトレンチを形成した画素構造の断面図である。 本技術を適用した裏面照射型固体撮像素子の構成例を示す断面図である。 図9の第1の反射防止膜の画素配置を示す平面図である。 図9の裏面照射型固体撮像素子の図10の線分Y-Y’における断面図である。 図9の裏面照射型固体撮像素子の図10の線分Z-Z’における断面図である。 図9の裏面照射型固体撮像素子の製造方法を説明する図である。 第1の反射防止膜のその他の画素配置例を示す平面図である。 第1の反射防止膜のその他の画素配置例を示す平面図である。 第1の反射防止膜のその他の画素配置例を示す平面図である。 本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 イメージセンサの使用例を説明する図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
<本技術に至った経緯>
 初めに、本技術の実施の形態に至った経緯について説明する。
 裏面照射型の固体撮像素子は、コンパクトデジタルカメラや、モバイルカメラ用途に代表される、単位画素サイズが1.75um程度の微細画素を備える撮像素子に対して、先行して実用化された。
 裏面照射型の固体撮像素子は、いわゆるAPSサイズ、35mm、1型サイズ等のデジタルカメラ用途にも適用可能であったが、これら撮像素子の画素サイズは、1.75um程度の画素サイズよりも充分大きい為に、導入が遅れていた。
 しかし、近年、画素サイズの大きい撮像素子に対しても、より高感度で高精細な撮像画質を追及すべく、裏面照射型の適用が検討されている。
 図1は、裏面照射型固体撮像素子の基本画素構造を示す断面図である。
 p型の半導体領域で形成された半導体基板1に対して、n型の半導体領域2が画素ごとに形成されることで、pn接合型のフォトダイオードPDが画素ごとに構成される。フォトダイオードPDは、入射光に応じて光電変換を行う光電変換部である。図1における半導体基板1の上面が光入射面となり、下面には、図示は省略されているが、フォトダイオードPDに蓄積された電荷を読み出す画素トランジスタや、複数層のメタル配線と層間絶縁膜とからなるメタル配線層が形成されている。
 半導体基板1の光入射面である上面全面には、反射防止膜3が形成されている。反射防止膜3は、例えば、ハフニウム酸化(HfO2)膜とシリコン酸化膜の2層構造で形成される。
 さらに反射防止膜3の上面には、画素境界部分に、アルミニウム(Al)、タングステン(W)、銅(Cu)等の金属材料による遮光膜4が形成され、遮光膜4と反射防止膜3の上面に、平坦化膜5を介してカラーフィルタ6が形成されている。カラーフィルタ6は、例えば、2x2の4画素が、G,R,B,Gの光を透過させるように配置された所謂ベイヤ配列で形成される。カラーフィルタ6の上には、マイクロレンズ7が形成されている。マイクロレンズ7は、入射光を集光してフォトダイオードPDに入射させる。
 以上のように構成される裏面照射型固体撮像素子では、光の入射側にはメタル配線層が無いので、入射光を効率よくフォトダイオードPDに取り込むことができるため、感度特性に優れる。一方で、メタル配線層が無いことにより、隣接画素への光入射による光学混色が懸念されるため、画素間に遮光膜4を配置することにより、光学混色が低減されている。
 しかしながら、フォトダイオードPDへ入射される光には、隣接画素から入射される光の他、シールガラス面からの反射光や、赤外線カットフィルタからの反射光、カメラセットの光学系からの反射光などもあり、フレアやゴースト、混色が発生する一因となる。特に、フレアやゴースト、混色成分光の発生原因の一つとして、図2に示されるように、マイクロレンズ7表面の反射が、挙げられる。
 マイクロレンズ7の材料には、例えば、アクリル系、スチレン系、ノボラック系、または、それらの共重合系樹脂が用いられ、その屈折率は、およそ1.48~1.62程度である。
 例えば、入射光側の媒体が空気であると、マイクロレンズ7の表面反射は、およそ3.8~5.6%程度となる。マイクロレンズ7の屈折率が大きければ、その表面反射率も高くなる。
 そこで、マイクロレンズ表面の反射を防止するために、図3に示されるように、マイクロレンズ7の表面に反射防止膜11を形成することで、反射率の低減を図ることが可能である。
 例えば、マイクロレンズ7の材料として、屈折率が約1.60程度のポリスチレン系の材料を用いた場合、その表面反射率は、可視光(400~700nm)の平均反射率が約5.2%であった。
 このマイクロレンズ表面に、反射防止膜11として、屈折率が約1.46程度のシリコン酸化膜(SiO)を単層で80nm程度形成した場合、マイクロレンズ7の平均反射率は、約2.6%に低減された。
 しかしながら、単位画素サイズが1.75um程度の微細画素ではなく、APSサイズや35mm、1型サイズ等のデジタルカメラに用いられる、単位画素サイズが1.90um以上の大きな単位画素(以下、微細画素に対して、大サイズ画素と称する。)の場合には、単層の反射防止膜11では、充分な効果を得ることができず、画質の劣化を招いていた。
 また、マイクロレンズ7に入射される光に対しては、回折反射光が生じるが、回折反射光の回折次数mと回折角度θは、マイクロレンズのピッチ(画素サイズ)Pと、次式(1)の関係がある。式(1)において、λは入射光の波長である。
    P・sinθ=m・λ     ・・・・・・・(1)
 式(1)からわかるように、入射光の波長λが一定の時、マイクロレンズのピッチPが小さくなると、回折次数mは減少し、マイクロレンズのピッチPが大きくなると回折次数mは増加する。同時に、同一な回折次数mでの回折角度θは、マイクロレンズのピッチPが小さい程大きくなる。更には、それぞれ相対的に、入射光の波長λが小さい程、回折次数mは増加する。
 したがって、図4に示されるように、単位画素サイズが大きい程、回折反射光の回折次数mが増加し、回折角度θも小さくなることから、画素サイズが大きくなるほど、反射光の影響は大きくなり、反射光の低減の必要性がより高まる。
 そこで、大サイズ画素を有する固体撮像素子の反射光をより低減させるため、特許文献1に開示されたような、マイクロレンズの表面に2層の反射防止膜を形成する構造が考えられる。
 図5は、マイクロレンズの表面に2層の反射防止膜を形成した裏面照射型の固体撮像素子の断面図である。
 図5の固体撮像素子では、図3においてマイクロレンズ7の表面に形成した反射防止膜11と、マイクロレンズ7との間に、もう1つの反射防止膜12を形成し、2層の反射防止膜とされている。その他の構造は、図3の固体撮像素子と同様である。
 以下では、マイクロレンズ7に近い反射防止膜12を第1反射防止膜12、最表層の反射防止膜11を、第2反射防止膜11と称する。上層の第2反射防止膜11は、図3と同様に、屈折率が約1.46程度のシリコン酸化膜(SiO)を用いて、例えば80um程度の膜厚で形成され、下層の第1反射防止膜12は、屈折率が約1.86程度のシリコン窒化膜(SiN)を用いて、例えば、120um程度の膜厚で形成される。
 反射防止膜を2層構造とし、1型サイズのカメラ用途で単位画素サイズを2.4umとした図5の画素構造において、表面反射率を測定した結果、可視光(400~700nm)の平均反射率は、約1.3%であった。上述した単層の反射防止膜11のみとした図3の画素構造では、マイクロレンズ7の平均反射率は、約2.6%であるので、2層構造の場合の反射率は、単層構造の場合の1/2であり、反射防止膜を形成しない場合のおよそ1/4であるので、良好な反射防止効果を得ることができた。
 また、2層構造の反射防止膜を形成した裏面照射型固体撮像素子について、感度特性を検査した結果、マイクロレンズ7の表面反射率の低減効果により、2%の向上が見られた。フレア、ゴーストについては定量評価が難しい為、一定の撮像環境下での官能評価を行ったところ、2層構造の反射防止膜を形成した裏面照射型固体撮像素子は、許容レベルであった。
 ところで、信頼性試験として、高温高湿の環境下で、2層構造の反射防止膜を形成した裏面照射型固体撮像素子を一定期間保存する試験を行った。具体的には、温度85℃、湿度85%の環境下で、2層反射防止膜の固体撮像素子を1000時間だけ保存する試験を行った。上記の環境下で保存後、2層反射防止膜の固体撮像素子において、図6に示すような、単層反射防止膜の固体撮像素子には見られないシミが発見された。
 図6に示したようなシミが発生した領域の第2反射防止膜11、第1反射防止膜12、および、マイクロレンズ7の部分を、二次イオン質量分析法(Secondary Ion Mass Spectrometry)を用いて分析したところ、水分に関わるHおよびOの二次イオンについて、図7の破線で示される測定結果が得られた。
 図7のグラフの横軸は、第2反射防止膜11、第1反射防止膜12、および、マイクロレンズ7の各層内の位置を表し、縦軸は、イオン濃度を表す。
 図7の破線で示される各層内の位置のイオン濃度を見ると、第1反射防止膜12とマイクロレンズ7との間で、HおよびOのいずれのイオン濃度も上昇している。この測定結果から、第1反射防止膜12として用いたシリコン窒化膜(SiN)が透湿性の低い膜であるため、第1反射防止膜12とマイクロレンズ7との間に水分が滞留し、図6に示したようなシミが発生したと考えられる。
 そこで、例えば、図8に示されるように、画素の対角方向の境界部分に、第1反射防止膜12を除去したトレンチ21を形成した画素構造を試験的に作製し、各層内の位置のイオン濃度を解析した。
 画素の対角方向の境界部分にトレンチ21を形成した画素構造のHおよびOのイオン濃度が、図7において実線で示される測定結果である。
 図7の実線で示されるHおよびOのイオン濃度を、図7の破線で示されるHおよびOのイオン濃度と比較して明らかなように、トレンチ21を形成したことにより、第1反射防止膜12とマイクロレンズ7との間のピークが存在せず、透湿性が向上している。これは、第1反射防止膜12が除去されているトレンチ21が、透湿口としての機能を果たし、水分に起因するシミの発生を抑止できることを示している。なお、図8の画素構造では、第2反射防止膜11は、トレンチ21部分を含む全面に形成されているので、第2反射防止膜11は透湿性の高い膜であることが分かる。
 しかしながら、図8のように画素境界にトレンチ21を形成すると、隣接するマイクロレンズ7にギャップ(段差)が生じることになるので、このギャップに起因してマイクロレンズ7の集光効率が低下し、画素の感度特性が劣化してしまうことになる。
 そこで、本件発明者らは、単位画素サイズが1.90um以上の大サイズ画素を有する裏面照射型の固体撮像素子において、水分に起因するシミの発生を抑止して、反射光を低減し、かつ、マイクロレンズにギャップを設けずに、ギャップによる感度特性の劣化をも防止した画素構造を発案した。
<本技術の実施の形態>
 図9は、本技術の実施の形態である裏面照射型固体撮像素子の構成例を示す断面図である。
 この裏面照射型固体撮像素子50は、特定の画素についてはマイクロレンズ51の表面に第2の反射防止膜53のみが形成され、その他の画素についてはマイクロレンズ51の表面に第1の反射防止膜52および第2の反射防止膜53が形成されている。
 裏面照射型固体撮像素子50の各画素において、マイクロレンズ51の下層にはカラーフィルタ54が形成され、カラーフィルタ54の下層には、図1で示した構成と同様、平坦化膜5、遮光膜4、反射防止膜3、および、pn接合型のフォトダイオードPDが形成されている。図9において図1と同一の符号を付した部分についての説明は省略する。
 マイクロレンズ51は、アクリル系、スチレン系、ノボラック系、またはそれらの共重合系樹脂を材料として形成され、その屈折率はおよそ1.48乃至1.62程度である。
 第1の反射防止膜52は、マイクロレンズ51よりも屈折率が高いSiN、SiON等を材料として、90乃至155nmの範囲内の膜厚(例えば120nm)で形成される。SiNの屈折率は1.81乃至1.90程度、SiONの屈折率は、1.52乃至1.80程度である。第2の反射防止膜53は、マイクロレンズ51よりも屈折率が低いSiO、SiOC等を材料として、60乃至100nmの範囲内の膜厚(例えば80nm)で形成される。SiOの屈折率は1.47程度、SiOCの屈折率は、1.40程度である。したがって、第1の反射防止膜52は、図8の第1反射防止膜12と同様であり、第2の反射防止膜53は、図8の第2反射防止膜11と同様であり、第1の反射防止膜52は、第2の反射防止膜53よりも透湿性の低い膜である。マイクロレンズ51、第1の反射防止膜52、および、第2の反射防止膜53の屈折率は、第1の反射防止膜52>マイクロレンズ51>第2の反射防止膜53の関係にある。
 カラーフィルタ54の色の配置には、例えば2x2の4画素をG,R,B,Gの配置で繰り返し配列するベイヤ配列が採用される。ただし、カラーフィルタ54の色の配置は、ベイヤ配列に限るものではなく任意である。
 図9の例では、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちの、Gの2画素には、マイクロレンズ51の表面に第1の反射防止膜52を形成せず、第2の反射防止膜53のみが形成されており、RおよびBの2画素には、第1の反射防止膜52および第2の反射防止膜53の2層の反射防止膜が形成されている。画素が2次元配列された画素アレイの全画素では、全てのGの画素が、マイクロレンズ51の表面に単層の反射防止膜(第2の反射防止膜53のみ)が形成された画素となる。
 図10は、3x3の画素領域に対して、第1の反射防止膜52が形成される画素配置を示す平面図である。図10では、各画素におけるカラーフィルタ54の色配置をG,R,B,Gの文字で示している。
 図10では、ベイヤ配列の3x3の9画素のうち、第1の反射防止膜52が形成される画素には、図9の第1の反射防止膜52と同じ模様が付されている。具体的には、第1の反射防止膜52は、Rの画素とBの画素には形成されているが、Gの画素には形成されていない。なお、第2の反射防止膜53は全画素に形成されているので、第1の反射防止膜52形成されていない画素は、第2の反射防止膜53のみが形成された画素となる。
 図10に記された線分X-X’における断面図が図9の断面図に相当する。
 図11は、図10に記された線分Y-Y’における対角方向の断面図を示している。
 線分Y-Y’における画素は全てGの画素であるので、第2の反射防止膜53は形成されているが、第1の反射防止膜52は、対角方向の画素境界部分のみに形成され、フォトダイオードPDに入射される光の経路には形成されていない。
 図12は、図10に記された線分Z-Z’における対角方向の断面図を示している。
 線分Z-Z’における画素は、RまたはBの画素であるので、第1の反射防止膜52および第2の反射防止膜53の2層の反射防止膜が形成されている。
 以上のように、裏面照射型固体撮像素子50は、マイクロレンズ51の表面に単層の反射防止膜(第2の反射防止膜53)が形成されている画素と、2層の反射防止膜(第1の反射防止膜52および第2の反射防止膜53)が形成されている画素とを有する。
 図7の解析結果を参照して説明したように、図8の第2反射防止膜11に対応する図9の第2の反射防止膜53は、透湿性の高い膜であるので、第1の反射防止膜52が形成されず、第2の反射防止膜53のみが形成されている画素は、図8のトレンチ21を形成した場合と同様に、水分を外部に逃がすことができる。これにより、水分に起因するシミの発生を抑止することができる。
 一方、2層の反射防止膜が形成されている画素は、マイクロレンズ51の表面における入射光の反射を十分に防止することができるので、フレアやゴースト、混色の発生を抑止できる。
 さらに、裏面照射型固体撮像素子50の場合、単層の反射防止膜が形成されているGの画素と、2層の反射防止膜が形成されているRおよびBの画素との間で、第1の反射防止膜52の有無により第2の反射防止膜53の高さに違いは生じるものの、トレンチ21を形成した場合のようなギャップは存在しないので、集光効率の低下や、画素の感度特性の劣化を生じさせることはない。
 またさらに、裏面照射型固体撮像素子50の場合、単層の反射防止膜が形成されているGの画素と、2層の反射防止膜が形成されているRおよびBの画素とが、ベイヤ配列で配置されることにより、マイクロレンズ51の形成ピッチPの周期性は画素ピッチの2倍となる。式(1)から分かるように、周期性が2倍になると、回折次数mは増加し、1点1点の反射光の強度は弱くなるので、反射強度を分散させる効果を得ることができる。
 <裏面照射型固体撮像素子50の製造方法>
 次に、裏面照射型固体撮像素子50におけるマイクロレンズ51、第1の反射防止膜52、および第2の反射防止膜53の製造工程について説明する。
 カラーフィルタ54の上面にアクリル系樹脂等から成るマイクロレンズ51を形成した後、全画素についてマイクロレンズ51の上に、マイクロレンズ51よりも屈折率が高い材料を用いて第1の反射防止膜52を形成する。次に、カラーフィルタ54の色に応じ、例えば、Gの画素を単層の反射防止膜とする場合、Gの画素についてのみ、第1の反射防止膜52を除去した後、全画素についてマイクロレンズ51または第1の反射防止膜52の上に、マイクロレンズ51よりも屈折率が低い材料を用いて第2の反射防止膜53を形成する。
 図13を参照して、さらに詳しく説明する。
 図13のAに示されるように、フォトダイオードPDが画素ごとに形成された半導体基板1の光入射面側に、反射防止膜3、遮光膜4、平坦化膜5、及び、カラーフィルタ6が順次形成される。そして、カラーフィルタ6の上面に、熱流動性と熱硬化性を持った、例えばポジ型感光性アクリル系樹脂、ポジ型感光性スチレン系樹脂、或いはそれらの共重合系樹脂などによる感光性樹脂膜71を形成した後、リソグラフィ技術により、感光性樹脂膜71が画素単位にパターン加工される。
 そして、画素単位にパターニングされた感光性樹脂膜71が、リフロー処理により、図13のBに示されるように、上に凸で曲面を持ったレンズ形状に変形させることで、マイクロレンズ51が形成される。
 次に、図13のCに示されるように、マイクロレンズ51の表面全面に、第1の反射防止膜52が形成される。この第1の反射防止膜52としては、例えばプラズマCVD法を用いて、シリコン窒化膜(SiN)やシリコン酸化窒化膜(SiON)を形成することができる。第1の反射防止膜52の膜厚は、90乃至155nmの範囲内の膜厚(例えば120nm)とされる。
 次に、図13のDに示されるように、単層の反射防止膜とする画素の第1の反射防止膜52が、ドライエッチング等を用いて除去される。本実施の形態では、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちの、Gの2画素には第1の反射防止膜52を形成せず、第2の反射防止膜53のみとするので、図13のDでは、Gの画素の第1の反射防止膜52が除去されている。
 次に、図13のEに示されるように、Gの画素ではマイクロレンズ51の上面、RおよびBの画素では第1の反射防止膜52の上面に、第2の反射防止膜53が成膜される。この第2の反射防止膜53としては、例えばプラズマCVD法を用いて、シリコン酸化膜(SiO)やシリコン酸化炭化膜(SiOC)を形成することができる。第2の反射防止膜53の膜厚は、60乃至100nmの範囲内の膜厚(例えば80nm)とされる。
 以上のように、画素が2次元配列された画素アレイの全画素のうち、所定の画素(例えば、Gの画素)には、マイクロレンズ51の表面に単層の反射防止膜(第2の反射防止膜53)を形成し、他の画素(例えば、Rの画素とBの画素)には、2層の反射防止膜(第1の反射防止膜52および第2の反射防止膜53)を形成することで、図9に示した裏面照射型固体撮像素子50が完成する。
<単層の反射防止膜の他の画素配置例>
 上述した実施の形態では、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちのGの2画素を、単層の反射防止膜(第2の反射防止膜53)が形成されている画素とし、Rの画素とBの画素を、2層の反射防止膜(第1の反射防止膜52および第2の反射防止膜53)が形成されている画素とした。
 しかしながら、単層の反射防止膜とする画素の配置は、この例に限られず、その他の配置も取り得る。
 例えば、図14に示されるように、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちのGの1画素のみを、単層の反射防止膜(第2の反射防止膜53のみ)とする配置を採用してもよい。図14は、図10と同様に、第1の反射防止膜52が形成される画素配置を示す平面図である。第1の反射防止膜52が形成されていない画素が、第2の反射防止膜53のみが形成された画素となる。
 このように、ベイヤ配列において繰り返し単位を成す4画素のうち、Gの1画素を第2の反射防止膜53のみが形成される画素とした場合、図10に示した、繰り返し単位の4画素のうちのGの2画素を第2の反射防止膜53のみが形成される画素とした場合に比較して、透湿性を有する画素、すなわち、反射防止膜が単層で形成される画素の数が1/2となるので、透湿性は半減するものの、2層の反射防止膜が形成されている画素の割合が増えるので、フレアやゴースト、混色の発生を抑止する効果を高めることができる。
 また例えば、図15に示されるように、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちのBの1画素のみを、単層の反射防止膜(第2の反射防止膜53のみ)とする配置を採用してもよい。図15は、図10と同様に、第1の反射防止膜52が形成される画素配置を示す平面図である。第1の反射防止膜52が形成されていない画素が、第2の反射防止膜53のみが形成された画素となる。画素が2次元配列された画素アレイの全画素では、全てのBの画素が、マイクロレンズ51の表面に単層の反射防止膜(第2の反射防止膜53のみ)が形成された画素となる。
 また例えば、図16に示されるように、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちのR,G,Bの各1画素を、単層の反射防止膜(第2の反射防止膜53のみ)とする配置を採用してもよい。図16は、図10と同様に、第1の反射防止膜52が形成される画素配置を示す平面図である。第1の反射防止膜52が形成されていない画素が、第2の反射防止膜53のみが形成された画素となる。
 以上のように、カラーフィルタの配列がベイヤ配列である場合には、ベイヤ配列において繰り返し単位を成すG,R,B,Gの4画素のうちの少なくとも1画素が、単層の反射防止膜(第2の反射防止膜53のみ)が形成された画素とされる。この場合、画素が2次元配列された画素アレイの全画素数に対して、少なくとも1/4の画素が、マイクロレンズ51の表面に単層の反射防止膜が形成されている画素となる。
 画素が2次元配列された画素アレイの全画素数に対して、単層の反射防止膜(第2の反射防止膜53のみ)とする画素の比率を高くすると、透湿性を向上させ、シミの発生を抑える効果が高まり、2層の反射防止膜(第1の反射防止膜52および第2の反射防止膜53)とする画素の比率を高くすると、フレアやゴースト、混色の発生を抑止する効果が高まる。
 シミの発生を抑える効果と、フレアやゴースト、混色の発生を抑止する効果とはトレードオフの関係にあるので、単層の反射防止膜(第2の反射防止膜53のみ)とする画素と、2層の反射防止膜(第1の反射防止膜52および第2の反射防止膜53)とする画素の数の割合は、裏面照射型固体撮像素子50の用途等に応じて決定すればよい。
<電子機器への適用例>
 本技術は、固体撮像素子への適用に限られるものではない。即ち、本技術は、デジタルスチルカメラやビデオカメラ等の撮像装置や、撮像機能を有する携帯端末装置や、画像読取部に固体撮像素子を用いる複写機など、画像取込部(光電変換部)に固体撮像素子を用いる電子機器全般に対して適用可能である。固体撮像素子は、ワンチップとして形成された形態であってもよいし、撮像部と信号処理部または光学系とがまとめてパッケージングされた撮像機能を有するモジュール状の形態であってもよい。
 図17は、本技術を適用した電子機器としての、撮像装置の構成例を示すブロック図である。
 図17の撮像装置100は、レンズ群などからなる光学部101、図9の裏面照射型固体撮像素子50の構成が採用される固体撮像素子(撮像デバイス)102、およびカメラ信号処理回路であるDSP(Digital Signal Processor)回路103を備える。また、撮像装置100は、フレームメモリ104、表示部105、記録部106、操作部107、および電源部108も備える。DSP回路103、フレームメモリ104、表示部105、記録部106、操作部107および電源部108は、バスライン109を介して相互に接続されている。
 光学部101は、被写体からの入射光(像光)を取り込んで固体撮像素子102の撮像面上に結像する。固体撮像素子102は、光学部101によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この固体撮像素子102として、図9の裏面照射型固体撮像素子50、即ち、マイクロレンズ51の表面に単層の反射防止膜(第2の反射防止膜53)が形成されている画素と、2層の反射防止膜(第1の反射防止膜52および第2の反射防止膜53)が形成されている画素とを有する固体撮像素子を用いることができる。
 表示部105は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等の薄型ディスプレイで構成され、固体撮像素子102で撮像された動画または静止画を表示する。記録部106は、固体撮像素子102で撮像された動画または静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部107は、ユーザによる操作の下に、撮像装置100が持つ様々な機能について操作指令を発する。電源部108は、DSP回路103、フレームメモリ104、表示部105、記録部106および操作部107の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、固体撮像素子102として、上述した裏面照射型固体撮像素子50を用いることで、シミの発生を抑えつつ、反射光を低減して、フレアやゴースト、混色の発生を抑制し、マイクロレンズのギャップによる感度特性の劣化も防止することができる。従って、ビデオカメラやデジタルスチルカメラ、さらには携帯電話機等のモバイル機器向けカメラモジュールなどの撮像装置100においても、撮像画像の高画質化を図ることができる。
<イメージセンサの使用例>
 図18は、上述の裏面照射型固体撮像素子50を用いたイメージセンサの使用例を示す図である。
 上述の裏面照射型固体撮像素子50を用いたイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<第1の応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、カプセル型内視鏡を用いた患者の体内情報取得システムに適用されてもよい。
 図19は、本開示に係る技術が適用され得る体内情報取得システム5400の概略的な構成の一例を示す図である。図19を参照すると、体内情報取得システム5400は、カプセル型内視鏡5401と、体内情報取得システム5400の動作を統括的に制御する外部制御装置5423と、から構成される。検査時には、カプセル型内視鏡5401が患者によって飲み込まれる。カプセル型内視鏡5401は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置5423に順次無線送信する。外部制御装置5423は、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。体内情報取得システム5400では、このようにして、カプセル型内視鏡5401が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した画像を随時得ることができる。
 カプセル型内視鏡5401と外部制御装置5423の構成及び機能についてより詳細に説明する。図示するように、カプセル型内視鏡5401は、カプセル型の筐体5403内に、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、給電部5415、電源部5417、状態検出部5419及び制御部5421の機能が搭載されて構成される。
 光源部5405は、例えばLED(light emitting diode)等の光源から構成され、撮像部5407の撮像視野に対して光を照射する。
 撮像部5407は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した電気信号、すなわち観察像に対応した画像信号を生成する。撮像部5407によって生成された画像信号は、画像処理部5409に提供される。なお、撮像部5407の撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子が用いられてよい。
 画像処理部5409は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部5407によって生成された画像信号に対して各種の信号処理を行う。当該信号処理は、画像信号を外部制御装置5423に伝送するための最小限の処理(例えば、画像データの圧縮、フレームレートの変換、データレートの変換及び/又はフォーマットの変換等)であってよい。画像処理部5409が必要最小限の処理のみを行うように構成されることにより、当該画像処理部5409を、より小型、より低消費電力で実現することができるため、カプセル型内視鏡5401に好適である。ただし、筐体5403内のスペースや消費電力に余裕がある場合であれば、画像処理部5409において、更なる信号処理(例えば、ノイズ除去処理や他の高画質化処理等)が行われてもよい。画像処理部5409は、信号処理を施した画像信号を、RAWデータとして無線通信部5411に提供する。なお、画像処理部5409は、状態検出部5419によってカプセル型内視鏡5401の状態(動きや姿勢等)についての情報が取得されている場合には、当該情報と紐付けて、画像信号を無線通信部5411に提供してもよい。これにより、画像が撮像された体内における位置や画像の撮像方向等と、撮像画像とを関連付けることができる。
 無線通信部5411は、外部制御装置5423との間で各種の情報を送受信可能な通信装置によって構成される。当該通信装置は、アンテナ5413と、信号の送受信のための変調処理等を行う処理回路等から構成される。無線通信部5411は、画像処理部5409によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ5413を介して外部制御装置5423に送信する。また、無線通信部5411は、外部制御装置5423から、カプセル型内視鏡5401の駆動制御に関する制御信号を、アンテナ5413を介して受信する。無線通信部5411は、受信した制御信号を制御部5421に提供する。
 給電部5415は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部5415では、いわゆる非接触充電の原理を用いて電力が生成される。具体的には、給電部5415のアンテナコイルに対して外部から所定の周波数の磁界(電磁波)が与えられることにより、当該アンテナコイルに誘導起電力が発生する。当該電磁波は、例えば外部制御装置5423からアンテナ5425を介して送信される搬送波であってよい。当該誘導起電力から電力再生回路によって電力が再生され、昇圧回路においてその電位が適宜調整されることにより、蓄電用の電力が生成される。給電部5415によって生成された電力は、電源部5417に蓄電される。
 電源部5417は、二次電池によって構成され、給電部5415によって生成された電力を蓄電する。図19では、図面が煩雑になることを避けるために、電源部5417からの電力の供給先を示す矢印等の図示を省略しているが、電源部5417に蓄電された電力は、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、状態検出部5419及び制御部5421に供給され、これらの駆動に用いられ得る。
 状態検出部5419は、加速度センサ及び/又はジャイロセンサ等の、カプセル型内視鏡5401の状態を検出するためのセンサから構成される。状態検出部5419は、当該センサによる検出結果から、カプセル型内視鏡5401の状態についての情報を取得することができる。状態検出部5419は、取得したカプセル型内視鏡5401の状態についての情報を、画像処理部5409に提供する。画像処理部5409では、上述したように、当該カプセル型内視鏡5401の状態についての情報が、画像信号と紐付けられ得る。
 制御部5421は、CPU等のプロセッサによって構成され、所定のプログラムに従って動作することによりカプセル型内視鏡5401の動作を統括的に制御する。制御部5421は、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、給電部5415、電源部5417及び状態検出部5419の駆動を、外部制御装置5423から送信される制御信号に従って適宜制御することにより、以上説明したような各部における機能を実現させる。
 外部制御装置5423は、CPU、GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。外部制御装置5423は、アンテナ5425を有し、当該アンテナ5425を介して、カプセル型内視鏡5401との間で各種の情報を送受信可能に構成される。具体的には、外部制御装置5423は、カプセル型内視鏡5401の制御部5421に対して制御信号を送信することにより、カプセル型内視鏡5401の動作を制御する。例えば、外部制御装置5423からの制御信号により、光源部5405における観察対象に対する光の照射条件が変更され得る。また、外部制御装置5423からの制御信号により、撮像条件(例えば、撮像部5407におけるフレームレート、露出値等)が変更され得る。また、外部制御装置5423からの制御信号により、画像処理部5409における処理の内容や、無線通信部5411が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置5423は、カプセル型内視鏡5401から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が行われてよい。外部制御装置5423は、表示装置(図示せず)の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置5423は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システム5400の一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部5407に好適に適用され得る。具体的には、撮像部5407に図9の裏面照射型固体撮像素子50を適用することができる。撮像部5407に図9の裏面照射型固体撮像素子50を適用することにより、より鮮明な術部画像を得ることができるため、検査の精度が向上する。
<第2の応用例>
 本開示に係る技術は、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクタ)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図20では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図21は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図21には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図20に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図20に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上説明した車両制御システム7000において、本技術を適用した裏面照射型固体撮像素子50を、図20に示した撮像部7410に適用することができる。撮像部7410に図9の裏面照射型固体撮像素子50を適用することにより、より見やすい撮影画像を得ることができたり、距離情報を取得することができる。また、得られた撮影画像や距離情報を用いて、ドライバの疲労を軽減したり、ドライバや車両の安全度を高めることが可能になる。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 本技術は以下のような構成も取ることができる。
(1)
 各画素が、
  入射光に応じて光電変換を行う光電変換部と、
  前記光電変換部に前記入射光を集光するマイクロレンズと
 を備え、
 前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが混在する
 固体撮像素子。
(2)
 前記マイクロレンズの表面に単層の反射防止膜が形成されている画素は、前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素から、前記単層の反射防止膜よりも透湿性が低い反射防止膜を除去したものである
 前記(1)に記載の固体撮像素子。
(3)
 全画素のうち、少なくとも1/4の画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
 前記(1)または(2)に記載の固体撮像素子。
(4)
 前記光電変換部と前記マイクロレンズとの間に形成されているカラーフィルタをさらに備え、
 全画素のうち、前記カラーフィルタが所定の色の全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
 前記(1)から(3)のいずれかに記載の固体撮像素子。
(5)
 前記カラーフィルタはベイヤ配列を成し、
 全画素のうち、前記カラーフィルタがGの全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
 前記(4)に記載の固体撮像素子。
(6)
 前記カラーフィルタはベイヤ配列を成し、
 全画素のうち、前記カラーフィルタがBの全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
 前記(4)に記載の固体撮像素子。
(7)
 前記複数層の反射防止膜は、第1の反射防止膜と第2の反射防止膜で構成され、
 前記単層の反射防止膜は、前記第2の反射防止膜で構成され、
 前記第1の反射防止膜は、シリコン窒化膜またはシリコン酸化窒化膜であり、
 前記第2の反射防止膜は、シリコン酸化膜またはシリコン酸化炭化膜である
 前記(1)に記載の固体撮像素子。
(8)
 前記マイクロレンズ、前記第1の反射防止膜、および、前記第2の反射防止膜の屈折率は、
 前記第1の反射防止膜>前記マイクロレンズ>前記第2の反射防止膜の関係にある
 前記(7)に記載の固体撮像素子。
(9)
 前記固体撮像素子は、裏面照射型である
 前記(1)から(8)のいずれかに記載の固体撮像素子。
(10)
 光電変換部に入射光を集光するマイクロレンズを各画素に形成し、
 第1の画素には、前記マイクロレンズの表面に複数層の反射防止膜を形成し、第2の画素には、前記マイクロレンズの表面に単層の反射防止膜を形成する
 固体撮像素子の製造方法。
(11)
 各画素が、
  入射光に応じて光電変換を行う光電変換部と、
  前記光電変換部に前記入射光を集光するマイクロレンズと
 を備え、
 前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが混在する
 固体撮像素子
 を備える電子機器。
 50 裏面照射型固体撮像素子, PD フォトダイオード, 51 マイクロレンズ, 52 第1の反射防止膜, 53 第2の反射防止膜, 54 カラーフィルタ, 100 撮像装置, 102 固体撮像素子

Claims (11)

  1.  各画素が、
      入射光に応じて光電変換を行う光電変換部と、
      前記光電変換部に前記入射光を集光するマイクロレンズと
     を備え、
     前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが混在する
     固体撮像素子。
  2.  前記マイクロレンズの表面に単層の反射防止膜が形成されている画素は、前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素から、前記単層の反射防止膜よりも透湿性が低い反射防止膜を除去したものである
     請求項1に記載の固体撮像素子。
  3.  全画素のうち、少なくとも1/4の画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
     請求項1に記載の固体撮像素子。
  4.  前記光電変換部と前記マイクロレンズとの間に形成されているカラーフィルタをさらに備え、
     全画素のうち、前記カラーフィルタが所定の色の全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
     請求項1に記載の固体撮像素子。
  5.  前記カラーフィルタはベイヤ配列を成し、
     全画素のうち、前記カラーフィルタがGの全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
     請求項4に記載の固体撮像素子。
  6.  前記カラーフィルタはベイヤ配列を成し、
     全画素のうち、前記カラーフィルタがBの全ての画素は、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素である
     請求項4に記載の固体撮像素子。
  7.  前記複数層の反射防止膜は、第1の反射防止膜と第2の反射防止膜で構成され、
     前記単層の反射防止膜は、前記第2の反射防止膜で構成され、
     前記第1の反射防止膜は、シリコン窒化膜またはシリコン酸化窒化膜であり、
     前記第2の反射防止膜は、シリコン酸化膜またはシリコン酸化炭化膜である
     請求項1に記載の固体撮像素子。
  8.  前記マイクロレンズ、前記第1の反射防止膜、および、前記第2の反射防止膜の屈折率は、
     前記第1の反射防止膜>前記マイクロレンズ>前記第2の反射防止膜の関係にある
     請求項7に記載の固体撮像素子。
  9.  前記固体撮像素子は、裏面照射型である
     請求項1に記載の固体撮像素子。
  10.  光電変換部に入射光を集光するマイクロレンズを各画素に形成し、
     第1の画素には、前記マイクロレンズの表面に複数層の反射防止膜を形成し、第2の画素には、前記マイクロレンズの表面に単層の反射防止膜を形成する
     固体撮像素子の製造方法。
  11.  各画素が、
      入射光に応じて光電変換を行う光電変換部と、
      前記光電変換部に前記入射光を集光するマイクロレンズと
     を備え、
     前記マイクロレンズの表面に複数層の反射防止膜が形成されている画素と、前記マイクロレンズの表面に単層の反射防止膜が形成されている画素とが混在する
     固体撮像素子
     を備える電子機器。
PCT/JP2017/035190 2016-10-12 2017-09-28 固体撮像素子およびその製造方法、並びに、電子機器 WO2018070259A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/336,009 US10847561B2 (en) 2016-10-12 2017-09-28 Solid-state imaging element and method for manufacturing the same, and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016200642A JP2018064007A (ja) 2016-10-12 2016-10-12 固体撮像素子、および電子装置
JP2016-200642 2016-10-12

Publications (1)

Publication Number Publication Date
WO2018070259A1 true WO2018070259A1 (ja) 2018-04-19

Family

ID=61905350

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/035190 WO2018070259A1 (ja) 2016-10-12 2017-09-28 固体撮像素子およびその製造方法、並びに、電子機器

Country Status (3)

Country Link
US (1) US10847561B2 (ja)
JP (1) JP2018064007A (ja)
WO (1) WO2018070259A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020149207A1 (ja) * 2019-01-17 2020-07-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2020171037A1 (ja) * 2019-02-22 2020-08-27 ソニーセミコンダクタソリューションズ株式会社 カメラパッケージ、カメラパッケージの製造方法、および、電子機器

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7270605B2 (ja) 2018-03-29 2023-05-10 テルモ株式会社 医療デバイス
US20210197506A1 (en) * 2019-12-31 2021-07-01 Semiconductor Components Industries, Llc Microlens device and related methods
US11769780B2 (en) * 2020-02-26 2023-09-26 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensors with stress adjusting layers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043772A (ja) * 2007-08-06 2009-02-26 Panasonic Corp 固体撮像装置及びその製造方法
JP2012084608A (ja) * 2010-10-07 2012-04-26 Sony Corp 固体撮像装置とその製造方法、並びに電子機器
WO2016052220A1 (ja) * 2014-10-01 2016-04-07 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4923456B2 (ja) 2005-07-11 2012-04-25 ソニー株式会社 固体撮像装置およびその製造方法、並びにカメラ
KR100880638B1 (ko) * 2007-07-06 2009-01-30 엘지전자 주식회사 발광 소자 패키지
CN102496759B (zh) * 2011-11-29 2014-03-12 华为技术有限公司 平面波导、波导滤波器及天线
US9349770B2 (en) * 2014-02-11 2016-05-24 Semiconductor Components Industries, Llc Imaging systems with infrared pixels having increased quantum efficiency
US9293488B2 (en) * 2014-05-07 2016-03-22 Visera Technologies Company Limited Image sensing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043772A (ja) * 2007-08-06 2009-02-26 Panasonic Corp 固体撮像装置及びその製造方法
JP2012084608A (ja) * 2010-10-07 2012-04-26 Sony Corp 固体撮像装置とその製造方法、並びに電子機器
WO2016052220A1 (ja) * 2014-10-01 2016-04-07 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020149207A1 (ja) * 2019-01-17 2020-07-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2020171037A1 (ja) * 2019-02-22 2020-08-27 ソニーセミコンダクタソリューションズ株式会社 カメラパッケージ、カメラパッケージの製造方法、および、電子機器
CN113348064A (zh) * 2019-02-22 2021-09-03 索尼半导体解决方案公司 相机封装件、相机封装件的制造方法和电子设备

Also Published As

Publication number Publication date
US10847561B2 (en) 2020-11-24
US20200185443A1 (en) 2020-06-11
JP2018064007A (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
US11743604B2 (en) Imaging device and image processing system
WO2018070259A1 (ja) 固体撮像素子およびその製造方法、並びに、電子機器
US20190244992A1 (en) Imaging element and electronic device
US11350053B2 (en) Imaging device, method thereof, and imaging element
US20200152683A1 (en) Imaging element and solid-state imaging device
JP7134952B2 (ja) 撮像素子、及び、撮像素子を備えた電子機器
KR102660131B1 (ko) 고체 촬상 장치 및 전자 기기
JP7235906B2 (ja) 固体撮像装置
WO2019069556A1 (ja) 固体撮像素子、固体撮像素子の製造方法、及び、電子機器
WO2019073726A1 (ja) 固体撮像素子、固体撮像素子の駆動方法、及び、電子機器
JP2018063378A (ja) 光学デバイス、光学センサ、並びに、撮像装置
US20220310699A1 (en) Solid-state image sensor and electronic apparatus
WO2022107512A1 (ja) 受光装置及び測距装置
JP7484904B2 (ja) 撮像素子、信号処理装置、信号処理方法、プログラム、及び、撮像装置
WO2022054742A1 (ja) 撮像素子及び撮像装置
WO2024024464A1 (ja) 固体撮像素子、および電子機器
JP2018011246A (ja) 固体撮像装置、補正方法、および電子装置
WO2018135208A1 (ja) 撮像装置と撮像システム
JP2023174137A (ja) 光検出装置
JP2019125757A (ja) 撮像素子、製造方法、および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17859592

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17859592

Country of ref document: EP

Kind code of ref document: A1