WO2021192677A1 - センサ装置およびその製造方法 - Google Patents

センサ装置およびその製造方法 Download PDF

Info

Publication number
WO2021192677A1
WO2021192677A1 PCT/JP2021/004868 JP2021004868W WO2021192677A1 WO 2021192677 A1 WO2021192677 A1 WO 2021192677A1 JP 2021004868 W JP2021004868 W JP 2021004868W WO 2021192677 A1 WO2021192677 A1 WO 2021192677A1
Authority
WO
WIPO (PCT)
Prior art keywords
resonator
layer
sensor device
photoelectric conversion
light
Prior art date
Application number
PCT/JP2021/004868
Other languages
English (en)
French (fr)
Inventor
戸田 淳
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2021192677A1 publication Critical patent/WO2021192677A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0232Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • This disclosure relates to a sensor device and a method for manufacturing the sensor device.
  • JP-A-2007-103401 Japanese Unexamined Patent Publication No. 2006-229078 JP-A-2010-251489 Japanese Unexamined Patent Publication No. 2018-26378 Japanese Unexamined Patent Publication No. 2011-9673 Japanese Patent No. 5428206 Japanese Unexamined Patent Publication No. 2015-88847
  • the surface of the Fabric Perot resonator has high reflectance. Therefore, when the fabric pero resonator is placed inside the image sensor, when strong light such as sunlight is incident on the image sensor, flare or the like is likely to occur due to the reflected light of the fabric pero resonator, and the image may be deteriorated at the time of imaging. be. Furthermore, the peak wavelength of the spectroscopic spectrum obtained by the fabric pero resonator may shift to the short wavelength side due to the change in the incident angle of the main ray depending on the image height.
  • the peak wavelength of light is changed by the resonator, the half width of the obtained light is narrowed in a wide wavelength range, and sensors equipped with the resonator are mass-produced. It is required to make it easier. Further, it is required to suppress problems in imaging such as flare and to suppress changes in spectral wavelength due to image height.
  • the present disclosure provides a sensor device capable of mounting a resonator in a suitable manner and a method for manufacturing the same.
  • the sensor device on the first side of the present disclosure includes a photoelectric conversion unit, a fabric pero resonator provided on the photoelectric conversion unit, and a fabric pero resonator or between the fabric pero resonator and the photoelectric conversion unit. It is provided with a provided filter layer.
  • the fabric pero resonator can be mounted on the sensor device in a suitable manner, for example, the defects of the fabric pero resonator can be compensated for by the filter layer.
  • the sensor device on the second side of the present disclosure includes a photoelectric conversion unit, a resonator provided on the photoelectric conversion unit and including a metamaterial layer, and the resonator or the resonator and the photoelectric conversion unit.
  • a filter layer provided between the metamaterial layers is provided, and the metamaterial layer is formed of a first portion formed of the first material and a second material different from the first material, and is provided in the first portion. Includes a plurality of second parts. This makes it possible to mount the resonator in the sensor device in a suitable manner, for example, the defect of the resonator can be compensated for by the filter layer.
  • one of the first and second materials may be an insulating material containing silicon
  • the other of the first and second materials may be an insulating material containing silicon or a semiconductor material.
  • the metamaterial layer can be formed of a silicon-based material, and the effective refractive index of the resonator can be increased by changing the volume ratio of the first portion and the second portion formed of different silicon-based materials. It will be possible to change.
  • the sensor device on the second side surface may further include a semiconductor layer in contact with the upper surface or the lower surface of the metamaterial layer. This makes it possible, for example, to cover the upper or lower surface of the metamaterial layer with a non-insulating material.
  • a semiconductor other than the semiconductor layer in contact with the upper surface or the lower surface of the metamaterial layer is located between the metamaterial layer and the substrate including the metamaterial layer and the photoelectric conversion unit.
  • the layer may not be provided. This makes it possible, for example, not to dispose a non-insulating material in the laminated film other than the semiconductor layer in contact with the upper surface or the lower surface of the metamaterial layer.
  • the semiconductor layer may be a silicon layer. This makes it possible to easily form, for example, a semiconductor layer.
  • the resonator may include the metamaterial layer and an insulating film in contact with the upper surface or the lower surface of the metamaterial layer. This allows, for example, the upper or lower surface of the metamaterial layer to be separated from the non-insulating material.
  • the insulating film may be formed of the first or second material. This makes it possible to easily form an insulating film with the same material as the metamaterial layer, for example.
  • the resonator is provided in a laminated film provided on the photoelectric conversion part, and the filter layer is on the laminated film or in the laminated film and the photoelectric conversion part.
  • the laminated film is provided between the first layer provided on the photoelectric conversion unit, the resonator provided on the first layer, and the resonator provided on the resonator. It may include a second layer. This makes it possible, for example, to adjust the performance of the resonator with the first layer and the second layer.
  • At least one of the first and second layers may include one or more insulating films and / or one or more semiconductor layers. This makes it possible, for example, to adjust the performance of the resonator with an insulating film or a semiconductor layer.
  • the refractive index of the second material may be different from the refractive index of the first material. This makes it possible to change the effective refractive index of the resonator, for example, by changing the volume ratio of the first portion and the second portion.
  • the peak wavelength of the light transmitted through the resonator may change according to the effective refractive index of the resonator. This makes it possible, for example, to adjust the peak wavelength of the light transmitted through the resonator by the effective refractive index of the resonator.
  • the effective refractive index of the resonator may be set based on the image height of the sensor device. This makes it possible to suppress short wavelength shifts, for example.
  • the sensor device on the second side surface may further include a lens provided on the resonator, and the planar shape of the lens may be asymmetric with respect to the center of the lens. This makes it possible to suppress short wavelength shifts, for example.
  • the resonator may be provided on a compound semiconductor substrate including the photoelectric conversion unit. This makes it possible to realize, for example, a sensor device having better characteristics than when a silicon substrate is used.
  • the compound semiconductor substrate includes an InGaAs (indium gallium arsenide) layer and an InP (indium phosphide) layer provided on the InGaAs layer, and the resonator is the InP. It may be provided on the layer. This makes it possible to realize, for example, a sensor device having better characteristics than when a silicon substrate is used.
  • InGaAs indium gallium arsenide
  • InP indium phosphide
  • the resonator length of the resonator may be ⁇ / n or more ( ⁇ represents the peak wavelength of the light output from the resonator in vacuum, and n is the resonance. Represents the effective refractive index of the vessel). This enables, for example, spectroscopy over a wide wavelength area.
  • the resonator length of the resonator may be 700 nm / n or more (n represents the effective refractive index of the resonator). This enables, for example, spectroscopy over a wide wavelength area.
  • the sensor device on the second side surface includes the first portion formed of the first material and the plurality of second portions formed of the second material and provided in the first portion.
  • the resonator including the metamaterial layer, a second portion formed of the second material, and a plurality of first portions formed of the first material and provided in the second portion.
  • the sensor device may reduce the number of modes of light by transmitting multimode light through the filter layer and the resonator. This makes it possible, for example, to selectively inject light in a predetermined mode into the photoelectric conversion unit.
  • the sensor device may convert the multi-mode spectroscopy into a single-mode spectroscopy by signal processing. This makes it possible to obtain a single-mode spectroscopic spectrum even when the spectroscopic spectrum obtained by the resonator is in multiple modes, for example.
  • the sensor device transmits multi-mode light through the filter layer and the resonator to generate single-mode light having a peak wavelength in the wavelength range of near-infrared light. It may be generated.
  • near-infrared light which is light with less noise of sunlight, can be selectively incident on the photoelectric conversion unit.
  • the sensor device may be a solid-state image pickup device including a pixel array region having a plurality of pixels. This makes it possible, for example, to apply an excellent resonator to imaging.
  • the pixel array region may have a periodic array in which n ⁇ n (n is an integer of 2 or more) pixels as a unit. This makes it possible to realize, for example, a solid-state image sensor suitable for multi-spectroscopy.
  • a photoelectric conversion unit is formed, a fabric pero resonator is formed on the photoelectric conversion unit, and the fabric pero resonator or the fabric pero resonator and the photoelectric conversion unit are formed.
  • the fabric pero resonator can be mounted on the sensor device in a suitable manner, for example, the defects of the fabric pero resonator can be compensated for by the filter layer.
  • a photoelectric conversion unit is formed, a resonator including a metamaterial layer is formed on the photoelectric conversion unit, and the resonator or the resonator and the resonator are formed.
  • the metamaterial layer is formed of a first portion formed of a first material and a second material different from the first material, and includes forming a filter layer between the photoelectric conversion unit and the metamaterial layer. Includes a plurality of second portions provided within one portion. This makes it possible to mount the resonator in the sensor device in a suitable manner, for example, the defect of the resonator can be compensated for by the filter layer.
  • the metamaterial layer forms a first portion formed of the first material, and the plurality of second portions formed of the second material in the first portion. It may be formed by embedding a portion. This makes it possible, for example, to easily form a metamaterial layer by a general method of a semiconductor manufacturing process.
  • FIG. 1 is a block diagram showing a configuration of a solid-state image sensor according to the first embodiment.
  • the solid-state image sensor of FIG. 1 is a CMOS (Complementary Metal Oxide Semiconductor) type image sensor, which includes a pixel array region 2 having a plurality of pixels 1, a control circuit 3, a vertical drive circuit 4, and a plurality of column signal processing. It includes a circuit 5, a horizontal drive circuit 6, an output circuit 7, a plurality of vertical signal lines 8, and a horizontal signal line 9.
  • CMOS Complementary Metal Oxide Semiconductor
  • Each pixel 1 includes a photodiode that functions as a photoelectric conversion unit and a plurality of pixel transistors.
  • pixel transistors are MOS transistors such as transfer transistors, reset transistors, amplification transistors, and selection transistors.
  • the pixel array area 2 has a plurality of pixels 1 arranged in a two-dimensional array.
  • the pixel array region 2 is an effective pixel region that receives light and performs photoelectric conversion, amplifies and outputs the signal charge generated by the photoelectric conversion, and black for outputting optical black that serves as a reference for the black level. It includes a reference pixel area (not shown). Generally, the black reference pixel region is arranged on the outer peripheral portion of the effective pixel region.
  • the control circuit 3 generates various signals that serve as reference for the operation of the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, etc., based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock.
  • the signal generated by the control circuit 3 is, for example, a clock signal or a control signal, and is input to the vertical drive circuit 4, the column signal processing circuit 5, the horizontal drive circuit 6, and the like.
  • the vertical drive circuit 4 includes, for example, a shift register, and scans each pixel 1 in the pixel array area 2 in a row unit in the vertical direction.
  • the vertical drive circuit 4 further supplies a pixel signal based on the signal charge generated by each pixel 1 to the column signal processing circuit 5 through the vertical signal line 8.
  • the column signal processing circuit 5 is arranged for each column of the pixel 1 in the pixel array area 2, for example, and performs signal processing of the signal output from the pixel 1 for one row based on the signal from the black reference pixel area. Do it for each row. Examples of this signal processing are noise removal and signal amplification.
  • the horizontal drive circuit 6 includes, for example, a shift register, and supplies pixel signals from each column signal processing circuit 5 to the horizontal signal line 9.
  • the output circuit 7 performs signal processing on the signal supplied from each column signal processing circuit 5 through the horizontal signal line 9, and outputs the processed signal.
  • FIG. 2 is a cross-sectional view showing the structure of the solid-state image sensor of the first embodiment.
  • FIG. 2 shows a vertical cross section of the pixel array region 2 of FIG.
  • the solid-state image sensor of the present embodiment includes a support substrate 11, a plurality of wiring layers 12, 13, 14 and an interlayer insulating film 15, and a gate electrode 16 and a gate insulating film 17 included in each transfer transistor Tr1. There is.
  • the solid-state image sensor of the present embodiment further includes a substrate 21, a plurality of photoelectric conversion units 22 in the substrate 21, and a p-type semiconductor region 23, an n-type semiconductor region 24, and a p-type semiconductor included in each photoelectric conversion unit 22.
  • a region 25, a pixel separation layer 26 in the substrate 21, a p-well layer 27, and a plurality of floating diffusion portions 28 are provided.
  • the solid-state image sensor of the present embodiment further includes a groove 31, an element separation unit 32 provided in the groove 31, a fixed charge film (a film having a negative fixed charge) 33 and an insulating film included in the element separation unit 32. 34, a light-shielding film 35, a flattening film 36, a laminated film 37 provided above each photoelectric conversion unit 22, a color filter layer 38, and an on-chip lens 39 are provided.
  • FIG. 2 shows the X-axis, Y-axis, and Z-axis that are perpendicular to each other.
  • the X and Y directions correspond to the horizontal direction (horizontal direction), and the Z direction corresponds to the vertical direction (vertical direction). Further, the + Z direction corresponds to the upward direction, and the ⁇ Z direction corresponds to the downward direction.
  • the ⁇ Z direction may or may not exactly coincide with the direction of gravity.
  • the substrate 21 is, for example, a semiconductor substrate such as a silicon (Si) substrate.
  • the surface of the substrate 21 in the ⁇ Z direction is the front surface of the substrate 21, and the surface of the substrate 21 in the Z direction is the back surface (back surface) of the substrate 21.
  • the color filter layer 38 and the on-chip lens 39 are provided on the back side of the substrate 21, and are located above the substrate 21 in FIG.
  • the back surface of the substrate 21 is the light incident surface of the substrate 21.
  • the wiring layers 12 to 14 are provided on the front side of the substrate 21, and are located below the substrate 21 in FIG.
  • the photoelectric conversion unit 22 is provided in the substrate 21 for each pixel 1.
  • FIG. 2 illustrates three photoelectric conversion units 22 for three pixels 1.
  • Each photoelectric conversion unit 22 includes a p-type semiconductor region 23, an n-type semiconductor region 24, and a p-type semiconductor region 25, which are sequentially formed in the substrate 21 from the front side to the back side of the substrate 21.
  • a main photodiode is realized by a pn junction between the p-type semiconductor region 23 and the n-type semiconductor region 24 and a pn junction between the n-type semiconductor region 24 and the p-type semiconductor region 25.
  • the photodiode converts light into a charge.
  • the photoelectric conversion unit 22 receives the light incident on the on-chip lens 39 through the color filter layer 38, generates a signal charge according to the amount of the received light, and transfers the generated signal charge to the n-type semiconductor region 24. accumulate.
  • the pixel separation layer 26 is a p-type semiconductor region provided between photoelectric conversion units 22 adjacent to each other.
  • the p-well layer 27 is a p-type semiconductor region provided on the front side of the substrate 21 with respect to the pixel separation layer 26.
  • the floating diffusion portion 28 is an n + type semiconductor region provided on the front side of the substrate 21 with respect to the p-well layer 27.
  • the floating diffusion portion 28 is formed by injecting n-type impurities into the p-well layer 27 at a high concentration.
  • the groove 31 has a shape extending from the back surface of the substrate 21 in the depth direction ( ⁇ Z direction), and is provided between the photoelectric conversion units 22 adjacent to each other, similarly to the pixel separation layer 26.
  • the groove 31 is formed by forming a recess in the pixel separation layer 26 by etching.
  • the element separation unit 32 includes a fixed charge film 33 and an insulating film 34, which are sequentially formed in the groove 31.
  • the fixed charge film 33 is formed on the side surface and the bottom surface of the groove 31.
  • the insulating film 34 is embedded in the groove 31 via the fixed charge film 33.
  • the fixed charge film 33 is a film having a negative fixed charge and is a material for the element separation unit 32.
  • electric charges may be generated from minute defects existing at the interface of the substrate 21 even in a state where there is no incident light and no signal charges. This charge causes noise called dark current.
  • a film having a negative fixed charge has an effect of suppressing the generation of such a dark current. Therefore, according to the present embodiment, the dark current can be reduced by the fixed charge film 33.
  • the fixed charge film 33 of the present embodiment is formed on the entire back surface of the substrate 21, and is arranged not only in the element separation unit 32 but also on the photoelectric conversion unit 22.
  • the fixed charge film 33 is, for example, an oxide film or a nitride film containing hafnium (Hf), aluminum (Al), zirconium (Zr), tantalum (Ta), or titanium (Ti).
  • the insulating film 34 is used as a material for the element separating portion 32 together with the fixed charge film 33.
  • the insulating film 34 is preferably formed of a material having a refractive index different from that of the fixed charge film 33. Examples of such an insulating film 34 are a silicon oxide film, a silicon nitride film, a silicon oxynitride film, a resin film, and the like. Further, the insulating film 34 may be a film having no positive fixed charge or a film having a small positive fixed charge.
  • the insulating film 34 of the present embodiment is formed on the entire back surface of the substrate 21, and is arranged not only in the element separation unit 32 but also on the photoelectric conversion unit 22.
  • the light-shielding film 35 is formed in a predetermined region on the insulating film 34 formed on the back surface of the substrate 21, and has an effect of blocking light from the on-chip lens 39. In the pixel array region 2, the light-shielding film 35 is formed in a mesh shape so that the photoelectric conversion unit 22 opens with respect to the on-chip lens 39, and specifically, is formed on the element separation unit 32. ..
  • the light-shielding film 35 is a film formed of a material that blocks light, and is, for example, a metal film containing tungsten (W), aluminum (Al), or copper (Cu).
  • the flattening film 36 is formed on the entire surface of the insulating film 34 so as to cover the light-shielding film 35, whereby the surface on the back surface of the substrate 21 is flat.
  • the flattening film 36 is, for example, an organic film such as a resin film.
  • the laminated film 37 is formed on the flattening film 36, and includes, for example, a silicon oxide film, a silicon nitride film, a silicon layer, and the like.
  • the laminated film 37 of the present embodiment further includes a resonator 51 having a different structure for each pixel 1, as will be described later. Details of the laminated film 37 will be described later.
  • the color filter layer 38 is formed on the laminated film 37 for each pixel, and is also called an OCCF (on-chip color filter).
  • the color filter layers 38 for red (R), green (G), and blue (B) are arranged above the photoelectric conversion unit 22 of the red, green, and blue pixels 1, respectively.
  • the color filter layers 38 for yellow (Y), magenta (M), and cyan (C) may be arranged above the photoelectric conversion unit 22 of the yellow, magenta, and cyan pixels 1, respectively.
  • these color filter layers 38 may include a color filter layer 38 for infrared light above the photoelectric conversion unit 22 of the infrared light (IR) pixel 1.
  • Each color filter layer 38 has a property that light of a predetermined wavelength can or cannot be transmitted, and the light transmitted through each color filter layer 38 passes through the laminated film 37, the insulating film 34, and the fixed charge film 33. It is incident on the photoelectric conversion unit 22.
  • the color filter layer 38 may be arranged between the laminated film 37 and the flattening film 36 instead of being arranged between the laminated film 37 and the on-chip lens 39. That is, the color filter layer 38 may be arranged under the laminated film 37 instead of being arranged on the laminated film 37.
  • the on-chip lens 39 is formed on the color filter layer 38 for each pixel 1.
  • Each on-chip lens 39 has a property of condensing incident light, and the light collected by each on-chip lens 39 is incident on the photoelectric conversion unit 22 via the corresponding color filter layer 38 or the like. do.
  • the support substrate 11 is provided on the front side of the substrate 21 via an interlayer insulating film 15 to ensure the strength of the substrate 21.
  • the support substrate 11 is, for example, a semiconductor substrate such as a silicon substrate.
  • the wiring layers 12 to 14 are provided in the interlayer insulating film 15 provided on the front side of the substrate 21 to form a multilayer wiring structure.
  • the multi-layer wiring structure of the present embodiment includes three wiring layers 12 to 14, but may include four or more wiring layers.
  • Each of the wiring layers 12 to 14 includes various wirings, and a pixel transistor such as the transfer transistor Tr1 is driven by using these wirings.
  • the wiring layers 12 to 14 are metal layers containing, for example, tungsten, aluminum, or copper.
  • the interlayer insulating film 15 is, for example, an insulating film containing a silicon oxide film or the like.
  • each transfer transistor Tr1 is provided under the p-well layer 27 between the p-type semiconductor region 23 and the stray diffusion portion 28 via a gate insulating film 17.
  • Each transfer transistor Tr1 can transfer the signal charge in the photoelectric conversion unit 22 to the floating diffusion unit 28.
  • the gate electrode 16 and the gate insulating film 17 are provided in the interlayer insulating film 15.
  • the solid-state image sensor of the present embodiment light is irradiated from the back side of the substrate 21, and the light is incident on the on-chip lens 39.
  • the light incident on the on-chip lens 39 is collected by the on-chip lens 39 and passes through the color filter layer 38, the laminated film 37, the flattening film 36, the insulating film 34, and the fixed charge film 33 to the photoelectric conversion unit 22.
  • the photoelectric conversion unit 22 converts this light into an electric charge by photoelectric conversion to generate a signal charge.
  • the signal charge is output as a pixel signal via the vertical signal lines 8 in the wiring layers 12 to 14 provided on the front side of the substrate 21.
  • FIG. 3 is another cross-sectional view showing the structure of the solid-state image sensor of the first embodiment.
  • FIG. 3 shows a substrate 21, a laminated film 37, and a color filter layer 38 included in one pixel 1.
  • the photoelectric conversion unit 22 and the like in the substrate 21, the flattening film 36 on the substrate 21, the on-chip lens 39, and the like are not shown.
  • the laminated film 37 of the present embodiment includes a silicon oxide film (SiO 2 film) 41, a silicon nitride film (SiN film (Si 3 N 4 film)) 42, which are sequentially formed on the substrate 21. It includes a silicon oxide film 41, a polysilicon layer (poly-Si layer) 43, a metamaterial layer 44, a polysilicon layer 43, and a silicon oxide film 41.
  • the metamaterial layer 44 functions as a resonator 51.
  • the laminated film 37 of the present embodiment includes the resonator 51 to form a refractive index-modulated fabric-perot resonator. Each layer and each film in the laminated film 37 has a thickness shown in FIG. 3, for example.
  • the silicon oxide film 41, the silicon nitride film 42, the silicon oxide film 41, and the polysilicon layer 43 under the resonator 51 are examples of the first layer of the present disclosure, and the polysilicon layer 43 and the silicon oxide on the resonator 51
  • the film 41 is an example of the second layer of the present disclosure.
  • QE shown in FIG. 3 is an abbreviation for Quantum Efficiency.
  • the resonator 51 is also called a cavity.
  • FIG. 4 is a perspective view showing the structure of the resonator 51 (metamaterial layer 44) of the first embodiment.
  • the metamaterial layer 44 of the present embodiment is formed of a silicon nitride portion 42a formed of a silicon nitride film 42 and a silicon oxide film 41, and is provided in the silicon nitride portion 42a. It contains a plurality of silicon oxide portions 41a.
  • the silicon nitride portion 42a has a generally quadrangular plate-like shape.
  • each silicon oxide portion 41a has a columnar shape extending in the Z direction and penetrates the silicon nitride portion 42a.
  • the silicon nitride portion 42a is an example of the first portion formed of the first material
  • the silicon oxide portion 41a is an example of the plurality of second portions formed of the second material.
  • the silicon oxide portion 41a and the silicon nitride portion 42a have different refractive indexes. Specifically, the refractive index of the silicon nitride portion 42a is higher than the refractive index of the silicon oxide portion 41a. Therefore, the effective refractive index of the resonator 51 depends on the volume ratio of the silicon oxide portion 41a and the silicon nitride portion 42a in the metamaterial layer 44. Therefore, in the present embodiment, the effective refractive index of the resonator 51 can be changed for each pixel by changing the volume ratio of the silicon oxide portion 41a and the silicon nitride portion 42a for each pixel 1.
  • the peak wavelength of the light output from the resonator 51 (that is, transmitted through the resonator 51) can be changed by changing the effective refractive index without changing the resonator length of the resonator 51. It will be possible.
  • the metamaterial layer 44 can be formed in various modes by selecting two or more kinds of materials having different refractive indexes and forming a fine structure with these materials.
  • the metamaterial layer 44 may be formed of silicon oxide and amorphous silicon, as will be described later. Further, the metamaterial layer 44 may be formed of silicon oxide and titanium oxide.
  • the metamaterial layer 44 of the present embodiment is realized by a fine structure of 1/2 or less of the peak wavelength described above.
  • FIG. 5 is a plan view showing the structure of the resonator 51 (metamaterial layer 44) of the first embodiment.
  • FIG. 5 shows a metamaterial layer 44 of 4 ⁇ 4 pixels 1.
  • the volume ratio of the silicon oxide portion 41a and the silicon nitride portion 42a is different for each metamaterial layer 44 (for each pixel 1).
  • FIG. 5 shows not only the metamaterial layer 44 in which the plurality of silicon oxide portions 41a are provided in the silicon nitride portion 42a, but also the metamaterial layer 44 in which the plurality of silicon nitride portions 42a are provided in the silicon oxide portion 41a. Shown.
  • the latter metamaterial layer 44 (resonator 51) is an example of the second metamaterial layer (second resonator) of the present disclosure.
  • a polysilicon layer 43 is provided under the metamaterial layer 44, and the polysilicon layer 43 is in contact with the lower surface of the metamaterial layer 44. Therefore, the lower surface of the metamaterial layer 44 is separated from the silicon oxide film 41 and the like below the metamaterial layer 44.
  • a transparent material for example, silicon oxide film 41
  • this transparent material becomes a part of the resonator 51 together with the metamaterial layer 44.
  • the thickness of the resonator 51 can be reduced by contacting the polysilicon layer 43 with the lower surface of the metamaterial layer 44.
  • a polysilicon layer 43 is further provided on the metamaterial layer 44, and the polysilicon layer 43 is in contact with the upper surface of the metamaterial layer 44. Therefore, the upper surface of the metamaterial layer 44 is separated from the silicon oxide film 41 or the like above the metamaterial layer 44.
  • a transparent material for example, silicon oxide film 41
  • this transparent material becomes a part of the resonator 51 together with the metamaterial layer 44.
  • the thickness of the resonator 51 can be reduced by contacting the polysilicon layer 43 with the upper surface of the metamaterial layer 44.
  • the laminated film 37 of the present embodiment is entirely formed of an insulating film except for these polysilicon layers 43.
  • an example of the laminated film 37 including a semiconductor layer other than these polysilicon layers 43 will be described later.
  • the metamaterial layer 44 shown in FIG. 4 includes a silicon nitride portion 42a having a high refractive index and a plurality of silicon oxide portions 41a having a low refractive index. As a result, the resonator 51 including the metamaterial layer 44 is realized.
  • each silicon oxide portion 41a in FIG. 4 is, for example, a cylindrical shape.
  • the diameter of this cylindrical circle is set to be smaller than the order of the peak wavelength of the light output from the resonator 51. That is, the silicon oxide portion 41a is microfabricated. This makes it possible to realize the resonator 51 having suitable characteristics.
  • FIG. 5 shows a metamaterial layer 44 (resonator 51) of 4 ⁇ 4 pixels 1.
  • the resonator lengths of these resonators 51 are all set to be the same. The reason is that the peak wavelength of the light output from the resonator 51 can be changed by changing the effective refractive index without changing the resonator length of the resonator 51. Not changing the resonator length of the resonator 51 has an advantage that, for example, the resonator 51 can be easily manufactured.
  • FIG. 6 is a graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 7 is another graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 8 is another graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 6 shows an example of the spectrum of light transmitted through the laminated film 37, the horizontal axis represents the wavelength of this light, and the vertical axis represents the transmittance of this light at each wavelength.
  • FIG. 7 shows another example of the spectrum of light transmitted through the laminated film 37, where the horizontal axis represents the wavelength of this light and the vertical axis represents the quantum efficiency of this light at each wavelength.
  • FIG. 8 shows another example of the spectrum of light transmitted through the laminated film 37, where the horizontal axis represents the wavelength of this light and the vertical axis represents the quantum efficiency of this light at each wavelength.
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, ⁇ / n or more.
  • represents the peak wavelength of the light passing through the resonator 51 in a vacuum.
  • n represents the effective refractive index of the resonator 51.
  • the target value ⁇ 0 of this peak wavelength is used as the value of ⁇ .
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, 700 nm / n or more.
  • the resonator length by setting the resonator length to ⁇ / n or more, the interval between the peak wavelength of one mode and the peak wavelength of the next mode becomes narrow. This is shown by the FSR (Free Spectal Range) in FIG. As a result, as shown in FIG. 7, for example, spectroscopy in a wide wavelength area becomes possible.
  • FSR Free Spectal Range
  • one spectral spectrum becomes multi-mode (multi-mode) and includes a large number of peaks (Fig. 7). Therefore, in the present embodiment, a layer having wavelength selectivity such as the color filter layer 38 is arranged on the laminated film 37. As a result, it is possible to reduce the number of modes (wavelength range) of the light incident on the laminated film 37, and it is possible to reduce the number of peaks included in the spectral spectrum of the light transmitted through the laminated film 37. (Fig. 8). As a result, light in a predetermined mode can be selectively incident on the photoelectric conversion unit 22. When the color filter layer 38 is arranged on the laminated film 37, the light incident on the laminated film 37 may be in a single mode (single mode), and the light transmitted through the laminated film 37 may have a single peak. It becomes.
  • FIG. 9 is another graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 10 is another graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 9 shows an example of the spectrum of light transmitted through the color filter layer 38, the horizontal axis represents the wavelength of this light, and the vertical axis represents the transmittance of this light at each wavelength.
  • FIG. 10 shows another example of the spectrum of light transmitted through the color filter layer 38, where the horizontal axis represents the wavelength of this light and the vertical axis represents the transmittance of this light at each wavelength.
  • FIG. 9 shows a spectrum when the color filter layer 38 is, for example, a red (R) filter, a green (G) filter, a blue (B) filter, or the like.
  • FIG. 10 shows a spectrum when the color filter layer 38 is replaced with a high-pass filter layer having 650 nm, 800 nm, and 900 nm as threshold wavelengths.
  • the color filter layer 38 may have any of the characteristics illustrated in FIG. 9, or may have other characteristics. Further, the color filter layer 38 may be an infrared light (IR) filter or a filter in which a red filter and a green filter are arranged so as to overlap each other.
  • IR infrared light
  • the color filter layer 38 may be replaced with a high-pass filter layer having any of the characteristics illustrated in FIG. 10, or may be replaced with another filter layer having wavelength selectivity.
  • the color filter layer 38 may be replaced with a metasurface, a surface plasmon resonance filter, or a fabrico resonator having a method different from that of the laminated film 37 of the present embodiment.
  • the color filter layer 38 may be arranged below the resonator 51 instead of being arranged above the resonator 51. This also applies when the color filter layer 38 is replaced with another filter layer.
  • an inter-pixel light-shielding film for preventing color mixing may be provided at the boundary between the resonators 51 and the boundary between the color filter layers 38. This makes it possible to prevent light from entering from each pixel 1 to the adjacent pixel 1 and improve wavelength selectivity.
  • the polysilicon layer 43 has a large absorption coefficient on the short wavelength side and a large loss, but it is known that absorption can be suppressed by setting the thickness to 50 nm or less. Therefore, the thickness of each polysilicon layer 43 shown in FIG. 3 is set to 31 nm.
  • Each polysilicon layer 43 shown in FIG. 3 may be replaced with an amorphous silicon ( ⁇ —Si) layer or a microcrystal silicon ( ⁇ c—Si) layer.
  • FIG. 11 is a flowchart showing the operation of the solid-state image sensor of the first embodiment.
  • the solid-state image sensor of the present embodiment can detect light by converting the light transmitted through the resonator 51 into an electric charge by the photoelectric conversion unit 22.
  • the raw data (Raw Data) of the spectroscopic spectrum obtained by this may be in a single mode or in multiple modes.
  • the solid-state image sensor of the present embodiment acquires the multi-mode raw data (step S11), the multi-mode raw data is subjected to signal processing (step S12), and the multi-mode raw data is simply collected. It may be converted into one-mode data (step S13).
  • signal processing for example, single mode and color mixing component removal are performed. This makes it possible to obtain a single-mode spectral spectrum by the action of signal processing instead of the action of the color filter layer 38.
  • FIG. 12 is another graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 13 is another graph for explaining the characteristics of the solid-state image sensor of the first embodiment.
  • FIG. 12 shows an example of the spectroscopic spectrum obtained by the above signal processing.
  • the horizontal axis represents the wavelength of light, and the vertical axis represents the full width at half maximum (FWHM: Full Width at) at each wavelength of the peak of light. Half Maximum). See FIG. 6 for FWHM.
  • FIG. 13 shows the correspondence between the target wavelength (target value) and the output wavelength (measured value) for each wavelength of the spectral spectrum obtained by the above signal processing.
  • the full width at half maximum is less than 100 nm at a wavelength of approximately 400 to 900 nm, and a narrow spectrum can be obtained. did it. Further, as shown in FIG. 13, it was found that the output wavelength substantially matches the target wavelength.
  • the solid-state image sensor of the present embodiment includes the color filter layer 38 on (or below) the resonator 51 including the metamaterial layer 44. Therefore, according to the present embodiment, the resonator 51 can be mounted on the solid-state image sensor in a suitable manner, for example, the defect of the resonator 51 can be compensated for by the color filter layer 38.
  • the resonator 51 of the present embodiment is provided in the image sensor (solid-state image sensor), it may be provided in another sensor device that detects light.
  • An example of such a sensor device is a ranging sensor.
  • the laminated film 37 (see FIG. 3) of the present embodiment is a refractive index-modulated fabric-perot resonator by including the resonator 51.
  • the resonator 51 of the present embodiment includes a metamaterial layer 44.
  • the laminated film 37 may be a fabric pero resonator by including a resonator that does not include a metamaterial layer.
  • the laminated film 37 may be made of a material having a uniform refractive index.
  • forming the resonator 51 using the metamaterial layer 44 has an advantage that the resonator 51 can be easily formed because, for example, it is not necessary to change the thickness of the resonator 51 for each pixel 1. This also applies to the laminated film 37 of the second to eleventh embodiments described later (see FIGS. 14, 19, 24, 30, 44, etc.).
  • FIG. 14 is a cross-sectional view showing the structure of the solid-state image sensor of the second embodiment.
  • FIG. 14 shows the substrate 21, the laminated film 37, and the color filter layer 38 included in one pixel 1, as in FIG.
  • the photoelectric conversion unit 22 and the like in the substrate 21, the flattening film 36 on the substrate 21, the on-chip lens 39, and the like are not shown.
  • the laminated film 37 of the present embodiment includes an anti-reflection film (AR (Anti-Refrective) film) 45, a silicon oxide film 41, a polysilicon layer 43, and silicon oxide, which are sequentially formed on the substrate 21.
  • a film 41, a polysilicon layer 43, a silicon oxide film 41, a metamaterial layer 44, a silicon oxide film 41, a polysilicon layer 43, a polysilicon film 41, a polysilicon layer 43, and a silicon oxide film 41 are provided.
  • the metamaterial layer 44 of the present embodiment functions as a resonator 51 together with the silicon oxide film 41 in contact with the lower surface of the metamaterial layer 44 and the silicon oxide film 41 in contact with the upper surface of the metamaterial layer 44.
  • the metamaterial layer 44 of the present embodiment has the same structure as the metamaterial layer 44 of the first embodiment, and the laminated film 37 of the present embodiment includes a resonator 51 to be a refractive index modulation type. It is a fabric pero resonator. Each layer and each film in the laminated film 37 has a thickness shown in FIG. 14, for example.
  • the antireflection film 45, the silicon oxide film 41, the polysilicon layer 43, the silicon oxide film 41, and the polysilicon layer 43 under the resonator 51 are examples of the first layer of the present disclosure, and the polysilicon on the resonator 51.
  • the layer 43, the silicon oxide film 41, the polysilicon layer 43, and the silicon oxide film 41 are examples of the second layer of the present disclosure.
  • a silicon oxide film 41 is provided under the metamaterial layer 44, and the silicon oxide film 41 is in contact with the lower surface of the metamaterial layer 44. Therefore, the lower surface of the metamaterial layer 44 is separated from the polysilicon layer 43 and the like below the metamaterial layer 44.
  • the metamaterial layer 44 includes, for example, a silicon nitride portion 42a and a plurality of silicon oxide portions 41a (FIG. 4), and the silicon oxide film 41 is in contact with the lower surfaces of the silicon nitride portion 42a and the silicon oxide portion 41a. ing.
  • the silicon oxide film 41 in contact with the lower surface of the metamaterial layer 44 is a transparent glass film, and is a part of the resonator 51 together with the metamaterial layer 44.
  • a silicon oxide film 41 is further provided on the metamaterial layer 44, and the silicon oxide film 41 is in contact with the upper surface of the metamaterial layer 44. Therefore, the upper surface of the metamaterial layer 44 is separated from the polysilicon layer 43 and the like above the metamaterial layer 44.
  • the metamaterial layer 44 includes, for example, a silicon nitride portion 42a and a plurality of silicon oxide portions 41a (FIG. 4), and the silicon oxide film 41 is in contact with the upper surfaces of the silicon nitride portion 42a and the silicon oxide portion 41a. ing.
  • the silicon oxide film 41 in contact with the upper surface of the metamaterial layer 44 is a transparent glass film, and is a part of the resonator 51 together with the metamaterial layer 44.
  • the laminated film 37 of the present embodiment includes four polysilicon layers 43, whereby the half width can be narrowed.
  • Each polysilicon layer 43 can be formed by, for example, forming an amorphous silicon layer by CVD (Chemical Vapor Deposition) or the like, and crystallizing the amorphous silicon layer by annealing at 700 ° C.
  • each polysilicon layer 43 can be formed by forming a microcrystal silicon layer by, for example, CVD or the like, and crystallizing the microcrystal silicon layer by low-temperature annealing at 400 ° C.
  • the layer of reference numeral "43" as a polysilicon layer, it is possible to suppress the absorption of light in this layer.
  • the silicon oxide film 41 is arranged on the upper surface and the lower surface of the metamaterial layer 44 as a margin for microfabrication of the metamaterial layer 44.
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, ⁇ / n or more.
  • represents the peak wavelength of the light passing through the resonator 51 in a vacuum.
  • n represents the effective refractive index of the resonator 51.
  • the target value ⁇ 0 of this peak wavelength is used as the value of ⁇ .
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, 700 nm / n or more.
  • the resonator length of the resonator 51 is set to 1000 nm to achieve multimode, and the color filter layer 38 is arranged above the resonator 51 to have a wavelength-selective structure. Has been realized.
  • FIG. 15 is a schematic view showing the structure of the solid-state image sensor of the second embodiment.
  • the pixel array region 2 of the solid-state image sensor of the present embodiment has the structure shown in FIG.
  • each square represents one pixel 1
  • the reference numeral R represents a unit region including 16 pixels 1.
  • the numbers "1 to 16" in each unit area R indicate that each unit area R includes 16 types of pixels 1 corresponding to 16 types of colors.
  • the pixel array region 2 of the present embodiment has a periodic array with 4 ⁇ 4 pixels 1 as a unit.
  • 16 types of pixels 1 include a resonator 51 (metamaterial layer 44) having a structure different from each other (see also FIG. 5). As a result, a 16-spectral solid-state image sensor can be realized.
  • the pixel array region 2 of the present embodiment has a structure in which a plurality of unit regions R are repeatedly arranged in the X direction and the Y direction.
  • the number of pixels 1 included in each unit area R may be 5 ⁇ 5, 6 ⁇ 6, or n ⁇ n (n is an integer of 2 or more). This makes it possible to realize a solid-state image sensor suitable for multi-spectral spectroscopy, and it is possible to obtain a multi-spectral image by performing signal processing on a plurality of spectroscopys. The image obtained by this signal processing is suitable for application to various applications such as agriculture and biometric detection.
  • the number of pixels 1 included in each unit area R may be m ⁇ n (m is an integer of 2 or more different from n). However, when it is preferable to handle pixels 1 of the power of 2 types, the number of pixels 1 included in each unit region R is preferably n ⁇ n.
  • FIG. 16 is a graph for explaining the characteristics of the solid-state image sensor of the second embodiment.
  • FIG. 16 shows an example of the spectrum of light transmitted through the laminated film 37, the horizontal axis represents the wavelength of this light, and the vertical axis represents the quantum efficiency at each wavelength of this light.
  • FIG. 16 shows a spectrum when the color filter layer 38 is arranged above the laminated film 37, as in FIG. 8 described above. With such an arrangement, it is possible to reduce the number of modes (wavelength range) of the light incident on the laminated film 37, and reduce the number of peaks included in the spectral spectrum of the light transmitted through the laminated film 37. Is possible.
  • FIG. 17 is another graph for explaining the characteristics of the solid-state image sensor of the second embodiment.
  • FIG. 18 is another graph for explaining the characteristics of the solid-state image sensor of the second embodiment.
  • FIG. 17 shows an example of the spectroscopic spectrum obtained by the signal processing of FIG. 11, similarly to FIG. 12 described above.
  • the horizontal axis represents the wavelength of light, and the vertical axis represents each of the peaks of this light. Represents the full width at half maximum (FWHM) at wavelength.
  • FIG. 18 shows the correspondence between the target wavelength (target value) and the output wavelength (measured value) for each wavelength of the spectral spectrum obtained by the above signal processing, similarly to FIG. 13 described above.
  • the solid-state image sensor of the present embodiment includes the color filter layer 38 on (or below) the resonator 51 including the metamaterial layer 44, as in the first embodiment. Therefore, according to the present embodiment, the resonator 51 can be mounted on the solid-state image sensor in a suitable manner, for example, the defect of the resonator 51 can be compensated for by the color filter layer 38.
  • FIG. 19 is a cross-sectional view showing the structure of the solid-state image sensor of the third embodiment.
  • FIG. 19 shows the substrate 21, the laminated film 37, and the color filter layer 38 included in one pixel 1, as in FIG.
  • the photoelectric conversion unit 22 and the like in the substrate 21, the flattening film 36 on the substrate 21, the on-chip lens 39, and the like are not shown.
  • the laminated film 37 of the present embodiment includes an antireflection film 45, a silicon oxide film 41, an amorphous silicon layer 46, a silicon oxide film 41, a metamaterial layer 44, and oxidation formed in this order on the substrate 21. It includes a silicon film 41, an amorphous silicon layer 46, and a silicon oxide film 41.
  • the metamaterial layer 44 of the present embodiment functions as a resonator 51 together with the silicon oxide film 41 in contact with the lower surface of the metamaterial layer 44 and the silicon oxide film 41 in contact with the upper surface of the metamaterial layer 44.
  • the metamaterial layer 44 of the present embodiment has the same structure as the metamaterial layer 44 of the first embodiment, and the laminated film 37 of the present embodiment includes a resonator 51 to be a refractive index modulation type. It is a fabric pero resonator. Each layer and each film in the laminated film 37 has a thickness shown in FIG. 19, for example.
  • the antireflection film 45, the silicon oxide film 41, and the amorphous silicon layer 46 under the resonator 51 are examples of the first layer of the present disclosure, and the amorphous silicon layer 46 and the silicon oxide film 41 on the resonator 51 are the present invention. This is an example of the second layer of disclosure.
  • this layer can be easily formed without annealing.
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, ⁇ / n or more.
  • represents the peak wavelength of the light passing through the resonator 51 in a vacuum.
  • n represents the effective refractive index of the resonator 51.
  • the target value ⁇ 0 of this peak wavelength is used as the value of ⁇ .
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, 700 nm / n or more.
  • the resonator length of the resonator 51 is set to 1000 nm to achieve multimode, and the color filter layer 38 is arranged above the resonator 51 to have a wavelength-selective structure. Has been realized.
  • FIG. 20 is a graph for explaining the characteristics of the solid-state image sensor of the third embodiment.
  • FIG. 20 shows an example of the spectrum of light transmitted through the laminated film 37, the horizontal axis represents the wavelength of this light, and the vertical axis represents the quantum efficiency at each wavelength of this light.
  • FIG. 20 shows a spectrum when the color filter layer 38 is arranged above the laminated film 37, as in FIG. 8 described above. With such an arrangement, it is possible to reduce the number of modes (wavelength range) of the light incident on the laminated film 37, and reduce the number of peaks included in the spectral spectrum of the light transmitted through the laminated film 37. Is possible.
  • FIG. 21 is another graph for explaining the characteristics of the solid-state image sensor of the third embodiment.
  • FIG. 22 is another graph for explaining the characteristics of the solid-state image sensor of the third embodiment.
  • FIG. 21 shows an example of the spectroscopic spectrum obtained by the signal processing of FIG. 11, similarly to FIG. 12 described above.
  • the horizontal axis represents the wavelength of light, and the vertical axis represents each of the peaks of this light. Represents the full width at half maximum (FWHM) at wavelength.
  • FIG. 22 shows the correspondence between the target wavelength (target value) and the output wavelength (measured value) for each wavelength of the spectral spectrum obtained by the above signal processing, similarly to FIG. 13 described above.
  • FIG. 23 is another graph for explaining the characteristics of the solid-state image sensor of the third embodiment.
  • FIG. 23 shows an example of the spectral spectrum obtained by the above signal processing, the horizontal axis represents the wavelength of light, and the vertical axis represents the output signal (measurement signal) of this light. As shown in FIG. 23, this light is in a single mode.
  • the solid-state image sensor of the present embodiment includes the color filter layer 38 on (or below) the resonator 51 including the metamaterial layer 44, as in the first embodiment. Therefore, according to the present embodiment, the resonator 51 can be mounted on the solid-state image sensor in a suitable manner, for example, the defect of the resonator 51 can be compensated for by the color filter layer 38.
  • FIG. 24 is a cross-sectional view showing the structure of the solid-state image sensor of the fourth embodiment.
  • FIG. 24 shows the substrate 21, the laminated film 37, and the color filter layer 38 included in one pixel 1, as in FIG.
  • the photoelectric conversion unit 22 and the like in the substrate 21, the flattening film 36 on the substrate 21, the on-chip lens 39, and the like are not shown.
  • the laminated film 37 of the present embodiment includes a silicon oxide film 41, a silicon nitride film 42, a silicon oxide film 41, a polysilicon layer 43, a metamaterial layer 44, and a poly, which are sequentially formed on the substrate 21. It includes a silicon layer 43 and a silicon oxide film 41.
  • the metamaterial layer 44 functions as a resonator 51.
  • the metamaterial layer 44 of the present embodiment has the same structure as the metamaterial layer 44 of the first embodiment, and the laminated film 37 of the present embodiment includes a resonator 51 to be a refractive index modulation type. It is a fabric pero resonator.
  • Each layer and each film in the laminated film 37 has a thickness shown in FIG. 24, for example.
  • the silicon oxide film 41, the silicon nitride film 42, the silicon oxide film 41, and the polysilicon layer 43 under the resonator 51 are examples of the first layer of the present disclosure, and the polysilicon layer 43 and the silicon oxide on the resonator 51
  • the film 41 is an example of the second layer of the present disclosure.
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, ⁇ / n or more.
  • represents the peak wavelength of the light passing through the resonator 51 in a vacuum.
  • n represents the effective refractive index of the resonator 51.
  • the target value ⁇ 0 of this peak wavelength is used as the value of ⁇ .
  • the resonator length of the resonator 51 of the present embodiment is set to, for example, 700 nm / n or more.
  • the resonator length of the resonator 51 is set to 1500 nm to achieve multimode, and the color filter layer 38 is arranged above the resonator 51 to have a wavelength-selective structure. Has been realized.
  • the metamaterial layer 44 includes, for example, a silicon nitride portion 42a and a plurality of silicon oxide portions 41a (FIG. 4).
  • the silicon nitride portion 42a may be replaced with a first portion formed of a first material other than the silicon nitride film 42, and these silicon oxide portions 41a may be replaced with a second portion other than the silicon oxide film 41. It may be replaced with a second portion made of material.
  • the refractive index of the second material is set to a value different from the refractive index of the first material.
  • the solid-state image sensor of the present embodiment includes a pixel 1 having sensitivity only to a single wavelength of about 940 nm, and such a pixel 1 has a structure shown in FIG. 24. It is known that the spectrum of sunlight does not contain much component of 940 nm. Therefore, according to the present embodiment, light having a wavelength of 940 nm is used for distance measurement, face recognition, etc., and light having a wavelength of 940 nm is detected by the above pixel 1, so that noise caused by sunlight is reduced. It is possible to realize distance and face recognition.
  • light having a wavelength of 940 nm corresponds to near infrared light (NIR), and the luminosity factor of the human eye becomes zero. Therefore, according to the present embodiment, it is possible to perform distance measurement and face recognition without causing discomfort to humans.
  • light having a wavelength of 940 nm may be applied to other ToF (Time of Flight) techniques.
  • near-infrared light having a wavelength other than 940 nm may be used.
  • the solid-state imaging device of the present embodiment may include only pixels 1 for near-infrared light, or may also include other pixels 1 such as pixels 1 for red, green, and blue.
  • FIG. 25 is a graph for explaining the characteristics of the solid-state image sensor of the fourth embodiment.
  • FIG. 26 is another graph for explaining the characteristics of the solid-state image sensor of the fourth embodiment.
  • FIG. 27 is another graph for explaining the characteristics of the solid-state image sensor of the fourth embodiment.
  • FIG. 25 shows an example of the spectrum of light transmitted through the laminated film 37, the horizontal axis represents the wavelength of this light, and the vertical axis represents the quantum efficiency at each wavelength of this light.
  • FIG. 26 shows an example of a spectrum of light transmitted through the color filter layer 38. The horizontal axis represents the wavelength of this light, and the vertical axis represents the transmittance of this light at each wavelength.
  • FIG. 27 shows another example of the spectrum of light transmitted through the laminated film 37, where the horizontal axis represents the wavelength of this light and the vertical axis represents the quantum efficiency of this light at each wavelength.
  • FIG. 25 shows an example of the spectral characteristics when the color filter layer 38 is not arranged above the laminated film 37.
  • the light having a wavelength of 940 nm is more difficult to detect than the light having another wavelength.
  • the color filter layer 38 having the characteristics shown in FIG. 26 is arranged above the resonator 51. This makes it possible for the color filter layer 38 to cut light having a wavelength of about 900 nm or less.
  • FIG. 27 shows an example of the spectral characteristics when such a color filter layer 38 is arranged above the resonator 51.
  • single-mode and single-peak light having a peak wavelength of 940 nm and a half-value width of 60 nm is obtained without Tychonoff's signal processing. This makes it possible to easily detect light having a wavelength of 940 nm.
  • FIG. 28 is a flowchart showing the operation of the solid-state image sensor of the fourth embodiment.
  • the solid-state image sensor of the present embodiment can detect light by converting the light transmitted through the resonator 51 into an electric charge by the photoelectric conversion unit 22.
  • the raw data (Raw Data) of the spectroscopic spectrum thus obtained may be in a single mode as shown in FIG. 27. In this case, the process shown in FIG. 11 may be replaced with the process shown in FIG. 28.
  • the solid-state image sensor of the present embodiment acquires the raw data in the single mode (step S21), the raw data in the single mode is signal-processed (step S22), and the raw data in the single mode is processed.
  • the data may be converted to another single mode data (step S23).
  • the single mode is not performed, but the color mixing component is removed. This makes it possible to obtain a single-mode spectral spectrum with less noise by signal processing.
  • FIG. 29 is a schematic diagram for explaining the structure of the solid-state image sensor of the fifth embodiment.
  • a of FIG. 29 shows the solid-state image sensor of the first embodiment
  • B of FIG. 29 shows the solid-state image sensor of the fifth embodiment.
  • FIG. 29A shows the change in the refractive index (effective refractive index) n in the laminated film 37 when the polysilicon layers 43 are arranged above and below the metamaterial layer 44.
  • the metamaterial layer 44 has a structure in which a plurality of silicon oxide portions 41a are embedded in the silicon nitride portion 42a (or a structure in which a plurality of silicon nitride portions 42a are embedded in the silicon oxide portion 41a). ..
  • the effective refractive index of the metamaterial layer 44 is set to be smaller than the refractive index of the silicon oxide films 41 above and below the metamaterial layer 44.
  • FIG. 29B shows the change in the refractive index (effective refractive index) n in the laminated film 37 when the silicon oxide film 41 is arranged above and below the metamaterial layer 44.
  • the metamaterial layer 44 has a structure in which a plurality of silicon oxide portions 41a are embedded in the polysilicon portion (or a structure in which a plurality of polysilicon portions are embedded in the silicon oxide portion 41a). The shape of these polysilicon portions is the same as the shape of the silicon nitride portion 42a described above.
  • the effective refractive index of the metamaterial layer 44 is set to be larger than the refractive index of the silicon oxide films 43 above and below the metamaterial layer 44. According to the present embodiment, by adopting such a structure, for example, it is possible to reduce the number of layers and films in the laminated film 37, and it is possible to make the laminated film 37 thinner.
  • FIG. 30 is a cross-sectional view showing the structure of the solid-state image sensor of the fifth embodiment.
  • the structure shown in FIG. 30 specifically corresponds to the structure shown in FIG. 29B.
  • FIG. 30 shows the substrate 21, the laminated film 37, and the color filter layer 38 included in one pixel 1, as in FIG.
  • the photoelectric conversion unit 22 and the like in the substrate 21, the flattening film 36 on the substrate 21, the on-chip lens 39, and the like are not shown.
  • the laminated film 37 of the present embodiment includes an antireflection film 45, a silicon oxide film 41, a polysilicon layer 43, a silicon oxide film 41, a metamaterial layer 44, and oxidation formed in this order on the substrate 21. It includes a silicon film 41, a polysilicon layer 43, and a silicon oxide film 41.
  • the metamaterial layer 44 of this embodiment functions as a resonator 51.
  • the metamaterial layer 44 of the present embodiment has the structure described with reference to B of FIG. 29, and the laminated film 37 of the present embodiment includes the resonator 51, so that the refractive index modulation type fabric pero resonator is included. It has become.
  • Each layer and each film in the laminated film 37 has a thickness shown in FIG.
  • the antireflection film 45, the silicon oxide film 41, and the polysilicon layer 43 under the resonator 51 are examples of the first layer of the present disclosure, and the polysilicon layer 43 and the silicon oxide film 41 on the resonator 51 are the present invention. This is an example of the second layer of disclosure.
  • FIG. 31 is a graph for explaining the characteristics of the solid-state image sensor of the fifth embodiment.
  • FIG. 31 shows an example of the spectrum of light transmitted through the laminated film 37, the horizontal axis represents the wavelength of this light, and the vertical axis represents the quantum efficiency at each wavelength of this light.
  • FIG. 31 shows a spectrum when the color filter layer 38 is arranged above the laminated film 37, as in FIG. 8 described above. With such an arrangement, it is possible to reduce the number of modes (wavelength range) of the light incident on the laminated film 37, and reduce the number of peaks included in the spectral spectrum of the light transmitted through the laminated film 37. Is possible.
  • FIG. 32 is another graph for explaining the characteristics of the solid-state image sensor of the fifth embodiment.
  • FIG. 33 is another graph for explaining the characteristics of the solid-state image sensor of the fifth embodiment.
  • FIG. 32 shows an example of the spectral spectrum obtained by the signal processing of FIG. 11, similarly to FIG. 12 described above, where the horizontal axis represents the wavelength of light and the vertical axis represents each of the peaks of this light. Represents the full width at half maximum (FWHM) at wavelength.
  • FIG. 33 shows the correspondence between the target wavelength (target value) and the output wavelength (measured value) with respect to each wavelength of the spectral spectrum obtained by the above signal processing, similarly to FIG. 13 described above.
  • the laminated film 37 is thinner than the above-mentioned other embodiments, it is possible to maintain the same narrow full width at half maximum as the above-mentioned other embodiments. Become. In the other embodiment described above, the thickness of the laminated film 37 excluding the antireflection film 45 is larger than 1 ⁇ m, whereas in the present embodiment, the thickness of the laminated film 37 excluding the antireflection film 45 is smaller than 1 ⁇ m. ing.
  • FIG. 34 is a cross-sectional view showing the structure of the solid-state image sensor of the sixth embodiment.
  • FIG. 34 shows the substrate 21, the laminated film 37, and the color filter layer 38 included in one pixel 1, as in FIG.
  • the photoelectric conversion unit 22 and the like in the substrate 21, the flattening film 36 on the substrate 21, the on-chip lens 39, and the like are not shown.
  • the laminated film 37 of the present embodiment includes a silicon oxide film 41, a silicon nitride film 42, a silicon oxide film 41, a polysilicon layer 43, a metamaterial layer 44, and a poly, which are sequentially formed on the substrate 21. It includes a silicon layer 43 and a silicon oxide film 41.
  • the metamaterial layer 44 functions as a resonator 51.
  • the metamaterial layer 44 of the present embodiment has the same structure as the metamaterial layer 44 of the first embodiment, and the laminated film 37 of the present embodiment includes a resonator 51 to be a refractive index modulation type. It is a fabric pero resonator.
  • Each layer and each film in the laminated film 37 has a thickness shown in FIG. 34, for example.
  • the silicon oxide film 41, the silicon nitride film 42, the silicon oxide film 41, and the polysilicon layer 43 under the resonator 51 are examples of the first layer of the present disclosure, and the polysilicon layer 43 and the silicon oxide on the resonator 51
  • the film 41 is an example of the second layer of the present disclosure.
  • FIG. 34 shows how the main light rays are obliquely incident on the color filter layer 38, the laminated film 37, and the substrate 21 due to the image height of the solid-state image sensor of the present embodiment.
  • FIG. 34 shows the angle of the traveling direction of the main ray with respect to the direction perpendicular to the upper surface of the substrate 21 (Z direction).
  • the solid-state image sensor of the present embodiment is provided in the camera, and the angle of FIG. 34 is fixed to a constant value by the structure of the camera.
  • the resonator 51 having the structure shown in FIG. 4, when the main ray is obliquely incident on the laminated film 37 due to the image height, the light transmitted through the laminated film 37 is compared with the case where the main ray is vertically incident on the laminated film 37.
  • the peak wavelength of is shifted to the short wavelength side (short wavelength shift).
  • a method for correcting this short wavelength shift will be described. Specifically, by changing the effective refractive index of the resonator 51, the peak wavelength of the light transmitted through the laminated film 37 is shifted to the long wavelength side, and the short wavelength shift is corrected.
  • FIG. 35 is a graph for explaining the characteristics of the solid-state image sensor of the sixth embodiment.
  • FIG. 35 shows two examples (K1 and K2) of the spectrum of light transmitted through the laminated film 37, where the horizontal axis represents the wavelength of this light and the vertical axis represents the transmittance of this light at each wavelength. Represents.
  • K1 shows the transmitted light when the main light ray is vertically incident on the laminated film 37
  • K2 is the transmitted light when the main light ray is incident on the laminated film 37 at an inclination of 35 degrees.
  • FIG. 35 shows that when the main ray is obliquely incident on the laminated film 37 due to the image height, a short wavelength shift from K1 to K2 occurs.
  • the transmitted light of K3 instead of K2 is output from the laminated film 37 by changing the effective refractive index of the resonator 51.
  • FIG. 36 is a plan view for explaining the structure of the resonator 51 (metamaterial layer 44) of the sixth embodiment.
  • FIG. 36 shows five examples of the metamaterial layer 44.
  • the arrow A shows how the proportion of the silicon nitride portion 42a in the metamaterial layer 44 gradually increases, and in other words, shows how the metamaterial layer 44 changes from SiO 2 rich to SiN rich. There is.
  • the effective refractive index of the resonator 51 used for imaging, distance measurement, etc. is set based on the image height. For example, when the angle of FIG. 34 is close to 0 degrees, the resonator 51 including the SiO 2- rich metamaterial layer 44 is used. On the other hand, when the angle of FIG. 34 is large, the resonator 51 including the SiN-rich metamaterial layer 44 is used. This makes it possible to change the transmitted light from K2 to K3 and correct the short wavelength shift.
  • a plurality of resonators 51 are arranged above the substrate 21 in the arrangement shown in FIG. 36.
  • Reference numeral C shown in FIG. 36 indicates the center of the pixel array region 2 (the center of the imaging surface).
  • the resonator 51 including the SiO 2- rich metamaterial layer 44 is arranged near the center C, and the resonator 51 including the SiN-rich metamaterial layer 44 is arranged far from the center C.
  • FIG. 37 is a plan view for explaining the structure of the solid-state image sensor of the seventh embodiment.
  • FIG. 37 shows the center C (center of the imaging surface) of the pixel array region 2 and the center L of the on-chip lens 39 of some pixels 1.
  • the on-chip lens 39 will be abbreviated as "lens 39".
  • each lens 39 of the present embodiment is asymmetric with respect to the center L of each lens 39, except for the lens 39 located at the center C of the pixel array region 2.
  • FIG. 37 shows one lens 39 located at the center C of the pixel array region 2 and having a symmetrical planar shape, and eight lenses located outside the center C of the pixel array region 2 and having an asymmetric planar shape.
  • the lens 39 is illustrated. In the present embodiment, the position of the center L of each lens 39 is biased toward the center C of the pixel array region 2.
  • FIG. 38 is a cross-sectional view showing the structure of the solid-state image sensor of the seventh embodiment.
  • FIG. 38 shows a substrate 21, a laminated film 37, a color filter layer 38, and a lens 39 included in one pixel 1.
  • the photoelectric conversion unit 22 and the like in the substrate 21 and the flattening film 36 and the like on the substrate 21 are not shown.
  • the lens 39 has an asymmetric planar shape.
  • each lens 39 of the present embodiment has a shape including a plurality of annular convex portions and a plurality of annular concave portions alternately.
  • the laminated film 37 of the present embodiment includes an antireflection film 45, a silicon oxide film 41, an amorphous silicon layer 46, a metamaterial layer 44, an amorphous silicon layer 46, and an amorphous silicon layer 46, which are sequentially formed on the substrate 21.
  • the silicon oxide film 41 is provided.
  • the metamaterial layer 44 functions as a resonator 51.
  • the metamaterial layer 44 of the present embodiment has the same structure as the metamaterial layer 44 of the first embodiment, and the laminated film 37 of the present embodiment includes a resonator 51 to be a refractive index modulation type. It is a fabric pero resonator.
  • the antireflection film 45, the silicon oxide film 41, and the amorphous silicon layer 46 under the resonator 51 are examples of the first layer of the present disclosure, and the amorphous silicon layer 46 and the silicon oxide film 41 on the resonator 51 are the present invention. This is an example of the second layer of disclosure.
  • the traveling direction of the diagonally incident main light beam is corrected by a method different from that of the sixth embodiment. Specifically, the traveling direction of the obliquely incident main light beam is bent in the vertical direction by the lens 39 having an asymmetric plane shape, and this light is collected.
  • FIG. 38 shows a plurality of wavefronts (equal phase planes) S of light obliquely incident on the lens 39 and collected.
  • each lens 39 of the present embodiment is microfabricated so as to alternately include a plurality of annular convex portions and a plurality of annular concave portions.
  • the effective refractive index of each part of each lens 39 becomes higher as it approaches the center C of the pixel array region 2. Therefore, according to the present embodiment, the traveling direction of the main light beam can be bent in the vertical direction as described above, and the short wavelength shift can be suppressed.
  • FIG. 39 is a plan view and a cross-sectional view for explaining the structure of a modified example of the solid-state image sensor of the seventh embodiment.
  • a in FIG. 39 shows a lens 39 of a different type from the lens 39 in FIGS. 37 and 38.
  • a in FIG. 39 shows the planar shape of the lens 39 of nine pixels 1 located near the center C of the pixel array region 2.
  • the arrow shown by A in FIG. 39 indicates the direction of light incident on each pixel 1.
  • B in FIG. 39 shows a vertical cross section of the solid-state image sensor shown in A in FIG. 39.
  • Each lens 39 of this modification includes a low refractive index portion 39a and a high refractive index portion 39b, and the low refractive index portion 39a surrounds the high refractive index portion 39b.
  • the planar shape of each lens 39 in this modification is asymmetric with respect to the center of each lens 39, except for the lens 39 located at the center C of the pixel array region 2.
  • the high refractive index portion 39b is not arranged at the center of the low refractive index portion 39a, and is biased toward the center C of the pixel array region 2 with respect to the center of the low refractive index portion 39a.
  • the lens 39 of this modification may be made of three or more kinds of materials having different refractive indexes.
  • (8th Embodiment) 40 and 41 are cross-sectional views showing a method of manufacturing the solid-state image sensor of the eighth embodiment, and show a step of manufacturing the solid-state image sensor shown in FIG.
  • the p-type semiconductor region 23, the n-type semiconductor region 24, the p-type semiconductor region 25, the pixel separation layer 26, the p-well layer 27, and the floating diffusion are formed in the substrate 21 or on the substrate 21.
  • a portion 28, a gate insulating film 17, a gate electrode 16, and the like are formed.
  • pixel transistors such as the photoelectric conversion unit 22 and the transfer transistor Tr1 are formed.
  • the interlayer insulating film 15 and the wiring layers 12 to 14 are alternately formed on the front side of the substrate 21.
  • the step A in FIG. 40 is executed with the front side of the substrate 21 facing up and the back side of the substrate 21 facing down.
  • FIG. 40B shows a state in which the front side of the substrate 21 faces downward and the back side of the substrate 21 faces upward.
  • a groove 31 having a predetermined depth is formed in the substrate 21 by etching. The groove 31 is formed in the pixel separation layer 26 from the back surface of the substrate 21.
  • the fixed charge film 33 and the insulating film 34 are formed in order on the back surface of the substrate 21.
  • the fixed charge film 33 is formed on the side surface and the bottom surface of the groove 31 and on the photoelectric conversion unit 22.
  • the insulating film 34 is embedded in the groove 31 via the fixed charge film 33, and is formed on the photoelectric conversion unit 22 via the fixed charge film 33. In this way, the element separating portion 32 is formed in the groove 31.
  • a light-shielding film 35 is formed in a predetermined region on the insulating film 34 formed on the back surface of the substrate 21.
  • the light-shielding film 35 is formed, for example, by forming a material layer of the light-shielding film 35 on the insulating film 34 and patterning the material layer in a predetermined shape.
  • the light-shielding film 35 of the present embodiment is formed on the element separation portion 32.
  • the flattening film 36 is formed on the insulating film 34 via the light-shielding film 35.
  • a laminated film 37, a color filter layer 38, and an on-chip lens 39 are sequentially formed above each photoelectric conversion unit 22 via a flattening film 36. In this way, the solid-state image sensor shown in FIG. 2 is manufactured.
  • the antireflection film 45 and oxidation are performed by CVD via a fixed charge film 33, an insulating film 34, a light-shielding film 35, a flattening film 36, etc., which are not shown, above the substrate 21.
  • the silicon film 41, the amorphous silicon layer 46, the silicon oxide film 41, and the silicon nitride portion 42a are formed in this order.
  • the silicon nitride portion 42a at this point is a flat silicon nitride film.
  • the silicon nitride portion 42a is processed by lithography and etching using a resist film. As a result, a plurality of openings for embedding the plurality of silicon oxide films 41a are formed in the silicon nitride film 42a.
  • the silicon nitride portion 42a is processed by, for example, RIE (Reactive Ion Etching).
  • a plurality of silicon oxide portions 41a are embedded in the plurality of openings of the silicon nitride portion 42a.
  • the metamaterial layer 44 including the silicon nitride portion 42a and the plurality of silicon oxide portions 41a is formed on the silicon oxide film 41.
  • the plurality of silicon oxide portions 41a are formed by forming a silicon oxide film on the entire surface of the substrate 21 by CVD and flattening the upper surface of the silicon oxide film by CMP. By flattening the upper surface of the silicon oxide film, the silicon oxide film outside the opening is removed, and the silicon oxide film inside the opening becomes the silicon oxide portion 41a.
  • a silicon oxide film 41 is formed on the metamaterial layer 44 by CVD.
  • the resonator 51 including the silicon oxide film 41, the metamaterial layer 44 on the silicon oxide film, and the silicon oxide film 41 on the metamaterial layer 44 is formed.
  • the silicon oxide film 41 on the metamaterial layer 44 may be formed at the same time as the silicon oxide portion 41a.
  • the above-mentioned CMP is performed not until the time when the silicon oxide film outside the opening is completely removed, but until the time when a part of the silicon oxide film outside the opening remains. As a result, the silicon oxide film remaining outside the opening becomes the silicon oxide film 41 on the metamaterial layer 44.
  • the amorphous silicon layer 46 and the silicon oxide film 41 are sequentially formed on the resonator 51 by CVD.
  • the laminated film 37 is formed above the substrate 21.
  • the color filter layer 38 is formed on the laminated film 37.
  • the color filter layer 38 is formed, for example, by applying a material of the color filter layer 38 (for example, a photosensitive resin material) on the laminated film 37 and processing the material into the shape of the color filter layer 38.
  • the on-chip lens 39 is formed on the color filter layer 38. In this way, the solid-state image sensor of the present embodiment is manufactured.
  • the methods shown in FIGS. 40 to 43 can be applied to any of the solid-state image sensors of the first to seventh embodiments.
  • the structure of the laminated film 37 changes according to the embodiment.
  • the silicon oxide film 41, the silicon nitride film 42, the silicon oxide film 41, the polysilicon layer 43, the metamaterial layer 44, and the polysilicon layer 43 are formed on the substrate 21.
  • the silicon oxide film 41 is formed in order (see FIG. 3).
  • the methods shown in FIGS. 40 to 43 can also be applied to the solid-state image sensor of the ninth embodiment described later.
  • the solid-state image sensor is manufactured by the methods shown in FIGS. 40 to 43. This makes it possible, for example, to easily form the metamaterial layer 44 and other films and layers by the general methods of semiconductor manufacturing processes.
  • the metamaterial layer 44 including the silicon oxide portion 41a and the plurality of silicon nitride portions 42a
  • a plurality of openings are formed in the silicon oxide portion 41a, and a plurality of openings are formed in these openings of the silicon oxide portion 41a.
  • a plurality of silicon nitride portions 42a are embedded.
  • FIG. 44 is a cross-sectional view showing the structure of the solid-state image sensor of the ninth embodiment.
  • FIG. 44 shows a compound semiconductor substrate 29 included in one pixel 1, a laminated film 37, and a color filter layer 38.
  • the substrate 21 is replaced with the compound semiconductor substrate 29.
  • the structure of the component in the compound semiconductor substrate substrate 29 of the present embodiment is the same as the structure of the component in the substrate 21. That is, the compound semiconductor substrate 29 of the present embodiment includes the photoelectric conversion unit 22 and the like like the substrate 21. However, the illustration of the photoelectric conversion unit 22 in the compound semiconductor substrate 29, the flattening film 36 on the substrate 29, the on-chip lens 39, etc. is omitted.
  • the compound semiconductor substrate 29 of the present embodiment includes an InGaAs (indium gallium arsenide) layer 29a and an InP (indium phosphide) layer 29b formed on the InGaAs layer 29a.
  • the InP layer 29b of the present embodiment is an InP substrate thinned by etching.
  • the InGaAs layer 29a is formed on the surface of the InP substrate by crystal growth, and then the InP layer 29b is formed by thinning the InP substrate.
  • the photoelectric conversion unit 22 of the present embodiment is formed in the InGaAs layer 29a instead of the substrate 21.
  • the InGaAs layer 29a may be replaced with another semiconductor layer.
  • a semiconductor layer examples include a SiGe (silicon germanium) layer, a CuInGaSe (copper indium gallium selenium) layer, and a quantum dot film. It is desirable that the semiconductor layer is formed of a material capable of detecting light having a wavelength longer than the wavelength that can be detected by the silicon layer. Further, the compound semiconductor substrate 29 may be entirely formed of the compound semiconductor, or only a part thereof may be formed of the compound semiconductor.
  • the laminated film 37 of the present embodiment has an ITO (indium tin oxide) layer 47, a silicon oxide film 41, a silicon nitride film 42, a silicon oxide film 41, and an amorphous layer formed on the InP layer 29b in this order.
  • I have.
  • the metamaterial layer 44 of this embodiment functions as a resonator 51.
  • the metamaterial layer 44 of the present embodiment has a structure similar to that of the metamaterial layer 44 of the first embodiment, and the laminated film 37 of the present embodiment includes the resonator 51. , It is a refractive index modulation type fabric pero resonator.
  • Each layer and each film in the laminated film 37 has a thickness shown in FIG. 44, for example.
  • the ITO layer 47, the silicon oxide film 41, the silicon nitride film 42, the silicon oxide film 41, the amorphous silicon layer 46, the silicon oxide film 41, and the amorphous silicon layer 46 under the resonator 51 are examples of the first layer of the present disclosure.
  • the amorphous silicon layer 46, the silicon oxide film 41, the amorphous silicon layer 46, and the silicon oxide film 41 on the resonator 51 are examples of the second layer of the present disclosure.
  • FIG. 45 is a perspective view showing the structure of the resonator 51 (metamaterial layer 44) of the ninth embodiment.
  • the metamaterial layer 44 of the present embodiment is formed of an amorphous silicon portion 46a formed of an amorphous silicon layer 46 and a silicon oxide film 41, and is provided in the amorphous silicon portion 46a. It contains a plurality of silicon oxide portions 41a.
  • the shapes of the amorphous silicon portion 46a and the silicon oxide portion 41a of the present embodiment are the same as the shapes of the silicon nitride portion 42a and the silicon oxide portion 41a of the first embodiment, respectively.
  • the amorphous silicon portion 46a is an example of the first portion formed of the first material
  • the silicon oxide portion 41a is an example of a plurality of second portions formed of the second material.
  • the silicon oxide portion 41a and the amorphous silicon portion 46a have different refractive indexes. Specifically, the refractive index of the amorphous silicon portion 46a is higher than the refractive index of the silicon oxide portion 41a. Therefore, the effective refractive index of the resonator 51 of the present embodiment depends on the volume ratio of the silicon oxide portion 41a and the amorphous silicon portion 46a in the metamaterial layer 44. Therefore, in the present embodiment, the effective refractive index of the resonator 51 can be changed for each pixel by changing the volume ratio of the silicon oxide portion 41a and the amorphous silicon portion 46a for each pixel 1. As a result, the peak wavelength of the light output from the laminated film 37 (that is, transmitted through the laminated film 37) can be changed by changing the effective refractive index without changing the resonator length of the resonator 51. It will be possible.
  • the structure shown in FIG. 5 can also be applied to the resonator 51 (metamaterial layer 44) of the present embodiment. That is, the metamaterial layer 44 of the present embodiment may have a structure in which a plurality of amorphous silicon portions 46a are embedded in the silicon oxide portion 41a.
  • FIG. 46 is a graph for explaining the characteristics of the solid-state image sensor of the ninth embodiment.
  • FIG. 46A shows the characteristics of the solid-state image sensor of the comparative example of the ninth embodiment, and more specifically, shows the quantum efficiency when the color filter layer 38 is not provided on the laminated film 37.
  • FIG. 46B shows the characteristics of the solid-state image sensor of the ninth embodiment, and specifically shows the quantum efficiency when the color filter layer 38 is provided on the laminated film 37.
  • a of FIG. 46 a higher-order mode peak is seen near 800 nm, but in B of FIG. 46, this higher-order mode peak is suppressed.
  • the resonator 51 by forming the resonator 51 on the compound semiconductor substrate 29 including the InGaAs substrate 29a and the InP layer 29b, a solid-state image sensor having better characteristics than when a silicon substrate is used can be realized. Is possible. For example, it is possible to realize multi-spectroscopy in a long wavelength region as compared with the case of using a silicon substrate. Further, the thickness of the metamaterial layer 44 of the present embodiment is, for example, 20 nm to 100 nm, and according to the present embodiment, it is possible to realize a resonator 51 having a small resonator length.
  • FIG. 47 is a graph for explaining the operation of the solid-state image sensor according to the tenth embodiment.
  • the solid-state image sensor of the present embodiment has the configuration shown in FIG. 1 and the structure shown in FIG. 2, similar to the solid-state image sensor of the first embodiment.
  • the solid-state image sensor of this embodiment is used in a manner as described with reference to FIG. 47.
  • FIG. 47 is a graph for explaining an example in which the solid-state imaging device of the present embodiment is applied to NDVI (Normalized Difference Vegetation Index) for agriculture, plant cultivation, and the like.
  • FIG. 47 shows the spectral characteristics of the reflectance of plants.
  • the reflectance of the plant changes significantly depending on the vegetation state in the wavelength range of 600 to 800 nm (0.6 to 0.8 ⁇ m). Specifically, it can be seen that the reflectance of plants differs between healthy plants, weakened plants, and dead plants. This reflectance is mainly derived from the leaves of plants.
  • the vegetation state of the plant can be detected.
  • the vegetation state of the plant can be detected.
  • the reflected light having a wavelength in the range of 600 to 700 nm is detected by the first detector
  • the reflected light having a wavelength in the range of 700 to 800 nm is detected by the second detector
  • the signal values of these detectors are measured.
  • Vegetation status can be detected by analyzing the relationship.
  • the reflected light having a wavelength in the range of 400 to 600 nm is detected by the first detector
  • the reflected light having a wavelength in the range of 800 to 1000 nm is detected by the second detector
  • the signal values of these detectors are measured.
  • Vegetation status can be detected by analyzing the relationship.
  • a part of the pixel 1 of the solid-state image sensor is used as the first detector, and another part of the pixel 1 of the solid-state image sensor is used as the second detector. It becomes possible to detect the state.
  • two solid-state image sensors may be used as the first and second detectors.
  • the reflected light may be acquired at three or more wavelengths in order to improve the detection accuracy of the reflected light.
  • the solid-state imaging device may be mounted on a drone (small unmanned helicopter) to observe the growing state of the crop from the sky, and the detection result of the vegetation state of the crop may be utilized for growing the crop.
  • FIG. 48 is a graph for explaining the operation of the solid-state image sensor of the eleventh embodiment.
  • the solid-state image sensor of the present embodiment has the configuration shown in FIG. 1 and the structure shown in FIG. 2, similar to the solid-state image sensor of the first embodiment.
  • the solid-state image sensor of this embodiment is used in a manner as described with reference to FIG. 48.
  • FIG. 48 is a graph for explaining an example in which the solid-state image sensor of the present embodiment is applied to biometric authentication.
  • FIG. 48 shows the spectral characteristics of the reflectance of human skin.
  • the reflectance of human skin changes significantly in the wavelength range of 450 to 450 nm for all of Mongoloid, Caucasian, and Negroid.
  • the subject is another material other than human skin, the spectral characteristics of its reflectance are different from those of human skin, so that human skin and other materials can be distinguished.
  • one part of the pixel 1 of the solid-state image sensor is used for detecting the reflected light having a wavelength of 450 nm, and another part of the pixel 1 of the solid-state image sensor is used for detecting the reflected light having a wavelength of 550 nm.
  • the solid-state image sensor can detect human skin.
  • two or more solid-state image sensors may be used for reflected light detection.
  • the spectral characteristic of the reflectance of rubber is different from the spectral characteristic of the reflectance of human skin, so that the person's fraud is discovered. It becomes possible. This enables more accurate biometric authentication.
  • FIG. 49 is a block diagram showing a configuration example of an electronic device.
  • the electrical device shown in FIG. 49 is the camera 100.
  • the camera 100 includes an optical unit 101 including a lens group and the like, an image pickup device 102 which is a solid-state image pickup device according to any one of the first to eleventh embodiments, and a DSP (Digital Signal Processor) circuit 103 which is a camera signal processing circuit.
  • the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, the operation unit 107, and the power supply unit 108 are connected to each other via the bus line 109.
  • the optical unit 101 captures incident light (image light) from the subject and forms an image on the imaging surface of the imaging device 102.
  • the image pickup apparatus 102 converts the amount of incident light imaged on the image pickup surface by the optical unit 101 into an electric signal in pixel units, and outputs the light amount as a pixel signal.
  • the DSP circuit 103 performs signal processing on the pixel signal output by the image pickup device 102.
  • the frame memory 104 is a memory for storing one screen of a moving image or a still image captured by the imaging device 102.
  • the display unit 105 includes a panel-type display device such as a liquid crystal panel or an organic EL panel, and displays a moving image or a still image captured by the image pickup device 102.
  • the recording unit 106 records a moving image or a still image captured by the imaging device 102 on a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 107 issues operation commands for various functions of the camera 100 under the operation of the user.
  • the power supply unit 108 appropriately supplies various power sources that serve as operating power sources for the DSP circuit 103, the frame memory 104, the display unit 105, the recording unit 106, and the operation unit 107 to these supply targets.
  • the solid-state image sensor can be applied to various other products.
  • the solid-state imaging device may be mounted on various moving objects such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots.
  • FIG. 50 is a block diagram showing a configuration example of a mobile control system.
  • the mobile control system shown in FIG. 50 is a vehicle control system 200.
  • the vehicle control system 200 includes a plurality of electronic control units connected via the communication network 201.
  • the vehicle control system 200 includes a drive system control unit 210, a body system control unit 220, an external information detection unit 230, an in-vehicle information detection unit 240, and an integrated control unit 250.
  • FIG. 50 further shows a microcomputer 251, an audio image output unit 252, and an in-vehicle network I / F (Interface) 253 as components of the integrated control unit 250.
  • the drive system control unit 210 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 210 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine and a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering wheel of the vehicle. It functions as a control device such as a steering mechanism that adjusts the angle and a braking device that generates braking force for the vehicle.
  • the body system control unit 220 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 220 functions as a control device such as a smart key system, a keyless entry system, a power window device, and various lamps (for example, a head lamp, a back lamp, a brake lamp, a winker, and a fog lamp).
  • the body system control unit 220 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 220 receives such an input of radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 230 detects information outside the vehicle equipped with the vehicle control system 200.
  • an imaging unit 231 is connected to the vehicle exterior information detection unit 230.
  • the vehicle exterior information detection unit 230 causes the image pickup unit 231 to capture an image of the outside of the vehicle, and receives the captured image from the image pickup unit 231.
  • the vehicle exterior information detection unit 230 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 231 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 231 can output an electric signal as an image or can output it as distance measurement information.
  • the light received by the imaging unit 231 may be visible light or invisible light such as infrared light.
  • the image pickup unit 231 includes the solid-state image pickup device according to any one of the first to eleventh embodiments.
  • the in-vehicle information detection unit 240 detects information inside the vehicle equipped with the vehicle control system 200.
  • a driver state detection unit 241 that detects the driver's state is connected to the vehicle interior information detection unit 240.
  • the driver state detection unit 241 includes a camera that images the driver, and the in-vehicle information detection unit 240 has a degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 241. May be calculated, or it may be determined whether or not the driver is dozing.
  • This camera may include the solid-state image sensor according to any one of the first to eleventh embodiments, and may be, for example, the camera 100 shown in FIG. 49.
  • the microcomputer 251 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the outside information detection unit 230 or the inside information detection unit 240, and controls the drive system.
  • a control command can be output to the unit 210.
  • the microcomputer 251 is a coordinated control for the purpose of realizing ADAS (Advanced Driver Assistance System) functions such as vehicle collision avoidance, impact mitigation, follow-up running based on inter-vehicle distance, vehicle speed maintenance running, collision warning, and lane deviation warning. It can be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 251 controls the driving force generator, the steering mechanism, or the braking device based on the information around the vehicle acquired by the vehicle exterior information detection unit 230 or the vehicle interior information detection unit 240, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 251 can output a control command to the body system control unit 220 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 230.
  • the microcomputer 251 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 230, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 252 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 261, a display unit 262, and an instrument panel 263 are shown as such output devices.
  • the display unit 262 may include, for example, an onboard display or a heads-up display.
  • FIG. 51 is a plan view showing a specific example of the set position of the imaging unit 231 of FIG. 50.
  • the vehicle 300 shown in FIG. 51 includes imaging units 301, 302, 303, 304, and 305 as imaging units 231.
  • the imaging units 301, 302, 303, 304, and 305 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 300, for example.
  • the imaging unit 301 provided in the front nose mainly acquires an image in front of the vehicle 300.
  • the image pickup unit 302 provided on the left side mirror and the image pickup section 303 provided on the right side mirror mainly acquire an image of the side of the vehicle 300.
  • the image pickup unit 304 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 300.
  • the image pickup unit 305 provided on the upper part of the windshield in the vehicle interior mainly acquires an image in front of the vehicle 300.
  • the imaging unit 305 is used, for example, to detect a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 51 shows an example of the imaging range of the imaging units 301, 302, 303, 304 (hereinafter referred to as “imaging unit 301 to 304”).
  • the imaging range 311 indicates the imaging range of the imaging unit 301 provided on the front nose.
  • the imaging range 312 indicates the imaging range of the imaging unit 302 provided on the left side mirror.
  • the imaging range 313 indicates the imaging range of the imaging unit 303 provided on the right side mirror.
  • the imaging range 314 indicates the imaging range of the imaging unit 304 provided on the rear bumper or the back door.
  • the imaging range 311, 312, 313, 314 will be referred to as "imaging range 311 to 314".
  • At least one of the imaging units 301 to 304 may have a function of acquiring distance information.
  • at least one of the imaging units 301 to 304 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for detecting a phase difference.
  • the microcomputer 251 uses the distance information obtained from the imaging units 301 to 304 to obtain the distance to each three-dimensional object within the imaging range 311 to 314 and the temporal change of this distance (vehicle 300). Relative velocity with respect to) is calculated. Based on these calculation results, the microcomputer 251 is the closest three-dimensional object on the traveling path of the vehicle 300, and is a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in almost the same direction as the vehicle 300. , Can be extracted as a preceding vehicle.
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 251 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. As described above, according to this example, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle autonomously travels without being operated by the driver.
  • the microcomputer 251 classifies three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 301 to 304. It can be extracted and used for automatic avoidance of obstacles. For example, the microcomputer 251 identifies obstacles around the vehicle 300 into obstacles that can be seen by the driver of the vehicle 300 and obstacles that are difficult to see. Then, the microcomputer 251 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 251 is used via the audio speaker 261 or the display unit 262. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 210, driving support for collision avoidance can be provided.
  • At least one of the imaging units 301 to 304 may be an infrared camera that detects infrared rays.
  • the microcomputer 251 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured images of the imaging units 301 to 304.
  • pedestrian recognition is, for example, whether or not the pedestrian is a pedestrian by performing a procedure for extracting feature points in the captured images of the imaging units 301 to 304 as an infrared camera and a pattern matching process on a series of feature points indicating the outline of the object. It is performed by the procedure for determining.
  • the audio image output unit 252 When the microcomputer 251 determines that a pedestrian is present in the captured images of the imaging units 301 to 304 and recognizes the pedestrian, the audio image output unit 252 has a square contour line for emphasizing the recognized pedestrian.
  • the display unit 262 is controlled so as to superimpose and display. Further, the audio image output unit 252 may control the display unit 262 so as to display an icon or the like indicating a pedestrian at a desired position.
  • Photoelectric conversion unit and A resonator provided on the photoelectric conversion unit and including a metamaterial layer, and A filter layer provided on the resonator or between the resonator and the photoelectric conversion unit,
  • the metamaterial layer includes a first portion formed of the first material and a plurality of second portions formed of a second material different from the first material and provided in the first portion. Sensor device.
  • One of the first and second materials is an insulating material containing silicon.
  • the other of the first and second materials is an insulating material or a semiconductor material containing silicon.
  • a semiconductor layer other than the semiconductor layer in contact with the upper surface or the lower surface of the metamaterial layer is not provided between the metamaterial layer and the substrate including the metamaterial layer and the photoelectric conversion unit (4). ).
  • the resonator is provided in a laminated film provided on the photoelectric conversion unit.
  • the filter layer is provided on the laminated film or between the laminated film and the photoelectric conversion unit.
  • the laminated film includes a first layer provided on the photoelectric conversion unit, the resonator provided on the first layer, and a second layer provided on the resonator (2). ).
  • the compound semiconductor substrate includes an InGaAs (indium gallium arsenide) layer and an InP (indium phosphide) layer provided on the InGaAs layer.
  • the resonator is provided on the InP layer.
  • the resonator length of the resonator is ⁇ / n or more ( ⁇ represents the peak wavelength of the light output from the resonator in vacuum, and n represents the effective refractive index of the resonator).
  • the resonator including the metamaterial layer including the first portion formed of the first material and the plurality of second portions formed of the second material and provided in the first portion.
  • a second resonator comprising a second portion formed of the second material and a second metamaterial layer formed of the first material and comprising a plurality of first portions provided within the second portion.
  • a fabric pero resonator is formed on the photoelectric conversion unit, and the fabric cavity resonator is formed.
  • a filter layer is formed on the fabric pero resonator or between the fabric pero resonator and the photoelectric conversion unit.
  • a resonator including a metamaterial layer is formed on the photoelectric conversion unit.
  • a filter layer is formed on the resonator or between the resonator and the photoelectric conversion unit. Including that The metamaterial layer includes a first portion formed of the first material and a plurality of second portions formed of a second material different from the first material and provided in the first portion. Manufacturing method of sensor device.
  • the metamaterial layer is Forming the first portion formed of the first material, The plurality of second portions formed of the second material are embedded in the first portion.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Light Receiving Elements (AREA)
  • Optical Filters (AREA)

Abstract

[課題]共振器を好適な態様で実装することが可能なセンサ装置およびその製造方法を提供する。 [解決手段]本開示のセンサ装置は、光電変換部と、前記光電変換部上に設けられたファブリペロ共振器と、前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間に設けられたフィルタ層とを備える。

Description

センサ装置およびその製造方法
 本開示は、センサ装置およびその製造方法に関する。
 ファブリペロ共振器を用いたマルチ分光では、画素ごとに共振器長(共振器の厚み)を変化させることで、光のピーク波長を変化させることが考えられる。この場合、画素ごとに共振器長を変化させる必要があるため、共振器の作製プロセスが困難となる。
 一方、屈折率の異なる2種類以上の材料を含む微細加工構造を用いることで、共振器の実効屈折率を変化させて、光のピーク波長を変化させることが考えられる。これにより、画素ごとに共振器長を変化させずに、光のピーク波長を変化させることが可能となる。しかしながら、例えば酸化シリコン部分と窒化シリコン部分とを含む微細加工構造を用いる場合には、実効屈折率の変化が小さいため、可視光から近赤外光ではピーク波長の変化は、せいぜい100nm程である。また、上記の窒化シリコン部分の代わりに高屈折率の窒化チタン部分を含む微細加工構造を用いる場合でも、ピーク波長の変化は、せいぜい150nm程である。
特開2007-103401号公報 特開2006-229078号公報 特開2010-251489号公報 特開2018-26378号公報 特開2011-96732号公報 特許第5428206号公報 特開2015-88947号公報
 ファブリペロ共振器は不要な光を反射させるため、ファブリペロ共振器の表面は反射率が高い。そのため、ファブリペロ共振器をイメージセンサ内に配置した場合、太陽光などの強い光がイメージセンサに入射すると、ファブリペロ共振器の反射光によりフレアなどが発生しやすく、撮像時に画像が劣化する可能性がある。さらには、像高によって主光線の入射角度が変化することで、ファブリペロ共振器による分光スペクトルのピーク波長が短波長側にシフトする可能性がある。
 そのため、ファブリペロ共振器を用いたマルチ分光では、共振器により光のピーク波長を変化させることや、得られる光の半値幅を広い波長領域で狭くすることや、共振器を実装したセンサを量産しやすくすることなどが求められる。さらには、フレアなどの撮像上の問題を抑制することや、像高による分光波長の変化を抑制することなどが求められる。
 そこで、本開示は、共振器を好適な態様で実装することが可能なセンサ装置およびその製造方法を提供する。
 本開示の第1の側面のセンサ装置は、光電変換部と、前記光電変換部上に設けられたファブリペロ共振器と、前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間に設けられたフィルタ層とを備える。これにより、例えばファブリペロ共振器の欠点をフィルタ層で補うことができるなど、ファブリペロ共振器を好適な態様でセンサ装置に実装することが可能となる。
 本開示の第2の側面のセンサ装置は、光電変換部と、前記光電変換部上に設けられ、メタマテリアル層を含む共振器と、前記共振器上または前記共振器と前記光電変換部との間に設けられたフィルタ層とを備え、前記メタマテリアル層は、第1材料で形成された第1部分と、前記第1材料とは異なる第2材料で形成され、前記第1部分内に設けられた複数の第2部分とを含む。これにより、例えば共振器の欠点をフィルタ層で補うことができるなど、共振器を好適な態様でセンサ装置に実装することが可能となる。
 また、この第2の側面において、前記第1および第2材料の一方は、シリコンを含む絶縁材料でもよく、前記第1および第2材料の他方は、シリコンを含む絶縁材料または半導体材料でもよい。これにより例えば、メタマテリアル層をシリコン系材料で形成することが可能となり、異なるシリコン系材料で形成された第1部分と第2部分との体積比を変えることで、共振器の実効屈折率を変えることが可能となる。
 また、この第2の側面のセンサ装置は、前記メタマテリアル層の上面または下面に接する半導体層をさらに備えていてもよい。これにより例えば、メタマテリアル層の上面または下面を、非絶縁材料で覆うことが可能となる。
 また、この第2の側面において、前記メタマテリアル層上と、前記メタマテリアル層と前記光電変換部を含む基板との間には、前記メタマテリアル層の上面または下面に接する前記半導体層以外の半導体層は設けられていなくてもよい。これにより例えば、メタマテリアル層の上面または下面に接する半導体層以外に、積層膜内に非絶縁材料を配置しないことが可能となる。
 また、この第2の側面において、前記半導体層は、シリコン層でもよい。これにより例えば、半導体層を容易に形成することが可能となる。
 また、この第2の側面において、前記共振器は、前記メタマテリアル層と、前記メタマテリアル層の上面または下面に接する絶縁膜とを含んでいてもよい。これにより例えば、メタマテリアル層の上面または下面を、非絶縁材料から離隔することが可能となる。
 また、この第2の側面において、前記絶縁膜は、前記第1または第2材料で形成されていてもよい。これにより例えば、メタマテリアル層と同じ材料で絶縁膜を容易に形成することが可能となる。
 また、この第2の側面において、前記共振器は、前記光電変換部上に設けられた積層膜内に設けられており、前記フィルタ層は、前記積層膜上または前記積層膜と前記光電変換部との間に設けられており、前記積層膜は、前記光電変換部上に設けられた第1層と、前記第1層上に設けられた前記共振器と、前記共振器上に設けられた第2層とを含んでいてもよい。これにより例えば、共振器の性能を第1層や第2層により調整することが可能となる。
 また、この第2の側面において、前記第1および第2層の少なくともいずれかは、1つ以上の絶縁膜および/または1つ以上の半導体層を含んでいてもよい。これにより例えば、共振器の性能を絶縁膜や半導体層により調整することが可能となる。
 また、この第2の側面において、前記第2材料の屈折率は、前記第1材料の屈折率と異なっていてもよい。これにより例えば、第1部分と第2部分との体積比を変えることで、共振器の実効屈折率を変えることが可能となる。
 また、この第2の側面において、前記共振器を透過する光のピーク波長は、前記共振器の実効屈折率に応じて変化してもよい。これにより例えば、共振器を透過する光のピーク波長を、共振器の実効屈折率により調整することが可能となる。
 また、この第2の側面において、前記共振器の実効屈折率は、前記センサ装置の像高に基づいて設定されてもよい。これにより例えば、短波長シフトを抑制することが可能となる。
 また、この第2の側面のセンサ装置は、前記共振器上に設けられたレンズをさらに備えていてもよく、前記レンズの平面形状は、前記レンズの中心に対して非対称でもよい。これにより例えば、短波長シフトを抑制することが可能となる。
 また、この第2の側面において、前記共振器は、前記光電変換部を含む化合物半導体基板上に設けられていてもよい。これにより例えば、シリコン基板を用いた場合より優れた特性のセンサ装置を実現することが可能となる。
 また、この第2の側面において、前記化合物半導体基板は、InGaAs(インジウムガリウムヒ素)層と、前記InGaAs層上に設けられたInP(リン化インジウム)層とを含み、前記共振器は、前記InP層上に設けられていてもよい。これにより例えば、シリコン基板を用いた場合より優れた特性のセンサ装置を実現することが可能となる。
 また、この第2の側面において、前記共振器の共振器長は、λ/n以上でもよい(λは、前記共振器から出力される光の真空中におけるピーク波長を表し、nは、前記共振器の実効屈折率を表す)。これにより例えば、広い波長エリアでの分光が可能となる。
 また、この第2の側面において、前記共振器の共振器長は、700nm/n以上でもよい(nは、前記共振器の実効屈折率を表す)。これにより例えば、広い波長エリアでの分光が可能となる。
 また、この第2の側面のセンサ装置は、前記第1材料で形成された前記第1部分と、前記第2材料で形成され、前記第1部分内に設けられた前記複数の第2部分とを含む前記メタマテリアル層、を含む前記共振器と、前記第2材料で形成された第2部分と、前記第1材料で形成され、前記第2部分内に設けられた複数の第1部分とを含む第2メタマテリアル層、を含む第2共振器とを備えていてもよい。これにより例えば、第1部分と第2部分との体積比をより広範囲に変えることが可能となる。
 また、この第2の側面において、前記センサ装置は、多モードの光を前記フィルタ層および前記共振器を透過させることで、前記光のモードの数を低減させてもよい。これにより例えば、所定のモードの光を光電変換部に選択的に入射させることが可能となる。
 また、この第2の側面において、前記センサ装置は、多モード分光を信号処理により単一モード分光に変換してもよい。これにより例えば、共振器により得られる分光スペクトルが多モードとなる場合でも、単一モードの分光スペクトルを得ることが可能となる。
 また、この第2の側面において、前記センサ装置は、多モードの光を前記フィルタ層および前記共振器を透過させることで、近赤外光の波長域内にピーク波長を有する単一モードの光を生成してもよい。これにより例えば、太陽光のノイズの少ない光である近赤外光を光電変換部に選択的に入射させることが可能となる。
 また、この第2の側面において、前記センサ装置は、複数の画素を有する画素アレイ領域を備える固体撮像装置でもよい。これにより例えば、優れた共振器を撮像に適用することが可能となる。
 また、この第2の側面において、前記画素アレイ領域は、n×n個(nは2以上の整数)の画素を単位とする周期配列を有していてもよい。これにより例えば、マルチ分光に適した固体撮像装置を実現することが可能となる。
 本開示の第3の側面のセンサ装置の製造方法は、光電変換部を形成し、前記光電変換部上にファブリペロ共振器を形成し、前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間にフィルタ層を形成することを含む。これにより、例えばファブリペロ共振器の欠点をフィルタ層で補うことができるなど、ファブリペロ共振器を好適な態様でセンサ装置に実装することが可能となる。
 本開示の第4の側面のセンサ装置の製造方法は、光電変換部を形成し、前記光電変換部上に、メタマテリアル層を含む共振器を形成し、前記共振器上または前記共振器と前記光電変換部との間にフィルタ層を形成することを含み、前記メタマテリアル層は、第1材料で形成された第1部分と、前記第1材料とは異なる第2材料で形成され、前記第1部分内に設けられた複数の第2部分とを含む。これにより、例えば共振器の欠点をフィルタ層で補うことができるなど、共振器を好適な態様でセンサ装置に実装することが可能となる。
 また、この第4の側面において、前記メタマテリアル層は、前記第1材料で形成された第1部分を形成し、前記第1部分内に、前記第2材料で形成された前記複数の第2部分を埋め込む、ことで形成されてもよい。これにより例えば、メタマテリアル層を半導体製造プロセスの一般的な手法により簡単に形成することが可能となる。
第1実施形態の固体撮像装置の構成を示すブロック図である。 第1実施形態の固体撮像装置の構造を示す断面図である。 第1実施形態の固体撮像装置の構造を示す別の断面図である。 第1実施形態の共振器の構造を示す斜視図である。 第1実施形態の共振器の構造を示す平面図である。 第1実施形態の固体撮像装置の特性を説明するためのグラフである。 第1実施形態の固体撮像装置の特性を説明するための別のグラフである。 第1実施形態の固体撮像装置の特性を説明するための別のグラフである。 第1実施形態の固体撮像装置の特性を説明するための別のグラフである。 第1実施形態の固体撮像装置の特性を説明するための別のグラフである。 第1実施形態の固体撮像装置の動作を示すフローチャートである。 第1実施形態の固体撮像装置の特性を説明するための別のグラフである。 第1実施形態の固体撮像装置の特性を説明するための別のグラフである。 第2実施形態の固体撮像装置の構造を示す断面図である。 第2実施形態の固体撮像装置の構造を示す模式図である。 第2実施形態の固体撮像装置の特性を説明するためのグラフである。 第2実施形態の固体撮像装置の特性を説明するための別のグラフである。 第2実施形態の固体撮像装置の特性を説明するための別のグラフである。 第3実施形態の固体撮像装置の構造を示す断面図である。 第3実施形態の固体撮像装置の特性を説明するためのグラフである。 第3実施形態の固体撮像装置の特性を説明するための別のグラフである。 第3実施形態の固体撮像装置の特性を説明するための別のグラフである。 第3実施形態の固体撮像装置の特性を説明するための別のグラフである。 第4実施形態の固体撮像装置の構造を示す断面図である。 第4実施形態の固体撮像装置の特性を説明するためのグラフである。 第4実施形態の固体撮像装置の特性を説明するための別のグラフである。 第4実施形態の固体撮像装置の特性を説明するための別のグラフである。 第4実施形態の固体撮像装置の動作を示すフローチャートである。 第5実施形態の固体撮像装置の構造を説明するための模式図である。 第5実施形態の固体撮像装置の構造を示す断面図である。 第5実施形態の固体撮像装置の特性を説明するためのグラフである。 第5実施形態の固体撮像装置の特性を説明するための別のグラフである。 第5実施形態の固体撮像装置の特性を説明するための別のグラフである。 第6実施形態の固体撮像装置の構造を示す断面図である。 第6実施形態の固体撮像装置の特性を説明するためのグラフである。 第6実施形態の共振器の構造を説明するための平面図である。 第7実施形態の固体撮像装置の構造を説明するための平面図である。 第7実施形態の固体撮像装置の構造を示す断面図である。 第7実施形態の固体撮像装置の変形例の構造を説明するための平面図および断面図である。 第8実施形態の固体撮像装置の製造方法を示す断面図(1/2)である。 第8実施形態の固体撮像装置の製造方法を示す断面図(2/2)である。 第8実施形態の固体撮像装置の製造方法の詳細を示す断面図(1/2)である。 第8実施形態の固体撮像装置の製造方法の詳細を示す断面図(2/2)である。 第9実施形態の固体撮像装置の構造を示す断面図である。 第9実施形態の共振器の構造を示す斜視図である。 第9実施形態の固体撮像装置の特性を説明するためのグラフである。 第10実施形態の固体撮像装置の動作を説明するためのグラフである。 第11実施形態の固体撮像装置の動作を説明するためのグラフである。 電子機器の構成例を示すブロック図である。 移動体制御システムの構成例を示すブロック図である。 図50の撮像部の設定位置の具体例を示す平面図である。
 以下、本発明の実施形態を、図面を参照して説明する。
 (第1実施形態)
 図1は、第1実施形態の固体撮像装置の構成を示すブロック図である。
 図1の固体撮像装置は、CMOS(Complementary Metal Oxide Semiconductor)型のイメージセンサであり、複数の画素1を有する画素アレイ領域2と、制御回路3と、垂直駆動回路4と、複数のカラム信号処理回路5と、水平駆動回路6と、出力回路7と、複数の垂直信号線8と、水平信号線9とを備えている。図1の固体撮像装置は、本開示のセンサ装置の例である。
 各画素1は、光電変換部として機能するフォトダイオードと、複数の画素トランジスタとを備えている。画素トランジスタの例は、転送トランジスタ、リセットトランジスタ、増幅トランジスタ、選択トランジスタ等のMOSトランジスタである。
 画素アレイ領域2は、2次元アレイ状に配置された複数の画素1を有している。画素アレイ領域2は、光を受光して光電変換を行い、光電変換により生成された信号電荷を増幅して出力する有効画素領域と、黒レベルの基準になる光学的黒を出力するための黒基準画素領域(図示せず)とを含んでいる。一般に、黒基準画素領域は有効画素領域の外周部に配置されている。
 制御回路3は、垂直同期信号、水平同期信号、およびマスタクロックに基づいて、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6等の動作の基準となる種々の信号を生成する。制御回路3により生成される信号は、例えばクロック信号や制御信号であり、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6等に入力される。
 垂直駆動回路4は、例えばシフトレジスタを備えており、画素アレイ領域2内の各画素1を行単位で垂直方向に走査する。垂直駆動回路4はさらに、各画素1が生成した信号電荷に基づく画素信号を、垂直信号線8を通してカラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素アレイ領域2内の画素1の列ごとに配置されており、1行分の画素1から出力された信号の信号処理を、黒基準画素領域からの信号に基づいて列ごとに行う。この信号処理の例は、ノイズ除去や信号増幅である。
 水平駆動回路6は、例えばシフトレジスタを備えており、各カラム信号処理回路5からの画素信号を水平信号線9に供給する。
 出力回路7は、各カラム信号処理回路5から水平信号線9を通して供給される信号に対し信号処理を行い、この信号処理が行われた信号を出力する。
 図2は、第1実施形態の固体撮像装置の構造を示す断面図である。図2は、図1の画素アレイ領域2の縦断面を示している。
 本実施形態の固体撮像装置は、支持基板11と、複数の配線層12、13、14と、層間絶縁膜15と、各転送トランジスタTr1に含まれるゲート電極16およびゲート絶縁膜17とを備えている。
 本実施形態の固体撮像装置はさらに、基板21と、基板21内の複数の光電変換部22と、各光電変換部22に含まれるp型半導体領域23、n型半導体領域24、およびp型半導体領域25と、基板21内の画素分離層26、pウェル層27、および複数の浮遊拡散部28とを備えている。
 本実施形態の固体撮像装置はさらに、溝31と、溝31内に設けられた素子分離部32と、素子分離部32に含まれる固定電荷膜(負の固定電荷を有する膜)33および絶縁膜34と、遮光膜35と、平坦化膜36と、各光電変換部22の上方に設けられた積層膜37、カラーフィルタ層38、およびオンチップレンズ39とを備えている。
 図2は、互いに垂直なX軸、Y軸、およびZ軸を示している。X方向およびY方向は横方向(水平方向)に相当し、Z方向は縦方向(垂直方向)に相当する。また、+Z方向は上方向に相当し、-Z方向は下方向に相当する。-Z方向は、厳密に重力方向に一致していてもよいし、厳密には重力方向に一致していなくてもよい。
 基板21は例えば、シリコン(Si)基板等の半導体基板である。図2において、基板21の-Z方向の面は、基板21の表側の面であり、基板21のZ方向の面は、基板21の裏側の面(裏面)である。本実施形態の固体撮像装置は裏面照射型であるため、カラーフィルタ層38やオンチップレンズ39は基板21の裏側に設けられており、図2では基板21の上方に位置している。基板21の裏面は、基板21の光入射面となる。一方、配線層12~14は、基板21の表側に設けられており、図2では基板21の下方に位置している。
 光電変換部22は、基板21内に画素1ごとに設けられている。図2は、3つの画素1用の3つの光電変換部22を例示している。各光電変換部22は、基板21の表側から裏側に向かって基板21内に順に形成されたp型半導体領域23、n型半導体領域24、およびp型半導体領域25を備えている。光電変換部22では、p型半導体領域23とn型半導体領域24との間のpn接合と、n型半導体領域24とp型半導体領域25との間のpn接合により、主なフォトダイオードが実現されており、フォトダイオードが光を電荷に変換する。光電変換部22は、オンチップレンズ39に入射した光をカラーフィルタ層38を介して受光し、受光した光の光量に応じた信号電荷を生成し、生成した信号電荷をn型半導体領域24に蓄積する。
 画素分離層26は、互いに隣接する光電変換部22同士の間に設けられたp型半導体領域である。pウェル層27は、画素分離層26に対して基板21の表側に設けられたp型半導体領域である。浮遊拡散部28は、pウェル層27に対して基板21の表側に設けられたn+型半導体領域である。浮遊拡散部28は、pウェル層27内にn型不純物を高濃度に注入することで形成される。
 溝31は、基板21の裏面から深さ方向(-Z方向)に延びる形状を有しており、画素分離層26と同様に、互いに隣接する光電変換部22同士の間に設けられている。溝31は、画素分離層26内にエッチングにより凹部を形成することで形成される。
 素子分離部32は、溝31内に順に形成された固定電荷膜33および絶縁膜34を含んでいる。固定電荷膜33は、溝31の側面および底面に形成されている。絶縁膜34は、溝31内に固定電荷膜33を介して埋め込まれている。
 固定電荷膜33は、負の固定電荷を有する膜であり、素子分離部32の材料となっている。一般に固体撮像装置では、入射光がなく信号電荷がない状態でも、基板21の界面に存在する微小欠陥から電荷が発生することがある。この電荷は、暗電流と呼ばれるノイズの原因となる。しかしながら、負の固定電荷を有する膜には、このような暗電流の発生を抑制する作用がある。よって、本実施形態によれば、固定電荷膜33により暗電流を低減することが可能となる。本実施形態の固定電荷膜33は、基板21の裏面全体に形成されており、素子分離部32内だけでなく光電変換部22上にも配置されている。固定電荷膜33は例えば、ハフニウム(Hf)、アルミニウム(Al)、ジルコニウム(Zr)、タンタル(Ta)、またはチタン(Ti)を含む酸化膜または窒化膜である。
 絶縁膜34は、固定電荷膜33と共に素子分離部32の材料となっている。絶縁膜34は、固定電荷膜33と異なる屈折率を有する材料で形成することが好ましい。このような絶縁膜34の例は、酸化シリコン膜、窒化シリコン膜、酸窒化シリコン膜、樹脂膜等である。また、絶縁膜34は、正の固定電荷を持たない膜や、正の固定電荷が少ない膜としてもよい。本実施形態の絶縁膜34は、基板21の裏面全体に形成されており、素子分離部32内だけでなく光電変換部22上にも配置されている。
 遮光膜35は、基板21の裏面に形成された絶縁膜34上の所定の領域に形成されており、オンチップレンズ39からの光を遮光する作用を有する。画素アレイ領域2では、遮光膜35は、光電変換部22がオンチップレンズ39に対して開口するように網目状に形成されており、具体的には、素子分離部32上に形成されている。遮光膜35は、光を遮光する材料で形成された膜であり、例えばタングステン(W)、アルミニウム(Al)、または銅(Cu)を含む金属膜である。
 平坦化膜36は、遮光膜35を覆うように絶縁膜34の全面に形成されており、これにより基板21の裏面上の面が平坦となっている。平坦化膜36は例えば、樹脂膜等の有機膜である。
 積層膜37は、平坦化膜36上に形成されており、例えば酸化シリコン膜、窒化シリコン膜、シリコン層等を含んでいる。本実施形態の積層膜37はさらに、後述するように、画素1ごとに構造の異なる共振器51を含んでいる。積層膜37の詳細については、後述する。
 カラーフィルタ層38は、積層膜37上に画素1ごとに形成されており、OCCF(オンチップカラーフィルタ)とも呼ばれる。例えば、赤色(R)、緑色(G)、青色(B)用のカラーフィルタ層38がそれぞれ、赤色、緑色、青色の画素1の光電変換部22の上方に配置されている。あるいは、イエロー(Y)、マゼンタ(M)、シアン(C)用のカラーフィルタ層38がそれぞれ、イエロー、マゼンタ、シアンの画素1の光電変換部22の上方に配置されていてもよい。さらに、これらのカラーフィルタ層38は、赤外光(IR)の画素1の光電変換部22の上方に、赤外光用のカラーフィルタ層38を含んでいてもよい。各カラーフィルタ層38は、所定の波長の光が透過できるまたはできない性質を有しており、各カラーフィルタ層38を透過した光が、積層膜37、絶縁膜34、および固定電荷膜33を介して光電変換部22に入射する。なお、カラーフィルタ層38は、積層膜37とオンチップレンズ39との間に配置される代わりに、積層膜37と平坦化膜36との間に配置されていてもよい。すなわち、カラーフィルタ層38は、積層膜37上に配置される代わりに、積層膜37下に配置されていてもよい。
 オンチップレンズ39は、カラーフィルタ層38上に画素1ごとに形成されている。各オンチップレンズ39は、入射した光を集光する性質を有しており、各オンチップレンズ39により集光された光は、対応するカラーフィルタ層38等を介して光電変換部22に入射する。
 支持基板11は、基板21の表側に層間絶縁膜15を介して設けられており、基板21の強度を確保するために設けられている。支持基板11は例えば、シリコン基板等の半導体基板である。
 配線層12~14は、基板21の表側に設けられた層間絶縁膜15内に設けられ、多層配線構造をなしている。本実施形態の多層配線構造は、3層の配線層12~14を含んでいるが、4層以上の配線層を含んでいてもよい。配線層12~14の各々は、種々の配線を含んでおり、転送トランジスタTr1等の画素トランジスタは、これらの配線を用いて駆動される。配線層12~14は例えば、タングステン、アルミニウム、または銅を含む金属層である。層間絶縁膜15は例えば、酸化シリコン膜等を含む絶縁膜である。
 各転送トランジスタTr1のゲート電極16は、p型半導体領域23と浮遊拡散部28との間のpウェル層27の下に、ゲート絶縁膜17を介して設けられている。各転送トランジスタTr1は、光電変換部22内の信号電荷を浮遊拡散部28に転送することができる。ゲート電極16およびゲート絶縁膜17は、層間絶縁膜15内に設けられている。
 本実施形態の固体撮像装置では、基板21の裏側から光が照射され、オンチップレンズ39に光が入射する。オンチップレンズ39に入射した光は、オンチップレンズ39により集光され、カラーフィルタ層38、積層膜37、平坦化膜36、絶縁膜34、および固定電荷膜33を介して光電変換部22に入射する。光電変換部22は、この光を光電変換により電荷に変換して、信号電荷を生成する。信号電荷は、基板21の表側に設けられた配線層12~14内の垂直信号線8を介して、画素信号として出力される。
 図3は、第1実施形態の固体撮像装置の構造を示す別の断面図である。
 図3は、1つの画素1に含まれる基板21、積層膜37、およびカラーフィルタ層38を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の積層膜37は、図3に示すように、基板21上に順に形成された酸化シリコン膜(SiO膜)41、窒化シリコン膜(SiN膜(Si膜))42、酸化シリコン膜41、ポリシリコン層(poly-Si層)43、メタマテリアル層44、ポリシリコン層43、および酸化シリコン膜41を備えている。メタマテリアル層44は、共振器51として機能する。本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図3に示す厚さを有している。共振器51下の酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、およびポリシリコン層43は、本開示の第1層の例であり、共振器51上のポリシリコン層43および酸化シリコン膜41は、本開示の第2層の例である。図3に示すQEは、量子効率(Quantum Efficiency)の略語である。共振器51は、キャビティとも呼ばれる。
 図4は、第1実施形態の共振器51(メタマテリアル層44)の構造を示す斜視図である。
 本実施形態のメタマテリアル層44は、図4に示すように、窒化シリコン膜42で形成された窒化シリコン部分42aと、酸化シリコン膜41で形成されており、窒化シリコン部分42a内に設けられた複数の酸化シリコン部分41aとを含んでいる。窒化シリコン部分42aはおおむね、四角形の板状の形状を有している。一方、各酸化シリコン部分41aは、Z方向に延びる柱状の形状を有しており、窒化シリコン部分42aを貫通している。窒化シリコン部分42aは、第1材料で形成された第1部分の例であり、酸化シリコン部分41aは、第2材料で形成された複数の第2部分の例である。
 酸化シリコン部分41aと窒化シリコン部分42aは、異なる屈折率を有している。具体的には、窒化シリコン部分42aの屈折率が、酸化シリコン部分41aの屈折率より高い。そのため、共振器51の実効屈折率は、メタマテリアル層44内の酸化シリコン部分41aと窒化シリコン部分42aとの体積比に依存する。よって、本実施形態では、酸化シリコン部分41aと窒化シリコン部分42aとの体積比を画素1ごとに変えることで、共振器51の実効屈折率を画素1ごとに変えることができる。これにより、共振器51の共振器長を変化させずに実効屈折率を変化させることで、共振器51から出力される(すなわち、共振器51を透過する)光のピーク波長を変化させることが可能となる。
 なお、メタマテリアル層44は、屈折率の異なる2種類以上の材料を選択し、これらの材料で微細構造を形成することで、様々な態様で形成することが可能である。例えば、メタマテリアル層44は、後述するように、酸化シリコンとアモルファスシリコンにより形成してもよい。また、メタマテリアル層44は、酸化シリコンと酸化チタンにより形成してもよい。本実施形態のメタマテリアル層44は、上記のピーク波長の1/2以下の微細構造により実現されている。
 図5は、第1実施形態の共振器51(メタマテリアル層44)の構造を示す平面図である。
 図5は、4×4個の画素1のメタマテリアル層44を示している。図5では、酸化シリコン部分41aと窒化シリコン部分42aとの体積比が、メタマテリアル層44ごと(画素1ごと)に異なっている。図5はさらに、窒化シリコン部分42a内に複数の酸化シリコン部分41aが設けられたメタマテリアル層44だけでなく、酸化シリコン部分41a内に複数の窒化シリコン部分42aが設けられたメタマテリアル層44も示している。後者のメタマテリアル層44(共振器51)は、本開示の第2メタマテリアル層(第2共振器)の例である。
 このように、本実施形態の固体撮像装置は、窒化シリコン部分42a内に複数の酸化シリコン部分41aが設けられたメタマテリアル層44と、酸化シリコン部分41a内に複数の窒化シリコン部分42aが設けられたメタマテリアル層44とを備えている。これにより、酸化シリコン部分41aと窒化シリコン部分42aとの体積比をより広範囲に変えることが可能となり、共振器51の実効屈折率をより広範囲に変化させることが可能となる。本実施形態の固体撮像装置はさらに、図5に示すように、酸化シリコン部分41aのみを含むメタマテリアル層44や、窒化シリコン部分42aのみを含むメタマテリアル層44を備えていてもよい。
 次に、図3から図5を参照し、本実施形態の共振器51等のさらなる詳細を説明する。
 図3では、メタマテリアル層44下にポリシリコン層43が設けられており、このポリシリコン層43がメタマテリアル層44の下面に接している。そのため、メタマテリアル層44の下面が、メタマテリアル層44の下方の酸化シリコン膜41等から離隔されている。例えば、メタマテリアル層44の下面に透明な材料(例えば酸化シリコン膜41)が接している場合、この透明な材料は、メタマテリアル層44と共に共振器51の一部となる。本実施形態によれば、ポリシリコン層43がメタマテリアル層44の下面に接していることで、共振器51の厚みを薄くすることができる。
 図3ではさらに、メタマテリアル層44上にポリシリコン層43が設けられており、このポリシリコン層43がメタマテリアル層44の上面に接している。そのため、メタマテリアル層44の上面が、メタマテリアル層44の上方の酸化シリコン膜41等から離隔されている。例えば、メタマテリアル層44の上面に透明な材料(例えば酸化シリコン膜41)が接している場合、この透明な材料は、メタマテリアル層44と共に共振器51の一部となる。本実施形態によれば、ポリシリコン層43がメタマテリアル層44の上面に接していることで、共振器51の厚みを薄くすることができる。
 なお、本実施形態では、メタマテリアル層44とカラーフィルタ層38との間や、メタマテリアル層44と基板21との間には、上述の2つのポリシリコン層43以外の半導体層は設けられていない。よって、本実施形態の積層膜37は、これらのポリシリコン層43以外すべて絶縁膜で形成されている。一方、これらのポリシリコン層43以外の半導体層を含む積層膜37の例については、後述する。
 図4に示すメタマテリアル層44は、屈折率の高い窒化シリコン部分42aと、屈折率の低い複数の酸化シリコン部分41aとを含んでいる。これにより、メタマテリアル層44を含む共振器51が実現されている。
 図4の各酸化シリコン部分41aの形状は、例えば円柱形である。本実施形態では、この円柱形の円の直径を、共振器51から出力される光のピーク波長のオーダーより小さく設定する。すなわち、酸化シリコン部分41aを微細加工する。これにより、好適な特性を有する共振器51を実現することが可能となる。
 図5は、4×4個の画素1のメタマテリアル層44(共振器51)を示している。本実施形態では、これらの共振器51の共振器長は、すべて同じに設定されている。理由は、共振器51の共振器長を変化させずに実効屈折率を変化させることで、共振器51から出力される光のピーク波長を変化させることができるからである。共振器51の共振器長を変化させないことには、例えば共振器51の製造が容易になるという利点がある。
 図6は、第1実施形態の固体撮像装置の特性を説明するためのグラフである。図7は、第1実施形態の固体撮像装置の特性を説明するための別のグラフである。図8は、第1実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図6は、積層膜37を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における透過率を表す。図7は、積層膜37を透過する光のスペクトルの別の例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。図8は、積層膜37を透過する光のスペクトルの別の例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。
 本実施形態の共振器51の共振器長は、例えばλ/n以上に設定される。λは、この共振器51を透過する光の真空中におけるピーク波長を表す。nは、この共振器51の実効屈折率を表す。なお、本実施形態では、このλの値として例えば、このピーク波長の目標値λが使用される。本実施形態の共振器51の共振器長は、例えば700nm/n以上に設定することが望ましい。
 本実施形態では、共振器長をλ/n以上に設定することで、あるモードのピーク波長と次のモードのピーク波長との間隔が狭くなる。このことは、図6のFSR(Free Spectal Range)により示されている。その結果、図7に示すように、例えば広い波長エリアでの分光が可能となる。
 しかし、この場合には、1つの分光スペクトルが、マルチモード(多モード)となり、多数のピークを含むことになる(図7)。そこで、本実施形態では、積層膜37上に、カラーフィルタ層38のような波長選択性のある層を配置する。これにより、積層膜37に入射する光のモードの数(波長の範囲)を低減することが可能となり、積層膜37を透過する光の分光スペクトルに含まれるピークの数を低減することが可能となる(図8)。その結果、所定のモードの光を光電変換部22に選択的に入射させることが可能となる。なお、積層膜37上にカラーフィルタ層38を配置する場合、積層膜37に入射する光は、場合によってシングルモード(単一モード)となり、積層膜37を透過する光は、場合によって単一ピークとなる。
 図9は、第1実施形態の固体撮像装置の特性を説明するための別のグラフである。図10は、第1実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図9は、カラーフィルタ層38を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における透過率を表す。図10は、カラーフィルタ層38を透過する光のスペクトルの別の例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における透過率を表す。
 図9は、カラーフィルタ層38が例えば、赤色(R)フィルタ、緑色(G)フィルタ、青色(B)フィルタ等である場合のスペクトルを示している。図10は、カラーフィルタ層38を、650nm、800nm、900nmを閾値波長とするハイパスフィルタ層に置き換えた場合のスペクトルを示している。
 カラーフィルタ層38は、図9に例示するいずれかの特性を有していてもよいし、その他の特性を有していてもよい。また、カラーフィルタ層38は、赤外光(IR)フィルタでもよいし、赤色フィルタと緑色フィルタとを重ねて配置したフィルタでもよい。
 また、カラーフィルタ層38は、図10に例示するいずれかの特性を有するハイパスフィルタ層に置き換えてもよいし、波長選択性を有するその他のフィルタ層に置き換えてもよい。例えば、カラーフィルタ層38は、メタサーフェスや、表面プラズモン共鳴フィルタや、本実施形態の積層膜37と異なる方式のファブリペロ共振器に置き換えてもよい。
 また、カラーフィルタ層38は、共振器51の上方に配置する代わりに、共振器51の下方に配置してもよい。これは、カラーフィルタ層38を、その他のフィルタ層に置き換える場合においても同様である。
 さらに、本実施形態では、共振器51同士の境界や、カラーフィルタ層38同士の境界に混色防止のための画素間遮光膜を設けてもよい。これにより、各画素1から隣接画素1への光の侵入を防ぎ、波長選択性を向上させることが可能となる。
 また、ポリシリコン層43は、短波長側の吸収係数が大きくロスが大きいが、その厚みを50nm以下に設定することで、吸収が抑えられることが分かっている。そのため、図3に示す各ポリシリコン層43の厚みは、31nmに設定されている。図3に示す各ポリシリコン層43は、アモルファスシリコン(α-Si)層や、マイクロクリスタル(微結晶)シリコン(μc-Si)層に置き換えてもよい。
 図11は、第1実施形態の固体撮像装置の動作を示すフローチャートである。
 本実施形態の固体撮像装置は、共振器51を透過した光を光電変換部22により電荷に変換することで、光を検出することができる。これにより得られる分光スペクトルの未加工データ(Raw Data)は、単一モードとなる場合と、多モードになる場合とがある。
 本実施形態の固体撮像装置は、多モードの未加工データを取得した場合には(ステップS11)、多モードの未加工データに信号処理を施し(ステップS12)、多モードの未加工データを単一モードのデータに変換してもよい(ステップS13)。信号処理では、例えば単一モード化と混色成分除去とを行う。これにより、単一モードの分光スペクトルを、カラーフィルタ層38の作用に代えて、信号処理の作用により得ることが可能となる。
 図12は、第1実施形態の固体撮像装置の特性を説明するための別のグラフである。図13は、第1実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図12は、上記信号処理により得られた分光スペクトルの例を示しており、横軸は、光の波長を表し、縦軸は、この光のピークの各波長における半値幅(FWHM:Full Width at Half Maximum)を表す。FWHMについては、図6を参照されたい。図13は、上記信号処理により得られた分光スペクトルの各波長に関し、目指す波長(目標値)と出力波長(計測値)との対応を示している。
 上記信号処理をチコノフの理論(Tychonoff's theorem)を適用して実行した場合、半値幅は、図12に示すように、ほぼ波長400~900nmにおいて、100nm未満となっており、狭い分光を得ることができた。さらに、図13に示すように、出力波長は、目指す波長にほぼ一致することが分かった。
 以上のように、本実施形態の固体撮像装置は、メタマテリアル層44を含む共振器51上(または下)にカラーフィルタ層38を備えている。よって、本実施形態によれば、例えば共振器51の欠点をカラーフィルタ層38で補うことができるなど、共振器51を好適な態様で固体撮像装置に実装することが可能となる。
 例えば、図12に示すように、得られる光の半値幅を広い波長領域で狭くすることが可能となる。また、共振器51をメタマテリアル層44により実現することで、光のピーク波長を変化させることが可能な共振器51を簡単に量産することが可能となる。このような共振器51は、カラーフィルタ層38と積層することも容易である。共振器51上(または下)にカラーフィルタ層38を積層することで、共振器51に入射する光のモードの数(波長の範囲)を低減することが可能となり、共振器51を透過する光の分光スペクトルに含まれるピークの数を低減することが可能となる(図8)。本実施形態のようなマルチ分光による信号検知は、植生状態を評価するために農業に適用することや、人肌などの生体部位を検知するために生体認知に適用するなど、様々な応用が可能である。
 なお、本実施形態の共振器51は、イメージセンサ(固体撮像装置)内に設けられているが、光を検知するその他のセンサ装置内に設けられていてもよい。このようなセンサ装置の例は、測距センサである。
 また、本実施形態の積層膜37(図3参照)は、上述のように、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。そして、本実施形態の共振器51は、メタマテリアル層44を含んでいる。しかしながら、積層膜37は、メタマテリアル層を含まない共振器を含むことで、ファブリペロ共振器となっていてもよい。例えば、積層膜37は、均一な屈折率を有する材料で形成されていてもよい。ただし、メタマテリアル層44を用いて共振器51を形成することには、例えば、共振器51の厚みを画素1ごとに変える必要がなくなるため、共振器51を容易に形成できるという利点がある。これは、後述する第2から第11実施形態の積層膜37でも同様である(図14、図19、図24、図30、図44等を参照)。
 以下、第2から第11実施形態について説明する。これらの実施形態については、第1実施形態や他の実施形態との相違点を中心に説明し、第1実施形態や他の実施形態との共通点の説明は適宜省略する。
 (第2実施形態)
 図14は、第2実施形態の固体撮像装置の構造を示す断面図である。
 図14は、図3と同様に、1つの画素1に含まれる基板21、積層膜37、およびカラーフィルタ層38を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の積層膜37は、図14に示すように、基板21上に順に形成された反射防止膜(AR(Anti-Refrective)膜)45、酸化シリコン膜41、ポリシリコン層43、酸化シリコン膜41、ポリシリコン層43、酸化シリコン膜41、メタマテリアル層44、酸化シリコン膜41、ポリシリコン層43、酸化シリコン膜41、ポリシリコン層43、および酸化シリコン膜41を備えている。本実施形態のメタマテリアル層44は、メタマテリアル層44の下面に接する酸化シリコン膜41や、メタマテリアル層44の上面に接する酸化シリコン膜41と共に、共振器51として機能する。本実施形態のメタマテリアル層44は、第1実施形態のメタマテリアル層44と同様の構造を有しており、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図14に示す厚さを有している。共振器51下の反射防止膜45、酸化シリコン膜41、ポリシリコン層43、酸化シリコン膜41、およびポリシリコン層43は、本開示の第1層の例であり、共振器51上のポリシリコン層43、酸化シリコン膜41、ポリシリコン層43、および酸化シリコン膜41は、本開示の第2層の例である。
 図14では、メタマテリアル層44下に酸化シリコン膜41が設けられており、この酸化シリコン膜41がメタマテリアル層44の下面に接している。そのため、メタマテリアル層44の下面が、メタマテリアル層44の下方のポリシリコン層43等から離隔されている。メタマテリアル層44は例えば、窒化シリコン部分42aと複数の酸化シリコン部分41aとを含んでおり(図4)、上記の酸化シリコン膜41は、これら窒化シリコン部分42aおよび酸化シリコン部分41aの下面に接している。本実施形態では、メタマテリアル層44の下面に接する酸化シリコン膜41が、透明なガラス膜であり、メタマテリアル層44と共に共振器51の一部となっている。
 図14ではさらに、メタマテリアル層44上に酸化シリコン膜41が設けられており、この酸化シリコン膜41がメタマテリアル層44の上面に接している。そのため、メタマテリアル層44の上面が、メタマテリアル層44の上方のポリシリコン層43等から離隔されている。メタマテリアル層44は例えば、窒化シリコン部分42aと複数の酸化シリコン部分41aとを含んでおり(図4)、上記の酸化シリコン膜41は、これら窒化シリコン部分42aおよび酸化シリコン部分41aの上面に接している。本実施形態では、メタマテリアル層44の上面に接する酸化シリコン膜41が、透明なガラス膜であり、メタマテリアル層44と共に共振器51の一部となっている。
 本実施形態によれば、350nm~1000nmのワイドバンドのマルチ分光で半値幅の狭い固体撮像装置を実現することができる。本実施形態の積層膜37は、4つのポリシリコン層43を含んでおり、これにより半値幅を狭くすることができる。各ポリシリコン層43は例えば、CVD(Chemical Vapor Deposition)などによりアモルファスシリコン層を形成し、アモルファスシリコン層を700℃のアニールにより結晶化することで形成可能である。また、各ポリシリコン層43は例えば、CVDなどによりマイクロクリスタルシリコン層を形成し、マイクロクリスタルシリコン層を400℃の低温アニールにより結晶化することで形成可能である。符号「43」の層をポリシリコン層とすることで、この層における光の吸収を抑制することが可能となる。さらに、本実施形態では、メタマテリアル層44の微細加工のマージンとして、メタマテリアル層44の上面および下面に酸化シリコン膜41が配置されている。
 本実施形態の共振器51の共振器長は、例えばλ/n以上に設定される。λは、この共振器51を透過する光の真空中におけるピーク波長を表す。nは、この共振器51の実効屈折率を表す。なお、本実施形態では、このλの値として例えば、このピーク波長の目標値λが使用される。本実施形態の共振器51の共振器長は、例えば700nm/n以上に設定することが望ましい。本実施形態では、共振器51の共振器長を1000nmに設定することでマルチモード化がなされており、かつ、共振器51の上方にカラーフィルタ層38を配置することで波長選択性のある構造が実現されている。
 図15は、第2実施形態の固体撮像装置の構造を示す模式図である。本実施形態の固体撮像装置の画素アレイ領域2は、図15に示す構造を有している。
 図15において、各正方形は、1個の画素1を表し、符号Rは、16個の画素1を含む単位領域を表している。各単位領域R内の数字「1~16」は、各単位領域Rが16種類の色に対応する16種類の画素1を含んでいることを表している。このように、本実施形態の画素アレイ領域2は、4×4個の画素1を単位とする周期配列を有している。
 本実施形態では、16種類の画素1が、互いに異なる構造の共振器51(メタマテリアル層44)を含んでいる(図5も参照)。これにより、16分光の固体撮像装置を実現することができる。本実施形態の画素アレイ領域2は、複数の単位領域RがX方向およびY方向に繰り返し配置された構造を有している。
 なお、各単位領域Rに含まれる画素1の個数は、5×5個でもよいし、6×6個でもよいし、n×n個でもよい(nは2以上の整数)。これにより、マルチ分光に適した固体撮像装置を実現することが可能となり、複数の分光に信号処理を施すことよってマルチ分光の画像を得ることが可能となる。この信号処理により得られる画像は、農業や生体検知などの様々なアプリケーションに応用するのに適している。
 なお、各単位領域Rに含まれる画素1の個数は、m×n個でもよい(mは、nと異なる2以上の整数)。ただし、2の累乗個の種類の画素1を取り扱うことが好ましい場合には、各単位領域Rに含まれる画素1の個数はn×n個とすることが好ましい。
 図16は、第2実施形態の固体撮像装置の特性を説明するためのグラフである。
 図16は、積層膜37を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。図16は、上述の図8と同様に、積層膜37の上方にカラーフィルタ層38を配置した場合のスペクトルを示している。このような配置により、積層膜37に入射する光のモードの数(波長の範囲)を低減することが可能となり、積層膜37を透過する光の分光スペクトルに含まれるピークの数を低減することが可能となる。
 図17は、第2実施形態の固体撮像装置の特性を説明するための別のグラフである。図18は、第2実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図17は、上述の図12と同様に、図11の信号処理により得られた分光スペクトルの例を示しており、横軸は、光の波長を表し、縦軸は、この光のピークの各波長における半値幅(FWHM)を表す。図18は、上述の図13と同様に、上記信号処理により得られた分光スペクトルの各波長に関し、目指す波長(目標値)と出力波長(計測値)との対応を示している。
 上記信号処理をチコノフの理論を適用して実行した場合、図17に示すように、単一ピークで半値幅が30nm以下の狭い分光を得ることができた。さらに、図18に示すように、出力波長は、目指す波長にほぼ一致することが分かった。
 以上のように、本実施形態の固体撮像装置は、第1実施形態と同様に、メタマテリアル層44を含む共振器51上(または下)にカラーフィルタ層38を備えている。よって、本実施形態によれば、例えば共振器51の欠点をカラーフィルタ層38で補うことができるなど、共振器51を好適な態様で固体撮像装置に実装することが可能となる。
 (第3実施形態)
 図19は、第3実施形態の固体撮像装置の構造を示す断面図である。
 図19は、図3と同様に、1つの画素1に含まれる基板21、積層膜37、およびカラーフィルタ層38を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の積層膜37は、図19に示すように、基板21上に順に形成された反射防止膜45、酸化シリコン膜41、アモルファスシリコン層46、酸化シリコン膜41、メタマテリアル層44、酸化シリコン膜41、アモルファスシリコン層46、および酸化シリコン膜41を備えている。本実施形態のメタマテリアル層44は、メタマテリアル層44の下面に接する酸化シリコン膜41や、メタマテリアル層44の上面に接する酸化シリコン膜41と共に、共振器51として機能する。本実施形態のメタマテリアル層44は、第1実施形態のメタマテリアル層44と同様の構造を有しており、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図19に示す厚さを有している。共振器51下の反射防止膜45、酸化シリコン膜41、およびアモルファスシリコン層46は、本開示の第1層の例であり、共振器51上のアモルファスシリコン層46および酸化シリコン膜41は、本開示の第2層の例である。
 本実施形態によれば、符号「46」の層をアモルファスシリコン層とすることで、この層をアニールなしで簡単に形成することが可能となる。
 本実施形態の共振器51の共振器長は、例えばλ/n以上に設定される。λは、この共振器51を透過する光の真空中におけるピーク波長を表す。nは、この共振器51の実効屈折率を表す。なお、本実施形態では、このλの値として例えば、このピーク波長の目標値λが使用される。本実施形態の共振器51の共振器長は、例えば700nm/n以上に設定することが望ましい。本実施形態では、共振器51の共振器長を1000nmに設定することでマルチモード化がなされており、かつ、共振器51の上方にカラーフィルタ層38を配置することで波長選択性のある構造が実現されている。
 図20は、第3実施形態の固体撮像装置の特性を説明するためのグラフである。
 図20は、積層膜37を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。図20は、上述の図8と同様に、積層膜37の上方にカラーフィルタ層38を配置した場合のスペクトルを示している。このような配置により、積層膜37に入射する光のモードの数(波長の範囲)を低減することが可能となり、積層膜37を透過する光の分光スペクトルに含まれるピークの数を低減することが可能となる。
 図21は、第3実施形態の固体撮像装置の特性を説明するための別のグラフである。図22は、第3実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図21は、上述の図12と同様に、図11の信号処理により得られた分光スペクトルの例を示しており、横軸は、光の波長を表し、縦軸は、この光のピークの各波長における半値幅(FWHM)を表す。図22は、上述の図13と同様に、上記信号処理により得られた分光スペクトルの各波長に関し、目指す波長(目標値)と出力波長(計測値)との対応を示している。
 上記信号処理をチコノフの理論を適用して実行した場合、図21に示すように、単一ピークで半値幅が30nm以下の狭い分光を得ることができた。さらに、図22に示すように、出力波長は、目指す波長にほぼ一致することが分かった。
 図23は、第3実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図23は、上記信号処理により得られた分光スペクトルの例を示しており、横軸は、光の波長を表し、縦軸は、この光の出力信号(計測信号)を表す。図23に示すように、この光は、単一モードとなっている。
 以上のように、本実施形態の固体撮像装置は、第1実施形態と同様に、メタマテリアル層44を含む共振器51上(または下)にカラーフィルタ層38を備えている。よって、本実施形態によれば、例えば共振器51の欠点をカラーフィルタ層38で補うことができるなど、共振器51を好適な態様で固体撮像装置に実装することが可能となる。
 (第4実施形態)
 図24は、第4実施形態の固体撮像装置の構造を示す断面図である。
 図24は、図3と同様に、1つの画素1に含まれる基板21、積層膜37、およびカラーフィルタ層38を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の積層膜37は、図24に示すように、基板21上に順に形成された酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、ポリシリコン層43、メタマテリアル層44、ポリシリコン層43、および酸化シリコン膜41を備えている。メタマテリアル層44は、共振器51として機能する。本実施形態のメタマテリアル層44は、第1実施形態のメタマテリアル層44と同様の構造を有しており、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図24に示す厚さを有している。共振器51下の酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、およびポリシリコン層43は、本開示の第1層の例であり、共振器51上のポリシリコン層43および酸化シリコン膜41は、本開示の第2層の例である。
 本実施形態の共振器51の共振器長は、例えばλ/n以上に設定される。λは、この共振器51を透過する光の真空中におけるピーク波長を表す。nは、この共振器51の実効屈折率を表す。なお、本実施形態では、このλの値として例えば、このピーク波長の目標値λが使用される。本実施形態の共振器51の共振器長は、例えば700nm/n以上に設定することが望ましい。本実施形態では、共振器51の共振器長を1500nmに設定することでマルチモード化がなされており、かつ、共振器51の上方にカラーフィルタ層38を配置することで波長選択性のある構造が実現されている。
 メタマテリアル層44は例えば、窒化シリコン部分42aと複数の酸化シリコン部分41aとを含んでいる(図4)。本実施形態では、この窒化シリコン部分42aを、窒化シリコン膜42以外の第1材料で形成された第1部分に置き換えてもよく、これらの酸化シリコン部分41aを、酸化シリコン膜41以外の第2材料で形成された第2部分に置き換えてもよい。この場合、第2材料の屈折率は、第1材料の屈折率と異なる値に設定する。
 本実施形態の固体撮像装置は、約940nmという単一波長のみに感度を有する画素1を備えており、このような画素1が、図24に示す構造を有している。太陽光のスペクトルは、940nmの成分をあまり含まないことが知られている。よって、本実施形態によれば、940nmの波長の光を測距や顔認証などに使用し、上記の画素1により940nmの波長の光を検知することで、太陽光に起因するノイズの少ない測距や顔認証を実現することが可能となる。
 なお、940nmの波長の光は、近赤外光(NIR)に相当し、人間の眼の視感度がゼロとなる。よって、本実施形態によれば、人間に不快感を与えることなく、測距や顔認証を行うことが可能となる。なお、本実施形態では、940nmの波長の光を、その他のToF(Time of Flight)技術に適用してもよい。また、本実施形態では、940nm以外の波長の近赤外光を使用してもよい。また、本実施形態の固体撮像装置は、近赤外光用の画素1のみを備えていてもよいし、赤色、緑色、青色用の画素1など、その他の画素1も備えていてもよい。
 図25は、第4実施形態の固体撮像装置の特性を説明するためのグラフである。図26は、第4実施形態の固体撮像装置の特性を説明するための別のグラフである。図27は、第4実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図25は、積層膜37を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。図26は、カラーフィルタ層38を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における透過率を表す。図27は、積層膜37を透過する光のスペクトルの別の例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。
 図25は、積層膜37の上方にカラーフィルタ層38を配置しない場合の分光特性の例を示している。この場合、940nmの波長の光は、他の波長の光に比べて検出が難しくなる。
 そこで、本実施形態では、図26に示す特性を有するカラーフィルタ層38を、共振器51の上方に配置する。これにより、約900nm以下の波長の光をカラーフィルタ層38でカットすることが可能となる。
 図27は、共振器51の上方にこのようなカラーフィルタ層38を配置した場合の分光特性の例を示している。図27では、チコノフの信号処理を施さなくても、ピーク波長が940nmで半値幅が60nmの単一モードかつ単一ピークの光が得られている。これにより、940nmの波長の光を容易に検出することが可能となる。
 図28は、第4実施形態の固体撮像装置の動作を示すフローチャートである。
 本実施形態の固体撮像装置は、共振器51を透過した光を光電変換部22により電荷に変換することで、光を検出することができる。これにより得られる分光スペクトルの未加工データ(Raw Data)は、図27に示すように単一モードとなる場合がある。この場合、上述の図11に示す処理は、図28に示す処理に置き換えてもよい。
 本実施形態の固体撮像装置は、単一モードの未加工データを取得した場合には(ステップS21)、単一モードの未加工データに信号処理を施し(ステップS22)、単一モードの未加工データを別の単一モードのデータに変換してもよい(ステップS23)。この信号処理では例えば、単一モード化は行わず、混色成分除去を行う。これにより、よりノイズの少ない単一モードの分光スペクトルを信号処理により得ることが可能となる。
 以上のように、本実施形態によれば、ToF技術等に適した固体撮像装置を実現することが可能となる。
 (第5実施形態)
 図29は、第5実施形態の固体撮像装置の構造を説明するための模式図である。図29のAは、第1実施形態の固体撮像装置を示し、図29のBは、第5実施形態の固体撮像装置を示している。
 図29のAは、メタマテリアル層44の上下にポリシリコン層43が配置されている場合の積層膜37内での屈折率(実効屈折率)nの変化を示している。このメタマテリアル層44は、窒化シリコン部分42a内に複数の酸化シリコン部分41aが埋め込まれた構造(または、酸化シリコン部分41a内に複数の窒化シリコン部分42aが埋め込まれた構造)を有している。図29のAでは、メタマテリアル層44の実効屈折率が、メタマテリアル層44の上下の酸化シリコン膜41の屈折率よりも小さく設定されている。
 図29のBは、メタマテリアル層44の上下に酸化シリコン膜41が配置されている場合の積層膜37内での屈折率(実効屈折率)nの変化を示している。このメタマテリアル層44は、ポリシリコン部分内に複数の酸化シリコン部分41aが埋め込まれた構造(または、酸化シリコン部分41a内に複数のポリシリコン部分が埋め込まれた構造)を有している。これらのポリシリコン部分の形状は、上述の窒化シリコン部分42aの形状と同じである。図29のBでは、メタマテリアル層44の実効屈折率が、メタマテリアル層44の上下の酸化シリコン膜43の屈折率よりも大きく設定されている。本実施形態によれば、このような構造を採用することで例えば、積層膜37内の層や膜の数を低減することが可能となり、積層膜37を薄くすることが可能となる。
 図30は、第5実施形態の固体撮像装置の構造を示す断面図である。図30に示す構造は、図29のBに示す構造の具体的に相当する。
 図30は、図3と同様に、1つの画素1に含まれる基板21、積層膜37、およびカラーフィルタ層38を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の積層膜37は、図30に示すように、基板21上に順に形成された反射防止膜45、酸化シリコン膜41、ポリシリコン層43、酸化シリコン膜41、メタマテリアル層44、酸化シリコン膜41、ポリシリコン層43、および酸化シリコン膜41を備えている。本実施形態のメタマテリアル層44は、共振器51として機能する。本実施形態のメタマテリアル層44は、図29のBを参照して説明した構造を有し、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図30に示す厚さを有している。共振器51下の反射防止膜45、酸化シリコン膜41、およびポリシリコン層43は、本開示の第1層の例であり、共振器51上のポリシリコン層43および酸化シリコン膜41は、本開示の第2層の例である。
 図31は、第5実施形態の固体撮像装置の特性を説明するためのグラフである。
 図31は、積層膜37を透過する光のスペクトルの例を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における量子効率を表す。図31は、上述の図8と同様に、積層膜37の上方にカラーフィルタ層38を配置した場合のスペクトルを示している。このような配置により、積層膜37に入射する光のモードの数(波長の範囲)を低減することが可能となり、積層膜37を透過する光の分光スペクトルに含まれるピークの数を低減することが可能となる。
 図32は、第5実施形態の固体撮像装置の特性を説明するための別のグラフである。図33は、第5実施形態の固体撮像装置の特性を説明するための別のグラフである。
 図32は、上述の図12と同様に、図11の信号処理により得られた分光スペクトルの例を示しており、横軸は、光の波長を表し、縦軸は、この光のピークの各波長における半値幅(FWHM)を表す。図33は、上述の図13と同様に、上記信号処理により得られた分光スペクトルの各波長に関し、目指す波長(目標値)と出力波長(計測値)との対応を示している。
 上記信号処理をチコノフの理論を適用して実行した場合、図32に示すように狭い分光を得ることができた。さらに、図33に示すように、出力波長は、目指す波長にほぼ一致することが分かった。
 以上のように、本実施形態によれば、積層膜37が上述の他の実施形態に比べて薄いにもかかわらず、上述の他の実施形態と同様の狭い半値幅を維持することが可能となる。上述の他の実施形態では、反射防止膜45を除く積層膜37の厚みは1μmよりも大きいのに対し、本実施形態では、反射防止膜45を除く積層膜37の厚みは1μmよりも小さくなっている。
 (第6実施形態)
 図34は、第6実施形態の固体撮像装置の構造を示す断面図である。
 図34は、図3と同様に、1つの画素1に含まれる基板21、積層膜37、およびカラーフィルタ層38を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の積層膜37は、図34に示すように、基板21上に順に形成された酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、ポリシリコン層43、メタマテリアル層44、ポリシリコン層43、および酸化シリコン膜41を備えている。メタマテリアル層44は、共振器51として機能する。本実施形態のメタマテリアル層44は、第1実施形態のメタマテリアル層44と同様の構造を有しており、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図34に示す厚さを有している。共振器51下の酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、およびポリシリコン層43は、本開示の第1層の例であり、共振器51上のポリシリコン層43および酸化シリコン膜41は、本開示の第2層の例である。
 図34は、本実施形態の固体撮像装置の像高に起因して、主光線がカラーフィルタ層38、積層膜37、および基板21に斜めに入射する様子を示している。図34は、基板21の上面に垂直な方向(Z方向)に対する主光線の進行方向の角度を示している。本実施形態の固体撮像装置はカメラ内に設けられており、図34の角度は、このカメラの構造により一定値に定まっている。
 図4に示す構造を有する共振器51では、像高により主光線が積層膜37に斜めに入射すると、主光線が積層膜37に垂直に入射する場合に比べて、積層膜37を透過する光のピーク波長が短波長側にシフトする(短波長シフト)。本実施形態では、この短波長シフトを補正する手法について説明する。具体的には、共振器51の実効屈折率を変化させることで、積層膜37を透過する光のピーク波長を逆に長波長側にシフトさせ、短波長シフトを補正する。
 図35は、第6実施形態の固体撮像装置の特性を説明するためのグラフである。
 図35は、積層膜37を透過する光のスペクトルの2つの例(K1およびK2)を示しており、横軸は、この光の波長を表し、縦軸は、この光の各波長における透過率を表す。図35において、K1は、主光線が積層膜37に垂直に入射する場合の透過光を示し、K2は、主光線が積層膜37に35度傾いて入射する場合の透過光を示している。
 図35は、像高により主光線が積層膜37に斜めに入射すると、K1からK2への短波長シフトが生じることを示している。本実施形態では、主光線が積層膜37に35度傾いて入射する場合に、共振器51の実効屈折率を変化させることで、積層膜37からK2ではなくK3の透過光を出力する。
 図36は、第6実施形態の共振器51(メタマテリアル層44)の構造を説明するための平面図である。
 図36は、メタマテリアル層44の5つの例を示している。矢印Aは、メタマテリアル層44内の窒化シリコン部分42aの割合が、徐々に増加する様子を示しており、別言すると、メタマテリアル層44がSiOリッチからSiNリッチに変化する様子を示している。
 本実施形態では、撮像や測距などに使用する共振器51の実効屈折率を、像高に基づいて設定する。例えば、図34の角度が0度に近い場合には、SiOリッチなメタマテリアル層44を含む共振器51を使用する。一方、図34の角度が大きい場合には、SiNリッチなメタマテリアル層44を含む共振器51を使用する。これにより、透過光をK2からK3へと変化させて、短波長シフトを補正することが可能となる。
 本実施形態では例えば、図36に示すような配列で、複数の共振器51(メタマテリアル層44)を基板21の上方に配置する。図36に示す符号Cは、画素アレイ領域2の中心(撮像面の中心)を示している。本実施形態では、SiOリッチなメタマテリアル層44を含む共振器51を中心Cの近くに配置し、SiNリッチなメタマテリアル層44を含む共振器51を中心Cから遠くに配置する。
 (第7実施形態)
 図37は、第7実施形態の固体撮像装置の構造を説明するための平面図である。
 図37は、画素アレイ領域2の中心C(撮像面の中心)と、いくつかの画素1のオンチップレンズ39の中心Lとを示している。本実施形態では、オンチップレンズ39を「レンズ39」と略記することにする。
 本実施形態の各レンズ39の平面形状は、画素アレイ領域2の中心Cに位置するレンズ39を除き、各レンズ39の中心Lに対して非対称となっている。図37は、画素アレイ領域2の中心Cに位置し、対称な平面形状を有する1つのレンズ39と、画素アレイ領域2の中心Cから外れた場所に位置し、非対称な平面形状を有する8つのレンズ39とを例示している。本実施形態では、各レンズ39の中心Lの位置が、画素アレイ領域2の中心Cの方向に偏っている。
 図38は、第7実施形態の固体撮像装置の構造を示す断面図である。
 図38は、1つの画素1に含まれる基板21、積層膜37、カラーフィルタ層38、およびレンズ39を示している。基板21内の光電変換部22等や、基板21上の平坦化膜36等の図示は省略されている。このレンズ39は、図38に示すように、非対称な平面形状を有している。本実施形態の各レンズ39は、図37および図38に示すように、複数の環状の凸部と複数の環状の凹部とを交互に含む形状を有している。
 本実施形態の積層膜37は、図38に示すように、基板21上に順に形成された反射防止膜45、酸化シリコン膜41、アモルファスシリコン層46、メタマテリアル層44、アモルファスシリコン層46、および酸化シリコン膜41を備えている。メタマテリアル層44は、共振器51として機能する。本実施形態のメタマテリアル層44は、第1実施形態のメタマテリアル層44と同様の構造を有しており、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。共振器51下の反射防止膜45、酸化シリコン膜41、およびアモルファスシリコン層46は、本開示の第1層の例であり、共振器51上のアモルファスシリコン層46および酸化シリコン膜41は、本開示の第2層の例である。
 本実施形態では、第6実施形態と異なる方式で、斜めに入射する主光線の進行方向を補正する。具体的には、斜め入射した主光線の進行方向を、非対称な平面形状を有するレンズ39により垂直方向に曲げて、この光を集光する。図38は、レンズ39に斜めに入射して集光される光の複数の波面(等位相面)Sを示している。
 本実施形態の各レンズ39は、上述のように、複数の環状の凸部と複数の環状の凹部とを交互に含むように微細加工されている。これにより、各レンズ39の各部の実効屈折率は、画素アレイ領域2の中心Cに近付くほど高くなっている。よって、本実施形態によれば、主光線の進行方向を上述のように垂直方向に曲げることができ、短波長シフトを抑制することができる。
 図39は、第7実施形態の固体撮像装置の変形例の構造を説明するための平面図および断面図である。
 図39のAは、図37および図38のレンズ39とは異なるタイプのレンズ39を示している。図39のAは、一例として、画素アレイ領域2の中心C付近に位置する9つの画素1のレンズ39の平面形状を示している。図39のAに示す矢印は、各画素1への光の入射方向を示している。図39のBは、図39のAに示す固体撮像装置の縦断面を示している。
 本変形例の各レンズ39は、低屈折率部分39aおよび高屈折率部分39bを含んでおり、低屈折率部分39aが高屈折率部分39bを包囲している。本変形例の各レンズ39の平面形状は、画素アレイ領域2の中心Cに位置するレンズ39を除き、各レンズ39の中心に対して非対称となっている。具体的には、高屈折率部分39bが、低屈折率部分39aの中心に配置されておらず、低屈折率部分39aの中心に対して画素アレイ領域2の中心Cの方向に偏っている。
 本変形例によれば、図37および図38のレンズ39のような微細加工をしなくても、図37および図38のレンズ39の作用と同様の作用を実現することが可能となる。これにより、短波長シフトを抑制することが可能となる。なお、本変形例のレンズ39は、屈折率の異なる3種類以上の材料で形成されていてもよい。
 (第8実施形態)
 図40および図41は、第8実施形態の固体撮像装置の製造方法を示す断面図であり、図2に示す固体撮像装置を製造する工程を示している。
 まず、図40のAに示すように、基板21内や基板21上に、p型半導体領域23、n型半導体領域24、p型半導体領域25、画素分離層26、pウェル層27、浮遊拡散部28、ゲート絶縁膜17、ゲート電極16等を形成する。このようにして、光電変換部22や、転送トランジスタTr1などの画素トランジスタが形成される。次に、図40のAに示すように、基板21の表側に、層間絶縁膜15と配線層12~14とを交互に形成する。なお、図40のAの工程は、基板21の表側を上向きにし、基板21の裏側を下向きにした状態で実行される。
 次に、図40のBに示すように、基板21の表側に層間絶縁膜15を介して支持基板11を接着させた後、基板21の上下を反転させる。図40のBは、基板21の表側を下向きにし、基板21の裏側を上向きにした状態を示している。次に、図40のBに示すように、基板21を裏面から薄膜化した後、基板21内に所定の深さの溝31をエッチングにより形成する。溝31は、基板21の裏面から画素分離層26内に形成される。
 次に、図41のAに示すように、基板21の裏面に固定電荷膜33と絶縁膜34とを順に形成する。その結果、固定電荷膜33が、溝31の側面および底面や、光電変換部22上に形成される。さらには、絶縁膜34が、溝31内に固定電荷膜33を介して埋め込まれると共に、光電変換部22上に固定電荷膜33を介して形成される。このようにして、溝31内に素子分離部32が形成される。
 次に、図41のAに示すように、基板21の裏面に形成された絶縁膜34上の所定の領域に遮光膜35を形成する。遮光膜35は例えば、絶縁膜34上に遮光膜35の材料層を形成し、この材料層を所定の形状にパターニングすることで形成される。本実施形態の遮光膜35は、素子分離部32上に形成される。次に、図41のAに示すように、絶縁膜34上に遮光膜35を介して平坦化膜36を形成する。
 次に、図41のBに示すように、各光電変換部22の上方に、平坦化膜36を介して、積層膜37、カラーフィルタ層38、およびオンチップレンズ39を順に形成する。このようにして、図2に示す固体撮像装置が製造される。
 図42および図43は、第8実施形態の固体撮像装置の製造方法の詳細を示す断面図であり、図41のBに示す工程の詳細を示している。
 まず、図42のAに示すように、基板21の上方に、不図示の固定電荷膜33、絶縁膜34、遮光膜35、平坦化膜36などを介して、CVDにより反射防止膜45、酸化シリコン膜41、アモルファスシリコン層46、酸化シリコン膜41、および窒化シリコン部分42aを順に形成する。この時点の窒化シリコン部分42aは、平坦な窒化シリコン膜である。
 次に、図42のBに示すように、レジスト膜を用いたリソグラフィおよびエッチングにより、窒化シリコン部分42aを加工する。その結果、窒化シリコン膜42aに、複数の酸化シリコン膜41aを埋め込むための複数の開口部が形成される。窒化シリコン部分42aは例えば、RIE(Reactive Ion Etching)により加工される。
 次に、図43のAに示すように、窒化シリコン部分42aの複数の開口部内に、複数の酸化シリコン部分41aを埋め込む。このようにして、酸化シリコン膜41上に、窒化シリコン部分42aと複数の酸化シリコン部分41aとを含むメタマテリアル層44が形成される。複数の酸化シリコン部分41aは、基板21の全面にCVDにより酸化シリコン膜を形成し、酸化シリコン膜の上面をCMPにより平坦化することで形成される。酸化シリコン膜の上面を平坦化することで、開口部外の酸化シリコン膜が除去され、開口部内の酸化シリコン膜が酸化シリコン部分41aとなる。
 次に、図43のAに示すように、メタマテリアル層44上に、CVDにより酸化シリコン膜41を形成する。このようにして、酸化シリコン膜41と、酸化シリコン膜上のメタマテリアル層44と、メタマテリアル層44上の酸化シリコン膜41とを含む共振器51が形成される。なお、メタマテリアル層44上の酸化シリコン膜41は、酸化シリコン部分41aと同時に形成してもよい。この場合、上述のCMPは、開口部外の酸化シリコン膜が全部除去される時点までではなく、開口部外の酸化シリコン膜が一部残存する時点まで行う。これにより、開口部外に残存する酸化シリコン膜が、メタマテリアル層44上の酸化シリコン膜41となる。
 次に、図43のBに示すように、共振器51上に、CVDによりアモルファスシリコン層46および酸化シリコン膜41を順に形成する。このようにして、基板21の上方に積層膜37が形成される。次に、図43のBに示すように、積層膜37上にカラーフィルタ層38を形成する。カラーフィルタ層38は例えば、積層膜37上にカラーフィルタ層38の材料(例えば感光性樹脂材料)を塗布し、当該材料をカラーフィルタ層38の形状に加工することで形成される。
 その後、カラーフィルタ層38上にオンチップレンズ39が形成される。このようにして、本実施形態の固体撮像装置が製造される。
 なお、図40から図43に示す方法は、第1から第7実施形態の固体撮像装置のいずれにも適用可能である。ただし、積層膜37の構造が、実施形態に応じて変化する。例えば第1実施形態の積層膜37を形成する際には、基板21上に酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、ポリシリコン層43、メタマテリアル層44、ポリシリコン層43、および酸化シリコン膜41を順に形成する(図3を参照)。また、図40から図43に示す方法は、後述する第9実施形態の固体撮像装置にも適用可能である。
 以上のように、本実施形態では、図40から図43に示す方法により固体撮像装置を製造する。これにより例えば、メタマテリアル層44やその他の膜および層を半導体製造プロセスの一般的な手法により簡単に形成することが可能となる。
 なお、酸化シリコン部分41aと複数の窒化シリコン部分42aとを含むメタマテリアル層44を形成する際には、酸化シリコン部分41aに複数の開口部を形成し、酸化シリコン部分41aのこれらの開口部内に複数の窒化シリコン部分42aを埋め込む。
 (第9実施形態)
 図44は、第9実施形態の固体撮像装置の構造を示す断面図である。
 図44は、1つの画素1に含まれる化合物半導体基板29と、積層膜37と、カラーフィルタ層38とを示している。本実施形態では、基板21が化合物半導体基板29に置き換えられている。本実施形態の化合物半導体基板基板29内の構成要素の構造は、基板21内の構成要素の構造と同様である。すなわち、本実施形態の化合物半導体基板29は、基板21と同様に光電変換部22等を含んでいる。ただし、化合物半導体基板29内の光電変換部22等や、基板29上の平坦化膜36およびオンチップレンズ39等の図示は省略されている。
 本実施形態の化合物半導体基板29は、InGaAs(インジウムガリウムヒ素)層29aと、InGaAs層29a上に形成されたInP(リン化インジウム)層29bとを含んでいる。本実施形態のInP層29bは、InP基板がエッチングで薄化されたものである。本実施形態では、InP基板の表面に結晶成長によりInGaAs層29aが形成され、その後にInP基板の薄化によりInP層29bが形成される。なお、本実施形態の光電変換部22は、基板21の代わりにInGaAs層29a内に形成されている。
 なお、InGaAs層29aは、他の半導体層に置き換えてもよい。このような半導体層の例は、SiGe(シリコンゲルマニウム)層や、CuInGaSe(銅インジウムガリウムセレン)層や、量子ドット膜である。当該半導体層は、シリコン層の検出できる波長より長い波長の光を検出できる材料で形成することが望ましい。また、化合物半導体基板29は、その全体が化合物半導体で形成されていてもよいし、その一部のみが化合物半導体で形成されていてもよい。
 本実施形態の積層膜37は、図44に示すように、InP層29b上に順に形成されたITO(酸化インジウムスズ)層47、酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、アモルファスシリコン層46、酸化シリコン膜41、アモルファスシリコン層46、酸化シリコン膜41、メタマテリアル層44、酸化シリコン膜41、アモルファスシリコン層46、酸化シリコン膜41、アモルファスシリコン層46、および酸化シリコン膜41を備えている。
 本実施形態のメタマテリアル層44は、共振器51として機能する。本実施形態のメタマテリアル層44は、後述するように、第1実施形態のメタマテリアル層44と似た構造を有しており、本実施形態の積層膜37は、共振器51を含むことで、屈折率変調型のファブリペロ共振器となっている。積層膜37内の各層や各膜は、例えば図44に示す厚さを有している。共振器51下のITO層47、酸化シリコン膜41、窒化シリコン膜42、酸化シリコン膜41、アモルファスシリコン層46、酸化シリコン膜41、およびアモルファスシリコン層46は、本開示の第1層の例である。共振器51上のアモルファスシリコン層46、酸化シリコン膜41、アモルファスシリコン層46、および酸化シリコン膜41は、本開示の第2層の例である。
 図45は、第9実施形態の共振器51(メタマテリアル層44)の構造を示す斜視図である。
 本実施形態のメタマテリアル層44は、図4に示すように、アモルファスシリコン層46で形成されたアモルファスシリコン部分46aと、酸化シリコン膜41で形成されており、アモルファスシリコン部分46a内に設けられた複数の酸化シリコン部分41aとを含んでいる。本実施形態のアモルファスシリコン部分46aおよび酸化シリコン部分41aの形状はそれぞれ、第1実施形態の窒化シリコン部分42aおよび酸化シリコン部分41aの形状と同様である。アモルファスシリコン部分46aは、第1材料で形成された第1部分の例であり、酸化シリコン部分41aは、第2材料で形成された複数の第2部分の例である。
 酸化シリコン部分41aとアモルファスシリコン部分46aは、異なる屈折率を有している。具体的には、アモルファスシリコン部分46aの屈折率が、酸化シリコン部分41aの屈折率より高い。そのため、本実施形態の共振器51の実効屈折率は、メタマテリアル層44内の酸化シリコン部分41aとアモルファスシリコン部分46aとの体積比に依存する。よって、本実施形態では、酸化シリコン部分41aとアモルファスシリコン部分46aとの体積比を画素1ごとに変えることで、共振器51の実効屈折率を画素1ごとに変えることができる。これにより、共振器51の共振器長を変化させずに実効屈折率を変化させることで、積層膜37から出力される(すなわち、積層膜37を透過する)光のピーク波長を変化させることが可能となる。
 なお、図5に示す構造は、本実施形態の共振器51(メタマテリアル層44)にも適用可能である。すなわち、本実施形態のメタマテリアル層44は、酸化シリコン部分41a内に複数のアモルファスシリコン部分46aが埋め込まれた構造を有していてもよい。
 図46は、第9実施形態の固体撮像装置の特性を説明するためのグラフである。
 図46のAは、第9実施形態の比較例の固体撮像装置の特性を示しており、より詳細には、積層膜37上にカラーフィルタ層38を設けない場合の量子効率を示している。図46のBは、第9実施形態の固体撮像装置の特性を示しており、具体的には、積層膜37上にカラーフィルタ層38を設けた場合の量子効率を示している。図46のAでは、800nm付近に高次モードピークが見られるが、図46のBでは、この高次モードピークが抑制されている。このように、本実施形態によれば、上述のような信号処理を行わずに単一モードを実現することが可能となる。
 本実施形態によれば、InGaAs基板29aとInP層29bとを含む化合物半導体基板29上に共振器51を形成することで、シリコン基板を用いた場合より優れた特性の固体撮像装置を実現することが可能となる。例えば、シリコン基板を用いた場合に比べて長波長の領域のマルチ分光を実現することが可能となる。また、本実施形態のメタマテリアル層44の厚みは、例えば20nm~100nmであり、本実施形態によれば、共振器長の小さい共振器51を実現することが可能となる。
 (第10実施形態)
 図47は、第10実施形態の固体撮像装置の動作を説明するためのグラフである。
 本実施形態の固体撮像装置は、第1実施形態の固体撮像装置と同様に、図1に示す構成や図2に示す構造を有している。加えて、本実施形態の固体撮像装置は、図47を参照して説明するような態様で使用される。
 図47は、本実施形態の固体撮像装置を、農業や植物の育成等のNDVI(Normalized Difference Vegetation Index)に応用した例を説明するためのグラフである。図47は、植物の反射率の分光特性を示す。
 図47から、植物の反射率は、波長600~800nm(0.6~0.8μm)の範囲において、植生状態によって大きく変化することが分かる。具体的には、健康な植物と、弱った植物と、枯れた植物で、植物の反射率が異なることが分かる。この反射率は、主に植物の葉に由来するものである。
 図47の結果によれば、600~800nmの範囲内の2つ以上の波長において、植物からの反射光を取得できれば、植物の植生状態を感知できることになる。あるいは、600~800nmよりも低波長域の1つ以上の波長と、600~800nmよりも高波長域の1つ以上の波長において、植物からの反射光を取得できれば、植物の植生状態を感知できることになる。
 例えば、600~700nmの範囲内の波長の反射光を第1検出器で検出し、700~800nmの範囲内の波長の反射光を第2検出器で検出し、これらの検出器の信号値の関係を分析すれば、植生状態を感知することができる。あるいは、400~600nmの範囲内の波長の反射光を第1検出器で検出し、800~1000nmの範囲内の波長の反射光を第2検出器で検出し、これらの検出器の信号値の関係を分析すれば、植生状態を感知することができる。
 本実施形態では、固体撮像装置の一部の画素1を第1検出器として使用し、固体撮像装置の別の一部の画素1を第2検出器として使用することで、固体撮像装置により植生状態を感知することが可能となる。あるいは、2台の固体撮像装置を第1および第2検出器として使用してもよい。
 なお、本実施形態では、反射光の検出精度を上げるために、3つ以上の波長において反射光を取得するようにしてもよい。また、本実施形態では、固体撮像装置をドローン(小型無人ヘリコプタ)に載せて、上空から農作物の育成状態を観測して、農作物の植生状態の感知結果を農作物の育成に活用してもよい。
 (第11実施形態)
 図48は、第11実施形態の固体撮像装置の動作を説明するためのグラフである。
 本実施形態の固体撮像装置は、第1実施形態の固体撮像装置と同様に、図1に示す構成や図2に示す構造を有している。加えて、本実施形態の固体撮像装置は、図48を参照して説明するような態様で使用される。
 図48は、本実施形態の固体撮像装置を、生体認証に応用した例を説明するためのグラフである。図48は、人肌の反射率の分光特性を示す。
 図48から、人肌の反射率は、モンゴロイド、コーカソイド、ネグロイドのいずれにおいても、波長450~450nmの範囲において大きく変化することが分かる。このような変化を利用すれば、被写体が人肌かどうかの認証が可能となる。例えば、波長450nm、550nm、および650nmの反射光を検出することで、被写体が人肌かどうかを認証することができる。被写体が人肌でない別の材料の場合、その反射率の分光特性が人肌とは異なるため、人肌とその他の材料とを区別することができる。
 本実施形態では、固体撮像装置の一部の画素1を波長450nmの反射光の検出用に使用し、固体撮像装置の別の一部の画素1を波長550nmの反射光の検出用に使用し、固体撮像装置の別の一部の画素1を波長650nmの反射光の検出用に使用することで、固体撮像装置により人肌を感知することが可能となる。あるいは、2台以上の固体撮像装置を反射光検出に使用してもよい。
 本実施形態によれば、人肌を検出することで、顔、指紋、虹彩などを用いた生体認証における偽造や不正行為を防止することが可能となる。例えば、ある者が、ゴムに刻印した指紋を指紋認証用に使用した場合、ゴムの反射率の分光特性は、人肌の反射率の分光特性と異なることから、その者の不正行為を発見することが可能となる。これにより、より精度の高い生体認証が可能となる。
 (応用例)
 図49は、電子機器の構成例を示すブロック図である。図49に示す電気機器は、カメラ100である。
 カメラ100は、レンズ群などを含む光学部101と、第1から第11実施形態のいずれかの固体撮像装置である撮像装置102と、カメラ信号処理回路であるDSP(Digital Signal Processor)回路103と、フレームメモリ104と、表示部105と、記録部106と、操作部107と、電源部108とを備えている。また、DSP回路103、フレームメモリ104、表示部105、記録部106、操作部107、および電源部108は、バスライン109を介して相互に接続されている。
 光学部101は、被写体からの入射光(像光)を取り込んで、撮像装置102の撮像面上に結像する。撮像装置102は、光学部101により撮像面上に結像された入射光の光量を画素単位で電気信号に変換して、画素信号として出力する。
 DSP回路103は、撮像装置102により出力された画素信号について信号処理を行う。フレームメモリ104は、撮像装置102で撮像された動画または静止画の1画面を記憶しておくためのメモリである。
 表示部105は、例えば液晶パネルや有機ELパネルなどのパネル型表示装置を含んでおり、撮像装置102で撮像された動画または静止画を表示する。記録部106は、撮像装置102で撮像された動画または静止画を、ハードディスクや半導体メモリなどの記録媒体に記録する。
 操作部107は、ユーザによる操作の下に、カメラ100が持つ様々な機能について操作指令を発する。電源部108は、DSP回路103、フレームメモリ104、表示部105、記録部106、および操作部107の動作電源となる各種の電源を、これらの供給対象に対して適宜供給する。
 撮像装置102として、第1から第11実施形態のいずれかの固体撮像装置を使用することで、良好な画像の取得が期待できる。
 当該固体撮像装置は、その他の様々な製品に応用することができる。例えば、当該固体撮像装置は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボットなどの種々の移動体に搭載されてもよい。
 図50は、移動体制御システムの構成例を示すブロック図である。図50に示す移動体制御システムは、車両制御システム200である。
 車両制御システム200は、通信ネットワーク201を介して接続された複数の電子制御ユニットを備える。図50に示した例では、車両制御システム200は、駆動系制御ユニット210と、ボディ系制御ユニット220と、車外情報検出ユニット230と、車内情報検出ユニット240と、統合制御ユニット250とを備えている。図50はさらに、統合制御ユニット250の構成部として、マイクロコンピュータ251と、音声画像出力部252と、車載ネットワークI/F(Interface)253とを示している。
 駆動系制御ユニット210は、各種プログラムに従って、車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット210は、内燃機関や駆動用モータなどの車両の駆動力を発生させるための駆動力発生装置や、駆動力を車輪に伝達するための駆動力伝達機構や、車両の舵角を調節するステアリング機構や、車両の制動力を発生させる制動装置などの制御装置として機能する。
 ボディ系制御ユニット220は、各種プログラムに従って、車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット220は、スマートキーシステム、キーレスエントリシステム、パワーウィンドウ装置、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー、フォグランプ)などの制御装置として機能する。この場合、ボディ系制御ユニット220には、鍵を代替する携帯機から発信される電波または各種スイッチの信号が入力され得る。ボディ系制御ユニット220は、このような電波または信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプなどを制御する。
 車外情報検出ユニット230は、車両制御システム200を搭載した車両の外部の情報を検出する。車外情報検出ユニット230には、例えば撮像部231が接続される。車外情報検出ユニット230は、撮像部231に車外の画像を撮像させると共に、撮像された画像を撮像部231から受信する。車外情報検出ユニット230は、受信した画像に基づいて、人、車、障害物、標識、路面上の文字などの物体検出処理または距離検出処理を行ってもよい。
 撮像部231は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部231は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。撮像部231が受光する光は、可視光であってもよいし、赤外線などの非可視光であってもよい。撮像部231は、第1から第11実施形態のいずれかの固体撮像装置を含んでいる。
 車内情報検出ユニット240は、車両制御システム200を搭載した車両の内部の情報を検出する。車内情報検出ユニット240には例えば、運転者の状態を検出する運転者状態検出部241が接続される。例えば、運転者状態検出部241は、運転者を撮像するカメラを含み、車内情報検出ユニット240は、運転者状態検出部241から入力される検出情報に基づいて、運転者の疲労度合いまたは集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。このカメラは、第1から第11実施形態のいずれかの固体撮像装置を含んでいてもよく、例えば、図49に示すカメラ100でもよい。
 マイクロコンピュータ251は、車外情報検出ユニット230または車内情報検出ユニット240で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構、または制動装置の制御目標値を演算し、駆動系制御ユニット210に対して制御指令を出力することができる。例えば、マイクロコンピュータ251は、車両の衝突回避、衝撃緩和、車間距離に基づく追従走行、車速維持走行、衝突警告、レーン逸脱警告などのADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ251は、車外情報検出ユニット230または車内情報検出ユニット240で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構、または制動装置を制御することにより、運転者の操作によらずに自律的に走行する自動運転などを目的とした協調制御を行うことができる。
 また、マイクロコンピュータ251は、車外情報検出ユニット230で取得される車外の情報に基づいて、ボディ系制御ユニット220に対して制御指令を出力することができる。例えば、マイクロコンピュータ251は、車外情報検出ユニット230で検知した先行車または対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替えるなどの防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部252は、車両の搭乗者または車外に対して視覚的または聴覚的に情報を通知することが可能な出力装置に、音声および画像のうちの少なくとも一方の出力信号を送信する。図50の例では、このような出力装置として、オーディオスピーカ261、表示部262、およびインストルメントパネル263が示されている。表示部262は例えば、オンボードディスプレイまたはヘッドアップディスプレイを含んでいてもよい。
 図51は、図50の撮像部231の設定位置の具体例を示す平面図である。
 図51に示す車両300は、撮像部231として、撮像部301、302、303、304、305を備えている。撮像部301、302、303、304、305は例えば、車両300のフロントノーズ、サイドミラー、リアバンパ、バックドア、車室内のフロントガラスの上部などの位置に設けられる。
 フロントノーズに備えられる撮像部301は、主として車両300の前方の画像を取得する。左のサイドミラーに備えられる撮像部302と、右のサイドミラーに備えられる撮像部303は、主として車両300の側方の画像を取得する。リアバンパまたはバックドアに備えられる撮像部304は、主として車両300の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部305は、主として車両300の前方の画像を取得する。撮像部305は例えば、先行車両、歩行者、障害物、信号機、交通標識、車線などの検出に用いられる。
 図51は、撮像部301、302、303、304(以下「撮像部301~304」と表記する)の撮像範囲の例を示している。撮像範囲311は、フロントノーズに設けられた撮像部301の撮像範囲を示す。撮像範囲312は、左のサイドミラーに設けられた撮像部302の撮像範囲を示す。撮像範囲313は、右のサイドミラーに設けられた撮像部303の撮像範囲を示す。撮像範囲314は、リアバンパまたはバックドアに設けられた撮像部304の撮像範囲を示す。例えば、撮像部301~304で撮像された画像データが重ね合わせられることにより、車両300を上方から見た俯瞰画像が得られる。以下、撮像範囲311、312、313、314を「撮像範囲311~314」と表記する。
 撮像部301~304の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部301~304の少なくとも1つは、複数の撮像装置を含むステレオカメラであってもよいし、位相差検出用の画素を有する撮像装置であってもよい。
 例えば、マイクロコンピュータ251(図50)は、撮像部301~304から得られた距離情報を基に、撮像範囲311~314内における各立体物までの距離と、この距離の時間的変化(車両300に対する相対速度)を算出する。マイクロコンピュータ251は、これらの算出結果に基づいて、車両300の進行路上にある最も近い立体物で、車両300とほぼ同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を、先行車として抽出することができる。さらに、マイクロコンピュータ251は、先行車の手前にあらかじめ確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように、この例によれば、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ251は、撮像部301~304から得られた距離情報を基に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ251は、車両300の周辺の障害物を、車両300のドライバが視認可能な障害物と、視認困難な障害物とに識別する。そして、マイクロコンピュータ251は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ261や表示部262を介してドライバに警報を出力することや、駆動系制御ユニット210を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部301~304の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ251は、撮像部301~304の撮像画像中に歩行者が存在するか否かを判定することで、歩行者を認識することができる。かかる歩行者の認識は例えば、赤外線カメラとしての撮像部301~304の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順により行われる。マイクロコンピュータ251が、撮像部301~304の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部252は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部262を制御する。また、音声画像出力部252は、歩行者を示すアイコン等を所望の位置に表示するように表示部262を制御してもよい。
 以上、本開示の実施形態について説明したが、これらの実施形態は、本開示の要旨を逸脱しない範囲内で、種々の変更を加えて実施してもよい。例えば、2つ以上の実施形態を組み合わせて実施してもよい。
 なお、本開示は、以下のような構成を取ることもできる。
 (1)
 光電変換部と、
 前記光電変換部上に設けられたファブリペロ共振器と、
 前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間に設けられたフィルタ層と、
 を備えるセンサ装置。
 (2)
 光電変換部と、
 前記光電変換部上に設けられ、メタマテリアル層を含む共振器と、
 前記共振器上または前記共振器と前記光電変換部との間に設けられたフィルタ層と、
 を備え、
 前記メタマテリアル層は、第1材料で形成された第1部分と、前記第1材料とは異なる第2材料で形成され、前記第1部分内に設けられた複数の第2部分とを含む、
 センサ装置。
 (3)
 前記第1および第2材料の一方は、シリコンを含む絶縁材料であり、
 前記第1および第2材料の他方は、シリコンを含む絶縁材料または半導体材料である、
 (2)に記載のセンサ装置。
 (4)
 前記メタマテリアル層の上面または下面に接する半導体層をさらに備える、(2)に記載のセンサ装置。
 (5)
 前記メタマテリアル層上と、前記メタマテリアル層と前記光電変換部を含む基板との間には、前記メタマテリアル層の上面または下面に接する前記半導体層以外の半導体層は設けられていない、(4)に記載のセンサ装置。
 (6)
 前記半導体層は、シリコン層である、(4)に記載のセンサ装置。
 (7)
 前記共振器は、前記メタマテリアル層と、前記メタマテリアル層の上面または下面に接する絶縁膜とを含む、(2)に記載のセンサ装置。
 (8)
 前記絶縁膜は、前記第1または第2材料で形成されている、(7)に記載のセンサ装置。
 (9)
 前記共振器は、前記光電変換部上に設けられた積層膜内に設けられており、
 前記フィルタ層は、前記積層膜上または前記積層膜と前記光電変換部との間に設けられており、
 前記積層膜は、前記光電変換部上に設けられた第1層と、前記第1層上に設けられた前記共振器と、前記共振器上に設けられた第2層とを含む、(2)に記載のセンサ装置。
 (10)
 前記第1および第2層の少なくともいずれかは、1つ以上の絶縁膜および/または1つ以上の半導体層を含む、(9)に記載のセンサ装置。
 (11)
 前記第2材料の屈折率は、前記第1材料の屈折率と異なる、(2)に記載のセンサ装置。
 (12)
 前記共振器を透過する光のピーク波長は、前記共振器の実効屈折率に応じて変化する、(2)に記載のセンサ装置。
 (13)
 前記共振器の実効屈折率は、前記センサ装置の像高に基づいて設定される、(2)に記載のセンサ装置。
 (14)
 前記共振器上に設けられたレンズをさらに備え、
 前記レンズの平面形状は、前記レンズの中心に対して非対称である、(2)に記載のセンサ装置。
 (15)
 前記共振器は、前記光電変換部を含む化合物半導体基板上に設けられている、(2)に記載のセンサ装置。
 (16)
 前記化合物半導体基板は、InGaAs(インジウムガリウムヒ素)層と、前記InGaAs層上に設けられたInP(リン化インジウム)層とを含み、
 前記共振器は、前記InP層上に設けられている、
 (15)に記載のセンサ装置。
 (17)
 前記共振器の共振器長は、λ/n以上である(λは、前記共振器から出力される光の真空中におけるピーク波長を表し、nは、前記共振器の実効屈折率を表す)、(2)に記載のセンサ装置。
 (18)
 前記共振器の共振器長は、700nm/n以上である(nは、前記共振器の実効屈折率を表す)、(2)に記載のセンサ装置。
 (19)
 前記第1材料で形成された前記第1部分と、前記第2材料で形成され、前記第1部分内に設けられた前記複数の第2部分とを含む前記メタマテリアル層、を含む前記共振器と、
 前記第2材料で形成された第2部分と、前記第1材料で形成され、前記第2部分内に設けられた複数の第1部分とを含む第2メタマテリアル層、を含む第2共振器と、
 を備える(2)に記載のセンサ装置。
 (20)
 前記センサ装置は、多モードの光を前記フィルタ層および前記共振器を透過させることで、前記光のモードの数を低減させる、(2)に記載のセンサ装置。
 (21)
 前記センサ装置は、多モード分光を信号処理により単一モード分光に変換する、(2)に記載のセンサ装置。
 (22)
 前記センサ装置は、多モードの光を前記フィルタ層および前記共振器を透過させることで、近赤外光の波長域内にピーク波長を有する単一モードの光を生成する、(2)に記載のセンサ装置。
 (23)
 前記センサ装置は、複数の画素を有する画素アレイ領域を備える固体撮像装置である、(2)に記載のセンサ装置。
 (24)
 前記画素アレイ領域は、n×n個(nは2以上の整数)の画素を単位とする周期配列を有する、(23)に記載のセンサ装置。
 (25)
 光電変換部を形成し、
 前記光電変換部上にファブリペロ共振器を形成し、
 前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間にフィルタ層を形成する、
 ことを含むセンサ装置の製造方法。
 (26)
 光電変換部を形成し、
 前記光電変換部上に、メタマテリアル層を含む共振器を形成し、
 前記共振器上または前記共振器と前記光電変換部との間にフィルタ層を形成する、
 ことを含み、
 前記メタマテリアル層は、第1材料で形成された第1部分と、前記第1材料とは異なる第2材料で形成され、前記第1部分内に設けられた複数の第2部分とを含む、
 センサ装置の製造方法。
 (27)
 前記メタマテリアル層は、
 前記第1材料で形成された第1部分を形成し、
 前記第1部分内に、前記第2材料で形成された前記複数の第2部分を埋め込む、
 ことで形成される、(26)に記載のセンサ装置の製造方法。
 1:画素、2:画素アレイ領域、3:制御回路、
 4:垂直駆動回路、5:カラム信号処理回路、6:水平駆動回路、
 7:出力回路、8:垂直信号線、9:水平信号線、
 11:支持基板、12、13、14:配線層、
 15:層間絶縁膜、16:ゲート電極、17:ゲート絶縁膜、
 21:基板、22:光電変換部、23:p型半導体領域、24:n型半導体領域、
 25:p型半導体領域、26:画素分離層、27:pウェル層、28:浮遊拡散部、
 29:化合物半導体基板、29a:InGaAs層、29b:InP層、
 31:溝、32:素子分離部、33:固定電荷膜、34:絶縁膜、35:遮光膜、
 36:平坦化膜、37:積層膜、38:カラーフィルタ層、
 39:オンチップレンズ、39a:低屈折率部分、39b:高屈折率部分、
 41:酸化シリコン膜、41a:酸化シリコン部分、
 42:窒化シリコン膜、42a:窒化シリコン部分、
 43:ポリシリコン層、44:メタマテリアル層、45:反射防止膜、
 46:アモルファスシリコン層、46a:アモルファスシリコン部分、
 47:ITO層、51:共振器

Claims (27)

  1.  光電変換部と、
     前記光電変換部上に設けられたファブリペロ共振器と、
     前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間に設けられたフィルタ層と、
     を備えるセンサ装置。
  2.  光電変換部と、
     前記光電変換部上に設けられ、メタマテリアル層を含む共振器と、
     前記共振器上または前記共振器と前記光電変換部との間に設けられたフィルタ層と、
     を備え、
     前記メタマテリアル層は、第1材料で形成された第1部分と、前記第1材料とは異なる第2材料で形成され、前記第1部分内に設けられた複数の第2部分とを含む、
     センサ装置。
  3.  前記第1および第2材料の一方は、シリコンを含む絶縁材料であり、
     前記第1および第2材料の他方は、シリコンを含む絶縁材料または半導体材料である、
     請求項2に記載のセンサ装置。
  4.  前記メタマテリアル層の上面または下面に接する半導体層をさらに備える、請求項2に記載のセンサ装置。
  5.  前記メタマテリアル層上と、前記メタマテリアル層と前記光電変換部を含む基板との間には、前記メタマテリアル層の上面または下面に接する前記半導体層以外の半導体層は設けられていない、請求項4に記載のセンサ装置。
  6.  前記半導体層は、シリコン層である、請求項4に記載のセンサ装置。
  7.  前記共振器は、前記メタマテリアル層と、前記メタマテリアル層の上面または下面に接する絶縁膜とを含む、請求項2に記載のセンサ装置。
  8.  前記絶縁膜は、前記第1または第2材料で形成されている、請求項7に記載のセンサ装置。
  9.  前記共振器は、前記光電変換部上に設けられた積層膜内に設けられており、
     前記フィルタ層は、前記積層膜上または前記積層膜と前記光電変換部との間に設けられており、
     前記積層膜は、前記光電変換部上に設けられた第1層と、前記第1層上に設けられた前記共振器と、前記共振器上に設けられた第2層とを含む、請求項2に記載のセンサ装置。
  10.  前記第1および第2層の少なくともいずれかは、1つ以上の絶縁膜および/または1つ以上の半導体層を含む、請求項9に記載のセンサ装置。
  11.  前記第2材料の屈折率は、前記第1材料の屈折率と異なる、請求項2に記載のセンサ装置。
  12.  前記共振器を透過する光のピーク波長は、前記共振器の実効屈折率に応じて変化する、請求項2に記載のセンサ装置。
  13.  前記共振器の実効屈折率は、前記センサ装置の像高に基づいて設定される、請求項2に記載のセンサ装置。
  14.  前記共振器上に設けられたレンズをさらに備え、
     前記レンズの平面形状は、前記レンズの中心に対して非対称である、請求項2に記載のセンサ装置。
  15.  前記共振器は、前記光電変換部を含む化合物半導体基板上に設けられている、請求項2に記載のセンサ装置。
  16.  前記化合物半導体基板は、InGaAs(インジウムガリウムヒ素)層と、前記InGaAs層上に設けられたInP(リン化インジウム)層とを含み、
     前記共振器は、前記InP層上に設けられている、
     請求項15に記載のセンサ装置。
  17.  前記共振器の共振器長は、λ/n以上である(λは、前記共振器から出力される光の真空中におけるピーク波長を表し、nは、前記共振器の実効屈折率を表す)、請求項2に記載のセンサ装置。
  18.  前記共振器の共振器長は、700nm/n以上である(nは、前記共振器の実効屈折率を表す)、請求項2に記載のセンサ装置。
  19.  前記第1材料で形成された前記第1部分と、前記第2材料で形成され、前記第1部分内に設けられた前記複数の第2部分とを含む前記メタマテリアル層、を含む前記共振器と、
     前記第2材料で形成された第2部分と、前記第1材料で形成され、前記第2部分内に設けられた複数の第1部分とを含む第2メタマテリアル層、を含む第2共振器と、
     を備える請求項2に記載のセンサ装置。
  20.  前記センサ装置は、多モードの光を前記フィルタ層および前記共振器を透過させることで、前記光のモードの数を低減させる、請求項2に記載のセンサ装置。
  21.  前記センサ装置は、多モード分光を信号処理により単一モード分光に変換する、請求項2に記載のセンサ装置。
  22.  前記センサ装置は、多モードの光を前記フィルタ層および前記共振器を透過させることで、近赤外光の波長域内にピーク波長を有する単一モードの光を生成する、請求項2に記載のセンサ装置。
  23.  前記センサ装置は、複数の画素を有する画素アレイ領域を備える固体撮像装置である、請求項2に記載のセンサ装置。
  24.  前記画素アレイ領域は、n×n個(nは2以上の整数)の画素を単位とする周期配列を有する、請求項23に記載のセンサ装置。
  25.  光電変換部を形成し、
     前記光電変換部上にファブリペロ共振器を形成し、
     前記ファブリペロ共振器上または前記ファブリペロ共振器と前記光電変換部との間にフィルタ層を形成する、
     ことを含むセンサ装置の製造方法。
  26.  光電変換部を形成し、
     前記光電変換部上に、メタマテリアル層を含む共振器を形成し、
     前記共振器上または前記共振器と前記光電変換部との間にフィルタ層を形成する、
     ことを含み、
     前記メタマテリアル層は、第1材料で形成された第1部分と、前記第1材料とは異なる第2材料で形成され、前記第1部分内に設けられた複数の第2部分とを含む、
     センサ装置の製造方法。
  27.  前記メタマテリアル層は、
     前記第1材料で形成された第1部分を形成し、
     前記第1部分内に、前記第2材料で形成された前記複数の第2部分を埋め込む、
     ことで形成される、請求項26に記載のセンサ装置の製造方法。
PCT/JP2021/004868 2020-03-23 2021-02-10 センサ装置およびその製造方法 WO2021192677A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020051741A JP2021150615A (ja) 2020-03-23 2020-03-23 センサ装置およびその製造方法
JP2020-051741 2020-03-23

Publications (1)

Publication Number Publication Date
WO2021192677A1 true WO2021192677A1 (ja) 2021-09-30

Family

ID=77849466

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004868 WO2021192677A1 (ja) 2020-03-23 2021-02-10 センサ装置およびその製造方法

Country Status (2)

Country Link
JP (1) JP2021150615A (ja)
WO (1) WO2021192677A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195283A1 (ja) * 2022-04-04 2023-10-12 ソニーセミコンダクタソリューションズ株式会社 光検出素子および電子機器
KR102548487B1 (ko) * 2023-02-27 2023-06-28 한국표준과학연구원 복수 채널 검출 소자를 포함하는 적외선 센싱 장치의 제조 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006100903A1 (ja) * 2005-03-23 2006-09-28 Matsushita Electric Industrial Co., Ltd. 車載撮像装置
JP2010165718A (ja) * 2009-01-13 2010-07-29 Sony Corp 光学素子および固体撮像素子
JP2010243682A (ja) * 2009-04-03 2010-10-28 Canon Inc 屈折率分布型光学素子及び該屈折率分布型光学素子を有する撮像素子
JP2013030626A (ja) * 2011-07-28 2013-02-07 Sony Corp 固体撮像素子および撮像システム
US20130119236A1 (en) * 2011-11-08 2013-05-16 Victor Lenchenkov Resonance enhanced absorptive color filters

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006100903A1 (ja) * 2005-03-23 2006-09-28 Matsushita Electric Industrial Co., Ltd. 車載撮像装置
JP2010165718A (ja) * 2009-01-13 2010-07-29 Sony Corp 光学素子および固体撮像素子
JP2010243682A (ja) * 2009-04-03 2010-10-28 Canon Inc 屈折率分布型光学素子及び該屈折率分布型光学素子を有する撮像素子
JP2013030626A (ja) * 2011-07-28 2013-02-07 Sony Corp 固体撮像素子および撮像システム
US20130119236A1 (en) * 2011-11-08 2013-05-16 Victor Lenchenkov Resonance enhanced absorptive color filters

Also Published As

Publication number Publication date
JP2021150615A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
US11743604B2 (en) Imaging device and image processing system
JP7395650B2 (ja) 撮像素子および電子機器
US11563045B2 (en) Electromagnetic wave processing device
CN109997019B (zh) 摄像元件和摄像装置
US20210288192A1 (en) Sensor element and electronic device
US11387272B2 (en) Semiconductor device and electronic apparatus
WO2018173872A1 (ja) センサチップおよび電子機器
KR102661039B1 (ko) 촬상 소자 및 촬상 장치
JP2019046960A (ja) 固体撮像装置および電子機器
US20190306471A1 (en) Image processing apparatus, image processing method, program, and electronic apparatus
WO2021192677A1 (ja) センサ装置およびその製造方法
WO2018030138A1 (ja) 固体撮像素子および製造方法、並びに電子機器
JP2019029601A (ja) 固体撮像装置及び電子機器
US20220222912A1 (en) Light receiving device, solid-state imaging apparatus, electronic equipment, and information processing system
WO2019159561A1 (ja) 固体撮像素子、電子装置、および、固体撮像素子の製造方法
WO2022181536A1 (ja) 光検出装置及び電子機器
WO2023127512A1 (ja) 撮像装置、電子機器
WO2023013554A1 (ja) 光検出器及び電子機器
US20240014230A1 (en) Solid-state imaging element, method of manufacturing the same, and electronic device
WO2023105783A1 (ja) 固体撮像装置およびその製造方法
JP7437957B2 (ja) 受光素子、固体撮像装置及び電子機器
WO2023112479A1 (ja) 受光装置および電子機器
WO2020202876A1 (ja) 固体撮像素子及び撮像装置
WO2019142661A1 (ja) 撮像素子、製造方法、および電子機器
JP2021136352A (ja) 固体撮像装置およびその製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21776820

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21776820

Country of ref document: EP

Kind code of ref document: A1