WO2018150801A1 - センサ、固体撮像装置及び電子装置 - Google Patents

センサ、固体撮像装置及び電子装置 Download PDF

Info

Publication number
WO2018150801A1
WO2018150801A1 PCT/JP2018/001422 JP2018001422W WO2018150801A1 WO 2018150801 A1 WO2018150801 A1 WO 2018150801A1 JP 2018001422 W JP2018001422 W JP 2018001422W WO 2018150801 A1 WO2018150801 A1 WO 2018150801A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
electrode
distance
state imaging
solid
Prior art date
Application number
PCT/JP2018/001422
Other languages
English (en)
French (fr)
Inventor
戸田 淳
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/485,540 priority Critical patent/US11221256B2/en
Publication of WO2018150801A1 publication Critical patent/WO2018150801A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J3/26Generating the spectrum; Monochromators using multiple reflection, e.g. Fabry-Perot interferometer, variable interference filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/001Optical devices or arrangements for the control of light using movable or deformable optical elements based on interference in an adjustable optical cavity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/28Interference filters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1213Filters in general, e.g. dichroic, band
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • G01J2003/2806Array and filter array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging

Definitions

  • This technology relates to a sensor, a solid-state imaging device, and an electronic device.
  • CMOS Complementary Metal Oxide Semiconductor
  • CIS Complementary Metal Oxide Semiconductor
  • CCDs Charge Coupled Devices
  • an imaging device having an image sensor in which a plurality of unit pixels are arranged on a chip, the image sensor photoelectrically converting incident light for each unit pixel, and above the photoelectric conversion element And a filter that selectively transmits only a part of wavelengths of the incident light and separates color components, and the filter is a multilayer filter formed of an inorganic material, and selectively transmits the filter.
  • an imaging apparatus characterized in that the half width of the band is configured to be narrower than 100 nm (see Patent Document 1).
  • a spectral transmittance variable element arranged on an optical path of an optical system including an image sensor, and a light beam received in a part of a light receiving region in units of each pixel or a plurality of pixels of the image sensor
  • a plurality of sets of opposing micro-reflecting mirrors arranged in parallel on substantially the same plane perpendicular to the optical axis, and an interval between the opposing micro-reflecting mirrors of each set There has been proposed a spectral transmittance variable element characterized in that it includes an interval variable means for making the variable variable (see Patent Document 2).
  • Patent Document 1 and Patent Document 2 may not be able to further improve reliability and image quality. Therefore, the present situation is that a sensor and a solid-state imaging device that further improve reliability and image quality are desired.
  • the present technology has been made in view of such a situation, and mainly provides a sensor, a solid-state imaging device, and an electronic device including the sensor or the solid-state imaging device with improved reliability and image quality. Objective.
  • the present inventor succeeded in developing a sensor and a solid-state imaging device with improved reliability and image quality, and completed the present technology.
  • an optical element that includes at least two optical interference filters, the at least two optical interference filters are arranged to face each other, and a gap is provided between the at least two optical interference filters arranged to face each other, and the gap
  • a distance varying device that varies the distance between the at least one wavelength tunable device and at least one photoelectric conversion element, and obtaining a continuous spectrum by changing the distance of the gap.
  • the present technology also includes an optical element that includes at least two optical interference filters, the at least two optical interference filters are arranged to face each other, and a gap is provided between the at least two optical interference filters arranged to face each other.
  • At least one photodiode having a main surface side as a light receiving surface, a floating diffusion formed on the surface of the first main surface of the first semiconductor substrate, and formed on the first main surface of the first semiconductor substrate.
  • the first transistor, the first wiring layer formed on the first main surface of the first semiconductor substrate, the first electrode exposed on the surface of the first wiring layer, and the second half A second transistor formed on the first main surface of the body substrate; a second wiring layer formed on the first main surface of the second semiconductor substrate; and a second transistor exposed on a surface of the second wiring layer.
  • Two electrodes, and a floating diffusion wiring connecting the floating diffusion and the gate electrode of the second transistor through the first electrode and the second electrode, and the first electrode and the second electrode Are bonded to each other, the first semiconductor substrate and the second semiconductor substrate are bonded to each other, and the distance of the gap is changed to obtain a sensor that acquires a continuous spectrum.
  • the second transistor may be shared by the at least one photodiode.
  • the present technology includes at least two optical interference filters, the optical elements having the gap between the at least two optical interference filters disposed opposite to each other, the gap between the at least two optical interference filters, At least one wavelength tunable device, a first semiconductor substrate, a second semiconductor substrate, and a second of the first semiconductor substrate formed on the first semiconductor substrate.
  • At least one photodiode having a main surface side as a light receiving surface, a first transistor formed on the first main surface of the first semiconductor substrate, and formed on the first main surface of the first semiconductor substrate.
  • the first wiring layer formed, the first electrode exposed on the surface of the first wiring layer, the second transistor formed on the first main surface of the second semiconductor substrate, and the first semiconductor layer of the second semiconductor substrate.
  • a sensor is provided that acquires a continuous spectral spectrum by combining and varying the distance of the gap.
  • the second transistor may be shared by the at least one photodiode.
  • the peak wavelength interval of at least one set of two adjacent spectra may be equal to or less than the peak half-value width.
  • the optical element may be a Fabry-Perot resonator.
  • the gap may be an air gap.
  • the distance variable device may be a piezoelectric element or a MEMS element.
  • the photocharge signal may be continuously read out while interlocking with the change in the gap distance.
  • the photoelectric charge signal may be continuously read by the current while interlocking with the change of the gap distance.
  • the sensor according to the present technology may further include at least one filter that transmits light in a specific wavelength band of incident light.
  • the present technology provides a solid-state imaging device that includes at least one sensor according to the present technology and has a plurality of pixels arranged one-dimensionally or two-dimensionally.
  • the present technology provides an electronic device including a sensor according to the present technology.
  • the present technology provides an electronic device including the solid-state imaging device according to the present technology.
  • permeability (T) and wavelength ((lambda)) when light injects into the solid-state imaging device of Example 2. is there.
  • permeability (T) when a light is incident on the solid-state imaging device of Example 3, and wavelength ((lambda)). is there.
  • optical sensors such as sensors using Fabry-Perot resonators (for example, image sensors, optical sensors, etc.) or CMOS image sensors (CIS)
  • multispectral spectroscopy such as red, green, blue (RGB) + infrared (IR) has been studied.
  • RGB red, green, blue
  • IR infrared
  • the spectral spectrum has a narrow line width and discrete spectral characteristics. For this reason, it may deviate greatly from the ideal spectrum and the color reproducibility may deteriorate.
  • the spectral characteristics are not continuous, missing may occur, and important information from the missing wavelength band may be missed.
  • resolution degradation may occur when pixels are arranged one-dimensionally or two-dimensionally.
  • This technology is based on the above situation, and this technology has excellent reliability and excellent image quality. That is, according to the present technology, the spectral spectral line width is narrow and discrete spectral characteristics are obtained, so that the spectral spectral line width does not greatly deviate from the ideal spectral characteristics, and color reproducibility is not deteriorated. For this reason, missing wavelengths are detected, important information from the missing wavelength band is not overlooked, and further, the spectral wavelength increases, so that when pixels are arranged in one or two dimensions, resolution degradation occurs. There is nothing. More specifically, according to the present technology, it is possible to acquire detailed spectral spectrum information and image information of a subject at the same time.
  • the sensor of the first embodiment (sensor example 1) includes at least two optical interference filters, the at least two optical interference filters are arranged to face each other, and at least two optical interference filters arranged to face each other.
  • an optical element for example, a Fabry-Perot resonator having a gap that transmits a specific wavelength range
  • a continuous spectral spectrum can be acquired by devising the sensor driving method of the first embodiment.
  • the sensor according to the first embodiment of the present technology enables medical, biological, and other analytical applications by acquiring a detailed continuous spectral spectrum with high resolution.
  • FIG. 1A is a cross-sectional view illustrating a configuration example of the sensor 100.
  • the sensor 100 includes one optical element 150 and one photoelectric conversion element 106 (for example, a photodiode (PD)).
  • the optical element 150 is not specifically limited, For example, a Fabry-Perot resonator is mentioned.
  • the optical element 150 includes an optical interference filter 101a (a three-layer configuration of 101-1 to 101-3) and 101b (a five-layer configuration of 101-4 to 101-8) and a optical interference filter 101a. And 101b, and substrates 102 and 104.
  • the optical interference filters 101a and 101b include a dielectric multilayer film and a reflective multilayer film.
  • the optical interference filter 101a which is a multilayer film, includes an optical interference filter 101-1, an optical interference filter 101-2, and an optical interference filter 101-3 in order from the upper layer (upward direction in FIG. 1A) on the light incident side. Three layers are laminated.
  • the optical interference filter 101a that is a multilayer film may be formed by alternately laminating layers made of materials having different refractive indexes, but the optical interference filter 101-1 and the optical interference filter 101-3 may be a TiO 2 film or a TaO 2 film.
  • the optical interference filter 101-2 is preferably a SiO 2 film.
  • the optical interference filter 101a is laminated on the substrate 102 on the optical interference filter 101-1 side in the optical interference filter 101a.
  • the substrate 102 is, for example, a SiO 2 transparent substrate. Note that the substrate 102 is not particularly limited as long as it has a plate shape or a layer shape.
  • the optical interference filter 101b which is a multilayer film, in order from the upper layer on the light incident side (upward in FIG. 1A), the optical interference filter 101-4, the optical interference filter 101-5, the optical interference filter 101-6, Five layers of the optical interference filter 101-7 and the optical interference filter 101-8 are laminated.
  • the optical interference filter 101b that is a multilayer film may be formed by alternately laminating layers made of materials having different refractive indexes, but the optical interference filter 101-4, the optical interference filter 101-6, and the optical interference filter 101-8 are made of TiO 2. Two films or TaO 2 films are preferable, and the optical interference filter 101-5 and the optical interference filter 101-7 are preferably SiO 2 films.
  • the optical interference filter 101b is laminated on the substrate 104 on the optical interference filter 101-8 side in the optical interference filter 101b.
  • the substrate 104 include a SiO 2 transparent substrate. Note that the substrate 104 is not particularly limited as long as it has a plate shape or a layer shape.
  • the wavelength variable device 1000 included in the sensor 100 includes an optical element 150 and distance variable devices 105-1 and 105-2.
  • the substrate 102 and the optical interference filter 101a configured in the upward direction (the upward direction in FIG. 1A) of the optical element 150 on the light incident side. Can be moved in the vertical direction in FIG. 1A, and the distance d1 of the gap 103 can be changed.
  • the transmission spectral characteristics can be continuously changed.
  • FIG. 2A shows the result of a continuous spectral spectrum of visible light acquired by the sensor 100.
  • FIG. 2A shows a transmittance spectrum when the distance d1 of the gap 103 is changed in the range of 0.2 ⁇ m to 0.35 ⁇ m.
  • the peak wavelength ⁇ 0 changes almost linearly from 449 nm to 613 nm while the distance d1 of the gap 103 changes from 0.2 ⁇ m to 0.35 ⁇ m. Recognize.
  • the continuous spectral spectrum of the infrared light shown in FIG. 2B is a result obtained by the solid-state imaging device 400 of the second embodiment.
  • the range of the peak wavelength ⁇ 0 is considered to change almost linearly with respect to the change in the distance d 1 of the gap 103.
  • the method of continuously moving the gap 103 in the vertical direction using the distance variable devices 105-1 and 105-2 may be an arbitrary method, but the vertical direction of the gap 103 is linked to the movement speed of the subject. It is preferable to change the moving speed. For example, when the movement of the subject is fast, the vertical movement speed of the gap 103 may be increased. After that, if the movement of the subject is slow, the vertical movement speed of the gap 103 may be decreased. Good. When the movement of the subject is slow, the moving speed of the gap 103 in the vertical direction may be increased as in the case where the movement of the subject is fast. However, by increasing the exposure time by increasing the speed, the signal intensity can be increased. But you can. Similarly, when the subject is stationary, it may be as fast as when the subject moves fast, but the signal strength can be increased by further increasing the exposure time by further reducing the vertical movement speed. You may earn more.
  • the gap 103 is not particularly limited as long as it can be moved by the distance variable devices 105-1 and 105-2, and may be liquid, solid, gas such as air, etc., but air (so-called air gap) It is preferable that As the variable distance devices 105-1 and 105-2, piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the sensor 100 includes a semiconductor substrate 107 and one photoelectric conversion element 106 formed on the semiconductor substrate 107 below the wavelength tunable device 1000 (downward in FIG. 1A). Although not shown, a wiring layer is formed in the sensor 100 below the semiconductor substrate 107 (downward in FIG. 1A).
  • signal readout is not accumulated, that is, a continuous spectral spectrum is obtained by acquiring a signal by current readout.
  • the distance d1 of the gap 103 for example, air gap
  • the photoelectric conversion element 106 for example, the photodiode (PD) 15 (mainly a depletion layer of a PN junction) shown in FIG.
  • Read photocurrent In such a case, for example, a structure and a circuit as shown in FIG. 3 are obtained.
  • reading may be performed by applying a reverse bias.
  • a high reverse bias may be applied to avalanche multiply the photoelectrons generated in the depletion layer in a high electric field state and read as an optical signal.
  • a pseudo continuous spectrum can be detected by instantaneously reading at high speed by shortening the accumulation time.
  • a floating diffusion (FD) may be provided in the same manner as a normal CMOS image sensor (CIS), and a voltage signal may be read out.
  • the peak wavelength interval between at least one pair of two adjacent spectra is preferably equal to or less than the peak half-value width. That is, “peak wavelength interval ⁇ peak half width”.
  • Peak wavelength interval means the distance between the peaks of any two adjacent spectra, and the peak half-width is 50% of the peak value of each of the two spectra (arbitrary one spectrum). This means the width of the spectrum (wavelength).
  • the sensor of the second embodiment (sensor example 2) includes at least two optical interference filters, the at least two optical interference filters are arranged to face each other, and the at least two optical interferences arranged to face each other.
  • at least one wavelength tunable device comprising an optical element having a gap between the filters, and a distance variable device that varies the gap distance, a first semiconductor substrate, a second semiconductor substrate, and the first semiconductor substrate.
  • At least one photodiode having a light receiving surface on the second main surface side of the first semiconductor substrate, a floating diffusion formed on the surface of the first main surface of the first semiconductor substrate, and a first of the first semiconductor substrate.
  • a floating diffusion wiring for connecting the floating diffusion and the gate electrode of the second transistor through the first electrode and the second electrode, and the first electrode and the second electrode are joined to each other.
  • the first semiconductor substrate and the second semiconductor substrate are bonded to each other, and a continuous spectral spectrum is obtained by changing a gap distance.
  • an optical element for example, a Fabry-Perot resonator
  • a continuous spectrum can be obtained by devising the sensor driving method of the second embodiment.
  • the sensor according to the second embodiment of the present technology enables medical, biological, and other analytical applications by acquiring a detailed continuous spectral spectrum with high resolution.
  • FIG. 5 is a cross-sectional view illustrating a configuration example of a stacked structure included in the sensor according to the second embodiment of the present technology. 5 does not illustrate the wavelength tunable device included in the sensor according to the second embodiment of the present technology, the wavelength tunable device included in the sensor according to the second embodiment of the present technology.
  • the wavelength tunable device 1000 included in the sensor of the first embodiment according to the present invention, or the wavelength tunable device 2000 included in the solid-state imaging device of the fifth embodiment according to the present technology to be described later can be applied.
  • the sensor substrate 3 (first semiconductor substrate) and the circuit substrate 9 (second semiconductor substrate) are respectively composed of a first wiring layer 31 and a second wiring layer 41. Are pasted to face each other. Further, on the bonding surface of the sensor base 3 and the circuit base 9, the first electrode 35 formed on the surface of the first wiring layer 31 of the sensor base 3 and the surface of the second wiring layer 41 of the circuit base 9 are formed. The second electrode 45 formed is joined.
  • photodiodes PD ⁇ b> 1 and PD ⁇ b> 2 are formed on the sensor base 3.
  • the upper side of the figure is the light incident surface, and the lower side is the circuit forming surface.
  • the floating diffusion FD and the transfer gate electrodes 21 and 22 are formed on the circuit forming surface side of the sensor base 3.
  • a first wiring layer 31 is formed on the circuit formation surface of the sensor base 3.
  • the first wiring layer 31 has a configuration in which at least one wiring layer and an insulating layer are stacked.
  • FIG. 5 shows a configuration having a single-layer wiring 33.
  • a plug 32 connected to the floating diffusion FD is formed in the first wiring layer 31.
  • the plug 32 and the wiring 33 are connected, and the wiring 33 and the plug 34 are further connected.
  • another wiring (not shown) is provided in the same layer as the wiring 33.
  • the wiring in the same layer as the wiring 33 is, for example, a power supply wiring or a ground wiring connected to the transfer gate electrodes 21 and 22.
  • a first electrode for connection 35 is formed on the surface of the first wiring layer 31.
  • the first electrode 35 is connected to the floating diffusion FD via the plugs 32 and 34 and the wiring 33.
  • the circuit base 9 is mounted with a logic circuit including a pixel circuit control circuit and a signal processing circuit (not shown). Further, pixel transistors other than the transfer transistor Tr1 are formed on the circuit base 9.
  • FIG. 5 shows an amplification transistor Tr5 and a selection transistor Tr6. On the surface of the circuit substrate 9, diffusion regions 27, 28, and 29 serving as the source / drain of the amplification transistor Tr5 and the selection transistor Tr6 are formed. In addition, an amplification gate electrode 25 and a selection gate electrode 26 are provided on the circuit substrate 9.
  • a second wiring layer 41 is formed on the circuit substrate 9.
  • the second wiring layer 41 has a configuration in which a plurality of wiring layers and an insulating layer are stacked.
  • FIG. 5 shows one layer of wires 43 and 47 among the plurality of wires formed in the second wiring layer 41.
  • the wiring 43 is connected to the amplification gate electrode 25 and the second electrode 45 on the surface of the second wiring layer 41 by plugs 42 and 44. Therefore, the second electrode 45 is connected to the amplification gate electrode 25 through the plugs 42 and 44 and the wiring 43.
  • the plug 46 and the wiring 47 are connected to the diffusion region 29 of the selection transistor Tr6.
  • the floating diffusion FD provided on the surface of the sensor base 3 and the amplification gate electrode 25 provided on the circuit base 9 are directly connected by the conductor via the first electrode 35 and the second electrode 45. It is connected. That is, the floating diffusion FD and the amplification gate electrode 25 are connected by a floating diffusion wiring (hereinafter referred to as FD wiring) including the first electrode 35, the second electrode 45, the plugs 32, 34, 42, 44 and the wirings 33, 43. ing. In this way, the pixel transistor for processing the signal accumulated in the floating diffusion FD of the sensor base 3 is formed on the circuit base 9.
  • FD wiring floating diffusion wiring
  • the first electrode 35, the plugs 32 and 34, and the wiring 33 constituting the FD wiring are formed with a minimum design rule wiring width in order to increase conversion efficiency.
  • the floating diffusion FD to the first electrode 35 are connected in the shortest time in order to increase the conversion efficiency.
  • the plugs 32 and 34 and the wiring 33 are preferably formed as far as possible from other wirings so as not to be capacitively coupled to other wirings formed in the first wiring layer 31.
  • the second electrode 45, the plugs 44 and 42, and the wiring 43 constituting the FD wiring are formed with the minimum design rule wiring width in order to increase the conversion efficiency.
  • the amplification gate electrode 25 to the second electrode 45 are preferably connected in the shortest time in order to increase the conversion efficiency.
  • the plugs 44 and 42 and the wiring 43 are preferably formed as far as possible from other wirings so as not to be capacitively coupled to other wirings formed in the second wiring layer 41.
  • the reset transistor (not shown) may be formed between the pixel sharing units on the sensor base 3 side, or may be formed in another part on the circuit base 9 side. In order to increase the area of the photodiode PD of the sensor base 3, it is preferable that all the transistors other than the transfer transistor are formed on the circuit base 9 side.
  • the region 37 in which the first electrode 35 and the second electrode 45 are formed is smaller than the area of the region 36 in which a plurality of photodiodes PD1 to PD4 (PD3 to 4 are not shown) sharing the amplification transistor Tr5 are formed. And In order to avoid contact with electrodes in other adjacent regions, it is necessary to make the first electrode 35 and the second electrode 45 smaller than the region 36 where the photodiodes PD1 and PD2 are formed. Moreover, it is preferable that at least one of the first electrode 35 and the second electrode 45 is formed larger than the area where the floating diffusion FD is formed.
  • the first electrode 35 and the second electrode 45 are preferably provided at the center of the pixel sharing unit. Furthermore, the first electrode 35 and the second electrode 45 are preferably formed in a shape that is point-symmetric or line-symmetric. For example, in the 4-pixel sharing unit, it is preferable that the center of the 4-pixel sharing unit and the centers of the first electrode 35 and the second electrode 45 are formed at the same planar position. The first electrode 35 and the second electrode 45 are preferably formed in a shape that is point symmetric or line symmetric at the center of the pixel sharing unit. By forming the first electrode 35 and the second electrode 45 in such a configuration, FD wirings can be formed at equal intervals in a plurality of pixel sharing units, and coupling of FD wirings can be prevented. .
  • a sensor (semiconductor device) having a structure in which a plurality of substrates are bonded together as in this embodiment has a problem in the alignment accuracy of the bonding surfaces of the substrates. For this reason, when the substrates are bonded together, a displacement occurs in the bonding position of the electrodes according to the alignment accuracy of the substrates. The reliability of the sensor (semiconductor device) is deteriorated due to the connection failure or the conduction failure due to the displacement of the bonding electrode. On the other hand, as shown in FIG. 5, by connecting the shapes of the first electrode 35 and the second electrode 45 within the above-described range, the connection reliability of the bonding electrode is ensured regardless of the accuracy of the substrate bonding. be able to. Therefore, the reliability of the sensor (semiconductor device) is improved.
  • the area of the electrode increases, the volume of the FD wiring inevitably increases. For this reason, it leads to deterioration of the conversion efficiency of signal charge. Therefore, in order to prevent deterioration in conversion efficiency, it is preferable to minimize the area of the electrode as much as possible.
  • the areas of the first electrode 35 and the second electrode 45 have a contradictory effect on the conversion efficiency and the junction reliability. For this reason, it is necessary to design the shapes of the first electrode 35 and the second electrode 45 in consideration of the positional accuracy of substrate bonding, the signal conversion efficiency, and the like.
  • connection reliability can be ensured if the area of one electrode is large, even if the area of the other electrode is small. For this reason, for example, one electrode can be formed larger than the area where the floating diffusion FD is formed, and the area of the other electrode can be further reduced. In this case, improvement in characteristics can be expected with respect to both electrode connection reliability and signal conversion efficiency.
  • the laminated structure of the sensor of the second embodiment can acquire a signal even by current reading.
  • Current reading can be performed by keeping either the transfer transistor Tr1 (transfer gate electrode 21) or the transfer transistor Tr2 (transfer gate electrode 22) ON and keeping the gate open.
  • a signal amplified by the amplification gate electrode 25 (amplifier) on the circuit substrate 9 (lower layer chip) is read out.
  • the floating diffusion FD is shared by four pixels (PD1 and PD2, PD3 to PD are not shown), it is necessary to read out current separately for each pixel.
  • the stacked structure of the sensor of the second embodiment can acquire a signal by voltage reading, and once the charge is accumulated in the photodiode (PD) and / or the floating diffusion FD, the transfer is performed. Reading is performed by the operation of the transistor Tr1 (transfer gate electrode 21) or the transfer transistor Tr2 (transfer gate electrode 22). In FIG. 5, since the floating diffusion FD is shared by four pixels (PD1 and PD2, PD3 to PD not shown), it is necessary to read the voltage separately for each pixel.
  • the sensor according to the third embodiment (sensor example 3) according to the present technology includes at least two optical interference filters, the at least two optical interference filters are arranged to face each other, and the at least two optical interferences arranged to face each other.
  • at least one wavelength tunable device comprising an optical element having a gap between the filters, and a distance variable device that varies the gap distance, a first semiconductor substrate, a second semiconductor substrate, and the first semiconductor substrate At least one photodiode having a light receiving surface on the second main surface side of the first semiconductor substrate, a floating diffusion formed on the surface of the first main surface of the first semiconductor substrate, and a first of the first semiconductor substrate.
  • a floating diffusion wiring for connecting the floating diffusion and the gate electrode of the second transistor through the first electrode and the second electrode, and the first electrode and the second electrode are joined to each other.
  • the first semiconductor substrate and the second semiconductor substrate are bonded to each other, and a continuous spectral spectrum is obtained by changing a gap distance.
  • an optical element for example, a Fabry-Perot resonator having a gap that transmits a specific wavelength range, and the configuration of the sensor of the third embodiment;
  • a continuous spectrum can be acquired by devising the sensor driving method of the third embodiment.
  • the sensor according to the third embodiment of the present technology enables medical, biological, and other analytical applications by acquiring a detailed continuous spectral spectrum with high resolution.
  • FIG. 6 is a cross-sectional view illustrating a configuration example of a stacked structure included in the sensor according to the third embodiment of the present technology. 6 does not illustrate the wavelength tunable device included in the sensor according to the third embodiment of the present technology, the wavelength tunable device included in the sensor according to the third embodiment of the present technology.
  • the wavelength tunable device 1000 included in the sensor of the first embodiment according to the present invention, or the wavelength tunable device 2000 included in the solid-state imaging device of the fifth embodiment according to the present technology to be described later can be applied.
  • the sensor substrate 3 (first semiconductor substrate) and the circuit substrate are bonded together with the first wiring layer 31 and the second wiring layer 41 facing each other.
  • the bonding surface between the sensor base 3 and the circuit base is the first electrode 35 formed on the surface of the first wiring layer 31 of the sensor base 3 and the second wiring of the circuit base 9.
  • the second electrode 45 formed on the surface of the layer 41 is joined.
  • FIG. 6 only the configuration of the second wiring layer 41 is shown, and the configuration of the circuit substrate is omitted.
  • the circuit substrate provided in the sensor of the third embodiment can have the same configuration as the circuit substrate 9 described above.
  • the photodiode PD and the floating diffusion FD of each pixel are separated from the photodiode PD and the floating diffusion FD of the adjacent pixel by the element separation unit 69. Then, FD wiring is formed by the plugs 32, 34, 44, 42 and wirings 33, 43 from the floating diffusion FD to pixel transistors other than the transfer transistor of the circuit base (not shown).
  • the TRG wiring 38 is connected to the transfer gate electrode 68 through a plug 83.
  • the TRG wiring is connected to the circuit board side outside the pixel region.
  • a pixel transistor other than the transfer transistor is shared by a plurality of photodiodes PD as in the second embodiment.
  • pixel transistors other than the transfer transistor can be shared by the plurality of photodiodes PD and the floating diffusion FD.
  • the laminated structure of the sensor of the third embodiment can also acquire a signal even with current reading.
  • the current can be read by turning on a transfer transistor (not shown) (transfer gate electrode 68) and keeping the gate open.
  • a signal amplified by an amplification gate electrode (amplifier) (not shown) on the circuit substrate (lower layer chip) is read out.
  • the floating diffusion FD and the electrode plugs 32, 34, 44, and 42 are provided for each pixel (one PD), the current can be read from all the pixels simultaneously.
  • the stacked structure of the sensor of the third embodiment can acquire a signal by voltage readout, and once the charge is accumulated in the photodiode (PD) and / or the floating diffusion FD, the transfer is performed. Reading is performed by the operation of a transistor (not shown) (transfer gate electrode 68). In FIG. 6, since the floating diffusion FD and the electrode plugs 32, 34, 44, 42 are provided for each pixel (one PD), voltage reading can be performed on all the pixels simultaneously.
  • the sensor of the fourth embodiment (sensor example 4) includes at least two optical interference filters, the at least two optical interference filters are arranged to face each other, and the at least two optical interference filters arranged to face each other.
  • At least one wavelength tunable device comprising an optical element having a gap therebetween, and a distance varying device that varies a gap distance, a first semiconductor substrate, a second semiconductor substrate, and a first semiconductor substrate formed on the first semiconductor substrate ,
  • At least one photodiode having a light receiving surface on the second main surface side of the first semiconductor substrate, a first transistor formed on the first main surface of the first semiconductor substrate, and a first main surface of the first semiconductor substrate.
  • a current readout wiring connecting the gate electrode of the second transistor, the first electrode and the second electrode are joined, the first semiconductor substrate and the second semiconductor substrate are bonded, and the gap distance is increased. It is a sensor that acquires a continuous spectrum by changing.
  • an optical element for example, a Fabry-Perot resonator
  • a continuous spectrum can be acquired by devising the sensor driving method of the fourth embodiment.
  • the sensor according to the fourth embodiment of the present technology enables medical, biological, and other analytical applications by acquiring a detailed continuous spectral spectrum with high resolution.
  • FIG. 7 is a cross-sectional view illustrating a configuration example of a stacked structure included in the sensor according to the fourth embodiment of the present technology. 7 does not illustrate the wavelength tunable device included in the sensor according to the fourth embodiment of the present technology, the wavelength tunable device included in the sensor according to the fourth embodiment of the present technology.
  • the wavelength tunable device 1000 included in the sensor of the first embodiment according to the present invention, or the wavelength tunable device 2000 included in the solid-state imaging device of the fifth embodiment according to the present technology to be described later can be applied.
  • the sensor of the fourth embodiment includes a photodiode 15 and a circuit base 9 (second semiconductor substrate) formed on a sensor base (first semiconductor substrate) (not shown).
  • the first wiring layer 31 and the second wiring layer 41 are bonded to face each other.
  • the first electrode 35 formed on the surface of the first wiring layer 31 of the sensor base and the surface of the second wiring layer 41 of the circuit base 9 are formed on the bonding surface of the sensor base and the circuit base 9.
  • the second electrode 45 is joined.
  • the upper side of the figure is the light incident surface, and the lower side is the circuit forming surface.
  • a first wiring layer 31 is formed on the circuit formation surface of the sensor base.
  • the first wiring layer 31 has a configuration in which at least one wiring layer and an insulating layer are stacked.
  • a single-layer wiring 33 is provided.
  • the first wiring layer 31 is formed with a plug 32 connected to a negative electrode (K: cathode) (also referred to as a third electrode; the same applies hereinafter).
  • K cathode
  • the plug 32 and the wiring 33 are connected, and the wiring 33 and the plug 34 are further connected. Note that another wiring (not shown) may be provided in the same layer as the wiring 33.
  • a first electrode for connection 35 is formed on the surface of the first wiring layer 31.
  • the first electrode 35 is connected to a negative electrode (K: cathode) via plugs 32 and 34 and a wiring 33.
  • the circuit base 9 is mounted with a logic circuit including a pixel circuit control circuit and a signal processing circuit (not shown). Further, pixel transistors other than the transfer transistor Tr1 are formed on the circuit base 9.
  • FIG. 7 shows an amplification transistor Tr5 and a selection transistor Tr6. On the surface of the circuit substrate 9, diffusion regions 27, 28, and 29 serving as the source / drain of the amplification transistor Tr5 and the selection transistor Tr6 are formed. In addition, an amplification gate electrode 25 and a selection gate electrode 26 are provided on the circuit substrate 9.
  • a second wiring layer 41 is formed on the circuit substrate 9.
  • the second wiring layer 41 has a configuration in which a plurality of wiring layers and an insulating layer are stacked. In FIG. 7, one layer of wirings 43 and 47 among the plurality of wirings formed in the second wiring layer 41 is shown.
  • the wiring 43 is connected to the amplification gate electrode 25 and the second electrode 45 on the surface of the second wiring layer 41 by plugs 42 and 44. Therefore, the second electrode 45 is connected to the amplification gate electrode 25 through the plugs 42 and 44 and the wiring 43.
  • the plug 46 and the wiring 47 are connected to the diffusion region 29 of the selection transistor Tr6.
  • the negative electrode (K: cathode) and the amplification gate electrode 25 provided on the circuit substrate 9 are directly connected by the conductor via the first electrode 35 and the second electrode 45. That is, the negative electrode (K: cathode) and the amplification gate electrode 25 are connected by the current readout wiring composed of the first electrode 35, the second electrode 45, the plugs 32, 34, 42, 44 and the wirings 33, 43. Yes.
  • the pixel transistor for processing the signal by the current readout wiring is formed on the circuit base 9.
  • the first electrode 35, the plugs 32 and 34, and the wiring 33 constituting the current readout wiring are formed with a minimum design rule wiring width in order to increase the conversion efficiency.
  • the negative electrode (K: cathode) to the first electrode 35 are connected in the shortest time in order to increase the conversion efficiency.
  • the plugs 32 and 34 and the wiring 33 are preferably formed as far as possible from other wirings so as not to be capacitively coupled to other wirings formed in the first wiring layer 31.
  • the second wiring layer 41, the second electrode 45, the plugs 44 and 42, and the wiring 43 constituting the current readout wiring may be formed with the minimum design rule wiring width in order to increase the conversion efficiency. preferable.
  • the amplification gate electrode 25 to the second electrode 45 are preferably connected in the shortest time in order to increase the conversion efficiency.
  • the plugs 44 and 42 and the wiring 43 are preferably formed as far as possible from other wirings so as not to be capacitively coupled to other wirings formed in the second wiring layer 41.
  • the reset transistor (not shown) may be formed between the pixel sharing units on the sensor substrate side, or may be formed in another part on the circuit substrate 9 side. In order to increase the area of the photodiode (PD) 15 on the sensor substrate, all the transistors other than the transfer transistor are preferably formed on the circuit substrate 9 side.
  • the first electrode 35 and the second electrode 45 are preferably provided at the center of the pixel sharing unit. Furthermore, the first electrode 35 and the second electrode 45 are preferably formed in a shape that is point-symmetric or line-symmetric. For example, in the 4-pixel sharing unit, it is preferable that the center of the 4-pixel sharing unit and the centers of the first electrode 35 and the second electrode 45 are formed at the same planar position. The first electrode 35 and the second electrode 45 are preferably formed in a shape that is point symmetric or line symmetric at the center of the pixel sharing unit. By forming the first electrode 35 and the second electrode 45 in such a configuration, the current readout wiring can be formed at equal intervals in a plurality of pixel sharing units, and the coupling of the current readout wiring is prevented. can do.
  • a sensor (semiconductor device) having a structure in which a plurality of substrates are bonded together as in this embodiment has a problem in the alignment accuracy of the bonding surfaces of the substrates. For this reason, when the substrates are bonded together, a displacement occurs in the bonding position of the electrodes according to the alignment accuracy of the substrates. The reliability of the sensor (semiconductor device) is deteriorated due to the connection failure or the conduction failure due to the displacement of the bonding electrode. On the other hand, as shown in FIG. 7, by setting the shapes of the first electrode 35 and the second electrode 45 within an appropriate range, the connection reliability of the bonding electrode is ensured regardless of the accuracy of the substrate bonding. be able to. Therefore, the reliability of the sensor (semiconductor device) is improved.
  • the electrode area increases, the volume of the current readout wiring inevitably increases. For this reason, it leads to deterioration of the conversion efficiency of signal charge. Therefore, in order to prevent deterioration in conversion efficiency, it is preferable to minimize the area of the electrode as much as possible.
  • the areas of the first electrode 35 and the second electrode 45 have a contradictory effect on the conversion efficiency and the junction reliability. For this reason, it is necessary to design the shapes of the first electrode 35 and the second electrode 45 in consideration of the positional accuracy of substrate bonding, the signal conversion efficiency, and the like. If the area of one electrode is large, the connection reliability can be ensured even if the area of the other electrode is small. In this case, improvement in characteristics can be expected with respect to both electrode connection reliability and signal conversion efficiency.
  • the laminated structure of the sensor of the fourth embodiment can acquire a signal only by current reading. Using the current readout wiring, current readout can be continuously performed. In this case, a signal amplified by the amplification gate electrode 25 (amplifier) on the circuit substrate 9 (lower layer chip) is read out.
  • a solid-state imaging device (an example of a solid-state imaging device) according to the present technology includes a sensor according to the first embodiment, a sensor according to the second embodiment, a sensor according to the third embodiment, and It is a solid-state imaging device provided with at least one sensor of at least one embodiment among sensors of a 4th embodiment, and having arranged a plurality of pixels in one dimension or two dimensions.
  • an optical element for example, a Fabry-Perot resonator having a gap that transmits a specific wavelength region and the solid-state imaging according to the fifth embodiment.
  • a continuous spectrum can be acquired by the configuration of the device and the device of the fifth solid-state imaging device.
  • the solid-state imaging device according to the fifth embodiment of the present technology enables medical, biological, and other analytical applications by acquiring a detailed continuous spectral spectrum with high resolution.
  • FIG. 1B is a cross-sectional view illustrating a configuration example of the solid-state imaging device 200.
  • the solid-state imaging device 200 includes one optical element 250 in four pixels and four photoelectric conversion elements 206 (206 in the horizontal direction (left-right direction in FIG. 1B)). -1 to 206-4) (for example, a photodiode (PD)).
  • the optical element 250 is not specifically limited, For example, a Fabry-Perot resonator is mentioned.
  • the optical element 250 includes an optical interference filter 201a (a three-layer configuration of 201-1 to 201-3) and 201b (a five-layer configuration of 201-4 to 201-8) that are arranged to face each other and an optical interference filter 201a. And 201b, and substrates 202 and 204.
  • Examples of the optical interference filters 201a and 201b include a dielectric multilayer film and a reflective multilayer film.
  • An optical interference filter 201a that is a multilayer film is formed by an optical interference filter 201-1, an optical interference filter 201-2, and an optical interference filter 201-3 in order from the upper layer on the light incident side (upward direction in FIG. 1B). Three layers are laminated.
  • the optical interference filter 201a that is a multilayer film may be formed by alternately laminating layers made of materials having different refractive indexes, but the optical interference filter 201-1 and the optical interference filter 201-3 may be a TiO 2 film or a TaO 2 film.
  • the optical interference filter 201-2 is preferably a SiO 2 film.
  • the optical interference filter 201a is stacked on the substrate 202 on the optical interference filter 201-1 side in the optical interference filter 201a. Examples of the substrate 202 include a SiO 2 transparent substrate. Note that the substrate 202 is not particularly limited as long as it has a plate shape or a layer shape.
  • An optical interference filter 201b which is a multilayer film is sequentially formed from an upper layer on the light incident side (upward direction in FIG. 1B), an optical interference filter 201-4, an optical interference filter 201-5, an optical interference filter 201-6, Five layers of the optical interference filter 201-7 and the optical interference filter 201-8 are laminated.
  • the optical interference filter 201b that is a multilayer film may be formed by alternately laminating layers made of materials having different refractive indexes, but the optical interference filter 201-4, the optical interference filter 201-6, and the optical interference filter 201-8 are made of TiO 2. Two films or TaO 2 films are preferable, and the optical interference filter 201-5 and the optical interference filter 201-7 are preferably SiO 2 films.
  • the optical interference filter 201b is stacked on the substrate 204 on the optical interference filter 201-8 side in the optical interference filter 201b.
  • the substrate 204 is, for example, a SiO 2 transparent substrate. Note that the substrate 204 is not particularly limited as long as it has a plate shape or a layer shape.
  • the wavelength variable device 2000 provided in the solid-state imaging device 200 includes an optical element 250 and distance variable devices 205-1 and 205-2.
  • the substrate 202 and the optical interference filter 201a configured in the upward direction on the light incident side of the optical element 250 (the upward direction in FIG. 1A) Can be moved in the vertical direction in FIG. 1B, and the distance d2 of the gap 203 can be changed.
  • the transmission spectral characteristics can be continuously changed.
  • the continuous spectral spectrum of visible light shown in FIG. 2A is a result obtained by the sensor 100, but the continuous spectral spectrum of visible light is also obtained by the solid-state imaging device 200.
  • the range of the peak wavelength ⁇ 0 is considered to change almost linearly with respect to the change in the distance d2 of the gap 203, and the continuous spectrum of the infrared light shown in FIG.
  • the imaging device 400 the continuous spectral spectrum of the infrared light is almost linear in the range of the peak wavelength ⁇ 0 with respect to the change of the distance d2 of the gap 203 also by the solid-state imaging device 200. It is thought that it will change.
  • the method of moving the gap 203 continuously in the vertical direction using the distance variable devices 205-1 and 205-2 may be an arbitrary method, but the vertical moving speed is linked to the movement speed of the subject. Is preferably changed. For example, when the movement of the subject is fast, the vertical movement speed of the gap 203 may be increased. After that, if the movement of the subject becomes slow, the vertical movement speed of the gap 203 may be decreased. Good. When the movement of the subject is slow, the moving speed of the gap 203 in the vertical direction may be increased as in the case where the movement of the subject is fast, but by increasing the exposure time, the signal strength is increased. But you can. Similarly, when the subject is stationary, it may be as fast as when the subject moves fast, but the signal strength can be increased by further increasing the exposure time by further reducing the vertical movement speed. You may earn more.
  • the gap 203 is not particularly limited as long as it can be moved by the distance variable devices 205-1 and 205-2, and may be liquid, solid, gas such as air, etc., but air (so-called air gap) It is preferable that As the distance variable devices 205-1 and 205-2, piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 200 includes a semiconductor substrate 207 and four photoelectric conversion elements 206 (206-1 to 206-) formed on the semiconductor substrate 207 below the wavelength tunable device 2000 (downward in FIG. 1B). 4). Although not shown, in the solid-state imaging device 200, a wiring layer is formed below the semiconductor substrate 207 (downward in FIG. 1B).
  • a signal spectrum is not accumulated, that is, a continuous spectrum is obtained by acquiring a signal by current reading.
  • the distance d2 of the gap 203 for example, an air gap
  • the photoelectric conversion element 206 for example, the photodiode (PD) 15 shown in FIG. Read photocurrent.
  • reading may be performed by applying a reverse bias.
  • a high reverse bias may be applied to avalanche multiply the photoelectrons generated in the depletion layer in a high electric field state and read as an optical signal.
  • a floating diffusion (FD) may be provided in the same manner as a normal CMOS image sensor (CIS), and a voltage signal may be read out.
  • CIS normal CMOS image sensor
  • FIG. 4 a graph showing the relationship between the peak wavelength interval and the peak half-value width
  • the peak wavelength interval between at least one pair of two adjacent spectra is preferably equal to or less than the peak half width. That is, “peak wavelength interval ⁇ peak half width”. “Peak wavelength interval” means the distance between the peaks of any two adjacent spectra, and the peak half-width is 50% of the peak value of each of the two spectra (arbitrary one spectrum). This means the width of the spectrum (wavelength).
  • the electronic device according to the sixth embodiment (Example 1 of the electronic device) according to the present technology is the sensor according to the first embodiment, the sensor according to the second embodiment, the sensor according to the third embodiment, or the It is an electronic device provided with the sensor of 4 embodiment. Since the sensor according to the first embodiment, the sensor according to the second embodiment, the sensor according to the third embodiment, or the sensor according to the fourth embodiment according to the present technology is as described above, the description thereof is omitted here. Since the electronic device according to the sixth embodiment of the present technology includes the sensor with improved reliability and image quality, the performance of the electronic device according to the sixth embodiment of the present technology can be improved. .
  • the electronic device according to the seventh embodiment (Example 2 of electronic device) according to the present technology is an electronic device including the solid-state imaging device according to the fifth embodiment according to the present technology. Since the solid-state imaging device according to the fifth embodiment of the present technology is as described above, the description thereof is omitted here. Since the electronic device according to the seventh embodiment of the present technology includes the solid-state imaging device with improved reliability and image quality, the performance of the electronic device according to the seventh embodiment of the present technology is improved. Can do.
  • FIG. 21 is a diagram illustrating a usage example in which the sensor or the solid-state imaging device according to the present technology described above is used.
  • the sensor solid-state imaging device according to the present technology described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • -Devices that take images for viewing, such as digital cameras and mobile devices with camera functions.
  • a device that is used for traffic such as a distance measuring sensor that measures the distance.
  • a device used for home appliances such as a TV, a refrigerator, an air conditioner, etc., in order to photograph a user's gesture and perform device operations in accordance with the gesture.
  • -Security devices such as security cameras and personal authentication cameras.
  • Apparatus used for beauty purposes such as a skin measuring instrument for photographing the skin and a microscope for photographing the scalp.
  • Devices used for sports such as action cameras and wearable cameras for sports applications.
  • -Equipment used for agriculture such as cameras for monitoring the condition of fields and crops.
  • FIG. 8A is a diagram illustrating a cross-sectional configuration of the solid-state imaging apparatus 300 according to the first embodiment.
  • the solid-state imaging device 300 includes one optical element and four photodiodes (PD) in four pixels.
  • FIG. 8B is a graph showing the relationship between the transmittance (T) (vertical axis) and the wavelength ( ⁇ ) (horizontal axis) when light is incident on the solid-state imaging device 300.
  • the solid-state imaging device 300 includes an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 301a (a three-layer structure of 301-1 to 301-3) and 301b (301-4 to The Fabry-Perot resonator 1 shown in FIG. 9 was used as an optical element including a five-layer structure 301-8, an air gap 303 between the dielectric multilayer films 301a and 301b, and substrates 302 and 304.
  • FIG. 9 is a diagram schematically showing the structure of the Fabry-Perot resonator 1.
  • the Fabry-Perot resonator 1 includes dielectric multilayer films 1a and 1b arranged opposite to each other, an air gap 3 (air gap distance is d0) between the dielectric multilayer films 1a and 1b, and substrates 2 and 4. Composed.
  • the dielectric multilayer film 1a is formed by laminating three layers of a TiO 2 film 1-1, a SiO 2 film 1-2, and a TiO 2 film 1-3 in order from the upper layer on the light incident side (upward direction in FIG. 9). Composed.
  • the dielectric multilayer film 1b is composed of a TiO 2 film 1-4, a SiO 2 film 1-5, a TiO 2 film 1-6, and a SiO 2 film 1-7 in order from the upper layer (upward direction in FIG. 9) on the light incident side. And five layers of the TiO 2 film 1-8 are laminated.
  • the film thicknesses of the TiO 2 film and the SiO 2 film of the Fabry-Perot resonator 1 used in the solid-state imaging device 300 of Example 1 are TiO 2 film: 46 nm and SiO 2 film: 82 nm. It should be noted that other material systems may be used as long as the material has a high refractive index and a low material, such as a TaO 2 film and a SiO 2 film, a Si 3 N 4 film, and a SiO 2 film.
  • the wavelength variable device provided in the solid-state imaging device 300 includes an optical element (Fabry-Perot resonator 1) and distance variable devices 305-1 and 305-2.
  • the distance d3 of the air gap 303 was changed using the distance variable devices 305-1 and 305-2.
  • piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 300 further includes an imaging lens 308 and an IR-cut filter 309 in order from the light incident side on the upper layer (upward direction in FIG. 8A) on the light incident side. As shown in FIG.
  • the IR-cut filter 309 has a function of cutting light in the near infrared region and transmitting light in the visible light region.
  • the solid-state imaging device 300 includes a semiconductor substrate 307 and four photodiodes (PD) formed on the semiconductor substrate 307 in a lower layer (downward direction in FIG. 8A) of the wavelength variable device.
  • PD photodiodes
  • a wiring layer is formed below the semiconductor substrate 307 (downward in FIG. 8A).
  • FIG. 10 shows a transmittance spectrum when the distance d3 of the air gap 303 is changed in the range of 0.2 ⁇ m to 0.24 ⁇ m
  • FIG. 11 shows the distance d3 of the air gap 303 in the range of 0.25 ⁇ m to 0.
  • FIG. 12 shows the transmittance spectrum when the distance d3 of the air gap 303 is changed within the range of 0.30 ⁇ m to 0.34 ⁇ m.
  • Reference numeral 13 denotes a transmittance spectrum when the distance d3 of the air gap 303 is changed in the range of 0.35 ⁇ m to 0.39 ⁇ m.
  • the dependency of the peak wavelength on the distance d3 of the air gap 303 is shown in FIG. As shown in FIG. 14, for example, when the distance d3 of the air gap 303 is 250 nm, the peak wavelength ⁇ 0 is 504 nm, and when the distance d3 of the air gap 303 is 320 nm, the peak wavelength ⁇ 0 is 582 nm. When the distance d3 of the air gap 303 is 400 nm, the peak wavelength ⁇ 0 is 661 nm. Therefore, the peak wavelength ⁇ 0 is almost 450 to 660 nm with respect to the change of the distance d3 of the air gap 303 from 200 to 400 nm. I found it changing linearly.
  • the IR-cut filter 309 in the upper layer cuts light having a wavelength of 650 nm or more, so that a single peak transmission spectrum was obtained. As shown in FIGS. 10 to 13, sub-peaks appear at 420 nm or less, but these wavelength ranges may be cut by another filter.
  • the solid-state imaging device 300 is visible by reading the current with the pixel structure and circuit as shown in FIG. 3 while changing the distance d3 of the air gap 303 (the distance d 0 of the air gap 3 in FIG. 9).
  • a pseudo continuous spectrum may be acquired by reading out by accumulation and shortening the accumulation time and instantaneously reading out at high speed.
  • the solid-state imaging device may be provided with a floating diffusion (FD) to read out the voltage signal.
  • FD floating diffusion
  • the measurement may be performed with a narrow wavelength interval equal to or less than the peak half width.
  • FIG. 15A is a diagram illustrating a cross-sectional configuration of the solid-state imaging device 400 according to the second embodiment.
  • the solid-state imaging device 400 includes one optical element and four photodiodes (PD) in four pixels.
  • FIG. 15B is a graph showing the relationship between the transmittance (T) (vertical axis) and the wavelength ( ⁇ ) (horizontal axis) when light is incident on the solid-state imaging device 400.
  • the solid-state imaging device 400 includes an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 401a (a three-layer structure of 401-1 to 401-3) 401b (401-4 to The Fabry-Perot resonator 1 shown in FIG. 9 was used as an optical element including a five-layer structure 401-8), an air gap 403 between the dielectric multilayer films 401a and 401b, and substrates 402 and 404.
  • the film thicknesses of the TiO 2 film and the SiO 2 film of the Fabry-Perot resonator 1 used in the solid-state imaging device 400 of Example 2 are TiO 2 film: 83 nm and SiO 2 film: 150 nm. It should be noted that other material systems may be used as long as the material has a high refractive index and a low material, such as a TaO 2 film and a SiO 2 film, a Si 3 N 4 film, and a SiO 2 film.
  • the variable wavelength device provided in the solid-state imaging device 400 includes an optical element (Fabry-Perot resonator 1) and variable distance devices 405-1 and 405-2.
  • the distance d4 of the air gap 403 was changed by using the distance variable devices 405-1 and 405-2.
  • piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 400 further includes an imaging lens 408 and a visible light-cut filter 409 in order from the light incident side on the upper layer (upward direction in FIG. 15A) on the light incident side. As shown in FIG.
  • the visible light-cut filter 409 has a function of cutting light in the visible light region and mainly transmitting light in the near infrared region.
  • the solid-state imaging device 400 includes a semiconductor substrate 407 and four photodiodes (PD) formed on the semiconductor substrate 407 in a lower layer of the wavelength tunable device (downward in FIG. 15A).
  • PD photodiodes
  • a wiring layer is formed below the semiconductor substrate 407 (downward in FIG. 15A).
  • FIG. 2B shows the result of the transmittance spectrum when the distance d4 of the air gap 403 is changed.
  • FIG. 2B shows a transmittance spectrum when the distance d4 of the air gap 403 is changed in the range of 0.3 ⁇ m to 0.475 ⁇ m.
  • the peak wavelength ⁇ 0 changes almost linearly from 680 to 900 nm as the distance d4 of the air gap 403 changes from 0.3 ⁇ m to 0.475 ⁇ m.
  • the visible light-cut filter 409 cuts light having a wavelength of 650 nm or less, thereby obtaining a single peak transmission spectrum.
  • the solid-state imaging device 400 reads the current with the pixel structure and the circuit as shown in FIG. 3 while changing the distance d4 of the air gap 403 (the distance d0 of the air gap 3 in FIG. 9), thereby realizing near-red
  • a pseudo continuous spectrum may be acquired by reading out by accumulation and shortening the accumulation time and instantaneously reading out at high speed.
  • the solid-state imaging device may be provided with a floating diffusion (FD) to read out the voltage signal.
  • FD floating diffusion
  • the measurement may be performed with a narrow wavelength interval equal to or less than the peak half width.
  • FIG. 16A is a diagram illustrating a cross-sectional configuration of the solid-state imaging device 500 according to the third embodiment.
  • the solid-state imaging device 500 includes one optical element and four photodiodes (PD) in four pixels.
  • FIG. 16B is a graph showing the relationship between the transmittance (T) (vertical axis) and the wavelength ( ⁇ ) (horizontal axis) when light is incident on the solid-state imaging device 500.
  • the solid-state imaging device 500 includes optical interference filters (also referred to as a dielectric multilayer film or a reflective multilayer film) 501a (a three-layer structure of 501-1 to 501-3) and 501b (501-4 to The Fabry-Perot resonator 1 shown in FIG. 9 was used as an optical element including a five-layer structure 501-8, an air gap 503 between the dielectric multilayer films 501a and 501b, and substrates 502 and 504.
  • optical interference filters also referred to as a dielectric multilayer film or a reflective multilayer film
  • 501a a three-layer structure of 501-1 to 501-3
  • 501b 501-4 to The Fabry-Perot resonator 1 shown in FIG. 9 was used as an optical element including a five-layer structure 501-8, an air gap 503 between the dielectric multilayer films 501a and 501b, and substrates 502 and 504.
  • n is a refractive index, which is the refractive index of each of the TiO 2 film and the SiO 2 film. It should be noted that other material systems may be used as long as the material has a high refractive index and a low material, such as a TaO 2 film and a SiO 2 film, a Si 3 N 4 film, and a SiO 2 film.
  • the wavelength tunable device provided in the solid-state imaging device 500 includes an optical element (Fabry-Perot resonator 1) and distance variable devices 505-1 and 505-2.
  • the distance d5 of the air gap 503 is changed by using the distance variable devices 505-1 and 505-2.
  • piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 500 further includes an imaging lens 508 and a band-pass filter 509 in order from the light incident side on the upper layer (upward direction in FIG. 16A) on the light incident side. As shown in FIG. 16B, the bandpass filter 509 has a function of transmitting only a narrowband wavelength.
  • the solid-state imaging device 500 includes a semiconductor substrate 507 and four photodiodes (PD) formed on the semiconductor substrate 507 in the lower layer (downward direction in FIG. 16A) of the wavelength tunable device.
  • PD photodiodes
  • a wiring layer is formed below the semiconductor substrate 507 (downward in FIG. 16A).
  • the peak wavelength ⁇ 0 changed substantially linearly. Furthermore, a single peak transmission spectrum was obtained by transmitting only a narrow wavelength band.
  • the solid-state imaging device 500 performs band-pass by performing current reading with the pixel structure and circuit as shown in FIG. 3 while changing the distance d5 of the air gap 503 (the distance d0 of the air gap 3 in FIG. 9).
  • the transmission wavelength region of the filter 509 it is possible to acquire an image of light having a wavelength in a narrower band
  • the transmission wavelength region of the band-pass filter 509 it is possible to acquire a continuous spectrum of wavelength light in a further narrow band became.
  • a pseudo continuous spectrum may be acquired by reading out by accumulation and shortening the accumulation time and instantaneously reading out at high speed.
  • the solid-state imaging device may be provided with a floating diffusion (FD) to read out the voltage signal.
  • the measurement may be performed with a narrow wavelength interval equal to or less than the peak half width.
  • FIG. 17A is a diagram illustrating a cross-sectional configuration of the solid-state imaging device 600 of the fourth embodiment.
  • the solid-state imaging device 600 includes one optical element and one photodiode (PD) in one pixel, and four pixels are illustrated in FIG.
  • FIG. 17B is a diagram illustrating a cross-sectional configuration of the solid-state imaging device 700 according to the fourth embodiment.
  • the solid-state imaging device 700 includes one optical element and one photodiode (PD) in one pixel, and four pixels are illustrated in FIG. FIG.
  • 17C shows the transmittance (T) (vertical axis) and wavelength ( ⁇ ) (horizontal axis) of each of the on-chip color filters (OCCF) of red (R), green (G), and blue (B). It is a graph which shows the relationship.
  • Solid-state imaging device 600 First, the solid-state imaging device 600 will be described. For convenience, a description will be given using the rightmost pixel of the four pixels in FIG. 17A except for an on-chip color filter (OCCF) described later.
  • OCCF on-chip color filter
  • the solid-state imaging device 600 includes an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 601a (three-layer structure) and 601b (five-layer structure), which are arranged to face each other, and a dielectric
  • the Fabry-Perot resonator 1 shown in FIG. 9 was used as an optical element including the air gap 603 between the multilayer films 601a and 601b and the substrates 602 and 604.
  • the film thicknesses of the TiO 2 film and the SiO 2 film of the Fabry-Perot resonator 1 used in the solid-state imaging device 600 of Example 4 are TiO 2 film: 46 nm and SiO 2 film: 81 nm. It should be noted that other material systems may be used as long as the material has a high refractive index and a low material, such as a TaO 2 film and a SiO 2 film, a Si 3 N 4 film, and a SiO 2 film.
  • the wavelength tunable device provided in the solid-state imaging device 600 includes an optical element (Fabry-Perot resonator 1) and distance variable devices 605-1 and 605-2 for each pixel.
  • the distance d6 of the air gap 603 was changed by using the distance variable devices 605-1 and 605-2.
  • piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 600 further includes an imaging lens 608 and an IR-cut filter 609 in order from the light incident side in the upper layer (upward direction in FIG. 17A) on the light incident side. As shown in FIG.
  • the on-chip color filter (OCCF) 610 (610-1 to 610-4) emits light in the visible light region where light in the near infrared region is cut by the IR-cutfilter 609. , Red (R), green (G) and blue (B) light.
  • the solid-state imaging device 600 includes a semiconductor substrate 607 and four photodiodes (PD) formed on the semiconductor substrate 607 in a lower layer (downward direction in FIG. 17A) of the wavelength variable device. Although not illustrated, in the solid-state imaging device 600, a wiring layer is formed below the semiconductor substrate 607 (downward in FIG. 17A).
  • the solid-state imaging device 600 includes an on-chip color filter (OCCF) for each pixel between the optical element (Fabry-Perot resonator 1) and the IR-cut filter 609, and sequentially from the left side in FIG. Green (G) on-chip color filter (OCCF) 610-1, red (R) on-chip color filter (OCCF) 610-2, blue (B) on-chip color filter (OCCF) 610-3 and green (G) on A chip color filter (OCCF) 610-4 is arranged.
  • Green (G) on-chip color filter (OCCF) 610-1, red (R) on-chip color filter (OCCF) 610-2, blue (B) on-chip color filter (OCCF) 610-3 and green (G) on A chip color filter (OCCF) 610-4 is arranged.
  • the distance d6 of the air gap 603 for each pixel is set to a movable range corresponding to red (R), green (G), and blue (B).
  • the peak wavelength ⁇ 0 changed substantially linearly. Furthermore, a single peak transmission spectrum was obtained by transmitting only a narrow wavelength band.
  • the solid-state imaging device 600 reads the current (red) by changing the distance d6 of the air gap 603 (the distance d0 of the air gap 3 in FIG. 9) with the pixel structure and circuit as shown in FIG.
  • the transmission wavelength region of the on-chip color filter (OCCF) 610 (610-1 to 610-4) of R
  • green (G) and blue (B) along with image acquisition of wavelength light in a narrower wavelength region
  • the transmission wavelength region of the on-chip color filter (OCCF) 610 (610-1 to 610-4) of red (R), green (G), and blue (B)
  • continuous wavelength light in a narrower wavelength region It became possible to acquire a spectroscopic spectrum.
  • a pseudo continuous spectrum may be acquired by reading out by accumulation and shortening the accumulation time and instantaneously reading out at high speed.
  • the solid-state imaging device may be provided with a floating diffusion (FD) to read out the voltage signal.
  • FD floating diffusion
  • the measurement may be performed with a narrow wavelength interval equal to or less than the peak half width.
  • Solid-state imaging device 700 The solid-state imaging device 700 will be described.
  • the solid-state imaging device 700 includes an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 701a (three-layer configuration) and 701b (five-layer configuration), which are arranged to face each other, and each has a dielectric.
  • the Fabry-Perot resonator 1 shown in FIG. 9 was used as an optical element including the air gap 703 between the body multilayer films 701a and 701b and the substrates 702 and 704.
  • the film thicknesses of the TiO 2 film and the SiO 2 film of the Fabry-Perot resonator 1 used in the solid-state imaging device 700 of Example 4 are TiO 2 film: 46 nm and SiO 2 film: 81 nm. It should be noted that other material systems may be used as long as the material has a high refractive index and a low material, such as a TaO 2 film and a SiO 2 film, a Si 3 N 4 film, and a SiO 2 film.
  • the wavelength variable device provided in the solid-state imaging device 700 includes an optical element (Fabry-Perot resonator 1) and distance variable devices 705-1 and 705-2 for each pixel.
  • the distance d7 of the air gap 703 was changed by using the distance variable devices 705-1 and 705-2.
  • piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 700 further includes an imaging lens 708 and an IR-cut filter 709 in order from the light incident side on the upper layer (upward direction in FIG. 17B) on the light incident side. As shown in FIG.
  • the on-chip color filter (OCCF) 710 (710-1 to 710-4) emits light in the visible light region where light in the near infrared region is cut by the IR-cutfilter 709. , Red (R), green (G) and blue (B) light.
  • the solid-state imaging device 700 includes a semiconductor substrate 707 and four photodiodes (PD) formed on the semiconductor substrate 707 in the lower layer of the wavelength tunable device (downward in FIG. 17B). Although not shown, in the solid-state imaging device 700, a wiring layer is formed below the semiconductor substrate 707 (downward in FIG. 17B).
  • the solid-state imaging device 700 includes an on-chip color filter (OCCF) for each pixel between the optical element (Fabry-Perot resonator 1) and the semiconductor substrate 707 (PD), and starts from the left side in FIG.
  • OCCF on-chip color filter
  • An on-chip color filter (OCCF) 710-4 is arranged.
  • OCCF on-chip color filter
  • the distance d7 of the air gap 703 for each pixel is set to a movable range corresponding to red (R), green (G), and blue (B).
  • the peak wavelength ⁇ 0 changed substantially linearly. Furthermore, a single peak transmission spectrum was obtained by transmitting only a narrow wavelength band.
  • the solid-state imaging device 700 reads the current with the pixel structure and the circuit as shown in FIG. 3 while changing the distance d7 of the air gap 703 (the distance d0 of the air gap 3 in FIG. 9).
  • the transmission wavelength region of the on-chip color filter (OCCF) 710 (710-1 to 710-4) of R green (G) and blue (B), along with image acquisition of wavelength light in a narrower wavelength region
  • the transmission wavelength region of the on-chip color filter (OCCF) 710 (710-1 to 710-4) of red (R), green (G), and blue (B) continuous wavelength light in a narrower wavelength region It became possible to acquire a spectroscopic spectrum.
  • a pseudo continuous spectrum may be acquired by reading out by accumulation and shortening the accumulation time and instantaneously reading out at high speed.
  • the solid-state imaging device may be provided with a floating diffusion (FD) to read out the voltage signal.
  • FD floating diffusion
  • the measurement may be performed with a narrow wavelength interval equal to or less than the peak half width.
  • FIG. 18A is a diagram illustrating a cross-sectional configuration of the solid-state imaging apparatus 800 according to the fifth embodiment.
  • FIG. 18B is a diagram illustrating a cross-sectional configuration of the solid-state imaging device 900 according to the fourth embodiment.
  • Solid-state imaging device 800 First, the solid-state imaging device 800 will be described.
  • the solid-state imaging device 800 includes one optical element and one photodiode (PD) in one pixel, and two pixels are illustrated in FIG. According to the solid-state imaging device 800, since spectral spectra in different wavelength regions can be acquired simultaneously, a spectrum in a wide wavelength region can be acquired at high speed.
  • the structure of the solid-state imaging device 800 can also be applied to the solid-state imaging devices 300 to 700 (Examples 1 to 4).
  • the solid-state imaging device 800 includes an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 801-1a (three-layer configuration of 801-1-1 to 801-1-3) that is disposed to face the spectrum. 801-1b (a five-layer structure of 801-1-4 to 801-1-8), an air gap 803-1 between the dielectric multilayer films 801-1a and 801-1b, and substrates 802-1 and 804
  • the Fabry-Perot resonator 1 shown in FIG. 9 can be used as an optical element including ⁇ 1 (the optical element on the left side in FIG. 18A).
  • the solid-state imaging device 800 has an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 801-2a (801-2-1 to 801-2-3) that is disposed to face the spectrum. ) And 801-2b (a five-layer structure of 801-2-4 to 801-2-8), an air gap 803-2 between the dielectric multilayer films 801-2a and 801-2b, and a substrate 802-2 And Fabry-Perot resonator 1 shown in FIG. 9 can be used as an optical element comprising 804-2 and 804-2 (the optical element on the right side in FIG. 18A).
  • an optical interference filter also referred to as a dielectric multilayer film or a reflective multilayer film
  • the wavelength tunable device provided in the solid-state imaging device 800 includes the left side optical element (Fabry-Perot resonator 1) in FIG. 18A and distance variable devices 805-1-1 and 805-1-2. Further, the wavelength tunable device included in the solid-state imaging device 800 includes the right optical element (Fabry-Perot resonator 1) in FIG. 18A and distance variable devices 805-2-1 and 805-2-2. That is, since the solid-state imaging device 800 includes a wavelength variable device for each pixel, the solid-state imaging device 800 includes two wavelength variable devices for two pixels in FIG.
  • the distance d8-1 of the air gap 803-1 can be changed by using the distance variable devices 805-1-1 and 805-1-2. it can. Further, in the right air gap 803-2 in FIG. 18A, the distance d8-2 of the air gap 803-2 is changed by using the distance variable devices 805-2-1 and 805-2-2. be able to.
  • the distance variable devices 805-1-1 to 805-1-2 and 805-2-1 to 805-2-2 piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 800 includes two semiconductor pixels 807-1 to 807-2 and semiconductor substrates 807-1 and 807-2 in the lower layer of the wavelength tunable device (downward in FIG. 18A). A total of two photodiodes (PD) formed in each are provided. Although not shown, in the solid-state imaging device 800, a wiring layer is formed below the semiconductor substrate 807 (807-1 to 807-2) (downward in FIG. 18A).
  • Solid-state imaging device 900 Solid-state imaging device 900
  • the solid-state imaging device 900 will be described.
  • the solid-state imaging device 900 includes one optical element and a plurality of photodiodes (PD) in a plurality of pixels.
  • the solid-state imaging device 900 includes one optical element and four photodiodes (PD) in four pixels. According to the solid-state imaging device 900, since a spectrum having the same wavelength can be acquired, an image can be made to have a high resolution.
  • the structure of the solid-state imaging device 900 can also be applied to the solid-state imaging devices 300 to 700 (Examples 1 to 4).
  • the solid-state imaging device 900 includes an optical interference filter (also referred to as a dielectric multilayer film or a reflective multilayer film) 901a (three-layer configuration of 901-1 to 901-3) and 901b (901-4 to The Fabry-Perot resonator 1 shown in FIG. 9 is used as an optical element including a five-layer structure 901-8, an air gap 903 between the dielectric multilayer films 901a and 901b, and substrates 902 and 904. it can.
  • an optical interference filter also referred to as a dielectric multilayer film or a reflective multilayer film
  • 901a three-layer configuration of 901-1 to 901-3
  • 901b 901-4 to The Fabry-Perot resonator 1 shown in FIG. 9 is used as an optical element including a five-layer structure 901-8, an air gap 903 between the dielectric multilayer films 901a and 901b, and substrates 902 and 904. it can.
  • the wavelength variable device provided in the solid-state imaging device 900 includes an optical element (Fabry-Perot resonator 1) and distance variable devices 905-1 and 905-2.
  • the distance d9 of the air gap 903 can be changed using the distance variable devices 905-1 and 905-2.
  • the distance variable devices 905-1 and 905-2 piezoelectric elements such as piezo elements or MEMS elements can be used.
  • the solid-state imaging device 900 includes a semiconductor substrate 907 and four photodiodes (PD) formed on the semiconductor substrate 907 as a plurality of pixels (four pixels) below the wavelength tunable device (downward in FIG. 18B). ). Although not shown, in the solid-state imaging device 900, a wiring layer is formed below the semiconductor substrate 907 (downward in FIG. 18B).
  • PD photodiodes
  • FIG. 19 is a graph showing the result of a continuous spectrum obtained by tumor examination as a medical application.
  • the vertical axis represents signal intensity
  • the horizontal axis represents wavelength ⁇ (nm).
  • continuous spectral spectroscopy is obtained by using a sensor or a solid-state imaging device according to the present technology for reflected light on a cell surface together with an image of the tumor. This makes it possible to make more accurate judgments.
  • the shape of the continuous spectrum of normal cells, tumor cells, stroma and blood vessels was different in the wavelength range of 550 nm to 800 nm. Acquiring an image simultaneously with acquisition of a continuous spectrum of such a detailed shape makes it possible to accurately determine which part of the cell is abnormal. This leads to the determination of the correct treatment.
  • FIG. 20A is a graph showing the result of a continuous spectrum obtained by a spot test as a cosmetic application.
  • the vertical axis represents the reflectance, and the horizontal axis represents the wavelength ⁇ (nm).
  • FIG. 20B is a graph showing the results of continuous spectral spectra obtained by scalp examination as a cosmetic application.
  • the vertical axis represents the reflectance, and the horizontal axis represents the wavelength ⁇ (nm).
  • FIG. 20C is a graph showing the result of a continuous spectrum obtained by a hair moisturizing test as a cosmetic application.
  • the vertical axis represents the maximum normalized reflectance, and the horizontal axis represents the wavelength ⁇ (nm). Note that the sensor or the solid-state imaging device according to the present technology was used to acquire a continuous spectral spectrum in the spot test, the scalp test, and the hair moisturizing test.
  • the shape of the reflectance spectrum of light from the surface is large in the normal skin part and the spot part, so that a continuous spectral spectrum is acquired. So I was able to determine where the stain was. In particular, it has become possible to make a determination by acquiring the shape of a continuous spectral spectrum from a wavelength of 450 to 900 nm and a spot image.
  • the shape of the reflectance spectrum of light from normal skin, latent melanin, and melanin changes, so by acquiring a continuous spectral spectrum, The site of melanin and latent melanin can be recognized.
  • the present technology may have the following configurations.
  • An optical element including at least two optical interference filters, wherein the at least two optical interference filters are arranged opposite to each other, and an optical element having a gap between the at least two optical interference filters arranged opposite to each other; and a distance that varies a distance of the gap
  • At least one tunable device comprising: a tunable device; And at least one photoelectric conversion element, A sensor that acquires a continuous spectral spectrum by changing the distance of the gap.
  • the variable distance device is a piezoelectric element or a MEMS element.
  • the sensor according to any one of [1] to [7], further comprising at least one filter that transmits light in a specific wavelength band of incident light.
  • At least one tunable device comprising: a tunable device; A first semiconductor substrate; A second semiconductor substrate; At least one photodiode formed on the first semiconductor substrate and having a light receiving surface on a second main surface side of the first semiconductor substrate; A floating diffusion formed on the surface of the first main surface of the first semiconductor substrate; A first transistor formed on the first main surface of the first semiconductor substrate; A first wiring layer formed on the first main surface of the first semiconductor substrate; A first electrode exposed on the surface of the first wiring layer; A second transistor formed on the first main surface of the second semiconductor substrate; A second wiring layer formed on the first main surface of the first main
  • the sensor according to any one of [9] to [14], further comprising at least one filter that transmits light in a specific wavelength band of incident light.
  • An optical element including at least two optical interference filters, wherein the at least two optical interference filters are arranged opposite to each other, and an optical element having a gap between the at least two optical interference filters arranged opposite to each other; and a distance that varies a distance of the gap
  • At least one tunable device comprising: a tunable device; A first semiconductor substrate, a second semiconductor substrate, At least one photodiode formed on the first semiconductor substrate and having a light receiving surface on a second main surface side of the first semiconductor substrate; A first transistor formed on the first main surface of the first semiconductor substrate; A first wiring layer formed on the first main surface of the first semiconductor substrate; A first electrode exposed on the surface of the first wiring layer; A second transistor formed on the first main surface of the second semiconductor substrate; A second wiring layer formed on the first main surface of the second semiconductor substrate; A second electrode exposed on the surface of the second wiring layer;
  • [16] The sensor according to [16], wherein in the continuous spectrum, at least one pair of two adjacent spectra has a peak wavelength interval that is equal to or less than a peak half width.
  • the optical element is a Fabry-Perot resonator.
  • the gap is an air gap.
  • the variable distance device is a piezoelectric element or a MEMS element.
  • the photoelectric charge signal is continuously read out in conjunction with changing the gap distance.
  • [22] The sensor according to any one of [16] to [20], wherein the photoelectric charge signal is continuously read out by a current while interlocking with changing the gap distance.
  • [24] [1] A solid-state imaging device comprising at least one sensor according to any one of [23] and having a plurality of pixels arranged one-dimensionally or two-dimensionally.
  • An electronic device comprising the sensor according to any one of [1] to [23].
  • An electronic device comprising the solid-state imaging device according to [24].
  • distance variable device d0 to d9 (air) gap distance
  • 150 250 ... optical element 1000, 2000 ... wavelength variable device, 106, 206 (206-1 to 206-4) ... photoelectric conversion element, 100 ... sensor, 200, 300, 400, 500, 600, 700, 800, 900... Solid-state imaging device.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Light Control Or Optical Switches (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Optical Filters (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

信頼性や画質を向上させることができるセンサを提供すること。 少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、少なくとも1つの光電変換素子と、を備え、該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサを提供する。

Description

センサ、固体撮像装置及び電子装置
 本技術は、センサ、固体撮像素子及び電子装置に関する。
 近年、光エレクトロニクス全般から、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ(CIS)やCCD(Charge Coupled Device)などの固体撮像装置に関わる分野では、画質の向上を図るために様々な研究開発が行われている。
 例えば、複数の単位画素がチップ上に配列されたイメージセンサを有する撮像装置であって、前記イメージセンサは、単位画素毎に入射光を光電変換する光電変換素子と、該光電変換素子の上方に配置され前記入射光の一部の波長のみを選択的に透過させて色成分を分離するフィルタとを備え、前記フィルタは、無機材料で形成された多層膜フィルタであり、前記選択的に透過させる帯域の半値幅が100nmより狭くなるように構成されていることを特徴とする撮像装置が提案されている(特許文献1を参照)。
 また、例えば、撮像素子を備えた光学系の光路上に配置される分光透過率可変素子であって、前記撮像素子の各画素または複数画素を単位とした一部の受光領域で受光される光束を通過可能な大きさの有効径を有し、光軸に垂直であるほぼ同一面上に並列配置された複数組の対向する微小反射鏡と、前記各組の対向する微小反射鏡同士の間隔を可変とする間隔可変手段を備えてなることを特徴とする分光透過率可変素子が提案されている(特許文献2を参照)。
特開2007-103401号公報 特開2006-178320号公報
 しかしながら、特許文献1及び特許文献2で提案された技術では、更なる信頼性の向上や画質の向上を図れないおそれがある。したがって、更なる信頼性の向上や画質の向上をさせたセンサ及び固体撮像装置が望まれているのが現状である。
 そこで、本技術は、このような状況に鑑みてなされたものであり、信頼性や画質を向上させたセンサ、固体撮像装置、及び、センサ又は固体撮像装置を備える電子装置を提供することを主目的とする。
 本発明者は、上述の目的を解決するために鋭意研究を行った結果、信頼性や画質を向上させたセンサ及び固体撮像装置を開発することに成功し、本技術を完成するに至った。
 すなわち、本技術では、少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、少なくとも1つの光電変換素子と、を備え、該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサを提供する。
 また、本技術では、少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、第1半導体基板と、第2半導体基板と、該第1半導体基板に形成された、該第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、該第1半導体基板の第1主面の表面に形成されたフローティングディフュージョンと、該第1半導体基板の該第1主面上に形成された第1トランジスタと、該第1半導体基板の該第1主面上に形成された第1配線層と、該第1配線層の表面に露出する第1電極と、該第2半導体基板の第1主面上に形成された第2トランジスタと、該第2半導体基板の該第1主面上に形成された第2配線層と、該第2配線層の表面に露出する第2電極と、該第1電極及び該第2電極を介して、該フローティングディフュージョンと該第2トランジスタのゲート電極とを接続するフローティングディフュージョン配線と、を備え、該第1電極と該第2電極とが接合されて、該第1半導体基板と該第2半導体基板とが貼り合わされ、該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサを提供する。該第2トランジスタが該少なくとも1のフォトダイオードに共有されてもよい。
 さらに、本技術では、少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、第1半導体基板と、第2半導体基板と、該第1半導体基板に形成された、該第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、該第1半導体基板の該第1主面上に形成された第1トランジスタと、該第1半導体基板の該第1主面上に形成された第1配線層と、該第1配線層の表面に露出する第1電極と、該第2半導体基板の第1主面上に形成された第2トランジスタと、該第2半導体基板の該第1主面上に形成された第2配線層と、該第2配線層の表面に露出する第2電極と、該第1電極及び該第2電極を介して、該少なくとも1つのフォトダイオードの第3電極と該第2トランジスタのゲート電極とを接続する電流読み出し用配線と、を備え、該第1電極と該第2電極とが接合されて、該第1半導体基板と該第2半導体基板とが貼り合わされ、該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサを提供する。該第2トランジスタが該少なくとも1のフォトダイオードに共有されてもよい。
 前記連続的な分光スペクトルにおいて、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下でよい。
 前記光学素子がファブリペロ共振器でよい。
 前記ギャップがエアギャップでよい。
 前記距離可変装置が圧電素子又はMEMS素子でよい。
 本技術に係るセンサにおいて、前記ギャップの距離を変化させることに連動しながら光電荷信号を連続的に読み出すことでよい。
 本技術に係るセンサにおいて、前記ギャップの距離を変化させることに連動しながら光電荷信号を電流によって連続的に読み出すことでよい。
 本技術に係るセンサが、入射光のうちの特定波長帯域の光を透過させる少なくとも1つのフィルタを更に備えていてもよい。
 本技術では、本技術に係るセンサを少なくとも1つ備え、複数の画素を1次元又は2次元に配列した、固体撮像装置を提供する。
 また、本技術では、本技術に係るセンサを備える、電子装置を提供する。
 さらに、本技術では、本技術に係る固体撮像装置を備える、電子装置を提供する。
 本技術によれば、信頼性や画質を向上させることができる。なお、ここに記載された効果は、必ずしも限定されるものではなく、本技術中に記載されたいずれかの効果であってもよい。
本技術を適用したセンサ及び固体撮像装置の構成例を示す断面図である。 本技術を適用したセンサにより取得した可視光及び本技術を適用した実施例2の固体撮像装置により取得した赤外光の連続的な分光スペクトルを示すグラフである 本技術を適用したセンサ及び固体撮像装置に備えられるフォトダイオードの構造と回路を用いて信号読出しを説明するための図である。 連続スペクトルを説明するための図である。 本技術を適用したセンサ又は固体撮像装置が有する積層構造の構成例を示す断面図である。 本技術を適用したセンサ又は固体撮像装置が有する積層構造の構成例を示す断面図である。 本技術を適用したセンサ又は固体撮像装置が有する積層構造の構成例を示す断面図である。 本技術を適用した実施例1の固体撮像装置の断面構成を示す図と、実施例1の固体撮像装置に光入射したときの透過率(T)と波長(λ)との関係を示す図である。 本技術を適用したセンサ又は固体撮像装置に備えられるファブリペロ共振器の構成例を示す断面図である。 本技術を適用した実施例1の固体撮像装置により取得した連続的な分光スペクトルを示すグラフである。 本技術を適用した実施例1の固体撮像装置により取得した連続的な分光スペクトルを示すグラフである。 本技術を適用した実施例1の固体撮像装置により取得した連続的な分光スペクトルを示すグラフである。 本技術を適用した実施例1の固体撮像装置により取得した連続的な分光スペクトルを示すグラフである。 本技術を適用した実施例1の固体撮像装置における、ピーク波長(λ)とギャップ距離(d)との関係を示す図である。 本技術を適用した実施例2の固体撮像装置の断面構成を示す図と、実施例2の固体撮像装置に光入射したときの透過率(T)と波長(λ)との関係を示す図である。 本技術を適用した実施例3の固体撮像装置の断面構成を示す図と、実施例3の固体撮像装置に光入射したときの透過率(T)と波長(λ)との関係を示す図である。 本技術を適用した実施例4の固体撮像装置の断面構成を示す図と、オンチップカラーフィルター(OCCF)の透過率(T)と波長(λ)との関係を示す図である。 本技術を適用した実施例5の固体撮像装置の断面構成を示す図である。 本技術を適用した実施例6(医療応用)の腫瘍検査で得られた連続的な分光スペクトルの結果を示すグラフである。 本技術を適用した実施例6(美容応用)のシミ検査、頭皮検査及び髪の保湿検査で得られた連続的な分光スペクトルの結果を示すグラフである。 本技術を適用したセンサ又は固体撮像装置の使用例を示す図である。
 以下、本技術を実施するための好適な形態について図面を参照しながら説明する。以下に説明する実施形態は、本技術の代表的な実施形態の一例を示したものであり、これにより本技術の範囲が狭く解釈されることはない。なお、図面については、同一又は同等の要素又は部材には同一の符号を付し、重複する説明は省略する。
 なお、説明は以下の順序で行う。
 1.本技術の概要
 2.第1の実施形態(センサの例1)
 3.第2の実施形態(センサの例2)
 4.第3の実施形態(センサの例3)
 5.第4の実施形態(センサの例4)
 6.第5の実施形態(固体撮像装置の例)
 7.第6の実施形態(電子装置の例1)
 8.第7の実施形態(電子装置の例2)
 9.本技術を適用した固体撮像装置の使用例
 <1.本技術の概要>
 光学素子、例えば、ファブリペロ共振器を使ったセンサ(例えば、画像センサ、光センサ等)又はCMOSイメージセンサ(CIS)では、赤緑青(RGB)+赤外(IR)等のマルチ分光が従来から検討されている。しかし、分光スペクトルの線幅が狭く離散的な分光特性となる。このため理想分光から大きく外れてしまい、色再現性が悪化する場合がある。また分光特性が連続していないために抜けが発生し、抜けた波長帯からの重要な情報を見逃すことがある。さらに分光波長が増えるために、画素を1次元又は2次元に並べると解像度劣化が生じることもある。
 一方、解像度劣化を避ける方法として、微小反射鏡の間にエアギャップを用いたエタロン構造で、一つの画素で複数の波長帯域を取得するという技術がある。しかし、一つ一つの分光は離散的であり、連続スペクトルにはなり得ないことが多い。
 本技術は以上の状況に基づくものであり、本技術は、優れた信頼性や優れた画質の効果を奏する。すなわち、本技術によれば、分光スペクトル線幅が狭く、かつ、離散的な分光特性となるために、理想分光から大きく外れてしまい、色再現性が悪化することがなく、離散的な分光特性のために検波する波長に抜けが発生し、抜けた波長帯からの重要な情報を見逃すことがなく、さらに、分光波長が増えるために、画素を1次元又は2次元に配列すると解像度劣化が生じることがない。より詳しくは、本技術によれば、被写体の詳細な分光スペクトル情報と画像情報を同時に取得することを可能にするので、正確な色情報を取得できるために色再現性が向上し、一つの画素で全波長が取得できるために、高解像度の画像が得られ、さらに詳細な連続的な分光スペクトル情報の取得から、腫瘍検査や美容や分光に関わる各種生体センサに応用されて、検査や診断等において正確な判断・判定が可能となる。
 <2.第1の実施形態(センサの例1)>
 本技術に係る第1の実施形態(センサの例1)のセンサは、少なくとも2つの光学干渉フィルタを含み、少なくとも2つの光学干渉フィルタが対向配置され、対向配置された少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、少なくとも1つの光電変換素子と、を備え、ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサである。
 本技術に係る第1の実施形態(センサの例1)のセンサでは、特定波長域を透過するギャップを有する光学素子(例えば、ファブリペロ共振器)と、第1の実施形態のセンサの構成と、第1の実施形態のセンサの駆動方法の工夫とによって連続的な分光スペクトルを取得できる。また、本技術に係る第1の実施形態のセンサは、分解能の高い詳細な連続的な分光スペクトルの取得によって、医療、生体、その他の分析応用を可能にする。
 次に、図1(A)を用いて、本技術に係る第1の実施形態のセンサ100を詳細に説明する。図1(A)は、センサ100の構成例を示す断面図である。図1(A)においては、センサ100は、1つの光学素子150と1つの光電変換素子106(例えば、フォトダイオード(PD))とを備える。光学素子150は特に限定されないが、例えば、ファブリペロ共振器が挙げられる。
 光学素子150は、対向配置された分光を担う光学干渉フィルタ101a(101-1~101-3の3層構成)及び101b(101-4~101-8の5層構成)と、光学干渉フィルタ101aと101bとの間のギャップ103と、基板102及び104とを備える。光学干渉フィルタ101a及び101bは、例えば、誘電体多層膜、反射多層膜等が挙げられる。
 多層膜である光学干渉フィルタ101aは光入射側である上層(図1(A)中の上方向)から順に、光学干渉フィルタ101-1、光学干渉フィルタ101-2、光学干渉フィルタ101-3の3層が積層されて構成される。多層膜である光学干渉フィルタ101aは屈折率が異なる材料からなる層が交互に積層されていればよいが、光学干渉フィルタ101-1及び光学干渉フィルタ101-3はTiO膜、又はTaO膜であることが好ましく、光学干渉フィルタ101-2はSiO膜であることが好ましい。光学干渉フィルタ101aは、光学干渉フィルタ101a中の光学干渉フィルタ101-1側で基板102上に積層されている。基板102は例えば、SiOの透明基板が挙げられる。なお、基板102は板状又は層状であれば特に限定されない。
 多層膜である光学干渉フィルタ101bは光入射側である上層(図1(A)中の上方向)から順に、光学干渉フィルタ101-4、光学干渉フィルタ101-5、光学干渉フィルタ101-6、光学干渉フィルタ101-7及び光学干渉フィルタ101-8の5層が積層されて構成される。多層膜である光学干渉フィルタ101bは屈折率が異なる材料からなる層が交互に積層されていればよいが、光学干渉フィルタ101-4、光学干渉フィルタ101-6及び光学干渉フィルタ101-8はTiO膜、又はTaO膜であることが好ましく、光学干渉フィルタ101-5及び光学干渉フィルタ101-7はSiO膜であることが好ましい。光学干渉フィルタ101bは、光学干渉フィルタ101b中の光学干渉フィルタ101-8側で基板104上に積層されている。基板104は例えば、SiOの透明基板が挙げられる。なお、基板104は板状又は層状であれば特に限定されない。
 センサ100に備えられる波長可変デバイス1000は、光学素子150と距離可変装置105-1及び105-2とを備える。ギャップ103において、距離可変装置105-1及び105-2を用いて、光学素子150の光入射側の上方向(図1(A)中の上方向)に構成される基板102と光学干渉フィルタ101aとを、図1(A)中の上下方向に可動させて、ギャップ103の距離d1を変化させることができる。上下方向に連続的に可動させることによって、すなわち、距離d1を連続的に変化させることによって、透過分光特性を連続的に変化させることができる。
 センサ100により取得した可視光の連続的な分光スペクトルの結果を図2(A)に示す。図2(A)は、ギャップ103の距離d1を、0.2μm~0.35μmの範囲で変化させたときの透過率スペクトルを示す。図2(A)に示されるように、ギャップ103の距離d1が0.2μm~0.35μmまで変化することに対して、ピーク波長λが449nm~613nmとほぼリニアに変化しているのがわかる。なお、本技術によれば、図2(B)に示される赤外光の連続的な分光スペクトルは実施例2の固体撮像装置400により取得された結果であるが、センサ100によっても、赤外光の連続的な分光スペクトルは、ギャップ103の距離d1の変化に対して、ピーク波長λの範囲はほぼリニアに変化すると考えられる。
 距離可変装置105-1及び105-2を用いて、ギャップ103を上下方向に連続的に可動させる方法は、随意の方法でよいが、被写体の動きのスピードに連動させてギャップ103の上下方向の可動のスピードを変化させることが好ましい。例えば、被写体の動きが早いときは、ギャップ103の上下方向の可動のスピードを早くすればよいし、その後、被写体の動きが遅くなれば、ギャップ103の上下方向の可動のスピードを遅くしてもよい。被写体の動きが遅いときは、ギャップ103の上下方向の可動のスピードを、被写体の動きが早いときと同様に早くしてもよいが、遅くすることによって露光時間を長くすることで信号強度を稼いでもよい。被写体が静止しているときも同じように、被写体の動きが早いときと同様に早くしてもよいが、上下方向の可動のスピードを更に遅くして、露光時間を更に長くすることで信号強度を更に稼いでもよい。
 ギャップ103中に含まれるものは、距離可変装置105-1及び105-2によって可動させることができれば特に限定されず、液体、固体、エア等の気体等でよいが、エア(いわゆる、エアギャップ)であることが好ましい。距離可変装置105-1及び105-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。センサ100は、波長可変デバイス1000の下層(図1(A)中の下方向)には、半導体基板107と半導体基板107に形成された1つの光電変換素子106とを備える。なお、図示はされていないが、センサ100には、半導体基板107の下層(図1(A)中の下方向)に配線層が形成される。
 センサ100において、信号読み出しは蓄積をしない状態、すなわち電流読出しで信号を取得することで連続的な分光スペクトルが得られる。電流読出しの場合、ギャップ103(例えば、エアギャップ)の距離d1を変化させながら同時に光電変換素子106、例えば、図3に示されるフォトダイオード(PD)15(主にPN接合の空乏層)で生成される光電流を読み出すことになる。このような場合、例えば、図3のような構造と回路となる。駆動方法としては逆バイアスを印加して読み出してもよい。さらに高感度にするために、逆バイアスを高く印加して高電界状態で空乏層に発生する光電子をアバランシェ増倍させて、それを光信号として読み出してもよい。
 以上は電流値読み出しについて述べたが、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを検出できる。この場合、通常のCMOSイメージセンサ(CIS)と同様にフローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であれば、図4(ピーク波長間隔とピーク半値幅との関係を示すグラフ)に示されるように、ピークの重なりが十分大きくなり、疑似的な連続的な分光スペクトルとなる。センサ100により取得した疑似的な連続的な分光スペクトルは、好適には、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下となる。すなわち、「ピーク波長間隔≦ピーク半値幅」となる。なお、「ピーク波長間隔」は任意の隣り合う2つのスペクトルのピーク間の距離を意味し、ピーク半値幅は、2つのスペクトルのそれぞれのスペクトル(任意の1つのスペクトル)のピーク値の50%になるところのスペクトル(波長)の幅を意味する。
 <3.第2の実施形態(センサの例2)>
 本技術に係る第2の実施形態(センサの例2)のセンサは、少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、第1半導体基板と、第2半導体基板と、第1半導体基板に形成された、第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、第1半導体基板の第1主面の表面に形成されたフローティングディフュージョンと、第1半導体基板の第1主面上に形成された第1トランジスタと、第1半導体基板の該第1主面上に形成された第1配線層と、第1配線層の表面に露出する第1電極と、第2半導体基板の第1主面上に形成された第2トランジスタと、第2半導体基板の第1主面上に形成された第2配線層と、第2配線層の表面に露出する第2電極と、第1電極及び該第2電極を介して、フローティングディフュージョンと第2トランジスタのゲート電極とを接続するフローティングディフュージョン配線と、を備え、第1電極と第2電極とが接合されて、第1半導体基板と第2半導体基板とが貼り合わされ、ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサである。
 本技術に係る第2の実施形態(センサの例2)のセンサでは、特定波長域を透過するギャップを有する光学素子(例えば、ファブリペロ共振器)と、第2の実施形態のセンサの構成と、第2の実施形態のセンサの駆動方法の工夫とによって連続的な分光スペクトルを取得できる。また、本技術に係る第2の実施形態のセンサは、分解能の高い詳細な連続的な分光スペクトルの取得によって、医療、生体、その他の分析応用を可能にする。
 次に、図5を用いて、本技術に係る第2の実施形態のセンサを詳細に説明する。図5は、本技術に係る第2の実施形態のセンサが有する積層構造の構成例を示す断面図である。なお、図5においては、本技術に係る第2の実施形態のセンサが備える波長可変デバイスを図示していないが、本技術に係る第2の実施形態のセンサが備える波長可変デバイスは、本技術に係る第1の実施形態のセンサが備える波長可変デバイス1000、又は後述する本技術に係る第5の実施形態の固体撮像装置が備える波長可変デバイス2000を適用することができる。
 図5に示すように、第2の実施形態のセンサは、センサ基体3(第1半導体基板)と回路基体9(第2半導体基板)とが、それぞれ第1配線層31と第2配線層41を対向させて貼り合わされている。また、センサ基体3と回路基体9との貼り合わせ面において、センサ基体3の第1配線層31の表面に形成された第1電極35と、回路基体9の第2配線層41の表面に形成された第2電極45とが接合されている。
 センサ基体3には、図5に示すように、フォトダイオードPD1、PD2と、フローティングディフュージョンFDと、転送ゲート電極21、22が形成されている。センサ基体3は、図の上方が光の入射面であり、下方が回路形成面である。フローティングディフュージョンFDと転送ゲート電極21、22は、センサ基体3の回路形成面側に形成されている。
 センサ基体3の回路形成面上には、第1配線層31が形成されている。第1配線層31は、少なくとも1層以上の配線と、絶縁層とが積層された構成を有する。図5では、1層の配線33を有する構成である。第1配線層31には、フローティングディフュージョンFDに接続されるプラグ32が形成されている。そして、プラグ32と配線33とが接続し、さらに配線33とプラグ34とが接続されている。なお、配線33と同じ層に、図示しない他の配線を有している。この配線33と同じ層の配線は、例えば、転送ゲート電極21、22と接続される電源配線やグランド配線等である。第1配線層31の表面には、接続用の第1電極35が形成されている。第1電極35は、プラグ32、34及び配線33を介してフローティングディフュージョンFDに接続されている。
 回路基体9には、図示しない画素部の制御回路や、信号処理回路を含むロジック回路が搭載されている。また、回路基体9には、転送トランジスタTr1の以外の画素トランジスタが形成される。図5では、増幅トランジスタTr5と選択トランジスタTr6を示している。回路基体9の表面には、増幅トランジスタTr5と選択トランジスタTr6のソース/ドレインとなる拡散領域27、28、29が形成されている。また、回路基体9上に増幅ゲート電極25と、選択ゲート電極26とを備える。
 回路基体9上には、第2配線層41が形成されている。第2配線層41は、複数層の配線と絶縁層とが積層された構成を有する。図5では、第2配線層41に形成される複数の配線のうち、1層の配線43、47を示している。配線43は、プラグ42、44により、増幅ゲート電極25と、第2配線層41の表面の第2電極45とに接続されている。このため、第2電極45は、プラグ42、44及び配線43を介して増幅ゲート電極25に接続されている。また、選択トランジスタTr6の拡散領域29には、プラグ46と配線47とが接続されている。
 上述の構成では、センサ基体3の表面に設けられたフローティングディフュージョンFDと、回路基体9上に設けられた増幅ゲート電極25とが、第1電極35と第2電極45とを介して導体により直接接続されている。つまり、フローティングディフュージョンFDと増幅ゲート電極25とが、第1電極35、第2電極45、プラグ32、34、42、44及び配線33、43からなるフローティングディフュージョン配線(以下、FD配線)により接続されている。
 このように、センサ基体3のフローティングディフュージョンFDに蓄積された信号を処理するための画素トランジスタが回路基体9に形成されている。
 第1配線層31において、FD配線を構成する第1電極35、プラグ32、34及び配線33は、変換効率を上げるために、最小デザインルール配線幅で形成されることが好ましい。また、フローティングディフュージョンFDから第1電極35までは、同じく変換効率を上げるために、最短で結線されていることが好ましい。さらに、このプラグ32、34及び配線33は、第1配線層31に形成される他の配線と容量結合しないように、可能な限り他の配線との距離を離して形成することが好ましい。同様に、第2配線層41において、FD配線を構成する、第2電極45、プラグ44、42及び配線43は、変換効率を上げるために、最小デザインルール配線幅で形成されることが好ましい。また、増幅ゲート電極25から第2電極45までは、変換効率を上げるために、最短で結線されていることが好ましい。さらに、このプラグ44、42及び配線43は、第2配線層41に形成される他の配線と容量結合しないように、可能な限り他の配線との距離を離して形成することが好ましい。
 また、図示しないリセットトランジスタは、センサ基体3側において、画素共有単位間に形成されていてもよく、回路基体9側の他の部分に形成されていてもよい。センサ基体3のフォトダイオードPDの面積を大きくするためには、転送トランジスタ以外の各トランジスタは、すべて回路基体9側に形成されていることが好ましい。
 第1電極35及び第2電極45を形成する領域37は、増幅トランジスタTr5を共有する複数のフォトダイオードPD1~4(PD3~4は不図示)が形成されている領域36の面積よりも小さい構成とする。隣接する他の領域の電極との接触を避けるため、第1電極35及び第2電極45をフォトダイオードPD1~2が形成されている領域36よりも、小さくする必要がある。また、第1電極35及び第2電極45との少なくとも一方は、フローティングディフュージョンFDが形成されている面積よりも大きく形成されることが好ましい。
 第1電極35及び第2電極45は、画素共有単位の中心に設けられていることが好ましい。さらに、第1電極35及び第2電極45は、点対称又は線対称となる形状に形成されていることが好ましい。例えば、4画素共有単位において、4画素共有単位の中心と、第1電極35及び第2電極45の中心とが、同じ平面位置に形成されていることが好ましい。そして、第1電極35及び第2電極45を、画素共有単位の中心において点対称、又は、線対称となる形状に形成することが好ましい。このような構成に第1電極35及び第2電極45を形成することにより、複数の画素共有単位において、FD配線を等間隔に形成することができ、FD配線のカップリングを防止することができる。
 本実施形態のように複数の基体が貼り合わされた構成のセンサ(半導体装置)では、基体の貼り合せ面の位置合わせ精度に課題がある。このため、基体の貼り合わせの際に、基体の位置合わせ精度に準じて電極の接合位置にずれが発生する。このような、接合電極の位置ずれによる接続不良や導通不良により、センサ(半導体装置)の信頼性が低下してしまう。これに対して、図5に示すように、第1電極35及び第2電極45の形状を上述の範囲とすることにより、基体貼り合わせの精度にかかわらず、接合電極の接続信頼性を確保することができる。従って、センサ(半導体装置)の信頼性が向上する。
 ただし、電極の面積が大きくなると、必然的にFD配線の体積が大きくなる。このため、信号電荷の変換効率の悪化につながる。従って、変換効率の悪化を防ぐには、電極の面積を可能な限り最小とすることが好ましい。このように、第1電極35及び第2電極45の面積は、変換効率と接合信頼性とに相反する影響を与える。このため、基体貼り合わせの位置精度と、信号の変換効率等を考慮して、第1電極35及び第2電極45の形状を設計する必要がある。
 接続信頼性は、一方の電極の面積が大きければ、他方の電極の面積が小さくても確保することができる。このため、例えば、一方の電極を、フローティングディフュージョンFDが形成されている面積よりも大きく形成し、他方の電極の面積をさらに小さい面積とすることも可能である。この場合には、電極の接続信頼性と、信号の変換効率との両方に対して特性の向上が期待できる。
 なお、第2の実施形態のセンサが有する積層構造は、電流読出しでも信号を取得することができる。転送トランジスタTr1(転送ゲート電極21)又は転送トランジスタTr2(転送ゲート電極22)のどちらかをONにしてゲートを開いた状態を保つことで電流読出しをすることができる。この場合、回路基体9(下層チップ)上の増幅ゲート電極25(アンプ)で増幅した信号を読み出すこととなる。図5においては、フローティングディフュージョンFDが4画素(PD1及びPD2、ただし、PD3~4は不図示)共有になっているために、画素毎に別々に電流読出しをする必要がある。
 上述したように、第2の実施形態のセンサが有する積層構造は、電圧読出しにより、信号を取得することができ、一旦、フォトダイオード(PD)及び/又はフローティングディフュージョンFDに電荷蓄積した後に、転送トランジスタTr1(転送ゲート電極21)又は転送トランジスタTr2(転送ゲート電極22)の動作によって、読出すことになる。図5においては、フローティングディフュージョンFDが4画素(PD1及びPD2、ただし、PD3~4は不図示)共有になっているために、画素毎に別々に電圧読出しをする必要がある。
 <4.第3の実施形態(センサの例3)>
 本技術に係る第3の実施形態(センサの例3)のセンサは、少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、第1半導体基板と、第2半導体基板と、第1半導体基板に形成された、第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、第1半導体基板の第1主面の表面に形成されたフローティングディフュージョンと、第1半導体基板の第1主面上に形成された第1トランジスタと、第1半導体基板の該第1主面上に形成された第1配線層と、第1配線層の表面に露出する第1電極と、第2半導体基板の第1主面上に形成された第2トランジスタと、第2半導体基板の第1主面上に形成された第2配線層と、第2配線層の表面に露出する第2電極と、第1電極及び該第2電極を介して、フローティングディフュージョンと第2トランジスタのゲート電極とを接続するフローティングディフュージョン配線と、を備え、第1電極と第2電極とが接合されて、第1半導体基板と第2半導体基板とが貼り合わされ、ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサである。
 本技術に係る第3の実施形態(センサの例3)のセンサでは、特定波長域を透過するギャップを有する光学素子(例えば、ファブリペロ共振器)と、第3の実施形態のセンサの構成と、第3の実施形態のセンサの駆動方法の工夫とによって連続的な分光スペクトルを取得できる。また、本技術に係る第3の実施形態のセンサは、分解能の高い詳細な連続的な分光スペクトルの取得によって、医療、生体、その他の分析応用を可能にする。
 次に、図6を用いて、本技術に係る第3の実施形態のセンサを詳細に説明する。図6は、本技術に係る第3の実施形態のセンサが有する積層構造の構成例を示す断面図である。なお、図6においては、本技術に係る第3の実施形態のセンサが備える波長可変デバイスを図示していないが、本技術に係る第3の実施形態のセンサが備える波長可変デバイスは、本技術に係る第1の実施形態のセンサが備える波長可変デバイス1000、又は後述する本技術に係る第5の実施形態の固体撮像装置が備える波長可変デバイス2000を適用することができる。
 第3の実施形態のセンサは、センサ基体3(第1半導体基板)と回路基体とが、それぞれ第1配線層31と第2配線層41を対向させて貼り合わされている。また、図14に示すように、センサ基体3と回路基体との貼り合わせ面は、センサ基体3の第1配線層31の表面に形成された第1電極35と、回路基体9の第2配線層41の表面に形成された第2電極45とが接合されている。なお、図6では、第2配線層41の構成のみを示し、回路基体の構成は省略する。第3の実施形態のセンサに備えられる回路基体は、上述した回路基体9と同様の構成とすることができる。
 各画素のフォトダイオードPD及びフローティングディフュージョンFDは、素子分離部69により、隣接する画素のフォトダイオードPD及びフローティングディフュージョンFDと分離されている。そして、フローティングディフュージョンFDから、図示しない回路基体の転送トランジスタ以外の画素トランジスタまで、各プラグ32、34、44、42及び配線33、43によるFD配線が構成される。
 転送ゲート電極68にはプラグ83を介してTRG配線38が接続されている。TRG配線は、画素領域の外側において、回路基板側に接続される。また、第3の実施形態のセンサでは、上述の第2の実施形態のように転送トランジスタ以外の画素トランジスタを複数のフォトダイオードPDで共有する構成とする。例えば、複数のFD配線を配線又は電極で接続することにより、転送トランジスタ以外の画素トランジスタを複数のフォトダイオードPD及びフローティングディフュージョンFDで共有することができる。
 なお、第3の実施形態のセンサが有する積層構造は、電流読出しでも信号を取得することができる。転送トランジスタ(不図示)(転送ゲート電極68)をONにしてゲートを開いた状態を保つことで電流読出しをすることができる。この場合、回路基体(下層チップ)上の増幅ゲート電極(アンプ)(不図示)で増幅した信号を読み出すこととなる。図6においては、フローティングディフュージョンFDと電極プラグ32、34、44、42が1画素(1つのPD)毎にあるので、全部の画素を同時に、電流読出しをすることができる。
 上述したように、第3の実施形態のセンサが有する積層構造は、電圧読出しにより、信号を取得することができ、一旦、フォトダイオード(PD)及び/又はフローティングディフュージョンFDに電荷蓄積した後に、転送トランジスタ(不図示)(転送ゲート電極68)の動作によって、読出すことになる。図6においては、フローティングディフュージョンFDと電極プラグ32、34、44、42が1つの画素(1つのPD)毎にあるので、全部の画素を同時に、電圧読出しをすることができる。
 <5.第4の実施形態(センサの例4)>
 本技術に係る第4の実施形態(センサの例4)のセンサは、少なくとも2つの光学干渉フィルタを含み、少なくとも2つの光学干渉フィルタが対向配置され、対向配置された少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、第1半導体基板と、第2半導体基板と、第1半導体基板に形成された、第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、第1半導体基板の第1主面上に形成された第1トランジスタと、第1半導体基板の第1主面上に形成された第1配線層と、第1配線層の表面に露出する第1電極と、第2半導体基板の第1主面上に形成された第2トランジスタと、第2半導体基板の第1主面上に形成された第2配線層と、第2配線層の表面に露出する第2電極と、第1電極及び第2電極を介して、少なくとも1つのフォトダイオードの第3電極と第2トランジスタのゲート電極とを接続する電流読み出し用配線と、を備え、第1電極と第2電極とが接合されて、第1半導体基板と第2半導体基板とが貼り合わされ、ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサである。
 本技術に係る第4の実施形態(センサの例4)のセンサでは、特定波長域を透過するギャップを有する光学素子(例えば、ファブリペロ共振器)と、第4の実施形態のセンサの構成と、第4の実施形態のセンサの駆動方法の工夫とによって連続的な分光スペクトルを取得できる。また、本技術に係る第4の実施形態のセンサは、分解能の高い詳細な連続的な分光スペクトルの取得によって、医療、生体、その他の分析応用を可能にする。
 次に、図7を用いて、本技術に係る第4の実施形態のセンサを詳細に説明する。図7は、本技術に係る第4の実施形態のセンサが有する積層構造の構成例を示す断面図である。なお、図7においては、本技術に係る第4の実施形態のセンサが備える波長可変デバイスを図示していないが、本技術に係る第4の実施形態のセンサが備える波長可変デバイスは、本技術に係る第1の実施形態のセンサが備える波長可変デバイス1000、又は後述する本技術に係る第5の実施形態の固体撮像装置が備える波長可変デバイス2000を適用することができる。
 図7に示すように、第4の実施形態のセンサは、センサ基体(第1半導体基板)(不図示)に形成されたフォトダイオード15と回路基体9(第2半導体基板)とが、それぞれ第1配線層31と第2配線層41とを対向させて貼り合わされている。また、センサ基体と回路基体9との貼り合わせ面において、センサ基体の第1配線層31の表面に形成された第1電極35と、回路基体9の第2配線層41の表面に形成された第2電極45とが接合されている。
 フォトダイオード15が形成されたセンサ基体は、図の上方が光の入射面であり、下方が回路形成面である。
 センサ基体の回路形成面上には、第1配線層31が形成されている。第1配線層31は、少なくとも1層以上の配線と、絶縁層とが積層された構成を有する。図7では、1層の配線33を有する構成である。第1配線層31には、負電極(K:カソード)(第3電極ともいう。以下同じ。)に接続されるプラグ32が形成されている。そして、プラグ32と配線33とが接続し、さらに配線33とプラグ34とが接続されている。なお、配線33と同じ層に、図示しない他の配線を有していてもよい。第1配線層31の表面には、接続用の第1電極35が形成されている。第1電極35は、プラグ32、34及び配線33を介して負電極(K:カソード)に接続されている。
 回路基体9には、図示しない画素部の制御回路や、信号処理回路を含むロジック回路が搭載されている。また、回路基体9には、転送トランジスタTr1の以外の画素トランジスタが形成される。図7では、増幅トランジスタTr5と選択トランジスタTr6を示している。回路基体9の表面には、増幅トランジスタTr5と選択トランジスタTr6のソース/ドレインとなる拡散領域27、28、29が形成されている。また、回路基体9上に増幅ゲート電極25と、選択ゲート電極26とを備える。
 回路基体9上には、第2配線層41が形成されている。第2配線層41は、複数層の配線と絶縁層とが積層された構成を有する。図7では、第2配線層41に形成される複数の配線のうち、1層の配線43、47を示している。配線43は、プラグ42、44により、増幅ゲート電極25と、第2配線層41の表面の第2電極45とに接続されている。このため、第2電極45は、プラグ42、44及び配線43を介して増幅ゲート電極25に接続されている。また、選択トランジスタTr6の拡散領域29には、プラグ46と配線47とが接続されている。
 上述の構成では、負電極(K:カソード)と、回路基体9上に設けられた増幅ゲート電極25とが、第1電極35と第2電極45を介して導体により直接接続されている。つまり、負電極(K:カソード)と増幅ゲート電極25とが、第1電極35、第2電極45、プラグ32、34、42、44及び配線33、43からなる電流読み出し用配線により接続されている。このように、電流読み出し用配線による信号を処理するための画素トランジスタが回路基体9に形成されている。
 第1配線層31において、電流読み出し用配線を構成する第1電極35、プラグ32、34及び配線33は、変換効率を上げるために、最小デザインルール配線幅で形成されることが好ましい。また、負電極(K:カソード)から第1電極35までは、同じく変換効率を上げるために、最短で結線されていることが好ましい。さらに、このプラグ32、34及び配線33は、第1配線層31に形成される他の配線と容量結合しないように、可能な限り他の配線との距離を離して形成することが好ましい。同様に、第2配線層41において、電流読み出し用配線を構成する、第2電極45、プラグ44、42及び配線43は、変換効率を上げるために、最小デザインルール配線幅で形成されることが好ましい。また、増幅ゲート電極25から第2電極45までは、変換効率を上げるために、最短で結線されていることが好ましい。さらに、このプラグ44、42及び配線43は、第2配線層41に形成される他の配線と容量結合しないように、可能な限り他の配線との距離を離して形成することが好ましい。
 また、図示しないリセットトランジスタは、センサ基体側において、画素共有単位間に形成されていてもよく、回路基体9側の他の部分に形成されていてもよい。センサ基体のフォトダイオード(PD)15の面積を大きくするためには、転送トランジスタ以外の各トランジスタは、すべて回路基体9側に形成されていることが好ましい。
 第1電極35及び第2電極45は、画素共有単位の中心に設けられていることが好ましい。さらに、第1電極35及び第2電極45は、点対称又は線対称となる形状に形成されていることが好ましい。例えば、4画素共有単位において、4画素共有単位の中心と、第1電極35及び第2電極45の中心とが、同じ平面位置に形成されていることが好ましい。そして、第1電極35及び第2電極45を、画素共有単位の中心において点対称、又は、線対称となる形状に形成することが好ましい。このような構成に第1電極35及び第2電極45を形成することにより、複数の画素共有単位において、電流読み出し用配線を等間隔に形成することができ、電流読み出し用配線のカップリングを防止することができる。
 本実施形態のように複数の基体が貼り合わされた構成のセンサ(半導体装置)では、基体の貼り合せ面の位置合わせ精度に課題がある。このため、基体の貼り合わせの際に、基体の位置合わせ精度に準じて電極の接合位置にずれが発生する。このような、接合電極の位置ずれによる接続不良や導通不良により、センサ(半導体装置)の信頼性が低下してしまう。これに対して、図7に示すように、第1電極35及び第2電極45の形状を適切な範囲とすることにより、基体貼り合わせの精度にかかわらず、接合電極の接続信頼性を確保することができる。従って、センサ(半導体装置)の信頼性が向上する。
 ただし、電極の面積が大きくなると、必然的に電流読み出し用配線の体積が大きくなる。このため、信号電荷の変換効率の悪化につながる。従って、変換効率の悪化を防ぐには、電極の面積を可能な限り最小とすることが好ましい。このように、第1電極35及び第2電極45の面積は、変換効率と接合信頼性とに相反する影響を与える。このため、基体貼り合わせの位置精度と、信号の変換効率等を考慮して、第1電極35及び第2電極45の形状を設計する必要がある。接続信頼性は、一方の電極の面積が大きければ、他方の電極の面積が小さくても確保することができる。この場合には、電極の接続信頼性と、信号の変換効率との両方に対して特性の向上が期待できる。
 上述したように、第4の実施形態のセンサが有する積層構造は、電流読出しのみで信号を取得することができる。電流読み出し用配線を用いて、連続的に電流読出しをすることができる。この場合、回路基体9(下層チップ)上の増幅ゲート電極25(アンプ)で増幅した信号を読み出すこととなる。
 <6.第5の実施形態(固体撮像装置の例)>
 本技術に係る第5の実施形態(固体撮像装置の例)の固体撮像装置は、本技術に係る第1の実施形態のセンサ、第2の実施形態のセンサ、第3の実施形態のセンサ及び第4の実施形態のセンサのうち、いずれか少なくとも1つの実施形態のセンサを少なくとも1つ備え、複数の画素を1次元又は2次元に配列した、固体撮像装置である。
 本技術に係る第5の実施形態(固体撮像装置の例)の固体撮像装置では、特定波長域を透過するギャップを有する光学素子(例えば、ファブリペロ共振器)と、第5の実施形態の固体撮像装置の構成と、第5の固体撮像装置の駆動方法の工夫とによって連続的な分光スペクトルを取得できる。また、本技術に係る第5の実施形態の固体撮像装置は、分解能の高い詳細な連続的な分光スペクトルの取得によって、医療、生体、その他の分析応用を可能にする。
 次に、図1(B)を用いて、本技術に係る第5の実施形態の固体撮像装置200を詳細に説明する。図1(B)は、固体撮像装置200の構成例を示す断面図である。図1(B)においては、固体撮像装置200は、4画素内に1つの光学素子250と、横方向(図1(B)では左右方向)にアレイ化された4つの光電変換素子206(206-1~206-4)(例えば、フォトダイオード(PD))とを備える。光学素子250は特に限定されないが、例えば、ファブリペロ共振器が挙げられる。
 光学素子250は、対向配置された分光を担う光学干渉フィルタ201a(201-1~201-3の3層構成)及び201b(201-4~201-8の5層構成)と、光学干渉フィルタ201aと201bとの間のギャップ203と、基板202及び204とを備える。光学干渉フィルタ201a及び201bは、例えば、誘電体多層膜、反射多層膜等が挙げられる。
 多層膜である光学干渉フィルタ201aは光入射側である上層(図1(B)中の上方向)から順に、光学干渉フィルタ201-1、光学干渉フィルタ201-2、光学干渉フィルタ201-3の3層が積層されて構成される。多層膜である光学干渉フィルタ201aは屈折率が異なる材料からなる層が交互に積層されていればよいが、光学干渉フィルタ201-1及び光学干渉フィルタ201-3はTiO膜、又はTaO膜であることが好ましく、光学干渉フィルタ201-2はSiO膜であることが好ましい。光学干渉フィルタ201aは、光学干渉フィルタ201a中の光学干渉フィルタ201-1側で基板202上に積層されている。基板202は例えば、SiOの透明基板が挙げられる。なお、基板202は板状又は層状であれば特に限定されない。
 多層膜である光学干渉フィルタ201bは光入射側である上層(図1(B)中の上方向)から順に、光学干渉フィルタ201-4、光学干渉フィルタ201-5、光学干渉フィルタ201-6、光学干渉フィルタ201-7及び光学干渉フィルタ201-8の5層が積層されて構成される。多層膜である光学干渉フィルタ201bは屈折率が異なる材料からなる層が交互に積層されていればよいが、光学干渉フィルタ201-4、光学干渉フィルタ201-6及び光学干渉フィルタ201-8はTiO膜、又はTaO膜であることが好ましく、光学干渉フィルタ201-5及び光学干渉フィルタ201-7はSiO膜であることが好ましい。光学干渉フィルタ201bは、光学干渉フィルタ201b中の光学干渉フィルタ201-8側で基板204上に積層されている。基板204は例えば、SiOの透明基板が挙げられる。なお、基板204は板状又は層状であれば特に限定されない。
 固体撮像装置200に備えられる波長可変デバイス2000は、光学素子250と距離可変装置205-1及び205-2とを備える。ギャップ203において、距離可変装置205-1及び205-2を用いて、光学素子250の光入射側の上方向(図1(A)中の上方向)に構成される基板202と光学干渉フィルタ201aとを、図1(B)中の上下方向に可動させて、ギャップ203の距離d2を変化させることができる。上下方向に連続的に可動させることによって、すなわち、ギャップ203の距離d2を連続的に変化させることによって、透過分光特性を連続的に変化させることができる。
 本技術によれば、図2(A)に示される可視光の連続的な分光スペクトルはセンサ100により取得された結果であるが、固体撮像装置200によっても、可視光の連続的な分光スペクトルは、ギャップ203の距離d2の変化に対して、ピーク波長λの範囲はほぼリニアに変化すると考えられ、図2(B)に示される赤外光の連続的な分光スペクトルは実施例2の固体撮像装置400により取得された結果であるが、固体撮像装置200によっても、赤外光の連続的な分光スペクトルは、ギャップ203の距離d2の変化に対して、ピーク波長λの範囲はほぼリニアに変化すると考えられる。
 距離可変装置205-1及び205-2を用いて、ギャップ203を上下方向に連続的に可動させる方法は、随意の方法でよいが、被写体の動きのスピードに連動させて上下方向の可動のスピードを変化させることが好ましい。例えば、被写体の動きが早いときは、ギャップ203の上下方向の可動のスピードを早くすればよいし、その後、被写体の動きが遅くなれば、ギャップ203の上下方向の可動のスピードを遅くしてもよい。被写体の動きが遅いときは、ギャップ203の上下方向の可動のスピードを、被写体の動きが早いときと同様に早くしてもよいが、遅くすることによって露光時間を長くすることで信号強度を稼いでもよい。被写体が静止しているときも同じように、被写体の動きが早いときと同様に早くしてもよいが、上下方向の可動のスピードを更に遅くして、露光時間を更に長くすることで信号強度を更に稼いでもよい。
 ギャップ203中に含まれるものは、距離可変装置205-1及び205-2によって可動させることができれば特に限定されず、液体、固体、エア等の気体等でよいが、エア(いわゆる、エアギャップ)であることが好ましい。距離可変装置205-1及び205-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。
 固体撮像装置200は、波長可変デバイス2000の下層(図1(B)中の下方向)には、半導体基板207と半導体基板207に形成された4つの光電変換素子206(206-1~206-4)とを備える。なお、図示はされていないが、固体撮像装置200には、半導体基板207の下層(図1(B)中の下方向)に配線層が形成される。
 固体撮像装置200において、信号読み出しは蓄積をしない状態、すなわち電流読出しで信号を取得することで連続的な分光スペクトルが得られる。電流読出しの場合、ギャップ203(例えば、エアギャップ)の距離d2を変化させながら同時に光電変換素子206、例えば、図3に示されるフォトダイオード(PD)15(主にPN接合の空乏層)で生成される光電流を読み出すことになる。このような場合、例えば、図3のような構造と回路となる。駆動方法としては逆バイアスを印加して読み出してもよい。さらに高感度にするために、逆バイアスを高く印加して高電界状態で空乏層に発生する光電子をアバランシェ増倍させて、それを光信号として読み出してもよい。
 以上は電流値読み出しについて述べたが、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを検出できる。この場合、通常のCMOSイメージセンサ(CIS)と同様にフローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であれば、図4(ピーク波長間隔とピーク半値幅との関係を示すグラフ)に示されるように、ピークの重なりが十分大きくなり、疑似的な連続的な分光スペクトルとなる。固体撮像装置200により取得した疑似的な連続的な分光スペクトルは、好適には、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下となる。すなわち、「ピーク波長間隔 ≦ ピーク半値幅」となる。なお、「ピーク波長間隔」は任意の隣り合う2つのスペクトルのピーク間の距離を意味し、ピーク半値幅は、2つのスペクトルのそれぞれのスペクトル(任意の1つのスペクトル)のピーク値の50%になるところのスペクトル(波長)の幅を意味する。
 <7.第6の実施形態(電子装置の例1)>
 本技術に係る第6の実施形態(電子装置の例1)の電子装置は、本技術に係る第1の実施形態のセンサ、第2の実施形態のセンサ、第3の実施形態のセンサ又は第4の実施形態のセンサを備える電子装置である。本技術に係る第1の実施形態のセンサ、第2の実施形態のセンサ、第3の実施形態のセンサ又は第4の実施形態のセンサは上記のとおりであるので、ここでは説明を省略する。本技術に係る第6の実施形態の電子装置は、信頼性や画質を向上させたセンサを備えているので、本技術に係る第6の実施形態の電子装置の性能の向上を図ることができる。
 <8.第7の実施形態(電子装置の例2)>
 本技術に係る第7の実施形態(電子装置の例2)の電子装置は、本技術に係る第5の実施形態の固体撮像装置を備える電子装置である。本技術に係る第5の実施形態の固体撮像装置は上記のとおりであるので、ここでは説明を省略する。本技術に係る第7の実施形態の電子装置は、信頼性や画質を向上させた固体撮像装置を備えているので、本技術に係る第7の実施形態の電子装置の性能の向上を図ることができる。
 <9.本技術を適用した固体撮像装置の使用例>
 図21は、上述した本技術に係るセンサ又は固体撮像装置を使用する使用例を示す図である。上述した本技術に係るセンサ固体撮像装置は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置。
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置。
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置。
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置。
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置。
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置。
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置。
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置。
 以下に、実施例を挙げて、本技術の効果について具体的に説明をする。なお、本技術の範囲は実施例に限定されるものではない。
 <実施例1>
 図8(A)は、実施例1の固体撮像装置300の断面構成を示す図である。図8(A)においては、固体撮像装置300は、4画素内に1つの光学素子と4つのフォトダイオード(PD)とを備える。図8(B)は、固体撮像装置300に光入射したときの透過率(T)(縦軸)と波長(λ)(横軸)との関係を示すグラフである。
 固体撮像装置300は、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)301a(301-1~301-3の3層構成)及び301b(301-4~301-8の5層構成)と、誘電体多層膜301aと301bとの間のエアギャップ303と、基板302及び304とを備える光学素子として、図9に示されるファブリペロ共振器1を用いた。図9は、ファブリペロ共振器1の構造を模式的に示した図である。ファブリペロ共振器1は、対向配置された誘電体多層膜1a及び1bと、誘電体多層膜1aと1bとの間のエアギャップ3(エアギャップ距離はd0である。)と、基板2及び4から構成される。誘電体多層膜1aは光入射側である上層(図9中の上方向)から順に、TiO膜1-1、SiO膜1-2及びTiO膜1-3の3層が積層されて構成される。誘電体多層膜1bは光入射側である上層(図9中の上方向)から順に、TiO膜1-4、SiO膜1-5、TiO膜1-6、SiO膜1-7及びTiO膜1-8の5層が積層されて構成される。そして、実施例1の固体撮像装置300で用いられたファブリペロ共振器1のTiO膜及びSiO膜のそれぞれの膜厚は、TiO膜:46nmであり、SiO膜:82nmである。なお、TaO膜とSiO膜、Si膜とSiO膜などのように、屈折率の高い材料と低い材料とであれば他の材料系が用いられてもよい。
 固体撮像装置300に備えられる波長可変デバイスは、光学素子(ファブリペロ共振器1)と距離可変装置305-1及び305-2とを備える。エアギャップ303において、距離可変装置305-1及び305-2を用いて、エアギャップ303の距離d3を変化させた。距離可変装置305-1及び305-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。固体撮像装置300は、光入射側である上層(図8(A)中の上方向)には、更に、光入射側から順に結像レンズ308とIR-cut filter309とを備える。図8(B)に示されるように、IR-cut filter309は近赤外領域の光をカットして可視光領域の光を透過する機能を有する。また、固体撮像装置300は、波長可変デバイスの下層(図8(A)中の下方向)には、半導体基板307と半導体基板307に形成された4つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置300には、半導体基板307の下層(図8(A)中の下方向)に配線層が形成されている。
 エアギャップ303の距離d3を変化させたときの透過率スペクトルの結果を図10~図13に示す。図10は、エアギャップ303の距離d3を、0.2μm~0.24μmの範囲で変化させたときの透過率スペクトルを示し、図11は、エアギャップ303の距離d3を、0.25μm~0.29μmの範囲で変化させたときの透過率スペクトルを示し、図12は、エアギャップ303の距離d3を、0.30μm~0.34μmの範囲で変化させたときの透過率スペクトルを示し、図13は、エアギャップ303の距離d3を、0.35μm~0.39μmの範囲で変化させたときの透過率スペクトルを示す。また、ピーク波長のエアギャップ303の距離d3の依存性を図14に示す。図14に示されるように、例えば、エアギャップ303の距離d3が250nmのときに、ピーク波長λが504nmであり、エアギャップ303の距離d3が320nmのときに、ピーク波長λが582nmであり、エアギャップ303の距離d3が400nmのときに、ピーク波長λが661nmであるので、エアギャップ303の距離d3が200~400nmの変化に対して、ピーク波長λが450~660nmとほぼリニアに変化しているのがわかった。さらに上層のIR-cut filter309が波長650nm以上の光をカットすることで、単一ピークの透過スペクトルとなった。なお、図10~図13に示されるように、420nm以下でサブピークが現れているが、これらの波長域を別のフィルタでカットしてもよい。
 固体撮像装置300は、エアギャップ303の距離d3(図9においては、エアギャップ3の距離d)を変化させながら、図3のような画素構造と回路とで電流読出しを行うことで、可視光の画像取得と共に、可視光の連続的な分光スペクトルの取得が可能となった。なお、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを取得してもよい。この場合、固体撮像装置に、フローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であればよい。
 <実施例2>
 図15(A)は、実施例2の固体撮像装置400の断面構成を示す図である。図15(A)においては、固体撮像装置400は、4画素内に1つの光学素子と4つのフォトダイオード(PD)とを備える。図15(B)は、固体撮像装置400に光入射したときの透過率(T)(縦軸)と波長(λ)(横軸)との関係を示すグラフである。
 固体撮像装置400は、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)401a(401-1~401-3の3層構成)及び401b(401-4~401-8の5層構成)と、誘電体多層膜401aと401bとの間のエアギャップ403と、基板402及び404とを備える光学素子として、図9に示されるファブリペロ共振器1を用いた。そして、実施例2の固体撮像装置400で用いられたファブリペロ共振器1のTiO膜及びSiO膜のそれぞれの膜厚は、TiO膜:83nmであり、SiO膜:150nmである。なお、TaO膜とSiO膜、Si膜とSiO膜などのように、屈折率の高い材料と低い材料とであれば他の材料系が用いられてもよい。
 固体撮像装置400に備えられる波長可変デバイスは、光学素子(ファブリペロ共振器1)と距離可変装置405-1及び405-2とを備える。エアギャップ403において、距離可変装置405-1及び405-2を用いて、エアギャップ403の距離d4を変化させた。距離可変装置405-1及び405-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。固体撮像装置400は、光入射側である上層(図15(A)中の上方向)には、更に、光入射側から順に結像レンズ408と可視光-cut filter409とを備える。図15(B)に示されるように、可視光-cut filter409は可視光領域の光をカットして主に近赤外領域の光を透過する機能を有する。また、固体撮像装置400は、波長可変デバイスの下層(図15(A)中の下方向)には、半導体基板407と半導体基板407に形成された4つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置400は、半導体基板407の下層(図15(A)中の下方向)に配線層が形成されている。
 エアギャップ403の距離d4を変化させたときの透過率スペクトルの結果を図2(B)に示す。図2(B)は、エアギャップ403の距離d4を、0.3μm~0.475μmの範囲で変化させたときの透過率スペクトルを示す。図2(B)に示されるように、エアギャップ403の距離d4が0.3μm~0.475μmまで変化することに対して、ピーク波長λが680~900nmとほぼリニアに変化しているのがわかった。さらに、可視光-cut filter409が波長650nm以下の光をカットすることで単
一ピークの透過スペクトルとなった。
 固体撮像装置400は、エアギャップ403の距離d4(図9においては、エアギャップ3の距離d0)を変化させながら、図3のような画素構造と回路とで電流読出しを行うことで、近赤外光の画像取得と共に、近赤外光の連続的な分光スペクトルの取得が可能となった。なお、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを取得してもよい。この場合、固体撮像装置に、フローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であればよい。
 <実施例3>
 図16(A)は、実施例3の固体撮像装置500の断面構成を示す図である。図16(A)においては、固体撮像装置500は、4画素内に1つの光学素子と4つのフォトダイオード(PD)とを備える。図16(B)は、固体撮像装置500に光入射したときの透過率(T)(縦軸)と波長(λ)(横軸)との関係を示すグラフである。
 固体撮像装置500は、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)501a(501-1~501-3の3層構成)及び501b(501-4~501-8の5層構成)と、誘電体多層膜501aと501bとの間のエアギャップ503と、基板502及び504とを備える光学素子として、図9に示されるファブリペロ共振器1を用いた。そして、実施例3の固体撮像装置500で用いられたファブリペロ共振器1のTiO膜及びSiO膜のそれぞれの膜厚は、狭帯域の波長λに対応して、λ/(4×n)nmの式から算出した。ここで、nは屈折率で、TiO膜及びSiO膜のそれぞれの屈折率である。なお、TaO膜とSiO膜、Si膜とSiO膜などのように、屈折率の高い材料と低い材料とであれば他の材料系が用いられてもよい。
 固体撮像装置500に備えられる波長可変デバイスは、光学素子(ファブリペロ共振器1)と距離可変装置505-1及び505-2とを備える。エアギャップ503において、距離可変装置505-1及び505-2を用いて、エアギャップ503の距離d5を変化させた。距離可変装置505-1及び505-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。固体撮像装置500は、光入射側である上層(図16(A)中の上方向)には、更に、光入射側から順に結像レンズ508とバンドパスfilter509とを備える。図16(B)に示されるように、バンドパスfilter509は、狭帯域のみの波長を透過する機能を有する。また、固体撮像装置500は、波長可変デバイスの下層(図16(A)中の下方向)には、半導体基板507と半導体基板507に形成された4つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置500は、半導体基板507の下層(図16(A)中の下方向)に配線層が形成されている。
 エアギャップ503の距離d5を変化させることで、ピーク波長λがほぼリニアに変化した。さらに狭帯域の波長域だけを透過させることで単一ピークの透過スペクトルとなった。
 固体撮像装置500は、エアギャップ503の距離d5(図9においては、エアギャップ3の距離d0)を変化させながら、図3のような画素構造と回路とで電流読出しを行うことで、バンドパスfilter509の透過波長領域において、さらに狭帯域の波長域の波長光の画像取得と共に、バンドパスfilter509の透過波長領域において、さらに狭帯域の波長域の波長光の連続的な分光スペクトルの取得が可能となった。なお、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを取得してもよい。この場合、固体撮像装置に、フローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であればよい。
 <実施例4>
 図17(A)は、実施例4の固体撮像装置600の断面構成を示す図である。固体撮像装置600は、1つの画素内に1つの光学素子と1つのフォトダイオード(PD)とを備え、図17(A)中では4画素分が図示されている。図17(B)は、実施例4の固体撮像装置700の断面構成を示す図である。固体撮像装置700は、1つの画素内に1つの光学素子と1つのフォトダイオード(PD)とを備え、図17(B)中では4画素分が図示されている。図17(C)は、赤(R)、緑(G)及び青(B)のそれぞれのオンチップカラーフィルター(OCCF)の透過率(T)(縦軸)と波長(λ)(横軸)との関係を示すグラフである。
 (固体撮像装置600)
 まず、固体撮像装置600について説明をする。便宜上、後述するオンチップカラーフィルター(OCCF)以外は、図17(A)中の4画素分のうち1番右側の画素を用いて説明をする。
 固体撮像装置600は、画素毎に、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)601a(3層構成)及び601b(5層構成)と、誘電体多層膜601aと601bとの間のエアギャップ603と、基板602及び604とを備える光学素子として、図9に示されるファブリペロ共振器1を用いた。そして、実施例4の固体撮像装置600で用いられたファブリペロ共振器1のTiO膜及びSiO膜のそれぞれの膜厚は、TiO膜:46nmであり、SiO膜:81nmである。なお、TaO膜とSiO膜、Si膜とSiO膜などのように、屈折率の高い材料と低い材料とであれば他の材料系が用いられてもよい。
 固体撮像装置600に備えられる波長可変デバイスは、1画素毎に、光学素子(ファブリペロ共振器1)と距離可変装置605-1及び605-2とを備える。エアギャップ603において、距離可変装置605-1及び605-2を用いて、エアギャップ603の距離d6を変化させた。距離可変装置605-1及び605-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。固体撮像装置600は、光入射側である上層(図17(A)中の上方向)には、更に、光入射側から順に結像レンズ608とIR-cut filter609とを備える。オンチップカラーフィルター(OCCF)610(610-1~610-4)は、IR-cutfilter609により近赤外領域の光がカットされた可視光領域の光を、図17(C)に示されるように、赤(R)、緑(G)及び青(B)の光に分光して透過する機能を有する。また、固体撮像装置600は、波長可変デバイスの下層(図17(A)中の下方向)には、半導体基板607と半導体基板607に形成された4つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置600には、半導体基板607の下層(図17(A)中の下方向)に配線層が形成されている。
 固体撮像装置600は、光学素子(ファブリペロ共振器1)と、IR-cut filter609との間に、画素毎に、オンチップカラーフィルター(OCCF)を備え、図17(A)中の左側から順に、緑(G)オンチップカラーフィルター(OCCF)610-1、赤(R)オンチップカラーフィルター(OCCF)610-2、青(B)オンチップカラーフィルター(OCCF)610-3及び緑(G)オンチップカラーフィルター(OCCF)610-4が配列される。これによって、赤(R)、緑(G)及び青(B)の各狭帯域の波長に対して、さらに細かく連続的なスペクトルを取得することができる。画素毎のエアギャップ603の距離d6は、赤(R)、緑(G)及び青(B)に対応した可動域にした。実施例4の固体撮像装置600では、赤(R)の場合はd6=325~400nmであり、緑(G)の場合はd6=275nm~325nmであり、青(B)の場合はd6=200~275nmであった。このような構造にすることで、可視光全波長域の連続スペクトルを高速に取得することができた。
 エアギャップ603の距離d6を変化させることで、ピーク波長λがほぼリニアに変化した。さらに狭帯域の波長域だけを透過させることで単一ピークの透過スペクトルとなった。
 固体撮像装置600は、エアギャップ603の距離d6(図9においては、エアギャップ3の距離d0)を変化させながら、図3のような画素構造と回路とで電流読出しを行うことで、赤(R)、緑(G)及び青(B)のオンチップカラーフィルター(OCCF)610(610-1~610-4)の透過波長領域において、さらに狭帯域の波長域の波長光の画像取得と共に、赤(R)、緑(G)及び青(B)のオンチップカラーフィルター(OCCF)610(610-1~610-4)の透過波長領域において、さらに狭帯域の波長域の波長光の連続的な分光スペクトルの取得が可能となった。なお、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを取得してもよい。この場合、固体撮像装置に、フローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であればよい。
 (固体撮像装置700)
 固体撮像装置700について説明をする。
 便宜上、後述するオンチップカラーフィルター(OCCF)以外は、図17(B)中の4画素分のうち1番右側の画素を用いて説明をする。
 固体撮像装置700は、1画素毎に、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)701a(3層構成)及び701b(5層構成)と、誘電体多層膜701aと701bとの間のエアギャップ703と、基板702及び704とを備える光学素子として、図9に示されるファブリペロ共振器1を用いた。そして、実施例4の固体撮像装置700で用いられたファブリペロ共振器1のTiO膜及びSiO膜のそれぞれの膜厚は、TiO膜:46nmであり、SiO膜:81nmである。なお、TaO膜とSiO膜、Si膜とSiO膜などのように、屈折率の高い材料と低い材料とであれば他の材料系が用いられてもよい。
 固体撮像装置700に備えられる波長可変デバイスは、1画素毎に、光学素子(ファブリペロ共振器1)と距離可変装置705-1及び705-2とを備える。エアギャップ703において、距離可変装置705-1及び705-2を用いて、エアギャップ703の距離d7を変化させた。距離可変装置705-1及び705-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。固体撮像装置700は、光入射側である上層(図17(B)中の上方向)には、更に、光入射側から順に結像レンズ708とIR-cut filter709とを備える。オンチップカラーフィルター(OCCF)710(710-1~710-4)は、IR-cutfilter709により近赤外領域の光がカットされた可視光領域の光を、図17(C)に示されるように、赤(R)、緑(G)及び青(B)の光に分光して透過する機能を有する。また、固体撮像装置700は、波長可変デバイスの下層(図17(B)中の下方向)には、半導体基板707と半導体基板707に形成された4つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置700には、半導体基板707の下層(図17(B)中の下方向)に配線層が形成されている。
 固体撮像装置700は、光学素子(ファブリペロ共振器1)と、半導体基板707(PD)との間に、画素毎に、オンチップカラーフィルター(OCCF)を備え、図17(B)中の左側から順に、緑(G)オンチップカラーフィルター(OCCF)710-1、赤(R)オンチップカラーフィルター(OCCF)710-2、青(B)オンチップカラーフィルター(OCCF)710-3及び緑(G)オンチップカラーフィルター(OCCF)710-4が配列される。これによって、赤(R)、緑(G)及び青(B)の各狭帯域の波長に対して、さらに細かく連続的なスペクトルを取得することができる。画素毎のエアギャップ703の距離d7は、赤(R)、緑(G)及び青(B)に対応した可動域にした。実施例4の固体撮像装置700では、赤(R)の場合はd6=325~400nmであり、緑(G)の場合はd6=275nm~325nmであり、青(B)の場合はd6=200~275nmであった。このような構造にすることで、可視光全波長域の連続スペクトルを高速に取得することができた。
 エアギャップ703の距離d7を変化させることで、ピーク波長λがほぼリニアに変化した。さらに狭帯域の波長域だけを透過させることで単一ピークの透過スペクトルとなった。
 固体撮像装置700は、エアギャップ703の距離d7(図9においては、エアギャップ3の距離d0)を変化させながら、図3のような画素構造と回路とで電流読出しを行うことで、赤(R)、緑(G)及び青(B)のオンチップカラーフィルター(OCCF)710(710-1~710-4)の透過波長領域において、さらに狭帯域の波長域の波長光の画像取得と共に、赤(R)、緑(G)及び青(B)のオンチップカラーフィルター(OCCF)710(710-1~710-4)の透過波長領域において、さらに狭帯域の波長域の波長光の連続的な分光スペクトルの取得が可能となった。なお、蓄積による読出しでも蓄積時間を短くして瞬時的に高速で読み出すことで疑似的な連続スペクトルを取得してもよい。この場合、固体撮像装置に、フローティングディフュージョン(FD)を設けて、電圧信号を読出しとしてもよい。この場合、特にピーク半値幅以下の狭波長間隔の測定であればよい。
 <実施例5>
 図18(A)は、実施例5の固体撮像装置800の断面構成を示す図である。図18(B)は、実施例4の固体撮像装置900の断面構成を示す図である。
 (固体撮像装置800)
 まず、固体撮像装置800について説明をする。
 固体撮像装置800は、1つの画素内に1つの光学素子と1つのフォトダイオード(PD)とを備え、図18(A)中では2画素分が図示されている。固体撮像装置800によれば、同時に別々の波長域の分光スペクトルを取得できるため、広い波長域のスペクトルを高速で取得することができる。固体撮像装置800の構造は、固体撮像装置300~700(実施例1~4)にも適用することができる。
 固体撮像装置800は、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)801-1a(801-1-1~801-1-3の3層構成)及び801-1b(801-1-4~801-1-8の5層構成)と、誘電体多層膜801-1aと801-1bとの間のエアギャップ803-1と、基板802-1及び804-1とを備える光学素子(図18(A)中では左側の光学素子)として、図9に示されるファブリペロ共振器1を用いることができる。また、固体撮像装置800は、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)801-2a(801-2-1~801-2-3の3層構成)及び801-2b(801-2-4~801-2-8の5層構成)と、誘電体多層膜801-2aと801-2bとの間のエアギャップ803-2と、基板802-2及び804-2とを備える光学素子(図18(A)中では右側の光学素子)として、図9に示されるファブリペロ共振器1を用いることができる。
 固体撮像装置800に備えられる波長可変デバイスは、図18(A)中の左側の光学素子(ファブリペロ共振器1)と距離可変装置805-1-1及び805-1-2とを備える。また、固体撮像装置800に備えられる波長可変デバイスは、図18(A)中の右側の光学素子(ファブリペロ共振器1)と距離可変装置805-2-1及び805-2-2とを備える。すなわち、固体撮像装置800は、画素毎に波長可変デバイス備えることになるので、図18(A)中では2画素分の2つの波長可変デバイスを備える。
 図18(A)中の左側のエアギャップ803-1においては、距離可変装置805-1-1及び805-1-2を用いて、エアギャップ803-1の距離d8-1を変化させることができる。また、図18(A)中の右側のエアギャップ803-2においては、距離可変装置805-2-1及び805-2-2を用いて、エアギャップ803-2の距離d8-2を変化させることができる。距離可変装置805-1-1~805-1-2及び805-2-1~805-2-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。
 固体撮像装置800は、波長可変デバイスの下層(図18(A)中の下方向)には、2画素分として、半導体基板807-1~807-2と半導体基板807-1及び807-2のそれぞれに形成された合計で2つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置800は、半導体基板807(807-1~807-2)の下層(図18(A)中の下方向)に配線層が形成されている。
 (固体撮像装置900)
 固体撮像装置900について説明をする。
 固体撮像装置900は、複数画素内に1つの光学素子と複数のフォトダイオード(PD)とを備える。図18(B)においては、固体撮像装置900は、4画素内に1つの光学素子と4つのフォトダイオード(PD)とを備える。固体撮像装置900によれば、同一波長の分光スペクトルが取得できるために、画像を高解像にすることができる。固体撮像装置900の構造は、固体撮像装置300~700(実施例1~4)にも適用することができる。
 固体撮像装置900は、対向配置された分光を担う光学干渉フィルタ(誘電体多層膜又は反射多層膜ともいう。)901a(901-1~901-3の3層構成)及び901b(901-4~901-8の5層構成)と、誘電体多層膜901aと901bとの間のエアギャップ903と、基板902及び904とを備える光学素子として、図9に示されるファブリペロ共振器1を用いることができる。
 固体撮像装置900に備えられる波長可変デバイスは、光学素子(ファブリペロ共振器1)と距離可変装置905-1及び905-2とを備える。
 エアギャップ903においては、距離可変装置905-1及び905-2を用いて、エアギャップ903の距離d9を変化させることができる。距離可変装置905-1及び905-2としては、ピエゾ素子等の圧電素子や、MEMS素子を用いることができる。
 固体撮像装置900は、波長可変デバイスの下層(図18(B)中の下方向)には、複数画素(4画素)として、半導体基板907と半導体基板907に形成された4つのフォトダイオード(PD)とを備える。なお、図示はされていないが、固体撮像装置900は、半導体基板907の下層(図18(B)中の下方向)に配線層が形成されている。
 <実施例6>
 この実施例では、連続スペクトルの画像応用の例について述べる。図19は、医療応用として、腫瘍検査で得られた連続的な分光スペクトルの結果を示すグラフである。縦軸は信号強度を表し、横軸は波長λ(nm)を表す。図19に示されるように、腫瘍かどうかの判断において、腫瘍の画像とともに、細胞表面の反射光について、本技術に係るセンサ又は固体撮像装置を用いることによって、連続的なスペクトル分光を取得することで、より精度の高い判断が可能となった。図19に示されるように、波長550nm~800nmの範囲において、正常細胞と腫瘍細胞と間質と血管との連続スペクトルの形状が異なった。このような詳細な形状の連続スペクトルの取得とともに画像を同時に取得することで、細胞のどこの部位が異常になっているかの正確な判定が可能となる。これにより、正しい治療法の判断につながる。
 さらに、図20を用いて、連続的な分光スペクトルの美容応用について述べる。図20(A)は、美容応用として、シミ検査で得られた連続的な分光スペクトルの結果を示すグラフである。縦軸は反射率を表し、横軸は波長λ(nm)を表す。図20(B)は、美容応用として、頭皮検査で得られた連続的な分光スペクトルの結果を示すグラフである。縦軸は反射率を表し、横軸は波長λ(nm)を表す。図20(C)は、美容応用として、髪の保湿検査で得られた連続的な分光スペクトルの結果を示すグラフである。縦軸は最大正規化反射率を表し、横軸は波長λ(nm)を表す。なお、シミ検査、頭皮検査及び髪の保湿検査において、連続的な分光スペクトルを取得するために、本技術に係るセンサ又は固体撮像装置が用いられた。
 図20(A)に示されるように、シミ検査において、通常の肌部とシミ部とにおいて表面からの光の反射率スペクトルの形状が大きくことなるために、連続的な分光スペクトルを取得することで、シミがどこにあるかを判定することができた。特に、波長450~900nmまでの連続的な分光スペクトルの形状と、シミの画像とを取得することで、判定することが可能となった。
 同様に頭皮検査において、図20(B)に示されるように、正常皮膚と潜在メラニンとメラニンとからの光の反射率スペクトルの形状が変わるために、連続的な分光スペクトルを取得することで、メラニン及び潜在メラニンの部位が認識できたる。特に、波長400~600nmと波長800~1000nmとの連続的な分光スペクトルの形状と、頭皮の画像とから判断するこができた。
 さらに同様に、髪の保湿状態を検査することができた。図20(C)に示されるように、特に、波長1300nm~1700nmの連続的な分光スペクトルの形状と髪の画像とから判断することができた。
 以上のように、連続的な分光スペクトルと、適切な画像とを取得することで、美容において肌や頭皮や髪などの状態を把握することで対処方法を打つことができる。
 なお、本技術は、上記各実施形態及び各実施例に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術の効果に関して、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 また、本技術は、以下のような構成も取ることができる。
[1]
 少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、
 少なくとも1つの光電変換素子と、を備え、
 該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサ。
[2]
 前記連続的な分光スペクトルにおいて、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下である、[1]に記載のセンサ。
[3]
 前記光学素子がファブリペロ共振器である、[1]又は[2]に記載のセンサ。
[4]
 前記ギャップがエアギャップである、[1]から[3]のいずれか1つに記載のセンサ。
[5]
 前記距離可変装置が圧電素子又はMEMS素子である、[1]から[4]のいずれか1つに記載のセンサ。
[6]
 前記ギャップの距離を変化させることに連動しながら光電荷信号を連続的に読み出す、[1]から[5]のいずれか1つに記載のセンサ。
[7]
 前記ギャップの距離を変化させることに連動しながら光電荷信号を電流によって連続的に読み出す、[1]から[5]のいずれか1つに記載のセンサ。
[8]
 入射光のうちの特定波長帯域の光を透過させる少なくとも1つのフィルタを更に備える、[1]から[7]のいずれか1つに記載のセンサ。
[9]
 少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、
 第1半導体基板と、
 第2半導体基板と、
 該第1半導体基板に形成された、該第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、
 該第1半導体基板の第1主面の表面に形成されたフローティングディフュージョンと、
 該第1半導体基板の該第1主面上に形成された第1トランジスタと、
 該第1半導体基板の該第1主面上に形成された第1配線層と、
 該第1配線層の表面に露出する第1電極と、
 該第2半導体基板の第1主面上に形成された第2トランジスタと、
 該第2半導体基板の該第1主面上に形成された第2配線層と、
 該第2配線層の表面に露出する第2電極と、
 該第1電極及び該第2電極を介して、該フローティングディフュージョンと該第2トランジスタのゲート電極とを接続するフローティングディフュージョン配線と、を備え、
 該第1電極と該第2電極とが接合されて、該第1半導体基板と該第2半導体基板とが貼り合わされ、
 該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサ。
[10]
 前記連続的な分光スペクトルにおいて、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下である、[9]に記載のセンサ。
[11]
 前記光学素子がファブリペロ共振器である、[9]又は[10]に記載のセンサ。
[12]
 前記ギャップがエアギャップである、[9]から[11]のいずれか1つに記載のセンサ。
[13]
 前記距離可変装置が圧電素子又はMEMS素子である、[9]から[12]のいずれか1つに記載のセンサ。
[14]
 前記ギャップの距離を変化させることに連動しながら光電荷信号を連続的に読み出す、[9]から[13]のいずれか1つに記載のセンサ。
[15]
 入射光のうちの特定波長帯域の光を透過させる少なくとも1つのフィルタを更に備える、[9]から[14]のいずれか1つに記載のセンサ。
[16]
 少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、
 第1半導体基板と、 第2半導体基板と、
 該第1半導体基板に形成された、該第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、
 該第1半導体基板の該第1主面上に形成された第1トランジスタと、
 該第1半導体基板の該第1主面上に形成された第1配線層と、
 該第1配線層の表面に露出する第1電極と、
 該第2半導体基板の第1主面上に形成された第2トランジスタと、
 該第2半導体基板の該第1主面上に形成された第2配線層と、
 該第2配線層の表面に露出する第2電極と、
 該第1電極及び該第2電極を介して、該少なくとも1つのフォトダイオードの第3電極と該第2トランジスタのゲート電極とを接続する電流読み出し用配線と、を備え、
 該第1電極と該第2電極とが接合されて、該第1半導体基板と該第2半導体基板とが貼り合わされ、
 該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサ。
[17]
 前記連続的な分光スペクトルにおいて、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下である、[16]に記載のセンサ。
[18]
 前記光学素子がファブリペロ共振器である、[16]又は[17]に記載のセンサ。
[19]
 前記ギャップがエアギャップである、[16]から[18]のいずれか1つに記載のセンサ。
[20]
 前記距離可変装置が圧電素子又はMEMS素子である、[16]から[19]のいずれか1つに記載のセンサ。
[21]
 前記ギャップの距離を変化させることに連動しながら光電荷信号を連続的に読み出す、[16]から[20]のいずれか1つに記載のセンサ。
[22]
 前記ギャップの距離を変化させることに連動しながら光電荷信号を電流によって連続的に読み出す、[16]から[20]のいずれか1つに記載のセンサ。
[23]
 入射光のうちの特定波長帯域の光を透過させる少なくとも1つのフィルタを更に備える、[16]から[22]のいずれか1つに記載のセンサ。
[24]
 [1]から[23]のいずれか1つに記載のセンサを少なくとも1つ備え、複数の画素を1次元又は2次元に配列した、固体撮像装置。
[25]
 [1]から[23]のいずれか1つに記載のセンサを備える、電子装置。
[26]
 [24]に記載の固体撮像装置を備える、電子装置。
 1(1a、1b)、101(101a、101b)、201(201a、201b)、301(301a、301b)、401(401a、401b)、501(501a、501b)、601(601a、601b)、701(701a、701b)、801(801a、801b)、901(901a、901b)・・・光学干渉フィルタ、
 10・・・ファブリペロ共振器(光学素子)、
 105(105-1、105-2)、205(205-1、205-2)、305(305-1、305-2)、405(405-1、405-2)、505(505-1、505-2)、605(605-1、605-2)、705(705-1、705-2)・・・距離可変装置、
 d0~d9・・・(エア)ギャップ距離、
 150、250・・・光学素子
 1000、2000・・・波長可変デバイス、
 106、206(206-1~206-4)・・・光電変換素子、
 100・・・センサ、
 200、300、400、500、600、700、800、900・・・固体撮像装置。

Claims (15)

  1.  少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、
     少なくとも1つの光電変換素子と、を備え、
     該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサ。
  2.  前記連続的な分光スペクトルにおいて、少なくとも1組の互いに隣り合う2つのスペクトルのピーク波長間隔がピーク半値幅以下である、請求項1に記載のセンサ。
  3.  前記光学素子がファブリペロ共振器である、請求項1に記載のセンサ。
  4.  前記ギャップがエアギャップである、請求項1に記載のセンサ。
  5.  前記距離可変装置が圧電素子又はMEMS素子である、請求項1に記載のセンサ。
  6.  前記ギャップの距離を変化させることに連動しながら光電荷信号を連続的に読み出す、請求項1に記載のセンサ。
  7.  前記ギャップの距離を変化させることに連動しながら光電荷信号を電流によって連続的に読み出す、請求項1に記載のセンサ。
  8.  入射光のうちの特定波長帯域の光を透過させる少なくとも1つのフィルタを更に備える、請求項1に記載のセンサ。
  9.  少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、
     第1半導体基板と、
     第2半導体基板と、
     該第1半導体基板に形成された、該第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、
     該第1半導体基板の第1主面の表面に形成されたフローティングディフュージョンと、
     該第1半導体基板の該第1主面上に形成された第1トランジスタと、
     該第1半導体基板の該第1主面上に形成された第1配線層と、
     該第1配線層の表面に露出する第1電極と、
     該第2半導体基板の第1主面上に形成された第2トランジスタと、
     該第2半導体基板の該第1主面上に形成された第2配線層と、
     該第2配線層の表面に露出する第2電極と、
     該第1電極及び該第2電極を介して、該フローティングディフュージョンと該第2トランジスタのゲート電極とを接続するフローティングディフュージョン配線と、を備え、
     該第1電極と該第2電極とが接合されて、該第1半導体基板と該第2半導体基板とが貼り合わされ、
     該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサ。
  10.  少なくとも2つの光学干渉フィルタを含み、該少なくとも2つの光学干渉フィルタが対向配置され、対向配置された該少なくとも2つの光学干渉フィルタの間にギャップを有する光学素子と、該ギャップの距離を可変する距離可変装置と、を備える少なくとも1つの波長可変デバイスと、
     第1半導体基板と、
     第2半導体基板と、
     該第1半導体基板に形成された、該第1半導体基板の第2主面側を受光面とする少なくとも1つのフォトダイオードと、
     該第1半導体基板の該第1主面上に形成された第1トランジスタと、
     該第1半導体基板の該第1主面上に形成された第1配線層と、
     該第1配線層の表面に露出する第1電極と、
     該第2半導体基板の第1主面上に形成された第2トランジスタと、
     該第2半導体基板の該第1主面上に形成された第2配線層と、
     該第2配線層の表面に露出する第2電極と、
     該第1電極及び該第2電極を介して、該少なくとも1つのフォトダイオードの第3電極と該第2トランジスタのゲート電極とを接続する電流読み出し用配線と、を備え、
     該第1電極と該第2電極とが接合されて、該第1半導体基板と該第2半導体基板とが貼り合わされ、
     該ギャップの距離を変化させることによって、連続的な分光スペクトルを取得する、センサ。
  11.  請求項1に記載のセンサを少なくとも1つ備え、複数の画素を1次元又は2次元に配列した、固体撮像装置。
  12.  請求項9に記載のセンサを少なくとも1つ備え、複数の画素を1次元又は2次元に配列した、固体撮像装置。
  13.  請求項10に記載のセンサを少なくとも1つ備え、複数の画素を1次元又は2次元に配列した、固体撮像装置。
  14.  請求項1に記載のセンサを備える、電子装置。
  15.  請求項11に記載の固体撮像装置を備える、電子装置。
PCT/JP2018/001422 2017-02-20 2018-01-18 センサ、固体撮像装置及び電子装置 WO2018150801A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/485,540 US11221256B2 (en) 2017-02-20 2018-01-18 Sensor, solid-state imaging apparatus, and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-029107 2017-02-20
JP2017029107A JP2018137284A (ja) 2017-02-20 2017-02-20 センサ、固体撮像装置及び電子装置

Publications (1)

Publication Number Publication Date
WO2018150801A1 true WO2018150801A1 (ja) 2018-08-23

Family

ID=63170653

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/001422 WO2018150801A1 (ja) 2017-02-20 2018-01-18 センサ、固体撮像装置及び電子装置

Country Status (3)

Country Link
US (1) US11221256B2 (ja)
JP (1) JP2018137284A (ja)
WO (1) WO2018150801A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112490256A (zh) * 2020-11-27 2021-03-12 维沃移动通信有限公司 多光谱成像结构、方法、芯片、摄像头模组和电子设备
US20220293811A1 (en) * 2021-03-09 2022-09-15 Globalfoundries U.S. Inc. Photodetectors used with broadband signal

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI814902B (zh) * 2018-09-21 2023-09-11 日商索尼半導體解決方案公司 攝像裝置
JP7318215B2 (ja) * 2019-01-30 2023-08-01 セイコーエプソン株式会社 画像投影システムおよび投影位置検出方法
WO2021090569A1 (ja) * 2019-11-06 2021-05-14 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距装置
WO2021161687A1 (ja) * 2020-02-10 2021-08-19 ソニーセミコンダクタソリューションズ株式会社 センサ装置、測距装置
EP3884840A1 (de) * 2020-03-27 2021-09-29 Diaspective Vision GmbH Medizinische bildgebungsvorrichtung zur ortsaufgelösten aufnahme multispektraler videodaten
WO2022044692A1 (ja) * 2020-08-24 2022-03-03 パナソニックIpマネジメント株式会社 フィルタアレイおよび撮像システム
JP2022050242A (ja) * 2020-09-17 2022-03-30 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及びその製造方法
JP7304534B2 (ja) * 2020-10-30 2023-07-07 パナソニックIpマネジメント株式会社 光検出装置、構造体の製造方法、および光検出装置の製造方法
CN116670805A (zh) * 2020-12-28 2023-08-29 索尼半导体解决方案公司 固态成像设备、其制造方法,及电子设备
KR102574402B1 (ko) * 2022-06-28 2023-09-05 주식회사 스마트비전글로벌 인체케어용 광조합모듈 및 인체케어장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008544571A (ja) * 2005-06-28 2008-12-04 シリコンファイル・テクノロジーズ・インコーポレイテッド 3次元構造を持つイメージセンサの分離型単位画素及びその製造方法
WO2011077580A1 (ja) * 2009-12-26 2011-06-30 キヤノン株式会社 固体撮像装置および撮像システム
JP2015099074A (ja) * 2013-11-19 2015-05-28 セイコーエプソン株式会社 分光測定装置及び分光測定方法
JP2015106107A (ja) * 2013-12-02 2015-06-08 セイコーエプソン株式会社 波長可変干渉フィルター、光学モジュール、および電子機器
JP2015125082A (ja) * 2013-12-27 2015-07-06 セイコーエプソン株式会社 光学モジュール、電子機器、及び光学モジュールの駆動方法
JP2015161512A (ja) * 2014-02-26 2015-09-07 セイコーエプソン株式会社 電子機器及び電子機器の制御方法
JP2016211860A (ja) * 2015-04-28 2016-12-15 浜松ホトニクス株式会社 光検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10007039B2 (en) * 2012-09-26 2018-06-26 8797625 Canada Inc. Multilayer optical interference filter
US10109753B2 (en) * 2016-02-19 2018-10-23 X-Celeprint Limited Compound micro-transfer-printed optical filter device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008544571A (ja) * 2005-06-28 2008-12-04 シリコンファイル・テクノロジーズ・インコーポレイテッド 3次元構造を持つイメージセンサの分離型単位画素及びその製造方法
WO2011077580A1 (ja) * 2009-12-26 2011-06-30 キヤノン株式会社 固体撮像装置および撮像システム
JP2015099074A (ja) * 2013-11-19 2015-05-28 セイコーエプソン株式会社 分光測定装置及び分光測定方法
JP2015106107A (ja) * 2013-12-02 2015-06-08 セイコーエプソン株式会社 波長可変干渉フィルター、光学モジュール、および電子機器
JP2015125082A (ja) * 2013-12-27 2015-07-06 セイコーエプソン株式会社 光学モジュール、電子機器、及び光学モジュールの駆動方法
JP2015161512A (ja) * 2014-02-26 2015-09-07 セイコーエプソン株式会社 電子機器及び電子機器の制御方法
JP2016211860A (ja) * 2015-04-28 2016-12-15 浜松ホトニクス株式会社 光検出装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112490256A (zh) * 2020-11-27 2021-03-12 维沃移动通信有限公司 多光谱成像结构、方法、芯片、摄像头模组和电子设备
CN112490256B (zh) * 2020-11-27 2023-08-22 维沃移动通信有限公司 多光谱成像结构、方法、芯片、摄像头模组和电子设备
US20220293811A1 (en) * 2021-03-09 2022-09-15 Globalfoundries U.S. Inc. Photodetectors used with broadband signal
US11502214B2 (en) * 2021-03-09 2022-11-15 Globalfoundries U.S. Inc. Photodetectors used with broadband signal

Also Published As

Publication number Publication date
US20200386620A1 (en) 2020-12-10
JP2018137284A (ja) 2018-08-30
US11221256B2 (en) 2022-01-11

Similar Documents

Publication Publication Date Title
WO2018150801A1 (ja) センサ、固体撮像装置及び電子装置
US11711629B2 (en) Solid-state image pickup device and electronic apparatus
US10819922B2 (en) Solid-state imaging element and imaging device
US10827112B2 (en) Image pickup device and electronic apparatus with an image plane phase detection difference detection pixel
CN108028259B (zh) 成像元件、成像元件的制造方法、成像装置以及成像装置的制造方法
US10861893B2 (en) Imaging element and imaging apparatus
US8648302B2 (en) Thermal detector, thermal detection device, electronic instrument, and thermal detector manufacturing method
US8227883B2 (en) Solid-state imaging device and camera
TWI455299B (zh) 光子感測技術
US10319764B2 (en) Image sensor and electronic device
CN108352395B (zh) 固态摄像装置和电子设备
US20210351217A1 (en) Photoelectric conversion element and light receiving device
US11335722B2 (en) Solid-state imaging device and electronic apparatus
WO2016143532A1 (ja) 固体撮像装置及びその製造方法、並びに電子機器
JP2020080366A (ja) 受光装置
JP6007477B2 (ja) 焦電型光検出器、焦電型光検出装置および電子機器
JP2004221250A (ja) 撮像センサおよび撮像装置
JP5672056B2 (ja) 熱型光検出器、熱型光検出装置、電子機器および熱型光検出器の製造方法
JP2020167495A (ja) 固体撮像素子及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18754566

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18754566

Country of ref document: EP

Kind code of ref document: A1