WO2022190653A1 - 撮像素子、撮像装置、及び撮像素子の製造方法 - Google Patents

撮像素子、撮像装置、及び撮像素子の製造方法 Download PDF

Info

Publication number
WO2022190653A1
WO2022190653A1 PCT/JP2022/001700 JP2022001700W WO2022190653A1 WO 2022190653 A1 WO2022190653 A1 WO 2022190653A1 JP 2022001700 W JP2022001700 W JP 2022001700W WO 2022190653 A1 WO2022190653 A1 WO 2022190653A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
imaging device
imaging
image sensor
pixel substrate
Prior art date
Application number
PCT/JP2022/001700
Other languages
English (en)
French (fr)
Inventor
泰三 高地
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to DE112022001388.5T priority Critical patent/DE112022001388T5/de
Priority to US18/548,647 priority patent/US20240145510A1/en
Priority to CN202280010971.7A priority patent/CN116783710A/zh
Publication of WO2022190653A1 publication Critical patent/WO2022190653A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • G02B13/0055Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras employing a special optical element
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0037Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration with diffracting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/005Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration for correction of secondary colour or higher-order chromatic aberrations
    • G02B27/0056Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration for correction of secondary colour or higher-order chromatic aberrations by using a diffractive optical element
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements

Definitions

  • the present disclosure relates to an imaging device, an imaging device, and a method for manufacturing an imaging device.
  • a general imaging device shooting light is focused on an image sensor (for example, a CMOS image sensor) using the geometrical optics refraction of the lens.
  • an image sensor for example, a CMOS image sensor
  • Patent Document 1 discloses an optical lens that utilizes light diffraction.
  • the compact lens configuration may cause problems in optical characteristics (e.g., chromatic aberration). need to be suppressed.
  • the present disclosure has been made in view of the circumstances described above, and provides a technology that is advantageous for acquiring high-quality images with a small device configuration.
  • One aspect of the present disclosure is a pixel substrate including an image sensor, a translucent cover body facing the image sensor, a diffraction lens having a plurality of projecting lens parts projecting from the cover body toward the image sensor, and in which a space is provided between a plurality of projecting lens portions.
  • the imaging element may be positioned between the image sensor and the diffractive lens, and may include a photocurable resin film in contact with the plurality of projecting lens portions.
  • the imaging element may be provided with an inorganic film positioned between the image sensor and the diffraction lens and in contact with the plurality of projecting lens portions.
  • the imaging device may comprise a plurality of lens-constituting layers that are superimposed on each other, and each of the plurality of lens-constituting layers may include a cover body and a diffractive lens.
  • the diffractive lens may be positioned at a distance of 60 ⁇ m or less from the image sensor.
  • planar sizes of the plurality of projecting lens portions change periodically based on the distance from the optical axis.
  • the planar size of the protruding lens portion may decrease with increasing distance from the optical axis in each period.
  • planar sizes of the plurality of projecting lens portions change periodically based on the distance from the optical axis. and the planar size of the protruding lens portion may increase with increasing distance from the optical axis in each period.
  • the imaging element may be provided with a fixing portion that is positioned between the pixel substrate and the cover and fixes the cover to the pixel substrate.
  • a space may be provided between the image sensor and the diffraction lens.
  • the imaging element may include a support that supports the pixel substrate, and a fixing portion that is positioned between the support and the cover substrate and fixes the cover to the support.
  • Another aspect of the present disclosure includes a pixel substrate including an image sensor, a translucent cover body facing the image sensor, and a diffraction lens having a plurality of projecting lens parts projecting from the cover body toward the image sensor. , and an imaging lens located on the opposite side of the pixel substrate with respect to the cover body, and a space is formed between the plurality of projecting lens portions.
  • the diffractive lens may reduce chromatic aberration of the imaging lens.
  • the diffractive lens may emit light at a principal ray incident angle smaller than the principal ray incident angle of the light directed from the imaging lens to the diffractive lens.
  • Another aspect of the present disclosure includes a step of fixing a translucent cover body to a pixel substrate having an image sensor, the cover bodies forming a diffractive lens and having a space therebetween.
  • the present invention relates to a method for manufacturing an imaging device, in which a plurality of protruding lens portions are fixed, and a cover body is fixed to a pixel substrate so that the plurality of protruding lens portions are positioned between the cover body and the pixel substrate.
  • a method for manufacturing an imaging device includes a step of applying a photocurable resin on a pixel substrate, and a step of curing a portion of the photocurable resin on the pixel substrate that covers an image sensor by light irradiation,
  • the cover body may be fixed to the pixel substrate while a plurality of protruding lens portions face the portions of the upper photocurable resin cured by light irradiation.
  • the method for manufacturing the imaging device may include a step of applying an inorganic film on the pixel substrate, and the cover body may be fixed to the pixel substrate while facing the plurality of projecting lens portions to the inorganic film.
  • FIG. 1 is a diagram illustrating focal points of short wavelength light and long wavelength light that have passed through a unit including a plurality of geometrical optics lenses.
  • FIG. 2 is a diagram illustrating focal points of short wavelength light and long wavelength light passing through a diffractive lens using optical diffraction.
  • FIG. 3 is a drawing illustrating focal points of short wavelength light and long wavelength light that have passed through an optical lens system including a geometrical optics lens and a diffractive lens.
  • FIG. 4 is a cross-sectional view showing an example of an imaging device according to the first embodiment.
  • 5 is a cross-sectional view showing an enlarged part of the imaging element shown in FIG. 4.
  • FIG. 6 is a cross-sectional view showing an example of the structure of the lower substrate and the upper substrate, showing an enlarged part of the imaging element.
  • FIG. 7 is a cross-sectional view showing an example of an imaging device including a geometrical optics lens and an imaging device.
  • 8 is a cross-sectional view showing an enlarged part of the imaging element shown in FIG. 7.
  • FIG. 9 is a cross-sectional view showing an enlarged part of the imaging element, and is a diagram for exemplifying a case where color mixture occurs between adjacent image sensors.
  • FIG. 10 is a cross-sectional view showing an enlarged part of the image pickup device, and is a diagram illustrating a case where the diffractive lens refracts photographing light toward an appropriate image sensor to prevent color mixture.
  • FIG. 11A is a diagram for explaining an example of a method of manufacturing a diffractive lens.
  • FIG. 11B is a diagram for explaining an example of a method of manufacturing a diffractive lens.
  • FIG. 11C is a diagram for explaining an example of a method of manufacturing a diffractive lens;
  • FIG. 11D is a diagram for explaining an example of a method of manufacturing a diffractive lens;
  • FIG. 11E is a diagram for explaining an example of a method of manufacturing a diffractive lens;
  • FIG. 12 is a perspective view showing a plurality of diffractive lenses formed on the cover wafer.
  • FIG. 13A is a perspective view showing an example of a method for manufacturing an image sensor.
  • FIG. 13A is a perspective view showing an example of a method for manufacturing an image sensor.
  • FIG. 13B is a perspective view showing an example of a method for manufacturing an imaging device
  • FIG. 13C is a perspective view showing an example of a method for manufacturing an image sensor
  • FIG. 13D is a perspective view showing an example of a method for manufacturing an image sensor.
  • FIG. 14 is a cross-sectional view of the imaging device showing an example of the method of manufacturing the imaging device.
  • FIG. 15 is a cross-sectional view of the imaging device showing an example of the method of manufacturing the imaging device.
  • FIG. 16 is a cross-sectional view of the imaging device showing an example of the method of manufacturing the imaging device.
  • FIG. 17 is a cross-sectional view showing another example of the method of manufacturing the imaging device.
  • FIG. 18 is a cross-sectional view showing an enlarged part of the imaging device manufactured by the manufacturing method shown in FIG.
  • FIG. 19 is a cross-sectional view showing an example of an imaging device according to the second embodiment.
  • FIG. 20 is a cross-sectional view showing an example of an imaging device according to the third embodiment.
  • FIG. 21 is a cross-sectional view showing an example of an imaging device according to the fourth embodiment.
  • FIG. 22 is a cross-sectional view showing an example of an imaging device according to the fifth embodiment.
  • FIG. 23 is a cross-sectional view showing an example of an imaging device according to the sixth embodiment.
  • FIG. 24 is a perspective view showing a structural example of a diffractive lens.
  • FIG. 25 is an enlarged plan view showing an outline of an example of a diffractive lens.
  • FIG. 26A is a diagram for explaining the phase difference of light diffraction of the diffractive lens (plurality of projecting lens portions).
  • FIG. 26B is a diagram for explaining the refraction angle of light diffraction of the diffractive lens (plurality of projecting lens portions).
  • FIG. 26C is a diagram for explaining the refraction angle and focal length of light diffraction of the diffractive lens (plurality of projecting lens portions).
  • FIG. 27 is a plan view showing an arrangement example of a plurality of projecting lens portions that constitute one diffractive lens.
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system; FIG. FIG.
  • FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit; 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system; FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU; FIG.
  • FIG. 1 is a diagram illustrating the focal points of short-wavelength light L1 and long-wavelength light L2 that have passed through a unit including a plurality of geometrical-optical lenses (hereinafter also simply referred to as "geometrical-optical lens 21").
  • the geometrical optics lens 21 that uses geometrical optics refraction exhibits a smaller refractive index and a longer focal length as the wavelength of light increases (see “long wavelength light L2" shown in FIG. 1). That is, the geometrical optics lens 21 exhibits a larger refractive index and a shorter focal length as the wavelength of light becomes shorter (see “short wavelength light L1" shown in FIG. 1).
  • the photographing light is condensed onto the image sensor by the geometrical optics lens 21 having the above characteristics, it is necessary to combine a plurality of lenses in order to suppress chromatic aberration.
  • FIG. 2 is a diagram illustrating the focal points of the short wavelength light L1 and the long wavelength light L2 that have passed through the diffraction lens 22 that utilizes optical diffraction.
  • the diffraction lens 22 exhibits a larger refractive index and a shorter focal length as the wavelength of light becomes longer (see “long wavelength light L2" shown in FIG. 2). That is, the diffraction lens 22 exhibits a smaller refractive index and a longer focal length as the wavelength of light becomes shorter (see “short wavelength light L1” in FIG. 2).
  • the geometrical optics lens 21 and the diffractive lens 22 exhibit mutually opposite refraction characteristics with respect to the wavelength of incident light. Therefore, by combining the geometrical optics lens 21 and the diffractive lens 22, it is possible to effectively reduce the chromatic aberration while suppressing the enlargement of the size of the optical lens system in the direction along the optical axis Ax (hereinafter also referred to as "optical axis direction"). It is possible.
  • FIG. 3 is a diagram illustrating the focal points of the short wavelength light L1 and the long wavelength light L2 that have passed through an optical lens system including the geometrical optics lens 21 and the diffraction lens 22.
  • the diffractive lens 22 is attached to the surface of the lens closest to the subject among the units of the geometrical optics lens 21 .
  • the focal point of the short wavelength light L1 and the focal point of the long wavelength light L2 can be matched or brought close to each other while suppressing expansion of the optical lens system in the optical axis direction. is possible.
  • the optical characteristics of the entire optical lens system can be improved, but the installation of the diffraction lens 22 is not necessarily easy.
  • Advanced lens optical characteristics can also be achieved by increasing the number of lenses included in the geometrical optics lens 21 as described above.
  • imaging devices mounted on mobile terminals such as smartphones, there is a demand for smaller, thinner, and lighter optical lens systems from the viewpoint of improving mobility.
  • An increase in the number of lenses for improving the performance of an optical lens system and a size reduction for improving mobility are mutually contradictory demands.
  • the incident angle of light to the image sensor tends to increase. decreases and the quality of the captured image deteriorates.
  • the principal ray incident angle approaches 0°
  • the traveling direction of the light toward the image sensor approaches the optical axis direction. approach direction.
  • FIG. 4 is a cross-sectional view showing an example of the imaging element 11 according to the first embodiment.
  • FIG. 5 is a cross-sectional view showing an enlarged part of the imaging element 11 shown in FIG.
  • the imaging element 11 shown in FIGS. 4 and 5 is a semiconductor package in which a pixel substrate 33 including a laminated lower substrate 31 and an upper substrate 32 is packaged.
  • the imaging device 11 receives imaging light traveling from top to bottom in FIG. 4, converts the imaging light into an electrical signal, and outputs the electrical signal (that is, image data).
  • a plurality of solder balls 34 are formed on the lower substrate 31 as back electrodes for electrical connection with an external substrate (not shown).
  • R (red), G (green), and B (blue) color filters 35 and an on-chip lens 36 covering the color filters 35 are provided on the upper surface of the upper substrate 32 .
  • a cover body 38 is fixed to the upper substrate 32 via a seal resin 37 .
  • the sealing resin 37 functions as an adhesive layer that bonds the cover body 38 to the upper substrate 32 and functions as a sealing layer that shields the color filter 35 and the on-chip lens 36 from the outside.
  • the upper substrate 32 is formed with a pixel region having a plurality of two-dimensionally arranged image sensors (photoelectric conversion elements) and a control circuit for controlling the plurality of image sensors.
  • a logic circuit such as a circuit for processing pixel signals from a plurality of image sensors is formed on the lower substrate 31 .
  • only the pixel region may be formed on the upper substrate 32 , and the control circuit and logic circuit may be formed on the lower substrate 31 .
  • FIG. 6 is a cross-sectional view showing an example of the structure of the lower substrate 31 and the upper substrate 32, showing an enlarged portion of the imaging element 11. As shown in FIG.
  • a multilayer wiring layer 82 is formed on the upper side (upper substrate 32 side) of a semiconductor substrate 81 (hereinafter also referred to as "silicon substrate 81") made of silicon (Si), for example.
  • the multilayer wiring layer 82 constitutes, for example, the control circuit and the logic circuit described above.
  • the multilayer wiring layer 82 includes a plurality of wiring layers 83 including an uppermost wiring layer 83a closest to the upper substrate 32, an intermediate wiring layer 83b, and a lowermost wiring layer 83c closest to the silicon substrate 81; It is composed of an interlayer insulating film 84 formed between wiring layers 83 .
  • the plurality of wiring layers 83 are formed using, for example, copper (Cu), aluminum (Al), tungsten (W), etc., and the interlayer insulating film 84 is formed using, for example, a silicon oxide film, a silicon nitride film, or the like. .
  • Each of the plurality of wiring layers 83 and interlayer insulating films 84 may be formed of the same material in all layers, or two or more materials may be used depending on the layer.
  • a silicon through hole 85 is formed through the silicon substrate 81 at a predetermined position of the silicon substrate 81 .
  • a connection conductor 87 is embedded in the inner wall of the silicon through hole 85 via an insulating film 86 to form a silicon through electrode (TSV: Through Silicon Via) 88 .
  • the insulating film 86 can be formed of, for example, a SiO 2 film, a SiN film, or the like.
  • the insulating film 86 and the connection conductor 87 are formed along the inner wall surface, and the inside of the silicon through hole 85 is hollow.
  • the entire interior may be filled with connecting conductors 87 .
  • the inside of the through-hole may be filled with a conductor or may be partially hollow. This also applies to a chip through electrode (TCV: Through Chip Via) 105 and the like, which will be described later.
  • connection conductor 87 of the silicon through electrode 88 is connected to the rewiring 90 formed on the lower surface side of the silicon substrate 81, and the rewiring 90 is connected to the solder balls 34.
  • the connection conductor 87 and the rewiring 90 can be made of, for example, copper (Cu), tungsten (W), titanium (Ti), tantalum (Ta), titanium-tungsten alloy (TiW), or polysilicon.
  • solder mask (solder resist) 91 is formed on the lower surface side of the silicon substrate 81 so as to cover the rewiring 90 and the insulating film 86 except for the regions where the solder balls 34 are formed.
  • a multilayer wiring layer 102 is formed on the lower side (lower substrate 31 side) of a semiconductor substrate 101 made of silicon (Si) (hereinafter also referred to as "silicon substrate 101").
  • the multilayer wiring layer 102 constitutes, for example, a pixel circuit in the pixel region.
  • the multilayer wiring layer 102 includes a plurality of wiring layers 103 including a top wiring layer 103a closest to the silicon substrate 101, an intermediate wiring layer 103b, and a bottom wiring layer 103c closest to the lower substrate 31, It is composed of an interlayer insulating film 104 formed between each wiring layer 103 .
  • Materials used for the plurality of wiring layers 103 and the interlayer insulating film 104 can employ the same materials as those of the wiring layer 83 and the interlayer insulating film 84 described above.
  • the plurality of wiring layers 103 and interlayer insulating films 104 may be formed by selectively using one or more materials, as in the case of the wiring layers 83 and interlayer insulating films 84 described above.
  • the multilayer wiring layer 102 of the upper substrate 32 is composed of three wiring layers 103, and the multilayer wiring layer 82 of the lower substrate 31 is composed of four wiring layers 83.
  • the total number of wiring layers is not limited to this, and any number of layers can be formed.
  • An image sensor 40 composed of a photodiode formed by a PN junction is formed for each pixel in the silicon substrate 101 .
  • a plurality of pixel transistors such as a first transfer transistor 52 and a second transfer transistor 54, a memory section (MEM) 53, and the like are also formed in the multilayer wiring layer 102 and the silicon substrate 101. ing.
  • Silicon through electrodes 109 connected to the wiring layer 103a of the upper substrate 32 and the wiring layer 83a of the lower substrate 31 are provided at predetermined positions of the silicon substrate 101 where the color filter 35 and the on-chip lens 36 are not formed.
  • a connected chip through electrode 105 is formed.
  • the chip through electrode 105 and silicon through electrode 109 are connected by a connection wiring 106 formed on the upper surface of the silicon substrate 101 .
  • An insulating film 107 is formed between each of the silicon through electrode 109 and the chip through electrode 105 and the silicon substrate 101 .
  • a color filter 35 and an on-chip lens 36 are formed on the upper surface of the silicon substrate 101 with an insulating film (flattening film) 108 interposed therebetween.
  • the pixel substrate 33 of the solid-state imaging device 1 shown in FIG. 1 has a laminated structure in which the multilayer wiring layer 82 side of the lower substrate 31 and the multilayer wiring layer 102 side of the upper substrate 32 are bonded together. ing.
  • the bonding surface between the multilayer wiring layer 82 of the lower substrate 31 and the multilayer wiring layer 102 of the upper substrate 32 is indicated by a dashed line.
  • the wiring layer 103 of the upper substrate 32 and the wiring layer 83 of the lower substrate 31 are connected by two through electrodes, ie, the silicon through electrode 109 and the chip through electrode 105 .
  • the wiring layer 83 of the lower substrate 31 and the solder balls (rear electrodes) 14 are connected by silicon through electrodes 88 and rewirings 90 . Thereby, the plane area of the solid-state imaging device 1 can be minimized.
  • a small semiconductor device semiconductor package
  • the imaging device 11 includes the pixel substrate 33 having the image sensor 40 on which the imaging light is incident, and the translucent cover body 38 facing the image sensor 40 .
  • a seal resin 37 positioned between the pixel substrate 33 and the cover body 38 functions as a fixing portion to fix the cover body 38 to the pixel substrate 33 .
  • the pixel substrate 33 and the cover body 38 are integrated.
  • the imaging device 11 of this embodiment includes a diffraction lens 22 attached to the cover body 38 .
  • the cover body 38 shown in FIGS. 4 to 6 has two flat surfaces (that is, a front surface and a rear surface) that are separated in the optical axis direction and extend in a direction perpendicular to the optical axis Ax. .
  • the diffractive lens 22 is attached to one of these flat surfaces of the cover body 38 (that is, the back surface facing the pixel substrate 33).
  • the diffractive lens 22 has a plurality of protruding lens portions 23 protruding from the cover body 38 toward the pixel substrate 33 (especially the image sensor 40), and spaces (that is, air gaps 24) are provided between the protruding lens portions 23. be provided.
  • the air gap 24 formed between the adjacent protruding lens portions 23 is not filled with a member such as the sealing resin 37, and maintains a space state.
  • the diffractive lens 22 retains its original fine unevenness shape, and exhibits and maintains excellent optical characteristics.
  • the diffractive lens 22 of this embodiment can inherently have high lens performance in terms of refraction, and can be configured as a lens exhibiting a high refractive index.
  • the actual refractive index of the diffractive lens 22 can be changed by appropriately adjusting the shape, size, etc. of each projecting lens portion 23 . Therefore, the diffractive lens 22 of the present embodiment can accommodate a wide refractive index range, and is provided to selectively exhibit a desired refractive index within that refractive index range.
  • the diffraction lens 22 As described above, according to the present embodiment, it is possible to design the diffraction lens 22 exhibiting desired optical refraction characteristics with a high degree of freedom.
  • the diffractive lens 22 (particularly, the distal end portions of the plurality of projecting lens portions 23) of the present embodiment contacts the sealing resin 37, and the pixel substrate 33 (that is, the lower substrate 31 and the upper substrate 32) through the sealing resin 37. To support.
  • the pixel substrate 33 for example, the upper substrate 32 including the image sensor 40
  • the distance between the diffraction lens 22 and the image sensor 40 can be stably and uniformly maintained at a desired distance.
  • the diffractive lens 22 has high refractive performance.
  • the pixel substrate 33 tends to bend, and for example, the pixel substrate 33 may unintentionally warp toward the diffraction lens 22. be.
  • the pixel substrate 33 bends, the position of the photographic light condensed by the diffraction lens 22 and the light incident surface (that is, the imaging surface) of the image sensor 40 deviate from each other, resulting in photographing in a defocused state. The quality of the captured image deteriorates.
  • the pixel substrate 33 is supported by the diffraction lens 22, so that the pixel substrate 33 is prevented from bending (in particular, warping toward the diffraction lens 22). can be suppressed. Thereby, the distance between the diffractive lens 22 and the pixel substrate 33 (especially the image sensor 40) can be kept constant over the entire imaging surface, and the light gathering performance of the imaging element 11 can be improved.
  • the pixel substrate 33 is supported by the diffraction lens 22 via the sealing resin 37, the distance between the diffraction lens 22 and the pixel substrate 33 (that is, the optical path length) is suppressed, and the pixel substrate 33 is Unintended bending can be suppressed.
  • the pixel substrate 33 when the pixel substrate 33 is supported by a supporting member provided on the opposite side of the cover member 38 with the pixel substrate 33 interposed therebetween (see FIG. 23 described later), the bending of the pixel substrate 33 can be prevented, but the optical path It tends to grow in length.
  • the pixel substrate 33 and an external substrate are connected to each other via wiring such as wire bonding (WB).
  • WB wire bonding
  • the chromatic aberration of the photographing light condensed on the image sensor 40 via the diffraction lens 22 increases, and the size (thickness) of the entire imaging element 11 in the optical axis direction increases.
  • the imaging element 11 of this embodiment shown in FIGS. 4 to 6 a support for supporting the pixel substrate 33 from the outside is unnecessary. Therefore, the solder balls 34 can be provided as wiring for connecting the imaging element 11 and the external substrate, and wire bonding wiring for connecting the pixel substrate 33 and the external substrate (not shown) is unnecessary. Therefore, the diffraction lens 22 can be installed close to the pixel substrate 33 (especially the image sensor 40), and the optical path length can be shortened.
  • the image sensor 11 of this embodiment can acquire a high-quality captured image with suppressed chromatic aberration, and the size of the image sensor 11 in the optical axis direction can be reduced.
  • FIG. 7 is a cross-sectional view showing an example of the imaging device 10 including the geometrical optics lens 21 and the imaging device 11.
  • FIG. 8 is a cross-sectional view showing an enlarged part of the imaging device 11 shown in FIG.
  • the imaging device 10 shown in FIG. 7 includes the imaging element 11 shown in FIG. 4 described above, and the geometrical optics lens 21 (imaging lens) located on the opposite side of the pixel substrate 33 with the cover body 38 interposed therebetween.
  • the imaging device 11 includes the diffractive lens 22, the diffractive lens 22 has a plurality of projecting lens portions 23 projecting from the cover body 38 toward the image sensor 40, and the plurality of projecting lens portions 23 are mutually aligned. An air gap 24 is formed therebetween.
  • the imaging light L of the subject image passes through the geometric optics lens 21, the cover body 38, the diffraction lens 22, the on-chip lens 36, and the color filter 35, and enters the image sensor 40 (see FIG. 6) of the pixel substrate 33.
  • the photographing light L is mainly refracted by the geometrical optics lens 21 , the diffraction lens 22 and the on-chip lens 36 to adjust the direction of travel, and is guided toward the image sensor 40 . Therefore, the optical characteristics and configuration of the diffraction lens 22 can be determined according to the optical characteristics (for example, refractive characteristics) of the geometrical optics lens 21 actually used. Alternatively, the optical characteristics and configuration of the geometrical optics lens 21 can be determined according to the optical characteristics (for example, refractive characteristics) of the actually used diffraction lens 22 .
  • the optical properties (especially refractive properties) and configuration of the diffraction lens 22 are determined so that the chromatic aberration of the geometrical optics lens 21 is reduced by the diffraction lens 22 .
  • the optical characteristics of the diffraction lens 22 are such that the diffraction lens 22 emits the photographing light L at a principal ray incident angle (CRA) smaller than the principal ray incident angle (CRA) of the photographing light L directed from the geometrical optics lens 21 to the diffraction lens 22. (especially the refractive properties) and configuration are determined.
  • CRA principal ray incident angle
  • CRA principal ray incident angle
  • the diffractive lens 22 can function not only as a lens that corrects the chromatic aberration of the geometrical optics lens 21, but also as a lens that improves the incident angle of the principal ray, thereby improving the shading characteristics of the entire optical lens system. can be done.
  • FIG. 9 is a cross-sectional view showing an enlarged part of the imaging element 11, and is a diagram for exemplifying a case where color mixture occurs between adjacent image sensors 40.
  • FIG. FIG. 10 is a cross-sectional view showing an enlarged part of the image sensor 11, and illustrates a case where the diffractive lens 22 refracts the photographing light L toward an appropriate image sensor 40 to prevent color mixture. It is a diagram.
  • the optical path of the photographing light L is changed by the geometrical optics lens 21 and then also changed by the diffraction lens 22 .
  • the traveling direction of the photographing light L that has passed through the diffraction lens 22 does not necessarily completely match the direction perpendicular to the imaging surface of the image sensor 40 (that is, the optical axis direction).
  • the direction of travel of the photographing light L is changed by the diffraction lens 22 so as to approach the optical axis direction, but the photographing light L includes a light component traveling in a direction oblique to the optical axis direction.
  • the photographing light L traveling in a direction that is inclined with respect to the optical axis direction travels to the other side adjacent to the corresponding image sensor 40. are more likely to enter the image sensor 40, resulting in color mixture.
  • the inventor of the present invention actually considered the occurrence of color mixture while changing the configuration of the image sensor 11.
  • the diffraction lens 22 should be positioned in the direction of the optical axis from the image sensor 40 (especially the imaging surface). It has been found that it is effective to position them apart from each other by 60 ⁇ m or less.
  • the diffraction lens 22 is preferably positioned at a distance of 50 ⁇ m or less from the image sensor 40 in the optical axis direction, more preferably at a distance of 40 ⁇ m or less, and more preferably at a distance of 30 ⁇ m or less.
  • the distance d in the optical axis direction between the diffraction lens 22 and the on-chip lens 36 is set to 60 ⁇ m or less to prevent color mixture.
  • the inventor of the present invention has obtained the knowledge that the occurrence can be effectively prevented.
  • the optical axis direction distance d between the diffraction lens 22 and the on-chip lens 36 is preferably 50 ⁇ m or less, more preferably 40 ⁇ m or less, and more preferably 30 ⁇ m or less.
  • FIG. 11A to 11E are diagrams for explaining an example of a method of manufacturing the diffractive lens 22.
  • FIG. FIG. 12 is a perspective view showing a plurality of diffractive lenses 22 formed on the cover wafer 45. As shown in FIG.
  • the diffractive lens 22 of this embodiment is formed on the flat surface (especially on the back surface) of the cover body 38 .
  • a cover body wafer 45 including a plurality of cover bodies 38 is prepared (see FIG. 11A).
  • the cover body wafer 45 has two flat surfaces located on opposite sides of each other. These flat surfaces of the cover body wafer 45 correspond to the front and back surfaces of the individual cover bodies 38, respectively.
  • the constituent material of the cover body wafer 45 (that is, the cover body 38) is not limited, and the cover body wafer 45 is made of glass, for example.
  • a lens substrate film 41 made of the constituent material of the diffractive lens 22 is attached to one flat surface of the cover wafer 45 (see FIG. 11B).
  • the constituent material of the lens base film 41 is not limited.
  • the lens substrate film 41 is provided as a transparent inorganic film made of an inorganic material exhibiting a high refractive index (such as SiN, ZrO2, ZnSe, ZnS, TiO2 or CeO2 ).
  • the method of attaching the lens substrate film 41 to the cover wafer 45 is not limited, and the lens substrate film 41 is attached to the cover wafer 45 using any means (for example, coating such as spin coater or spraying).
  • the thickness of the lens base film 41 on the cover wafer 45 is not limited, the thickness of the lens base film 41 on the cover wafer 45 varies depending on the thickness of the diffractive lens 22 (that is, the plurality of projecting lens portions 23). be decided. Typically, a lens substrate film 41 having a thickness of several tens of nm (nanometers) to several hundred nm is formed on the cover body wafer 45 .
  • a resist 42 is attached on the lens substrate film 41, and patterning is performed (see FIG. 11C). That is, the lens substrate film 41 is covered with the resist 42 having a pattern configuration corresponding to the shape and arrangement of the diffractive lens 22 (that is, the plurality of projecting lens portions 23).
  • the constituent material of the resist 42 and the method of attaching the resist 42 to the lens substrate film 41 are not limited.
  • the lens substrate film 41 is etched, and portions of the lens substrate film 41 not covered with the resist 42 are removed from the cover wafer 45 (FIG. 11D).
  • a specific method of etching performed here is not limited, and dry etching is typically performed.
  • the resist 42 is removed from the lens substrate film 41 (FIG. 11E).
  • a method for removing the resist 42 is not limited. Typically, the resist 42 is removed using chemicals selected according to the materials of the lens base film 41 and the resist 42 .
  • a plurality of diffractive lenses 22 that is, a plurality of projecting lens portions 23
  • the cover wafer 45 see FIG. 12).
  • the diffractive lens 22 can be formed on a flat surface instead of a curved surface.
  • the diffractive lens 22 must have slits sufficiently small with respect to the wavelength of the photographing light L in order to efficiently refract the photographing light L using diffraction. It may have a nano-level fine structure.
  • precise adjustment of the height direction position of the protruding lens portion 23 is required. It is not easy to form the diffractive lens 22 (plurality of protruding lens portions 23) having such a fine structure on the curved surface with high accuracy, and the manufacturing cost increases.
  • the diffractive lens 22 is formed on the cover body 38 (cover body wafer 45) as in the present embodiment, a plurality of projecting lens portions 23 are formed on the highly flat surface of the cover body 38 (cover body wafer 45). can be made. Therefore, the diffractive lens 22 having a fine structure of several tens of nanometers can be formed in advance on the flat surface of the cover body 38 (cover body wafer 45) with high accuracy by lithography and etching techniques.
  • a plurality of diffractive lenses 22 can be formed on an integrated cover body wafer 45 including a plurality of cover bodies 38. can. That is, a plurality of diffractive lenses 22 can be simultaneously formed on a plurality of portions of the cover body wafer 45 corresponding to the respective cover bodies 38 . As a result, it is possible to efficiently mass-produce the cover bodies 38 to which the diffractive lenses 22 are attached, and to reduce the manufacturing cost.
  • cover body wafer 45 to which the plurality of diffraction lenses 22 are attached may be used for manufacturing the imaging device 11 as it is in the state of a monolithic wafer, or may be cut and separated into individual cover bodies 38. may be
  • a typical example of the manufacturing method of the imaging device 11 includes a step of fixing the cover body 38 manufactured as described above to the pixel substrate 33 .
  • the cover body 38 is attached to the pixel substrate 33 so that the diffractive lens 22 (that is, the plurality of projecting lens portions 23) attached to the cover body 38 is positioned between the cover body 38 and the pixel substrate 33. fixed against.
  • the color filter 35 and the on-chip lens 36 are often already attached to the pixel substrate 33 immediately before the cover body 38 is attached, and the color filter 35 and the on-chip lens 36 are often made of an organic material. many. Therefore, the heat resistance of the pixel substrate 33 immediately before the cover body 38 is attached is severely restricted.
  • the diffractive lens 22 is formed on the cover 38 separated from the pixel substrate 33 as described above, it is preferable to form the diffractive lens 22 on the surface of the cover 38 that is highly flat because the restrictions on heat resistance are loose. can be done. Therefore, the diffractive lens 22 having a nano-level structure can be easily and accurately formed on the cover body 38 using lithography and etching techniques.
  • the cover body 38 is fixed to the pixel substrate 33 in a state in which the air gap 24 is secured between the projecting lens portions 23 as described above.
  • the manufacturing method of the imaging element 11 may include, for example, the following steps.
  • FIG. 13A to 13D are perspective views showing an example of a method for manufacturing the imaging element 11.
  • FIG. 13A to 13D are perspective views showing an example of a method for manufacturing the imaging element 11.
  • FIG. 14 to 16 are cross-sectional views of the imaging device 11 showing an example of a method for manufacturing the imaging device 11.
  • FIG. 14 to 16 focus on one pixel substrate 33 for ease of understanding, but in the manufacturing method of this example, each substrate wafer 46 including a plurality of pixel substrates 33 is shown in FIGS. The manufacturing process shown in is performed.
  • the seal resin 37 positioned between the pixel substrate 33 (particularly the image sensor 40) and the diffraction lens 22 is composed of a photocurable resin film, and the plurality of projecting lens portions 23 contacts the cured photocurable resin film.
  • an integrated substrate wafer 46 including a plurality of pixel substrates 33 is prepared (see FIG. 13A).
  • Color filters 35 and on-chip lenses 36 are already attached to the substrate wafer 46 at locations corresponding to the respective pixel substrates 33 .
  • an uncured photocurable resin that constitutes the sealing resin 37 is applied to one surface of the substrate wafer 46 (that is, the plurality of pixel substrates 33) (see FIG. 13B).
  • the photocurable resin is applied to the substrate wafer 46 so as to cover the surface of each pixel substrate 33 on which the color filter 35 and the on-chip lens 36 are provided.
  • the photocurable resin (sealing resin 37) on the substrate wafer 46 is irradiated with light (see FIG. 13C).
  • the portion of the photocurable resin on the substrate wafer 46 that covers the image sensor 40 of each pixel substrate 33 is cured by light irradiation (see “resin cured portion 37a" shown in FIG. 13C).
  • the portion of the photocurable resin on the substrate wafer 46 outside the image sensor 40 of each pixel substrate 33 is not irradiated with light and remains in an uncured state.
  • the cover wafer 45 (see FIG. 12) to which the diffractive lens 22 is attached is adhered to the substrate wafer 46 via the photocurable resin (seal resin 37) (see FIG. 13D).
  • the uncured portion (that is, the unexposed portion) of the photocurable resin (seal resin 37) located outside the image sensor 40 functions as an adhesive to bond the cover wafer 45 and the substrate wafer 46 together.
  • each of the cover body wafers 45 is placed while the diffraction lens 22 (that is, the plurality of protruding lens portions 23) faces the portion of the photocurable resin on each pixel substrate 33 of the substrate wafer 46 that has been cured by light irradiation.
  • a cover body 38 is fixed to the corresponding pixel substrate 33 .
  • each pixel substrate 33 is made compatible. is adhered to the cover body 38 (see FIG. 15).
  • the uncured portion of the photo-curing resin (sealing resin 37) in contact with the cover wafer 45 and substrate wafer 46 is irradiated with light, and the photo-curing resin (sealing resin) is applied to the cover wafer 45 and substrate wafer 46. 37) are affixed.
  • Components such as solder balls 34, TSVs and backside wiring are then formed in a monolithic wafer structure including a cover wafer 45 and a substrate wafer 46 (see FIG. 16).
  • the wafer structure is cut and separated into individual imaging elements 11 .
  • the plurality of protruding lens portions 23 are brought into contact with the sealing resin 37 in a state in which the portion of the sealing resin 37 facing the diffractive lens 22 (that is, the plurality of protruding lens portions 23) is cured. .
  • each air gap 24 can maintain a space state without being filled with the sealing resin 37, and the diffractive lens 22 can maintain desired optical characteristics.
  • FIG. 17A and 17B are cross-sectional views showing another example of the method for manufacturing the imaging device 11.
  • FIG. 18 is a cross-sectional view showing an enlarged part of the imaging device 11 manufactured by the manufacturing method shown in FIG.
  • the tips of the plurality of projecting lens portions 23 contact the inorganic film 50 located between the pixel substrate 33 (especially the image sensor 40) and the diffraction lens 22.
  • the substrate wafer 46 to which the color filters 35 and the on-chip lenses 36 are already attached is prepared.
  • a material film forming the seal resin 37 is applied to one surface of the substrate wafer 46 (that is, the plurality of pixel substrates 33).
  • a specific material of the sealing resin 37 is not limited, and may be a photo-curing resin or a thermosetting resin.
  • the sealing resin 37 on the substrate wafer 46 is semi-cured.
  • the method for semi-curing the seal resin 37 is not limited, and the seal resin 37 is semi-cured by appropriate means such as light irradiation or heating.
  • a translucent inorganic film 50 is applied onto the semi-cured seal resin 37 on the substrate wafer 46 (that is, the plurality of pixel substrates 33). Thereby, the image sensor 40 of each pixel substrate 33 of the substrate wafer 46 is covered with the cured inorganic film 50 .
  • the portion of the sealing resin 37 on the substrate wafer 46 outside the image sensor 40 of each pixel substrate 33 is not covered with the inorganic film 50 and remains exposed in a semi-cured state.
  • a specific material of the inorganic film 50 is not limited, and the inorganic film 50 may be composed of silicon dioxide (SiO 2 ), for example.
  • the method of applying the inorganic film 50 to the sealing resin 37 is not limited, and the inorganic film 50 can be adhered to the sealing resin 37 by sputtering, for example.
  • a mask 48 is interposed between the sealing resin 37 on the pixel substrate 33 and the film forming device 51, and the range of the sealing resin 37 where the inorganic film 50 is formed is formed.
  • the film forming device 51 performs the film forming process of the inorganic film 50 while being exposed to the device 51 .
  • the cover wafer 45 (see FIG. 12) to which the diffractive lens 22 is attached is adhered to the substrate wafer 46 via the sealing resin 37 .
  • the cover body 38 is fixed to the pixel substrate 33 while the plurality of projecting lens portions 23 are facing the inorganic film 50 .
  • each pixel substrate 33 is attached to the corresponding cover body 38 . (See FIG. 18).
  • the uncured portion of the seal resin 37 that contacts the cover wafer 45 and substrate wafer 46 is cured, and the seal resin 37 is fixed to the cover wafer 45 and substrate wafer 46 .
  • Components such as solder balls 34 , TSVs and backside wiring are then formed in a monolithic wafer structure including a cover body wafer 45 and a substrate wafer 46 .
  • the wafer structure is cut and separated into individual imaging elements 11 .
  • the plurality of protruding lens portions 23 are brought into contact with the cured inorganic film 50 .
  • the cover body 38 with the diffraction lens 22 mounted thereon is attached to the pixel substrate 33 via the seal resin 37 . can be fixed by pressing against
  • each air gap 24 can maintain a space state without being filled with the sealing resin 37, and the diffractive lens 22 can maintain desired optical characteristics.
  • the cover body 38 is attached to the seal resin 37 while the plurality of projecting lens portions 23 of the diffraction lens 22 face the curing member (that is, the seal resin 37 (photocuring resin) or the inorganic film 50). is pressed against the pixel substrate 33 via the . This reliably prevents the sealing resin 37 from entering the air gap 24 between the protruding lens portions 23, and the diffraction lens 22 maintains the fine unevenness shape to exhibit its original optical characteristics.
  • FIG. 19 is a cross-sectional view showing an example of the imaging device 10 according to the second embodiment.
  • the imaging device 10 shown in FIG. 19 includes a diffractive lens unit 56 including a plurality of lens-constituting layers 55 .
  • Each lens configuration layer 55 includes a cover body 38 and a diffractive lens 22 (a plurality of projecting lens portions 23) attached to the back surface of the cover body 38. As shown in FIG.
  • the diffraction lens unit 56 shown in FIG. 19 includes three lens configuration layers 55, the number of lens configuration layers 55 included in the diffraction lens unit 56 is not limited.
  • Adjacent lens-constituting layers 55 are adhered to each other via adhesive layers 57 . That is, the diffractive lens 22 of one lens configuration layer 55 (the upper lens configuration layer 55 in FIG. 19) and the other lens configuration layer 55 (the lower lens configuration layer in FIG. 19) of the adjacent lens configuration layers 55 55) is adhered to the same adhesive layer 57 as the cover body 38 (especially the surface).
  • the portion that does not face the image sensor 40 is attached to the pixel substrate with the seal resin 37 interposed therebetween. 33.
  • the diffractive lens 22 is attached over the entire back surface of each cover body 38.
  • the diffractive lens 22 may be attached only partially.
  • the adhesive layer 57 and the sealing resin 37 are attached to the peripheral region of the back surface of the cover body 38 where the diffraction lens 22 is not attached, and the central region of the back surface of the cover body 38 to which the diffraction lens 22 is attached. can be provided so that it does not adhere to the
  • FIG. 19 Other configurations of the imaging device 10 shown in FIG. 19 are the same as those of the imaging device 10 according to the first embodiment described above.
  • the imaging device 10 and the imaging device 11 of the present embodiment it is possible to adjust the optical path of the photographing light L by using the plurality of diffractive lenses 22 having a laminated structure, and to improve problems in optical characteristics such as chromatic aberration. be.
  • the imaging device 10 and the imaging element 11 with higher optical characteristics, or use a simpler and/or cheaper geometrical optics lens 21 .
  • the size of the entire optical lens system in the optical axis direction can be reduced, and the imaging apparatus 10 as a whole can be slimmed down.
  • the optical lens system as a whole can exhibit various optical characteristics.
  • FIG. 20 is a cross-sectional view showing an example of the imaging device 10 according to the third embodiment.
  • the imaging device 10 shown in FIG. 20 includes a diffractive lens unit 56 including a plurality of lens configuration layers 55, but does not include a geometrical optics lens. That is, the optical lens system of this embodiment includes only the plurality of diffractive lenses 22 and does not include geometrical optics lenses.
  • a diffractive lens unit 56 shown in FIG. 20 includes six lens configuration layers 55 .
  • the adhesive structure between the adjacent lens-constituting layers 55 and the adhesive structure between the lens-constituting layer 55 located closest to the pixel substrate 33 and the pixel substrate 33 are examples of the above-described second embodiment (see FIG. 19). is similar to
  • FIG. 20 Other configurations of the imaging device 10 shown in FIG. 20 are the same as those of the imaging device 10 according to the above-described second embodiment.
  • the imaging device 10 and the imaging element 11 of this embodiment no geometrical optics lens is required. Therefore, it is possible to simplify the device configuration and reduce the size of the entire imaging device 10 in the optical axis direction.
  • the optical lens system as a whole can exhibit various optical characteristics.
  • FIG. 21 is a cross-sectional view showing an example of the imaging device 10 according to the fourth embodiment.
  • the seal resin 37 is filled in the air gap 24 between the projecting lens portions 23 that constitute the diffraction lens 22 .
  • the diffractive lens 22 of this embodiment exists over a range facing the image sensor 40 in the optical axis direction on the back surface of the cover body 38 as in the above-described first embodiment. It does not exist in part or all of the peripheral range not facing the sensor 40 .
  • imaging device 10 of this example are the same as those of the imaging device 10 according to the above-described first embodiment.
  • the diffraction lens 22 (the plurality of projecting lens portions 23) is attached to the flat surface of the cover body 38. Therefore, the diffractive lens 22 having a desired shape can be provided at a desired position on the cover body 38 with high precision.
  • FIG. 22 is a cross-sectional view showing an example of the imaging device 10 according to the fifth embodiment.
  • a space is provided between the image sensor 40 and the diffraction lens 22 in the imaging device 11 shown in FIG. More specifically, there is no sealing resin 37 and a space between the on-chip lens 36 and the diffractive lens 22 (plural protruding lens portions 23) in the optical axis direction.
  • the sealing resin 37 that adheres and fixes the cover body 38 to the pixel substrate 33, as in the first embodiment described above.
  • the seal resin 37 does not exist in the range corresponding to the central region of the pixel substrate 33 (in particular, the region where the image sensor 40 exists).
  • the imaging device 11 of this example has a cavity structure having a space surrounded by the cover body 38, the sealing resin 37, and the pixel substrate 33, and the color filter 35, the on-chip lens 36, and the diffraction lens 22 are positioned in the space. .
  • FIG. 22 Other configurations of the imaging device 10 shown in FIG. 22 are the same as those of the imaging device 10 according to the first embodiment described above.
  • the imaging device 10 and the imaging device 11 of the present embodiment since there is a large refractive index difference between the diffraction lens 22 and the space adjacent to the diffraction lens 22, the diffraction performance of the diffraction lens 22 (that is, the refractive performance ) can be improved. This makes it possible to relax the restrictions on the design of the geometrical optics lens 21 and the diffractive lens 22 .
  • FIG. 23 is a cross-sectional view showing an example of the imaging device 10 according to the sixth embodiment.
  • the imaging device 11 shown in FIG. 23 includes a support 60 that supports the pixel substrate 33 from the outside, and an adhesive layer 61 positioned between the support 60 and the cover 38 .
  • the support 60 has a hollow structure with a space inside, and includes a support bottom extending in a direction perpendicular to the optical axis Ax and a support peripheral edge extending from the support bottom in the optical axis direction.
  • the pixel substrate 33 , the color filter 35 and the on-chip lens 36 are fixed to the support bottom, and the whole is arranged in the inner space of the support 60 .
  • the diffractive lens 22 attached to the back surface of the cover body 38 is entirely arranged in the space surrounded by the support body 60, the adhesive layer 61 and the cover body 38.
  • the adhesive layer 61 is positioned between the end surface of the support peripheral edge portion of the support 60 and the rear surface of the peripheral edge portion of the cover body 38 (especially the portion located outside the diffraction lens 22), and is attached to the support body 60. It works as a fixing portion for fixing the cover body 38 .
  • the imaging element 11 of this embodiment does not require the seal resin 37 provided in the imaging elements 11 of the above-described first to fourth embodiments. Therefore, a space exists over the entire area between the on-chip lens 36 and the diffractive lens 22 (the plurality of projecting lens portions 23).
  • the pixel substrate 33 is connected to an external substrate (not shown) via wire bond wiring 62 .
  • the entire wire bond wiring 62 and the portion of the external substrate to which the wire bond wiring 62 is connected are located in the inner space of the support 60 .
  • FIG. 23 Other configurations of the imaging device 10 shown in FIG. 23 are the same as those of the imaging device 10 according to the first embodiment described above.
  • the imaging device 10 and the imaging device 11 of the present embodiment since there is a large refractive index difference between the diffraction lens 22 and the space adjacent to the diffraction lens 22, the diffraction performance of the diffraction lens 22 (that is, the refractive performance ) can be improved.
  • the pixel substrate 33 is supported from the outside by the support 60, it is possible to prevent the pixel substrate 33 from bending and warping.
  • the imaging device 10 and the imaging element 11 to which the diffraction lens 22 exemplarily described below can be applied are not limited. Therefore, the diffraction lens 22 described below may be applied to the imaging device 10 and the imaging device 11 according to each of the above-described embodiments, or may be applied to other imaging devices 10 and imaging devices 11. good.
  • FIG. 24 is a perspective view showing a structural example of the diffraction lens 22.
  • FIG. 24 shows a state in which a plurality of projecting lens portions 23 are regularly arranged along the vertical and horizontal directions perpendicular to each other on the upper surface of the rectangular parallelepiped cover body 38. It is shown.
  • the actual state of the cover body 38 and the diffractive lens 22 (the plurality of projecting lens portions 23) may differ from the state shown in FIG.
  • the structure of the diffractive lens 22 is mainly determined by the size (height h) of each projecting lens 23 in the optical axis direction, the distance (pitch P) between adjacent projecting lens parts 23, and the size in the direction perpendicular to the optical axis Ax. It is determined according to (vertical width D and horizontal width W).
  • the diffraction lens 22 needs to have a slit sufficiently small with respect to the wavelength of the photographing light L in order to refract the photographing light L appropriately.
  • each projecting lens portion 23 has a height h of about 200 to 1000 nm, a vertical width D and a width W of about 100 to 800 nm, and about 300 to 800 nm. has a pitch P of
  • FIG. 25 is an enlarged plan view schematically showing an example of the diffraction lens 22.
  • FIG. 26A to 26C are diagrams for explaining the optical diffraction phase difference s, refraction angle ⁇ , and focal length f of the diffractive lens 22 (plural projecting lens portions 23).
  • the planar size (for example, the width W and the vertical width D) of the projecting lens portion 23 decreases from the center toward the outside while the pitch P of the projecting lens portion 23 is kept constant.
  • the photographing light L diffracted by the diffraction lens 22 has a phase difference s (see FIG. 26A), and the photographing light L emitted from the projecting lens portion 23 is refracted (see FIG. 26B).
  • the diffractive lens 22 needs to refract the photographing light L at a larger refraction angle ⁇ at a position farther from the optical axis Ax. have.
  • phase difference s (see FIG. 26A) of the photographing light L caused by the protruding lens portions 23 changes little by little according to the number of protruding lens portions 23 arranged outward from the center.
  • a phase difference s of 360° occurs at the position.
  • FIG. 27 is a plan view showing an arrangement example of a plurality of projecting lens portions 23 forming one diffractive lens 22.
  • FIG. 27 is a plan view showing an arrangement example of a plurality of projecting lens portions 23 forming one diffractive lens 22.
  • the plane size (e.g., width W and length D) of the projecting lens portion 23 is periodically varied outward from the center (that is, the optical axis Ax) so that the diffraction lens 22 It is possible to make the whole function as a convex lens.
  • the diffraction lens 22 shown in FIG. 27 includes protruding lens portions 23 with a first period S1, a second period S2 and a third period S3.
  • the first period S1 is a range including the optical axis Ax.
  • the second period S2 is the next closest area to the optical axis Ax after the first period S1 and is positioned adjacent to the first period S1.
  • the third period S3 is the next closest area to the optical axis Ax after the second period S2 and is positioned adjacent to the second period S2.
  • a plurality of projecting lens portions 23 included in each of the first period S1, the second period S2, and the third period S3 exhibit a phase difference in the range of 0° to 360° with respect to optical diffraction.
  • W3 has a relationship of "W1>W2>W3". That is, the lateral widths W of the projecting lens portions 23 corresponding to each other in each cycle satisfy the relationship of "W1>W2>W3".
  • the width W1 of the protruding lens portion 23 located closest to the optical axis Ax in the first period S1 the width W2 of the protruding lens portion 23 closest to the optical axis Ax in the second period S2, and the width W2 of the protruding lens portion 23 closest to the optical axis Ax in the third period S3
  • the lateral width W3 of the projecting lens portion 23 positioned on the optical axis Ax side satisfies "W1>W2>W3".
  • W1>W2>W3 is a relationship that is satisfied when a plurality of projecting lens portions 23 arranged in the direction of the width W of each projecting lens portion 23 is focused.
  • the size J1 of each projecting lens portion 23 in the first period S1 along the direction, the size J2 of each projecting lens portion 23 in the second period S2, And J3 of each projecting lens portion 23 of the third period S3 satisfies "J1>J2>J3". That is, the sizes of the protruding lens portions 23 corresponding to each other in each cycle satisfy the relationship of "J1>J2>J3".
  • the relationship between the projecting lens portions 23 corresponding to the first period S1 to the third period S3 is "D1>D2> D3" relationship is satisfied. That is, the vertical width D1 of the protruding lens portion 23 closest to the optical axis Ax in the first period S1, the second period S2 of the protruding lens portion 23 closest to the optical axis Ax in the second period S2, and the most light in the third period S3.
  • a vertical width D3 of the projecting lens portion 23 on the axis Ax side satisfies the relationship of "D1>D2>D3".
  • the plurality of projecting lens portions 23 in each period are provided at the same pitch P.
  • the pitch P1 of the protruding lens portions 23 included in the first period S1 the pitch P2 of the protruding lens portions 23 included in the second period S2, and the pitch P3 of the protruding lens portions 23 included in the third period S3 are P1>P2>P3”.
  • the diffractive lens 22 that satisfies "W1>W2>W3", "D1>D2>D3", "J1>J2>J3" and "P1>P2>P3" described above constitutes a convex lens as a whole.
  • the diffractive lens 22 that satisfies "W1 ⁇ W2 ⁇ W3", “D1 ⁇ D2 ⁇ D3", “J1 ⁇ J2 ⁇ J3” and “P1 ⁇ P2 ⁇ P3" constitutes a concave lens as a whole.
  • the planar size (that is, the size on the plane perpendicular to the optical axis Ax) of the plurality of projecting lens portions 23 of the diffractive lens 22 constituting the convex lens is periodic with respect to the distance from the optical axis Ax.
  • change to The period of change of the planar size of the plurality of projecting lens portions 23 is based on the 360° phase difference of the light diffraction of the plurality of projecting lens portions 23 .
  • the plane size of the projecting lens portion 23 becomes smaller as the distance from the optical axis Ax increases in each period.
  • the planar size of the plurality of projecting lens portions 23 of the diffraction lens 22 that constitutes the concave lens changes periodically based on the distance from the optical axis Ax. is based on the 360° phase difference of light diffraction of the plurality of projecting lens portions 23 .
  • the plane size of the projecting lens portion 23 increases with distance from the optical axis Ax in each period.
  • Imaging device 10 Examples of electronic devices to which the imaging device 10, the imaging device 11, and the method for manufacturing the imaging device 10 and the imaging device 11 can be applied will be described below. Note that the imaging device 10, the imaging device 11, and the method of manufacturing the imaging device 10 and the imaging device 11 described above can also be applied to any system, device, method, etc. other than the electronic devices described below.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 28 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an exterior information detection unit 12030, an interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12030 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062 and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 29 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 has imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 29 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the traveling path of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to cameras including, for example, the imaging units 12031, 12101, 12102, 12103, 12104, and 12105 and the driver state detection unit 12041 among the configurations described above. These cases are also advantageous for acquiring high-quality images with a compact device configuration.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 30 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (this technology) can be applied.
  • FIG. 30 shows a state in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • the tip of the lens barrel 11101 is provided with an opening into which the objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel 11101 by a light guide extending inside the lens barrel 11101, where it reaches the objective. Through the lens, the light is irradiated toward the observation object inside the body cavity of the patient 11132 .
  • the endoscope 11100 may be a straight scope, a perspective scope, or a side scope.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging element photoelectrically converts the observation light to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in an integrated manner. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • the light source device 11203 is composed of a light source such as an LED (light emitting diode), for example, and supplies the endoscope 11100 with irradiation light for imaging a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • LED light emitting diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation object in a time division manner, and by controlling the driving of the imaging device of the camera head 11102 in synchronization with the irradiation timing, each of RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, the wavelength dependence of light absorption in body tissues is used to irradiate a narrower band of light than the irradiation light (i.e., white light) used during normal observation, thereby observing the mucosal surface layer.
  • irradiation light i.e., white light
  • Narrow Band Imaging in which a predetermined tissue such as a blood vessel is imaged with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is examined.
  • a fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 31 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401, an imaging section 11402, a drive section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the number of imaging elements constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102 .
  • Image signals and control signals can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 11102 .
  • the control unit 11413 performs various controls related to imaging of the surgical site and the like by the endoscope 11100 and display of the captured image obtained by imaging the surgical site and the like. For example, the control unit 11413 generates control signals for controlling driving of the camera head 11102 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical tools such as forceps, specific body parts, bleeding, mist during use of the energy treatment tool 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure may also be applied to, for example, a microsurgery system.
  • the technical categories that embody the above technical ideas are not limited.
  • the above technical ideas may be embodied by a computer program for causing a computer to execute one or more procedures (steps) included in the method of manufacturing or using the above apparatus.
  • the above technical idea may be embodied by a computer-readable non-transitory recording medium in which such a computer program is recorded.
  • a pixel substrate having an image sensor on which imaging light is incident; a translucent cover facing the image sensor; a diffraction lens having a plurality of protruding lens parts protruding from the cover body toward the image sensor, An imaging device, wherein spaces are provided between the plurality of projecting lens portions.
  • each of the plurality of lens-constituting layers includes the cover body and the diffractive lens.
  • the planar sizes of the plurality of projecting lens portions change periodically based on the distance from the optical axis, and the period of change in the planar size of the plurality of projecting lens portions is determined by the optical diffraction of the plurality of projecting lens portions. is based on the 360° phase difference of 6.
  • the imaging device according to any one of items 1 to 5, wherein the planar size of the protruding lens portion decreases with increasing distance from the optical axis in each cycle.
  • the planar sizes of the plurality of projecting lens portions change periodically based on the distance from the optical axis, and the period of change in the planar size of the plurality of projecting lens portions is determined by the optical diffraction of the plurality of projecting lens portions. is based on the 360° phase difference of 7.
  • the imaging device according to any one of items 1 to 6, wherein the planar size of the projecting lens portion increases with distance from the optical axis in each cycle.
  • [Item 10] a support that supports the pixel substrate; 10.
  • a pixel substrate having an image sensor on which imaging light is incident; a translucent cover facing the image sensor; a diffraction lens having a plurality of protruding lens parts protruding from the cover body toward the image sensor; an imaging lens located on the opposite side of the pixel substrate through the cover body, An imaging device, wherein a space is formed between the plurality of projecting lens portions.
  • a step of applying an inorganic film on the pixel substrate 16.
  • Imaging device 11 Imaging device 21 Geometrical optics lens 22 Diffractive lens 23 Protruding lens part 24 Air gap 31 Lower substrate 32 Upper substrate 33 Pixel substrate 34 Solder ball 35 Color filter 36 On-chip lens 37 Sealing resin 38 Cover body 40 Image sensor 41 Lens substrate film 42 Resist 45 Cover wafer 46 Substrate wafer 48 Mask 49 Exposure device 50 Inorganic film 51 Film forming device 55 Lens constituent layer 56 Diffractive lens unit 57 Adhesive layer 60 Support 61 Adhesive layer 62 Wire bonding wiring Ax Optical axis D Vertical width L Shooting light L1 Short wavelength light L2 Long wavelength light P Pitch S1 First period S2 Second period S3 Third period s Phase difference W Horizontal width ⁇ Angle of refraction

Abstract

[課題]小型の装置構成で高品質の画像を取得するのに有利な技術を提供する。 [解決手段]撮像素子は、イメージセンサを具備する画素基板と、イメージセンサに対面する透光性のカバー体と、カバー体からイメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、を備え、複数の突出レンズ部の相互間に空間が設けられている。

Description

撮像素子、撮像装置、及び撮像素子の製造方法
 本開示は、撮像素子、撮像装置、及び撮像素子の製造方法に関する。
 一般的な撮像装置(カメラ)では、レンズの幾何光学屈折を利用して、撮影光がイメージセンサ(例えばCMOSイメージセンサ)上に集光される。
 一方、近年の高解像度化及び小型化の要求の高まりを背景に、幾何光学屈折を利用するレンズ(以下「幾何光学レンズ」とも称する)だけではなく、他の光学特性を利用したレンズも提案されている。
 例えば特許文献1は、光回折を利用した光学レンズを開示する。
特開2014-78015号公報
 上述の幾何光学レンズ及び光回折を利用するレンズ(以下「回折レンズ」とも称する)を、高解像度且つ小型の撮像装置に応用する場合、小型のレンズ構成によって、光学特性上の不具合(例えば色収差)を抑える必要がある。
 本開示は上述の事情に鑑みてなされたものであり、小型の装置構成で高品質の画像を取得するのに有利な技術を提供する。
 本開示の一態様は、イメージセンサを具備する画素基板と、イメージセンサに対面する透光性のカバー体と、カバー体からイメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、を備え、複数の突出レンズ部の相互間に空間が設けられている撮像素子に関する。
 撮像素子は、イメージセンサと回折レンズとの間に位置し、複数の突出レンズ部に接触する光硬化樹脂膜を備えてもよい。
 撮像素子は、イメージセンサと回折レンズとの間に位置し、複数の突出レンズ部に接触する無機膜を備えてもよい。
 撮像素子は、お互いに重ねられる複数のレンズ構成層を備え、複数のレンズ構成層の各々は、カバー体及び回折レンズを含んでもよい。
 回折レンズは、イメージセンサから60μm以下離れて位置してもよい。
 複数の突出レンズ部の平面サイズは、光軸からの距離を基準に、周期的に変化し、複数の突出レンズ部の平面サイズの変化の周期は、複数の突出レンズ部の光回折の360°の位相差に基づいており、各周期において、光軸から離れるに従って突出レンズ部の平面サイズが小さくなってもよい。
 複数の突出レンズ部の平面サイズは、光軸からの距離を基準に、周期的に変化し、複数の突出レンズ部の平面サイズの変化の周期は、複数の突出レンズ部の光回折の360°の位相差に基づいており、各周期において、光軸から離れるに従って突出レンズ部の平面サイズが大きくなってもよい。
 撮像素子は、画素基板とカバー体との間に位置し、画素基板に対してカバー体を固定する固定部を備えてもよい。
 イメージセンサと回折レンズとの間に空間が設けられていてもよい。
 撮像素子は、画素基板を支持する支持体と、支持体とカバー基板との間に位置し、支持体に対してカバー体を固定する固定部と、を備えてもよい。
 本開示の他の態様は、イメージセンサを具備する画素基板と、イメージセンサに対面する透光性のカバー体と、カバー体からイメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、カバー体を介して画素基板とは反対側に位置する撮像レンズと、を備え、複数の突出レンズ部の相互間に空間が形成されている撮像装置に関する。
 回折レンズは、撮像レンズの色収差を低減してもよい。
 回折レンズは、撮像レンズから回折レンズに向かう光の主光線入射角度よりも小さい主光線入射角度で、光を出射してもよい。
 本開示の他の態様は、イメージセンサを有する画素基板に対し、透光性のカバー体を固定する工程を含み、カバー体には、回折レンズを構成し且つ相互間に空間が設けられている複数の突出レンズ部が固定されており、複数の突出レンズ部がカバー体と画素基板との間に位置するように、カバー体は画素基板に対して固定される撮像素子の製造方法に関する。
 撮像素子の製造方法は、画素基板上に、光硬化樹脂を付与する工程と、画素基板上の光硬化樹脂のうちイメージセンサを覆う部分を、光照射によって硬化させる工程と、を含み、画素基板上の光硬化樹脂のうち光照射によって硬化した部分に複数の突出レンズ部を対面させつつ、カバー体が画素基板に対して固定されてもよい。
 撮像素子の製造方法は、画素基板上に、無機膜を付与する工程を含み、無機膜に複数の突出レンズ部を対面させつつ、カバー体が画素基板に対して固定されてもよい。
図1は、複数の幾何光学レンズを含むユニットを通過した短波長光及び長波長光の焦点を例示する図面である。 図2は、光回折を利用する回折レンズを通過した短波長光及び長波長光の焦点を例示する図面である。 図3は、幾何光学レンズ及び回折レンズを含む光学レンズ系を通過した短波長光及び長波長光の焦点を例示する図面である。 図4は、第1実施形態に係る撮像素子の一例を示す断面図である。 図5は、図4に示す撮像素子の一部分を拡大して示す断面図である。 図6は、下側基板及び上側基板の構造の一例を示す断面図であり、撮像素子の一部分が拡大して示されている。 図7は、幾何光学レンズ及び撮像素子を備える撮像装置の一例を示す断面図である。 図8は、図7に示す撮像素子の一部分を拡大して示す断面図である。 図9は、撮像素子の一部分を拡大して示す断面図であり、隣接するイメージセンサ間で混色が生じる場合を例示的に説明する図である。 図10は、撮像素子の一部分を拡大して示す断面図であり、回折レンズによって撮影光が適切なイメージセンサに向かって屈折し、混色が防がれる場合を例示的に説明する図である。 図11Aは、回折レンズの製造方法の一例を説明するための図である。 図11Bは、回折レンズの製造方法の一例を説明するための図である。 図11Cは、回折レンズの製造方法の一例を説明するための図である。 図11Dは、回折レンズの製造方法の一例を説明するための図である。 図11Eは、回折レンズの製造方法の一例を説明するための図である。 図12は、カバー体ウエハー上に形成された複数の回折レンズを示す斜視図である。 図13Aは、撮像素子の製造方法の一例を示す斜視図である。 図13Bは、撮像素子の製造方法の一例を示す斜視図である。 図13Cは、撮像素子の製造方法の一例を示す斜視図である。 図13Dは、撮像素子の製造方法の一例を示す斜視図である。 図14は、撮像素子の製造方法の一例を示す撮像素子の断面図である。 図15は、撮像素子の製造方法の一例を示す撮像素子の断面図である。 図16は、撮像素子の製造方法の一例を示す撮像素子の断面図である。 図17は、撮像素子の製造方法の他の例を示す断面図である。 図18は、図17に示す製造方法によって製造される撮像素子の一部分を拡大して示す断面図である。 図19は、第2実施形態に係る撮像装置の一例を示す断面図である。 図20は、第3実施形態に係る撮像装置の一例を示す断面図である。 図21は、第4実施形態に係る撮像装置の一例を示す断面図である。 図22は、第5実施形態に係る撮像装置の一例を示す断面図である。 図23は、第6実施形態に係る撮像装置の一例を示す断面図である。 図24は、回折レンズの構造例を示す斜視図である。 図25は、回折レンズの一例の概略を示す拡大平面図である。 図26Aは、回折レンズ(複数の突出レンズ部)の光回折の位相差を説明するための図である。 図26Bは、回折レンズ(複数の突出レンズ部)の光回折の屈折角を説明するための図である。 図26Cは、回折レンズ(複数の突出レンズ部)の光回折の屈折角及び焦点距離を説明するための図である。 図27は、1つの回折レンズを構成する複数の突出レンズ部の配置例を示す平面図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 図1は、複数の幾何光学レンズを含むユニット(以下単に「幾何光学レンズ21」とも称する)を通過した短波長光L1及び長波長光L2の焦点を例示する図面である。
 幾何光学屈折を利用する幾何光学レンズ21は、光の波長が長くなるほど小さな屈折率を示し、焦点距離が長くなる(図1に示す「長波長光L2」参照)。すなわち幾何光学レンズ21は、光の波長が短くなるほど大きな屈折率を示し、焦点距離が短くなる(図1に示す「短波長光L1」参照)。
 上記特性を持つ幾何光学レンズ21によって撮影光をイメージセンサ上に集光する場合、色収差を抑えるために、複数のレンズを組み合わせる必要がある。
 図2は、光回折を利用する回折レンズ22を通過した短波長光L1及び長波長光L2の焦点を例示する図面である。
 回折レンズ22は、光の波長が長くなるほど大きな屈折率を示し、焦点距離が短くなる(図2に示す「長波長光L2」参照)。すなわち回折レンズ22は、光の波長が短くなるほど小さな屈折率を示し、焦点距離が長くなる(図2の「短波長光L1」参照)。
 このように幾何光学レンズ21及び回折レンズ22は、入射光の波長に関し、お互いに逆の屈折特性を示す。そのため、幾何光学レンズ21及び回折レンズ22を組み合わせることで、光学レンズ系の光軸Axに沿う方向(以下「光軸方向」とも称する)のサイズの拡大を抑えつつ、色収差を効果的に低減することが可能である。
 図3は、幾何光学レンズ21及び回折レンズ22を含む光学レンズ系を通過した短波長光L1及び長波長光L2の焦点を例示する図面である。図3に示す例では、幾何光学レンズ21のユニットのうち最も被写体側に位置するレンズの表面に回折レンズ22が取り付けられる。
 このように幾何光学レンズ21及び回折レンズ22を組み合わせることによって、光軸方向の光学レンズ系の拡大を抑えつつ、短波長光L1の焦点及び長波長光L2の焦点をお互いに一致又は近接させることが可能である。
 上述のように幾何光学レンズ21に回折レンズ22を組み合わせることによって光学レンズ系全体の光学特性を向上させることができるが、回折レンズ22の設置は必ずしも容易ではない。
 すなわち、回折レンズ22によって所望の光学特性を実現するためには、回折レンズ22のレンズ片を所望位置に配置する必要がある。しかしながら、特有の形状を持つ微細構造の回折レンズ22を、レンズ曲面上の所望位置に精度良く配置及び固定することは容易ではない。特に、近年では、多画素化の進展に伴って、より高い分解能を持つ光学レンズ系が求められており、回折レンズ22のレンズ片は、より一層微細且つ複雑な形状を持つ傾向が強い。
 高度なレンズ光学特性は、上述のように幾何光学レンズ21に含まれるレンズの数を増やすことでも、実現可能である。その一方で、スマートフォンなどの携帯端末に搭載される撮像装置では、モバイル性向上の観点から、光学レンズ系の小型化、薄型化及び軽量化が求められている。光学レンズ系の高性能化のためのレンズ数の増大と、モバイル性向上のための小型化等とは、お互いに相反する要求である。
 また撮像装置の薄型化のために光学レンズ系を薄くする場合、イメージセンサへの光の入射角度(主光線入射角度:CRA)が大きくなる傾向があるが、主光線入射角度が大きくなるとセンサ感度が低下し、撮影画像の質が落ちる。なお、主光線入射角度が0°に近づくほど、イメージセンサに向かう光の進行方向は光軸方向に近づき、主光線入射角度が大きくなるほど、イメージセンサに向かう光の進行方向は光軸に垂直な方向に近づく。
 以下では、小型の装置構成で高品質の画像を取得するのに有利な撮像素子及び撮像装置の例と、そのような撮像素子及び撮像装置を製造する方法の例とを説明する。
[第1実施形態]
 図4は、第1実施形態に係る撮像素子11の一例を示す断面図である。図5は、図4に示す撮像素子11の一部分を拡大して示す断面図である。
 図4及び図5に示される撮像素子11は、積層された下側基板31及び上側基板32を含む画素基板33がパッケージ化された半導体パッケージである。
 撮像素子11は、図4の上から下に向かって進行する撮影光を受光し、当該撮影光を電気信号に変換し、当該電気信号(すなわち画像データ)を出力する。
 下側基板31には、不図示の外部基板と電気的に接続するための裏面電極である複数のはんだボール34が形成されている。
 上側基板32の上面には、R(赤)、G(緑)及びB(青)のカラーフィルタ35と、カラーフィルタ35を覆うオンチップレンズ36とが設けられている。
 上側基板32には、シール樹脂37を介してカバー体38が固定されている。シール樹脂37は、上側基板32に対してカバー体38を接着する接着層として機能するとともに、カラーフィルタ35及びオンチップレンズ36を外側から遮断するシール層として機能する。
 一例として、上側基板32には、2次元配列された複数のイメージセンサ(光電変換素子)を有する画素領域と、複数のイメージセンサを制御する制御回路とが形成される。一方、下側基板31には、複数のイメージセンサからの画素信号を処理する回路などのロジック回路が形成される。
 他の例として、上側基板32には画素領域のみが形成され、制御回路及びロジック回路は下側基板31に形成されてもよい。
 このように積層構造の下側基板31及び上側基板32に画素領域、制御回路及びロジック回路を形成することで、撮像素子11の平面方向への拡張を抑えて、撮像素子11の平面サイズの小型化を促すことができる。
 図6は、下側基板31及び上側基板32の構造の一例を示す断面図であり、撮像素子11の一部分が拡大して示されている。
 下側基板31には、例えばシリコン(Si)で構成された半導体基板81(以下「シリコン基板81」とも称する)の上側(上側基板32側)に、多層配線層82が形成されている。この多層配線層82により、例えば、上述の制御回路及びロジック回路が構成されている。
 多層配線層82は、上側基板32に最も近い最上層の配線層83a、中間の配線層83b、及び、シリコン基板81に最も近い最下層の配線層83cなどからなる複数の配線層83と、各配線層83の間に形成された層間絶縁膜84とで構成される。
 複数の配線層83は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などを用いて形成され、層間絶縁膜84は、例えば、シリコン酸化膜、シリコン窒化膜などで形成される。複数の配線層83及び層間絶縁膜84のそれぞれは、全ての階層が同一の材料で形成されていてもよし、階層によって2つ以上の材料を使い分けてもよい。
 シリコン基板81の所定の位置には、シリコン基板81を貫通するシリコン貫通孔85が形成される。シリコン貫通孔85の内壁に、絶縁膜86を介して接続導体87が埋め込まれることにより、シリコン貫通電極(TSV:Through Silicon Via)88が形成される。絶縁膜86は、例えば、SiO膜やSiN膜などで形成することができる。
 なお、図6に示されるシリコン貫通電極88では、内壁面に沿って絶縁膜86と接続導体87が成膜され、シリコン貫通孔85内部が空洞となっているが、内径によってはシリコン貫通孔85内部全体が接続導体87で埋め込まれることもある。換言すれば、貫通孔の内部が導体で埋め込まれていても、一部が空洞となっていてもどちらでもよい。このことは、後述するチップ貫通電極(TCV:Through Chip Via)105などについても同様である。
 シリコン貫通電極88の接続導体87は、シリコン基板81の下面側に形成された再配線90と接続されており、再配線90は、はんだボール34と接続されている。接続導体87及び再配線90は、例えば、銅(Cu)、タングステン(W)、チタン(Ti)、タンタル(Ta)、チタンタングステン合金(TiW)、或いはポリシリコンなどで形成することができる。
 また、シリコン基板81の下面側には、はんだボール34が形成されている領域を除いて、再配線90と絶縁膜86を覆うように、ソルダマスク(ソルダレジスト)91が形成されている。
 一方、上側基板32には、シリコン(Si)で構成された半導体基板101(以下「シリコン基板101」とも称する)の下側(下側基板31側)に、多層配線層102が形成されている。この多層配線層102により、例えば、画素領域の画素回路が構成されている。
 多層配線層102は、シリコン基板101に最も近い最上層の配線層103a、中間の配線層103b、及び、下側基板31に最も近い最下層の配線層103cなどからなる複数の配線層103と、各配線層103の間に形成された層間絶縁膜104とで構成される。
 複数の配線層103及び層間絶縁膜104として使用される材料は、上述した配線層83及び層間絶縁膜84の材料と同種のものを採用することができる。また、複数の配線層103や層間絶縁膜104が、1または2つ以上の材料を使い分けて形成されてもよい点も、上述した配線層83及び層間絶縁膜84と同様である。
 なお、図6の例では、上側基板32の多層配線層102は3層の配線層103で構成され、下側基板31の多層配線層82は4層の配線層83で構成されているが、配線層の総数はこれに限られず、任意の層数で形成することができる。
 シリコン基板101内には、PN接合により形成されたフォトダイオードにより構成されるイメージセンサ40が、画素ごとに形成されている。
 また、図示は省略されているが、多層配線層102とシリコン基板101には、第1転送トランジスタ52、第2転送トランジスタ54などの複数の画素トランジスタや、メモリ部(MEM)53なども形成されている。
 カラーフィルタ35とオンチップレンズ36が形成されていないシリコン基板101の所定の位置には、上側基板32の配線層103aと接続されているシリコン貫通電極109と、下側基板31の配線層83aと接続されているチップ貫通電極105とが、形成されている。
 チップ貫通電極105とシリコン貫通電極109は、シリコン基板101上面に形成された接続用配線106で接続されている。また、シリコン貫通電極109及びチップ貫通電極105のそれぞれとシリコン基板101との間には、絶縁膜107が形成されている。さらに、シリコン基板101の上面には、絶縁膜(平坦化膜)108を介して、カラーフィルタ35やオンチップレンズ36が形成されている。
 以上のように、図1に示される固体撮像装置1の画素基板33は、下側基板31の多層配線層82側と、上側基板32の多層配線層102側とを貼り合わせた積層構造となっている。図6では、下側基板31の多層配線層82と、上側基板32の多層配線層102との貼り合わせ面が、破線で示されている。
 また、固体撮像装置1の画素基板33では、上側基板32の配線層103と下側基板31の配線層83が、シリコン貫通電極109とチップ貫通電極105の2本の貫通電極により接続される。下側基板31の配線層83とはんだボール(裏面電極)14が、シリコン貫通電極88と再配線90により接続されている。これにより、固体撮像装置1の平面積を、極限まで小さくすることができる。
 このように、図6に示される撮像素子11によれば、小型の半導体装置(半導体パッケージ)を実現することができる。
 上述のように撮像素子11は、撮影光が入射するイメージセンサ40を具備する画素基板33と、イメージセンサ40に対面する透光性のカバー体38と、を備える。そして画素基板33とカバー体38との間に位置するシール樹脂37が、固定部として働き、画素基板33に対してカバー体38を固定する。これにより画素基板33及びカバー体38は一体化される。
 さらに本実施形態の撮像素子11は、カバー体38に取り付けられる回折レンズ22を備える。
 図4~図6に示されるカバー体38は、光軸方向に離れて位置する2つの平坦面(すなわち表面及び裏面)であって、光軸Axに垂直な方向に延在する平坦面を有する。回折レンズ22は、カバー体38のこれらの平坦面のうちの一方(すなわち画素基板33に向けられた裏面)に取り付けられる。
 回折レンズ22は、カバー体38から画素基板33(特にイメージセンサ40)に向かって突出する複数の突出レンズ部23を有し、突出レンズ部23の相互間には空間(すなわちエアーギャップ24)が設けられる。
 本実施形態では、隣り合う突出レンズ部23間に形成されるエアーギャップ24が、シール樹脂37等の部材によって充填されることなく、空間の状態を維持する。これにより回折レンズ22は、本来の微小凹凸形状を保持し、優れた光学特性を発揮及び維持することができる。
 すなわち、突出レンズ部23間においてエアーギャップ24を適切に確保することにより、各突出レンズ部23の境界で大きな屈折率差を作り出すことができる。したがって本実施形態の回折レンズ22は、屈折に関して高いレンズ性能を本来的に持つことができ、高い屈折率を示すレンズとして構成することが可能である。
 回折レンズ22の実際の屈折率は、各突出レンズ部23の形状やサイズ等を適宜調整することで変えられる。したがって本実施形態の回折レンズ22は、幅広い屈折率範囲に対応可能であり、その屈折率範囲内の所望の屈折率を選択的に示すように設けられる。
 このように本実施形態によれば、所望の光屈折特性を示す回折レンズ22を、高い自由度で設計することが可能である。
 また本実施形態の回折レンズ22(特に複数の突出レンズ部23の先端部)は、シール樹脂37に接触し、シール樹脂37を介して画素基板33(すなわち下側基板31及び上側基板32)を支持する。
 これにより、画素基板33(例えばイメージセンサ40を含む上側基板32)の変形が抑えられ、回折レンズ22とイメージセンサ40との間の距離を所望距離に安定的且つ均一に維持することができる。
 例えば、突出レンズ部23とイメージセンサ40との間に空間が設けられるキャビティ構造を撮像素子11が有する場合(後述の図22参照)、各突出レンズ部23の境界において大きな屈折率差が存在するため、回折レンズ22は高い屈折性能を有する。
 その一方で、突出レンズ部23とイメージセンサ40との間に空間が存在すると、画素基板33が撓みやすくなり、例えば画素基板33が回折レンズ22に向かって意図せずに反ってしまう可能性がある。画素基板33(特にイメージセンサ40)が撓むと、回折レンズ22による撮影光の集光位置とイメージセンサ40の入光面(すなわち撮像面)とがずれて、デフォーカス状態で撮影が行われ、撮影画像の質が低下する。
 一方、図4~図6に示す本実施形態の撮像素子11によれば、回折レンズ22によって画素基板33が支持されるため、画素基板33の撓み(特に回折レンズ22に向かう反り)の発生を抑えることができる。これにより、回折レンズ22と画素基板33(特にイメージセンサ40)との間の距離を、撮像面全体にわたって一定に保ち、撮像素子11の集光性能を向上させることができる。
 また、画素基板33がシール樹脂37を介して回折レンズ22により支持されることで、回折レンズ22と画素基板33との間の距離(すなわち光路長)の長大化を抑えつつ、画素基板33の意図しない撓みを抑制することができる。
 例えば、画素基板33を介してカバー体38とは反対側に設けられる支持体により、画素基板33を支持する場合(後述の図23参照)、画素基板33の撓みを防ぐことはできるが、光路長が長大化する傾向がある。
 すなわち、画素基板33を外側から支える支持体を設ける場合、画素基板33と外部基板(図示せず)とはワイヤーボンド(WB)等の配線を介して相互に接続される。そのような配線設置のために、光軸方向スペースを確保する必要があり、カバー体38の裏面に取り付けられる回折レンズ22と、画素基板33(特にイメージセンサ40)との間の距離が大きくなり、光路長が長大化する。その結果、回折レンズ22を介してイメージセンサ40上に集光する撮影光の色収差が大きくなり、また撮像素子11全体の光軸方向サイズ(厚み)が大きくなる。
 一方、図4~図6に示す本実施形態の撮像素子11によれば、画素基板33を外側から支える支持体が不要である。そのため、撮像素子11と外部基板とをつなぐ配線としてはんだボール34を設けることができ、画素基板33と外部基板(図示せず)とをつなぐためのワイヤーボンド配線は不要である。したがって、回折レンズ22を画素基板33(特にイメージセンサ40)に近づけて設置することができ、光路長を短くすることができる。
 その結果、本実施形態の撮像素子11は、色収差が抑えられた高品質の撮影画像を取得することができ、撮像素子11の光軸方向サイズを小さくすることも可能である。
 図7は、幾何光学レンズ21及び撮像素子11を備える撮像装置10の一例を示す断面図である。図8は、図7に示す撮像素子11の一部分を拡大して示す断面図である。
 図7に示す撮像装置10は、上述の図4に示す撮像素子11と、カバー体38を介して画素基板33とは反対側に位置する幾何光学レンズ21(撮像レンズ)と、を備える。上述のように、撮像素子11は回折レンズ22を含み、回折レンズ22は、カバー体38からイメージセンサ40に向かって突出する複数の突出レンズ部23を有し、複数の突出レンズ部23の相互間にはエアーギャップ24が形成されている。
 被写体像の撮影光Lは、幾何光学レンズ21、カバー体38、回折レンズ22、オンチップレンズ36及びカラーフィルタ35を通って、画素基板33のイメージセンサ40(図6参照)に入射する。
 この際、撮影光Lは、主に、幾何光学レンズ21、回折レンズ22及びオンチップレンズ36により屈折されて進行方向が調整され、イメージセンサ40に向けて誘導される。そのため、実際に使用する幾何光学レンズ21の光学特性(例えば屈折特性)に応じて、回折レンズ22の光学特性及び構成を決めることができる。或いは、実際に使用する回折レンズ22の光学特性(例えば屈折特性)に応じて、幾何光学レンズ21の光学特性及び構成を決めることができる。
 典型的には、幾何光学レンズ21の色収差が回折レンズ22によって低減されるように、回折レンズ22の光学特性(特に屈折特性)及び構成が決められる。
 また幾何光学レンズ21から回折レンズ22に向かう撮影光Lの主光線入射角度(CRA)よりも小さい主光線入射角度で、回折レンズ22が撮影光Lを出射するように、回折レンズ22の光学特性(特に屈折特性)及び構成が決められる。
 このように回折レンズ22は、幾何光学レンズ21の色収差を補正するレンズとしてだけではなく、主光線入射角度を改善するレンズとしても機能することができ、光学レンズ系全体のシェーディング特性を改善することができる。
 図9は、撮像素子11の一部分を拡大して示す断面図であり、隣接するイメージセンサ40間で混色が生じる場合を例示的に説明する図である。図10は、撮像素子11の一部分を拡大して示す断面図であり、回折レンズ22によって撮影光Lが適切なイメージセンサ40に向かって屈折し、混色が防がれる場合を例示的に説明する図である。
 上述のように、本実施形態の撮像素子11によれば、撮影光Lの光路は、幾何光学レンズ21により変えられた後、回折レンズ22によっても変えられる。
 ただし、回折レンズ22を通過した撮影光Lの進行方向は、必ずしも、イメージセンサ40の撮像面に対して垂直な方向(すなわち光軸方向)と完全には一致しない。回折レンズ22によって、撮影光Lの進行方向が光軸方向に近づくように変えられるが、撮影光Lには、光軸方向に対して斜めを成す方向に進行する光成分が含まれる。
 回折レンズ22とイメージセンサ40の撮像面との間の距離が大きい場合(図9参照)、光軸方向に対して傾斜する方向に進行する撮影光Lは、対応のイメージセンサ40に隣接する他のイメージセンサ40に入射しやくなり、混色をもたらしうる。
 一方、回折レンズ22とイメージセンサ40の撮像面との間の距離が小さい場合(図10参照)、撮影光Lは、光軸方向に対して傾斜する方向に進行しても、対応のイメージセンサ40に入射する確率が高くなり、混色をもたらしにくい。
 本件発明者は、撮像素子11の構成を変えつつ、混色の発生に関する考察を実際に行ったところ、混色発生を防ぐ観点から、回折レンズ22は、イメージセンサ40(特に撮像面)から光軸方向に60μm以下離れて位置することが有効であるという知見を得た。回折レンズ22は、イメージセンサ40から光軸方向に50μm以下離れて位置することがより好ましく、40μm以下離れて位置することがより好ましく、30μm以下離れて位置することがより好ましい。
 なお図9及び図10に示すようにオンチップレンズ36を用いる場合には、回折レンズ22とオンチップレンズ36(特に頂部)との間の光軸方向距離dを60μm以下にすることで、混色発生を有効に防ぎうるという知見を、本件発明者は得た。回折レンズ22とオンチップレンズ36との間の光軸方向距離dは、50μm以下であることがより好ましく、40μm以下であることがより好ましく、30μm以下であることがより好ましい。
 次に、回折レンズ22の製造方法の例について説明する。
 図11A~図11Eは、回折レンズ22の製造方法の一例を説明するための図である。図12は、カバー体ウエハー45上に形成された複数の回折レンズ22を示す斜視図である。
 上述のように本実施形態の回折レンズ22は、カバー体38の平坦面上(特に裏面上)に形成される。
 本例では、まず、複数のカバー体38を含むカバー体ウエハー45が準備される(図11A参照)。
 カバー体ウエハー45は、お互いに反対側に位置する2つの平坦面を有する。カバー体ウエハー45のこれらの平坦面は、個々のカバー体38の表面及び裏面にそれぞれ対応する。カバー体ウエハー45(すなわちカバー体38)の構成材料は限定されず、例えばガラスによってカバー体ウエハー45が構成される。
 そして、カバー体ウエハー45の一方の平坦面に、回折レンズ22の構成材料から成るレンズ基材膜41が付着される(図11B参照)。
 レンズ基材膜41の構成材料は限定されない。典型的には、レンズ基材膜41は、高屈折率を示す無機材料(例えばSiN、ZrO、ZnSe、Zns、TiO或いはCeOなど)から成る透明な無機膜として設けられる。
 カバー体ウエハー45に対するレンズ基材膜41の付着方法は限定されず、任意の手段(例えばスピンコータや吹きつけなど塗布)を用いて、レンズ基材膜41がカバー体ウエハー45に付着される。
 カバー体ウエハー45上のレンズ基材膜41の厚みは限定されないが、回折レンズ22(すなわち複数の突出レンズ部23)の厚みに応じて、カバー体ウエハー45上のレンズ基材膜41の厚みが決められる。典型的には、数十nm(ナノメートル)~数百nmの厚みを有するレンズ基材膜41が、カバー体ウエハー45上に形成される。
 その後、レンズ基材膜41上にレジスト42が付着され、パターニングが行われる(図11C参照)。すなわち、回折レンズ22(すなわち複数の突出レンズ部23)の形状及び配置に応じたパターン構成を有するレジスト42が、レンズ基材膜41を被覆する。
 レジスト42の構成材料及びレンズ基材膜41に対するレジスト42の付着方法は、限定されない。
 その後、レンズ基材膜41のエッチングが行われ、レンズ基材膜41のうちレジスト42により覆われていない箇所が、カバー体ウエハー45上から取り除かれる(図11D)。ここで行われるエッチングの具体的な方法は限定されず、典型的にはドライエッチングが行われる。
 その後、レジスト42がレンズ基材膜41から取り除かれる(図11E)。レジスト42の除去方法は限定されない。典型的には、レンズ基材膜41及びレジスト42の材料に応じて選定された薬品を使って、レジスト42が除去される。
 上述の一連の工程を行った結果、カバー体ウエハー45には、残存するレンズ基材膜41によって構成される複数の回折レンズ22(すなわち複数の突出レンズ部23)が形成される(図12参照)。
 上述の図11A~図11Eに示す製造方法によれば、曲面ではなく、平坦面上に回折レンズ22を形成することができる。
 回折レンズ22は、回折を利用して撮影光Lを効率的に屈折させるために、撮影光Lの波長に対して十分に小さいスリット部を有する必要があり、個々の突出レンズ部23は数十nmレベルの微細構造を有することもある。リソグラフィ・エッチング技術を使ってレンズ表面などの曲面上に数十nmレベルの微細な突出レンズ部23を作る場合、突出レンズ部23の高さ方向位置の精緻な調整が必要とされる。そのような微細構造の回折レンズ22(複数の突出レンズ部23)を曲面上に高精度に形成することは簡単ではなく、製造コストも高くなる。
 一方、本実施形態のようにカバー体38(カバー体ウエハー45)上に回折レンズ22を形成する場合、カバー体38(カバー体ウエハー45)の平坦性が高い面上に複数の突出レンズ部23を作ることができる。そのため、数十nmレベルの微細構造の回折レンズ22を、リソグラフィ・エッチング技術によって、カバー体38(カバー体ウエハー45)の平坦面上に高精度に事前形成することができる。
 また上述の図11A~図11Eに示す製造方法によれば、図12に示すように、複数のカバー体38を含む一体構成のカバー体ウエハー45上に、複数の回折レンズ22を形成することができる。すなわち、カバー体ウエハー45のうちそれぞれのカバー体38に対応する複数の箇所上に、複数の回折レンズ22を同時的に形成することができる。これにより、回折レンズ22が取り付けられたカバー体38を効率良く大量に作ることができ、製造コストを下げることも可能である。
 なお複数の回折レンズ22が取り付けられている上述のカバー体ウエハー45は、一体構造のウエハーの状態のまま撮像素子11の製造に用いられてもよいし、切断されて個々のカバー体38に分離されてもよい。
 次に、撮像素子11の製造方法の例について説明する。
 撮像素子11の製造方法の典型例は、上述のようにして作られたカバー体38を画素基板33に対して固定する工程を含む。当該工程において、カバー体38に取り付けられている回折レンズ22(すなわち複数の突出レンズ部23)が、カバー体38と画素基板33との間に位置するように、カバー体38は画素基板33に対して固定される。
 一般に、カバー体38が取り付けられる直前の画素基板33は、カラーフィルタ35及びオンチップレンズ36が既に取り付けられていることが多く、カラーフィルタ35及びオンチップレンズ36は有機材料で構成されることが多い。そのため、カバー体38が取り付けられる直前の画素基板33は、耐熱性に関して厳しい制約を受ける。
 したがって、カバー体38が取り付けられる直前の画素基板33上に回折レンズ22を形成することは、そのような耐熱性の制約範囲内でのみ可能であり、必ずしも容易ではない。
 一方、上述のように画素基板33から分離したカバー体38上に回折レンズ22を形成する場合、耐熱性に関する制約が緩く、平坦性が高いカバー体38の面上に回折レンズ22を形成することができる。そのため、リソグラフィ・エッチング技術を使って、ナノレベル構造の回折レンズ22を、カバー体38上に容易に精度良く形成することができる。
 なお、本実施形態の撮像素子11では、上述のように突出レンズ部23間にエアーギャップ24が確保された状態で、カバー体38は画素基板33に対して固定される。
 そのようなエアーギャップ24を確実に作り出すため、撮像素子11の製造方法は、例えば以下に示す工程を含んでもよい。
 図13A~図13Dは、撮像素子11の製造方法の一例を示す斜視図である。
 図14~図16は、撮像素子11の製造方法の一例を示す撮像素子11の断面図である。理解を容易にするため、図14~図16は1つの画素基板33に注目しているが、本例の製造方法では、複数の画素基板33を含む基板ウエハー46単位で、図14~図16に示す製造プロセスが行われる。
 本例の製造方法によって作られる撮像素子11では、画素基板33(特にイメージセンサ40)と回折レンズ22との間に位置するシール樹脂37が光硬化樹脂膜により構成され、複数の突出レンズ部23の先端部が硬化状態の光硬化樹脂膜に接触する。
 すなわち、まず、複数の画素基板33を含む一体構成の基板ウエハー46が準備される(図13A参照)。この基板ウエハー46には、各画素基板33に対応する箇所においてカラーフィルタ35及びオンチップレンズ36が既に取り付けられている。
 そして、基板ウエハー46(すなわち複数の画素基板33)の一方の面上に、シール樹脂37を構成する光硬化樹脂が未硬化状態で付与される(図13B参照)。光硬化樹脂は、各画素基板33のうちカラーフィルタ35及びオンチップレンズ36が設けられる側の面を覆うように、基板ウエハー46に付与される。
 その後、基板ウエハー46上の光硬化樹脂(シール樹脂37)に光が照射される(図13C参照)。これにより、基板ウエハー46上の光硬化樹脂のうち各画素基板33のイメージセンサ40を覆う部分が、光照射によって硬化される(図13Cに示す「樹脂硬化部37a」参照)。
 本工程において、基板ウエハー46上の光硬化樹脂のうち各画素基板33のイメージセンサ40よりも外側の部分は、光が照射されず、未硬化状態のままである。
 典型的には、図14に示すように、露光装置49から発せられる光が、マスク48を介して各画素基板33上の光硬化樹脂(シール樹脂37)に照射される。
 その後、回折レンズ22が取り付けられたカバー体ウエハー45(図12参照)が、光硬化樹脂(シール樹脂37)を介して基板ウエハー46に接着される(図13D参照)。
 すなわち、光硬化樹脂(シール樹脂37)のうちイメージセンサ40の外側に位置する未硬化部分(すなわち未露光部分)が、接着剤として働き、カバー体ウエハー45及び基板ウエハー46を接着する。
 本工程では、基板ウエハー46の各画素基板33上の光硬化樹脂のうち光照射によって硬化した部分に、回折レンズ22(すなわち複数の突出レンズ部23)を対面させつつ、カバー体ウエハー45の各カバー体38が対応の画素基板33に対して固定される。
 カバー体ウエハー45を基板ウエハー46に対して押しつけることによって、光硬化樹脂のうちの未硬化部分が、イメージセンサ40の外側で、オンチップレンズ36よりも盛り上がる。このようにして各画素基板33の周辺部分で盛り上がった未硬化状態の光硬化樹脂に、カバー体38の裏面のうち回折レンズ22よりも外側の部分を接触させることで、各画素基板33が対応のカバー体38に対して接着される(図15参照)。
 本工程では、カバー体ウエハー45及び基板ウエハー46に接触する光硬化樹脂(シール樹脂37)の未硬化部分に光が照射され、カバー体ウエハー45及び基板ウエハー46に対して光硬化樹脂(シール樹脂37)が固着される。
 その後、はんだボール34、TSV及び裏面配線などの構成要素が、カバー体ウエハー45及び基板ウエハー46を含む一体構成のウエハー構造体に形成される(図16参照)。
 その後、ウエハー構造体が切断され、個々の撮像素子11に分離される。
 本例の製造方法によれば、シール樹脂37のうち回折レンズ22(すなわち複数の突出レンズ部23)に対面する部分が硬化した状態で、複数の突出レンズ部23がシール樹脂37に接触させられる。
 そのため、突出レンズ部23間のエアーギャップ24へのシール樹脂37の進入を防ぎつつ、回折レンズ22が取り付けられたカバー体38を、シール樹脂37を介して画素基板33に押しつけて固定することができる。
 したがって、各エアーギャップ24は、シール樹脂37によって充填されることなく、空間の状態を維持することができ、回折レンズ22は所望の光学特性を保持することができる。
 図17は、撮像素子11の製造方法の他の例を示す断面図である。図18は、図17に示す製造方法によって製造される撮像素子11の一部分を拡大して示す断面図である。
 本例の製造方法によって作られる撮像素子11では、画素基板33(特にイメージセンサ40)と回折レンズ22との間に位置する無機膜50に、複数の突出レンズ部23の先端部が接触する。
 すなわち、まず、カラーフィルタ35及びオンチップレンズ36が既に取り付けられている基板ウエハー46が準備される。
 そして、基板ウエハー46(すなわち複数の画素基板33)の一方の面上に、シール樹脂37を構成する材料膜が付与される。シール樹脂37の具体的な材料は限定されず、光硬化樹脂であってもよいし、熱硬化樹脂であってもよい。
 そして、基板ウエハー46上のシール樹脂37が半硬化される。シール樹脂37を半硬化させる方法は限定されず、例えば光照射や加熱等の適切な手段によって、シール樹脂37は半硬化される。
 その後、基板ウエハー46(すなわち複数の画素基板33)上の半硬化状態のシール樹脂37上に、透光性の無機膜50が付与される。これにより、基板ウエハー46の各画素基板33のイメージセンサ40が、硬化状態の無機膜50により覆われる。
 なお、基板ウエハー46上のシール樹脂37のうち各画素基板33のイメージセンサ40よりも外側の部分は、無機膜50により覆われることなく、半硬化状態で露出されたままである。
 無機膜50の具体的な材料は限定されず、例えば二酸化ケイ素(SiO)によって無機膜50を構成してもよい。
 シール樹脂37に対する無機膜50の付与方法は限定されず、例えばスパッタリングによって無機膜50をシール樹脂37に付着させることができる。一例として、図17に示すように、画素基板33上のシール樹脂37と、成膜装置51との間にマスク48を介在させ、シール樹脂37のうち無機膜50が形成される範囲を成膜装置51に対して露出させた状態で、成膜装置51は無機膜50の成膜処理を行う。
 その後、回折レンズ22が取り付けられたカバー体ウエハー45(図12参照)が、シール樹脂37を介して基板ウエハー46に接着される。本工程では、無機膜50に複数の突出レンズ部23を対面させつつ、カバー体38が画素基板33に対して固定される。
 カバー体ウエハー45を基板ウエハー46に対して押しつけることによって、シール樹脂37のうちの未硬化部分が、イメージセンサ40の外側で、オンチップレンズ36よりも盛り上がる。このようにして周辺部分で盛り上がった未硬化状態のシール樹脂37に、カバー体38の裏面のうち回折レンズ22よりも外側の部分を接触させることで、各画素基板33が対応のカバー体38に対して接着される(図18参照)。
 本工程では、カバー体ウエハー45及び基板ウエハー46に接触するシール樹脂37の未硬化部分が硬化され、カバー体ウエハー45及び基板ウエハー46に対してシール樹脂37が固着される。
 その後、はんだボール34、TSV及び裏面配線などの構成要素が、カバー体ウエハー45及び基板ウエハー46を含む一体構成のウエハー構造体に形成される。
 その後、ウエハー構造体が切断され、個々の撮像素子11に分離される。
 本例の製造方法によれば、カバー体38を画素基板33に対して固定する際、硬化状態の無機膜50に対して複数の突出レンズ部23が接触させられる。
 そのため、突出レンズ部23間のエアーギャップ24へのシール樹脂37の進入が無機膜50によりブロックされた状態で、回折レンズ22が取り付けられたカバー体38を、シール樹脂37を介して画素基板33に押しつけて固定することができる。
 したがって、各エアーギャップ24は、シール樹脂37によって充填されることなく、空間の状態を維持することができ、回折レンズ22は所望の光学特性を保持することができる。
 上述のいずれの製造方法においても、回折レンズ22の複数の突出レンズ部23が硬化部材(すなわちシール樹脂37(光硬化樹脂)又は無機膜50)に対面した状態で、カバー体38がシール樹脂37を介して画素基板33に対して押しつけられる。これにより、突出レンズ部23間のエアーギャップ24へのシール樹脂37の進入を確実に防ぎ、回折レンズ22は、微小凹凸形状を保持して、本来の光学特性を発揮することができる。
[第2実施形態]
 本実施形態において、上述の第1実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明を省略する。
 図19は、第2実施形態に係る撮像装置10の一例を示す断面図である。
 図19に示す撮像装置10は、複数のレンズ構成層55を含む回折レンズユニット56を備える。
 複数のレンズ構成層55は、光軸方向にお互いに重ねられる。各レンズ構成層55は、カバー体38と、カバー体38の裏面に取り付けられる回折レンズ22(複数の突出レンズ部23)と、を含む。
 図19に示す回折レンズユニット56は3つのレンズ構成層55を含むが、回折レンズユニット56に含まれるレンズ構成層55の数は限定されない。
 隣り合うレンズ構成層55は接着層57を介して相互に接着される。すなわち、隣り合うレンズ構成層55のうちの一方のレンズ構成層55(図19の上側のレンズ構成層55)の回折レンズ22と、他方のレンズ構成層55(図19の下側のレンズ構成層55)のカバー体38(特に表面)とが、同じ接着層57に固着される。
 最も画素基板33側(図19の下側)に位置するレンズ構成層55の回折レンズ22(複数の突出レンズ部23)のうちイメージセンサ40と対面しない部分が、シール樹脂37を介して画素基板33に接着される。
 図19に示す例では、各カバー体38の裏面の全体にわたって回折レンズ22が取り付けられているが、上述の第1実施形態の例(図4参照)のように、各カバー体38の裏面の一部にのみ回折レンズ22が取り付けられてもよい。この場合、接着層57及びシール樹脂37は、カバー体38の裏面のうち回折レンズ22が取り付けられていない周辺領域に付着し、カバー体38の裏面のうち回折レンズ22が取り付けられている中央領域には付着しないように、設けられうる。
 図19に示す撮像装置10の他の構成は、上述の第1実施形態に係る撮像装置10の構成と同様である。
 本実施形態の撮像装置10及び撮像素子11によれば、積層構造を有する複数の回折レンズ22によって、撮影光Lの光路を調整し、色収差等の光学特性上の不具合を改善することが可能である。
 その結果、例えば、より高度な光学特性を有する撮像装置10及び撮像素子11を実現したり、より簡素な及び/又はより安価な幾何光学レンズ21を用いたりすることが可能である。特に、幾何光学レンズ21のレンズ枚数や各レンズの厚みを薄くすることで、光学レンズ系全体の光軸方向サイズを小さくし、撮像装置10全体の薄型化を促すことができる。
 また、それぞれのレンズ構成層55において様々な光学特性を有する回折レンズ22を用いることで、光学レンズ系全体として多様な光学特性を発揮することが可能である。
[第3実施形態]
 本実施形態において、上述の第1実施形態及び第2実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明を省略する。
 図20は、第3実施形態に係る撮像装置10の一例を示す断面図である。
 図20に示す撮像装置10は、複数のレンズ構成層55を含む回折レンズユニット56を備えるが、幾何光学レンズを具備しない。すなわち本実施形態の光学レンズ系は、複数の回折レンズ22のみを含み、幾何光学レンズを含まない。図20に示す回折レンズユニット56は、6つのレンズ構成層55を含む。
 隣り合うレンズ構成層55間の接着構成、及び、最も画素基板33側に位置するレンズ構成層55と画素基板33との間の接着構成は、上述の第2実施形態の例(図19参照)と同様である。
 図20に示す撮像装置10の他の構成は、上述の第2実施形態に係る撮像装置10の構成と同様である。
 本実施形態の撮像装置10及び撮像素子11によれば、幾何光学レンズが不要である。そのため、装置構成を簡素化することが可能であり、撮像装置10全体の光軸方向サイズを小さくすることが可能である。
 また、それぞれのレンズ構成層55において様々な光学特性を有する回折レンズ22を用いることで、光学レンズ系全体として多様な光学特性を発揮することが可能である。
[第4実施形態]
 本実施形態において、上述の第1実施形態~第3実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明を省略する。
 図21は、第4実施形態に係る撮像装置10の一例を示す断面図である。
 図21に示す撮像素子11では、回折レンズ22を構成する突出レンズ部23間のエアーギャップ24に、シール樹脂37が充填されている。
 本実施形態の回折レンズ22は、上述の第1実施形態と同様に、カバー体38の裏面のうち光軸方向にイメージセンサ40と対面する範囲にわたって存在するが、カバー体38の裏面のうちイメージセンサ40と対面しない周辺範囲の一部又は全部には存在しない。
 本例の撮像装置10の他の構成は、上述の第1実施形態に係る撮像装置10の構成と同様である。
 本実施形態の撮像装置10及び撮像素子11においても、回折レンズ22(複数の突出レンズ部23)はカバー体38の平坦面に取り付けられる。そのため、所望形状の回折レンズ22を、カバー体38上の所望位置に精度良く設けることができる。
[第5実施形態]
 本実施形態において、上述の第1実施形態~第4実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明を省略する。
 図22は、第5実施形態に係る撮像装置10の一例を示す断面図である。
 図22に示す撮像素子11では、イメージセンサ40と回折レンズ22との間に空間が設けられる。より具体的には、光軸方向において、オンチップレンズ36と回折レンズ22(複数の突出レンズ部23)との間は、シール樹脂37が存在せず、空間が存在する。
 すなわち、画素基板33の周辺領域に対応する範囲には、上述の第1実施形態と同様に、カバー体38を画素基板33に対して接着固定するシール樹脂37が存在する。一方、画素基板33の中央領域(特にイメージセンサ40が存在する領域)に対応する範囲には、シール樹脂37が存在しない。
 そのため本例の撮像素子11は、カバー体38、シール樹脂37及び画素基板33によって囲まれる空間を持つキャビティ構造を有し、当該空間にカラーフィルタ35、オンチップレンズ36及び回折レンズ22が位置する。
 図22に示す撮像装置10の他の構成は、上述の第1実施形態に係る撮像装置10の構成と同様である。
 本実施形態の撮像装置10及び撮像素子11によれば、回折レンズ22と、当該回折レンズ22に隣接する空間との間で大きな屈折率差があるので、回折レンズ22の回折性能(すなわち屈折性能)を向上させることができる。これにより、幾何光学レンズ21及び回折レンズ22の設計上の制約を緩和することが可能である。
[第6実施形態]
 本実施形態において、上述の第1実施形態~第5実施形態と同一又は対応の要素には同一の符号を付し、その詳細な説明を省略する。
 図23は、第6実施形態に係る撮像装置10の一例を示す断面図である。
 図23に示す撮像素子11は、画素基板33を外側から支持する支持体60と、支持体60とカバー体38との間に位置する接着層61と、を備える。
 支持体60は、内側に空間を有する中空構造を有し、光軸Axと垂直な方向に延びる支持底部と、支持底部から光軸方向に延びる支持周縁部と、を具備する。
 画素基板33、カラーフィルタ35及びオンチップレンズ36は、支持底部に対して固定され、全体が支持体60の内側空間に配置される。
 カバー体38の裏面に取り付けられる回折レンズ22は、支持体60、接着層61及びカバー体38により包囲される空間に、全体が配置される。
 接着層61は、支持体60の支持周縁部の端面と、カバー体38の周縁部(特に回折レンズ22より外側に位置する部分)の裏面と、の間に位置し、支持体60に対してカバー体38を固定する固定部として働く。
 したがって本実施形態の撮像素子11では、上述の第1実施形態~第4実施形態の撮像素子11では設けられていたシール樹脂37が不要である。そのため、オンチップレンズ36と回折レンズ22(複数の突出レンズ部23)との間は、全体にわたって空間が存在する。
 画素基板33は、ワイヤーボンド配線62を介して外部基板(図示せず)に接続される。ワイヤーボンド配線62の全体と、外部基板のうちワイヤーボンド配線62が接続される部分とは、支持体60の内側空間に位置する。
 図23に示す撮像装置10の他の構成は、上述の第1実施形態に係る撮像装置10の構成と同様である。
 本実施形態の撮像装置10及び撮像素子11によれば、回折レンズ22と、当該回折レンズ22に隣接する空間との間で大きな屈折率差があるため、回折レンズ22の回折性能(すなわち屈折性能)を向上させることができる。
 また画素基板33は支持体60によって外側から支持されているので、画素基板33の撓み及び反りの発生を防ぐことができる。
[回折レンズの構造例]
 次に、回折レンズ22の構造例について説明する。
 以下で例示的に説明される回折レンズ22を適用可能な撮像装置10及び撮像素子11は、限定されない。したがって以下で説明する回折レンズ22は、上述の各実施形態に係る撮像装置10及び撮像素子11に対して適用されてもよいし、他の撮像装置10及び撮像素子11に対して適用されてもよい。
 図24は、回折レンズ22の構造例を示す斜視図である。理解を容易にするため、図24には、直方体状のカバー体38の上面において、相互に垂直を成す縦方向及び横方向に沿って複数の突出レンズ部23が規則的に並べられている状態が示されている。実際のカバー体38及び回折レンズ22(複数の突出レンズ部23)の状態は、図24に示す状態とは異なりうる。
 回折レンズ22の構造は、主として、各突出レンズ部23の光軸方向サイズ(高さh)、隣り合う突出レンズ部23間の距離(ピッチP)、及び光軸Axと垂直を成す方向のサイズ(縦幅D及び横幅W)に応じて定まる。
 回折レンズ22は、撮影光Lを適切に屈折させるために、撮影光Lの波長に対して十分に小さいスリットを有する必要がある。
 一般的な撮像装置10(カメラ)での使用を想定した場合、各突出レンズ部23は、200~1000nm程度の高さh、100~800nm程度の縦幅D及び横幅W、及び300~800nm程度のピッチPを有する。
 図25は、回折レンズ22の一例の概略を示す拡大平面図である。図26A~図26Cは、回折レンズ22(複数の突出レンズ部23)の光回折の位相差s、屈折角θ及び焦点距離fを説明するための図である。
 図25に示す例では、突出レンズ部23のピッチPが一定に維持された状態で、突出レンズ部23の平面サイズ(例えば横幅W及び縦幅D)が、中央から外側に向かうに従って小さくなる。この場合、回折レンズ22により回折された撮影光Lには位相差sが生じ(図26A参照)、突出レンズ部23から出射する撮影光Lは屈折する(図26B参照)。
 回折レンズ22全体を凸レンズとして機能させる場合、回折レンズ22は、光軸Axから離れた位置ほど、大きな屈折角θで撮影光Lを屈折させる必要があり、図26Cに示すような焦点距離fを有する。
 一方、突出レンズ部23によりもたらされる撮影光Lの位相差s(図26A参照)は、中央から外側に向かって並べられる突出レンズ部23の数に応じて少しずつ変わり、中央からある距離離れた位置で360°の位相差sが生じる。
 したがって、そのような位相差sの変化を、中央(光軸Ax)から外側に向かって連続的に生じさせることで、回折レンズ22全体を凸レンズとして構成することが可能である。
 図27は、1つの回折レンズ22を構成する複数の突出レンズ部23の配置例を示す平面図である。
 図27に示すように、突出レンズ部23の平面サイズ(例えば横幅W及び縦幅D)の変化を、中心(すなわち光軸Ax)から外側に向かって周期的に生じさせることで、回折レンズ22全体を凸レンズとして機能させることが可能である。
 図27に示す回折レンズ22では、第1周期S1、第2周期S2及び第3周期S3の突出レンズ部23を含む。第1周期S1は、光軸Axを含む範囲である。第2周期S2は、第1周期S1の次に光軸Axに近い範囲であり、第1周期S1に隣り合って位置する。第3周期S3は、第2周期S2の次に光軸Axに近い範囲であり、第2周期S2に隣り合って位置する。
 第1周期S1、第2周期S2及び第3周期S3の各々に含まれる複数の突出レンズ部23は、光回折に関し、0°~360°の範囲の位相差を示す。
 ここで、図27に示す例において、中心(光軸Ax)から右横方向に延びる仮想線上に位置する複数の突出レンズ部23に注目する。
 この場合、第1周期S1に含まれる各突出レンズ部23の横幅W1、第2周期S2に含まれる各突出レンズ部23の横幅W2、及び第3周期S3に含まれる各突出レンズ部23の横幅W3は、「W1>W2>W3」の関係を有する。すなわち、各周期における位置に関して周期間で相互に対応する突出レンズ部23の横幅Wは、「W1>W2>W3」の関係を満たす。
 例えば第1周期S1の最も光軸Ax側に位置する突出レンズ部23の横幅W1、第2周期S2の最も光軸Ax側に位置する突出レンズ部23の横幅W2、及び第3周期S3の最も光軸Ax側に位置する突出レンズ部23の横幅W3は、「W1>W2>W3」を満たす。
 なお上述の「W1>W2>W3」は、各突出レンズ部23の横幅Wの方向に並べられる複数の突出レンズ部23に注目した場合に満たされる関係である。
 他の直線方向に並ぶ複数の突出レンズ部23の関係については、当該方向に沿った第1周期S1の各突出レンズ部23のサイズJ1、第2周期S2の各突出レンズ部23のサイズJ2、及び第3周期S3の各突出レンズ部23のJ3が「J1>J2>J3」を満たす。すなわち、各周期における位置に関して周期間で相互に対応する突出レンズ部23のサイズが「J1>J2>J3」の関係を満たす。
 したがって、各突出レンズ部23の縦幅Dの方向に並べられる複数の突出レンズ部23に注目した場合、第1周期S1~第3周期S3の対応の突出レンズ部23間で「D1>D2>D3」の関係が満たされる。すなわち第1周期S1の最も光軸Ax側の突出レンズ部23の縦幅D1、第2周期S2の最も光軸Ax側の突出レンズ部23の第2周期S2、及び第3周期S3の最も光軸Ax側の突出レンズ部23の縦幅D3は、「D1>D2>D3」の関係を満たす。
 一方、各周期における複数の突出レンズ部23は、同じピッチPで設けられる。
 ただし、第1周期S1に含まれる突出レンズ部23のピッチP1、第2周期S2に含まれる突出レンズ部23のピッチP2、及び第3周期S3に含まれる突出レンズ部23のピッチP3は、「P1>P2>P3」の関係を有する。
 上述の「W1>W2>W3」、「D1>D2>D3」、「J1>J2>J3」及び「P1>P2>P3」を満たす回折レンズ22は、全体として凸レンズを構成する。
 一方、「W1<W2<W3」、「D1<D2<D3」、「J1<J2<J3」及び「P1<P2<P3」を満たす回折レンズ22は、全体として凹レンズを構成する。
 以上説明したように、凸レンズを構成する回折レンズ22の複数の突出レンズ部23の平面サイズ(すなわち光軸Axと垂直を成す平面上のサイズ)は、光軸Axからの距離を基準に周期的に変化する。複数の突出レンズ部23の平面サイズの変化の周期は、複数の突出レンズ部23の光回折の360°の位相差に基づく。そして、凸レンズを成す回折レンズ22では、各周期において、光軸Axから離れるに従って突出レンズ部23の平面サイズは小さくなる。
 同様に、凹レンズを構成する回折レンズ22の複数の突出レンズ部23の平面サイズは、光軸Axからの距離を基準に周期的に変化し、複数の突出レンズ部23の平面サイズの変化の周期は、複数の突出レンズ部23の光回折の360°の位相差に基づいている。ただし、凹レンズを成す回折レンズ22では、各周期において、光軸Axから離れるに従って突出レンズ部23の平面サイズは大きくなる。
[応用例]
 以下に、上述の撮像装置10、撮像素子11、及び撮像装置10及び撮像素子11の製造方法を応用可能な電子機器の例について説明する。なお、上述の撮像装置10、撮像素子11、及び撮像装置10及び撮像素子11の製造方法は、下述の電子機器以外の任意のシステム、装置及び方法等に対しても応用可能である。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図28は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図28に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図28の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図29は、撮像部12031の設置位置の例を示す図である。
 図29では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図29には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば撮像部12031、12101、12102、12103、12104、12105及び運転者状態検出部12041が含むカメラに適用されうる。これらの場合にも、小型の装置構成で高品質の画像を取得するのに有利である。
 <内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図30は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図30では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図31は、図30に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、本開示に係る技術は、以上説明した構成のうち、例えばカメラヘッド11102に適用されうる。この場合にも、小型の装置構成で高品質の画像を取得するのに有利である。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 本明細書で開示されている実施形態及び変形例はすべての点で例示に過ぎず限定的には解釈されないことに留意されるべきである。上述の実施形態及び変形例は、添付の特許請求の範囲及びその趣旨を逸脱することなく、様々な形態での省略、置換及び変更が可能である。例えば上述の実施形態及び変形例が全体的に又は部分的に組み合わされてもよく、また上述以外の実施形態が上述の実施形態又は変形例と組み合わされてもよい。また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果がもたらされてもよい。
 上述の技術的思想を具現化する技術的カテゴリーは限定されない。例えば上述の装置を製造する方法或いは使用する方法に含まれる1又は複数の手順(ステップ)をコンピュータに実行させるためのコンピュータプログラムによって、上述の技術的思想が具現化されてもよい。またそのようなコンピュータプログラムが記録されたコンピュータが読み取り可能な非一時的(non-transitory)な記録媒体によって、上述の技術的思想が具現化されてもよい。
[付記]
 本開示は以下の構成を取ることもできる。
 [項目1]
 撮影光が入射するイメージセンサを具備する画素基板と、
 前記イメージセンサに対面する透光性のカバー体と、
 前記カバー体から前記イメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、を備え、
 前記複数の突出レンズ部の相互間に空間が設けられている
撮像素子。
 [項目2]
 前記イメージセンサと前記回折レンズとの間に位置し、前記複数の突出レンズ部に接触する光硬化樹脂膜を備える
項目1に記載の撮像素子。
 [項目3]
 前記イメージセンサと前記回折レンズとの間に位置し、前記複数の突出レンズ部に接触する無機膜を備える
項目1又は2に記載の撮像素子。
 [項目4]
 お互いに重ねられる複数のレンズ構成層を備え、
 前記複数のレンズ構成層の各々は、前記カバー体及び前記回折レンズを含む
項目1~3のいずれに記載の撮像素子。
 [項目5]
 前記回折レンズは、前記イメージセンサから60μm以下離れて位置する
項目1~4のいずれに記載の撮像素子。
 [項目6]
 前記複数の突出レンズ部の平面サイズは、光軸からの距離を基準に、周期的に変化し、 前記複数の突出レンズ部の平面サイズの変化の周期は、前記複数の突出レンズ部の光回折の360°の位相差に基づいており、
 各周期において、光軸から離れるに従って突出レンズ部の平面サイズが小さくなる
項目1~5のいずれに記載の撮像素子。
 [項目7]
 前記複数の突出レンズ部の平面サイズは、光軸からの距離を基準に、周期的に変化し、 前記複数の突出レンズ部の平面サイズの変化の周期は、前記複数の突出レンズ部の光回折の360°の位相差に基づいており、
 各周期において、光軸から離れるに従って突出レンズ部の平面サイズが大きくなる
項目1~6のいずれに記載の撮像素子。
 [項目8]
 前記画素基板と前記カバー体との間に位置し、前記画素基板に対して前記カバー体を固定する固定部を備える
項目1~7のいずれに記載の撮像素子。
 [項目9]
 前記イメージセンサと前記回折レンズとの間に空間が設けられている項目1~8のいずれに記載の撮像素子。
 [項目10]
 前記画素基板を支持する支持体と、
 前記支持体とカバー基板との間に位置し、前記支持体に対して前記カバー体を固定する固定部と、を備える
項目1~9のいずれに記載の撮像素子。
 [項目11]
 撮影光が入射するイメージセンサを具備する画素基板と、
 前記イメージセンサに対面する透光性のカバー体と、
 前記カバー体から前記イメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、
 前記カバー体を介して前記画素基板とは反対側に位置する撮像レンズと、を備え、
 前記複数の突出レンズ部の相互間に空間が形成されている
撮像装置。
 [項目12]
 前記回折レンズは、前記撮像レンズの色収差を低減する
項目11に記載の撮像装置。
 [項目13]
 前記回折レンズは、前記撮像レンズから前記回折レンズに向かう前記撮影光の主光線入射角度よりも小さい主光線入射角度で、前記撮影光を出射する
項目11又は12に記載の撮像装置。
 [項目14]
 イメージセンサを有する画素基板に対し、透光性のカバー体を固定する工程を含み、
 前記カバー体には、回折レンズを構成し且つ相互間に空間が設けられている複数の突出レンズ部が固定されており、
 前記複数の突出レンズ部が前記カバー体と前記画素基板との間に位置するように、前記カバー体は前記画素基板に対して固定される
撮像素子の製造方法。
 [項目15]
 前記画素基板上に、光硬化樹脂を付与する工程と、
 前記画素基板上の前記光硬化樹脂のうち前記イメージセンサを覆う部分を、光照射によって硬化させる工程と、を含み、
 前記画素基板上の前記光硬化樹脂のうち前記光照射によって硬化した部分に前記複数の突出レンズ部を対面させつつ、前記カバー体が前記画素基板に対して固定される
項目14に記載の撮像素子の製造方法。
 [項目16]
 前記画素基板上に、無機膜を付与する工程を含み、
 前記無機膜に前記複数の突出レンズ部を対面させつつ、前記カバー体が前記画素基板に対して固定される
項目14又は15に記載の撮像素子の製造方法。
10 撮像装置
11 撮像素子
21 幾何光学レンズ
22 回折レンズ
23 突出レンズ部
24 エアーギャップ
31 下側基板
32 上側基板
33 画素基板
34 はんだボール
35 カラーフィルタ
36 オンチップレンズ
37 シール樹脂
38 カバー体
40 イメージセンサ
41 レンズ基材膜
42 レジスト
45 カバー体ウエハー
46 基板ウエハー
48 マスク
49 露光装置
50 無機膜
51 成膜装置
55 レンズ構成層
56 回折レンズユニット
57 接着層
60 支持体
61 接着層
62 ワイヤーボンド配線
Ax 光軸
D 縦幅
L 撮影光
L1 短波長光
L2 長波長光
P ピッチ
S1 第1周期
S2 第2周期
S3 第3周期
s 位相差
W 横幅
θ 屈折角

Claims (16)

  1.  イメージセンサを具備する画素基板と、
     前記イメージセンサに対面する透光性のカバー体と、
     前記カバー体から前記イメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、を備え、
     前記複数の突出レンズ部の相互間に空間が設けられている
    撮像素子。
  2.  前記イメージセンサと前記回折レンズとの間に位置し、前記複数の突出レンズ部に接触する光硬化樹脂膜を備える
    請求項1に記載の撮像素子。
  3.  前記イメージセンサと前記回折レンズとの間に位置し、前記複数の突出レンズ部に接触する無機膜を備える
    請求項1に記載の撮像素子。
  4.  お互いに重ねられる複数のレンズ構成層を備え、
     前記複数のレンズ構成層の各々は、前記カバー体及び前記回折レンズを含む
    請求項1に記載の撮像素子。
  5.  前記回折レンズは、前記イメージセンサから60μm以下離れて位置する
    請求項1に記載の撮像素子。
  6.  前記複数の突出レンズ部の平面サイズは、光軸からの距離を基準に、周期的に変化し、 前記複数の突出レンズ部の平面サイズの変化の周期は、前記複数の突出レンズ部の光回折の360°の位相差に基づいており、
     各周期において、光軸から離れるに従って突出レンズ部の平面サイズが小さくなる
    請求項1に記載の撮像素子。
  7.  前記複数の突出レンズ部の平面サイズは、光軸からの距離を基準に、周期的に変化し、 前記複数の突出レンズ部の平面サイズの変化の周期は、前記複数の突出レンズ部の光回折の360°の位相差に基づいており、
     各周期において、光軸から離れるに従って突出レンズ部の平面サイズが大きくなる
    請求項1に記載の撮像素子。
  8.  前記画素基板と前記カバー体との間に位置し、前記画素基板に対して前記カバー体を固定する固定部を備える
    請求項1に記載の撮像素子。
  9.  前記イメージセンサと前記回折レンズとの間に空間が設けられている請求項1に記載の撮像素子。
  10.  前記画素基板を支持する支持体と、
     前記支持体とカバー基板との間に位置し、前記支持体に対して前記カバー体を固定する固定部と、を備える
    請求項1に記載の撮像素子。
  11.  イメージセンサを具備する画素基板と、
     前記イメージセンサに対面する透光性のカバー体と、
     前記カバー体から前記イメージセンサに向かって突出する複数の突出レンズ部を有する回折レンズと、
     前記カバー体を介して前記画素基板とは反対側に位置する撮像レンズと、を備え、
     前記複数の突出レンズ部の相互間に空間が形成されている
    撮像装置。
  12.  前記回折レンズは、前記撮像レンズの色収差を低減する
    請求項11に記載の撮像装置。
  13.  前記回折レンズは、前記撮像レンズから前記回折レンズに向かう光の主光線入射角度よりも小さい主光線入射角度で、光を出射する
    請求項11に記載の撮像装置。
  14.  イメージセンサを有する画素基板に対し、透光性のカバー体を固定する工程を含み、
     前記カバー体には、回折レンズを構成し且つ相互間に空間が設けられている複数の突出レンズ部が固定されており、
     前記複数の突出レンズ部が前記カバー体と前記画素基板との間に位置するように、前記カバー体は前記画素基板に対して固定される
    撮像素子の製造方法。
  15.  前記画素基板上に、光硬化樹脂を付与する工程と、
     前記画素基板上の前記光硬化樹脂のうち前記イメージセンサを覆う部分を、光照射によって硬化させる工程と、を含み、
     前記画素基板上の前記光硬化樹脂のうち前記光照射によって硬化した部分に前記複数の突出レンズ部を対面させつつ、前記カバー体が前記画素基板に対して固定される
    請求項14に記載の撮像素子の製造方法。
  16.  前記画素基板上に、無機膜を付与する工程を含み、
     前記無機膜に前記複数の突出レンズ部を対面させつつ、前記カバー体が前記画素基板に対して固定される
    請求項14に記載の撮像素子の製造方法。
PCT/JP2022/001700 2021-03-09 2022-01-19 撮像素子、撮像装置、及び撮像素子の製造方法 WO2022190653A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112022001388.5T DE112022001388T5 (de) 2021-03-09 2022-01-19 Bildgebungselement, bildgebungsvorrichtung und verfahren zum herstellen eines bildgebungselements
US18/548,647 US20240145510A1 (en) 2021-03-09 2022-01-19 Imaging element, imaging device, and method for manufacturing imaging element
CN202280010971.7A CN116783710A (zh) 2021-03-09 2022-01-19 摄像元件、摄像装置和摄像元件的制造方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021037662A JP2022137929A (ja) 2021-03-09 2021-03-09 撮像素子、撮像装置、及び撮像素子の製造方法
JP2021-037662 2021-03-09

Publications (1)

Publication Number Publication Date
WO2022190653A1 true WO2022190653A1 (ja) 2022-09-15

Family

ID=83226587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001700 WO2022190653A1 (ja) 2021-03-09 2022-01-19 撮像素子、撮像装置、及び撮像素子の製造方法

Country Status (5)

Country Link
US (1) US20240145510A1 (ja)
JP (1) JP2022137929A (ja)
CN (1) CN116783710A (ja)
DE (1) DE112022001388T5 (ja)
WO (1) WO2022190653A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145809A (ja) * 2007-12-18 2009-07-02 Fujinon Corp 撮像レンズおよび撮像装置
JP2010098066A (ja) * 2008-10-15 2010-04-30 Olympus Corp 固体撮像装置、固体撮像装置の製造方法
JP2013038164A (ja) * 2011-08-05 2013-02-21 Sony Corp 固体撮像装置、電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009145809A (ja) * 2007-12-18 2009-07-02 Fujinon Corp 撮像レンズおよび撮像装置
JP2010098066A (ja) * 2008-10-15 2010-04-30 Olympus Corp 固体撮像装置、固体撮像装置の製造方法
JP2013038164A (ja) * 2011-08-05 2013-02-21 Sony Corp 固体撮像装置、電子機器

Also Published As

Publication number Publication date
CN116783710A (zh) 2023-09-19
US20240145510A1 (en) 2024-05-02
DE112022001388T5 (de) 2023-12-28
JP2022137929A (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
WO2017159174A1 (ja) 固体撮像装置、及び、固体撮像装置の製造方法
WO2018139254A1 (en) Camera module, method of producing the same, and electronic device
US20220115427A1 (en) Solid-state imaging device and electronic apparatus
WO2019220696A1 (ja) 撮像素子および撮像装置
JPWO2019235250A1 (ja) 撮像装置
US20220231062A1 (en) Imaging device, method of producing imaging device, imaging apparatus, and electronic apparatus
US20220068991A1 (en) Imaging element and manufacturing method of imaging element
WO2021193266A1 (ja) 固体撮像装置
WO2019065295A1 (ja) 撮像素子およびその製造方法、並びに電子機器
WO2023013444A1 (ja) 撮像装置
WO2022190653A1 (ja) 撮像素子、撮像装置、及び撮像素子の製造方法
US20230411430A1 (en) Solid-state imaging device and electronic apparatus
WO2020246293A1 (ja) 撮像装置
WO2021049302A1 (ja) 撮像装置、電子機器、製造方法
WO2019097909A1 (ja) 半導体素子、半導体装置および半導体素子の製造方法
TWI826558B (zh) 攝像元件及攝像元件之製造方法
JP2020064893A (ja) センサモジュールおよび電子機器
WO2021140936A1 (ja) 受光装置
US20230299110A1 (en) Sensor device and electronic apparatus
US20230343803A1 (en) Semiconductor device, method of producing the same, and electronic apparatus
WO2023013394A1 (ja) 撮像装置
WO2024075253A1 (ja) 光検出装置および電子機器
WO2021095562A1 (ja) 撮像装置および電子機器
WO2020100709A1 (ja) 固体撮像装置及び電子機器
WO2020158216A1 (ja) 固体撮像装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22766621

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280010971.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18548647

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112022001388

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22766621

Country of ref document: EP

Kind code of ref document: A1