WO2022113362A1 - 光学素子、撮像素子及び撮像装置 - Google Patents

光学素子、撮像素子及び撮像装置 Download PDF

Info

Publication number
WO2022113362A1
WO2022113362A1 PCT/JP2020/044560 JP2020044560W WO2022113362A1 WO 2022113362 A1 WO2022113362 A1 WO 2022113362A1 JP 2020044560 W JP2020044560 W JP 2020044560W WO 2022113362 A1 WO2022113362 A1 WO 2022113362A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
light
structures
pixels
transparent layer
Prior art date
Application number
PCT/JP2020/044560
Other languages
English (en)
French (fr)
Inventor
将司 宮田
成 根本
史英 小林
俊和 橋本
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2022565015A priority Critical patent/JPWO2022113362A1/ja
Priority to CN202080107529.7A priority patent/CN116529637A/zh
Priority to KR1020237017916A priority patent/KR20230093325A/ko
Priority to EP20963625.7A priority patent/EP4242702A1/en
Priority to US18/039,048 priority patent/US20240006440A1/en
Priority to PCT/JP2020/044560 priority patent/WO2022113362A1/ja
Publication of WO2022113362A1 publication Critical patent/WO2022113362A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/002Optical elements characterised by the material of which they are made; Optical coatings for optical elements made of materials engineered to provide properties not available in nature, e.g. metamaterials
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/02Optical elements characterised by the material of which they are made; Optical coatings for optical elements made of crystals, e.g. rock-salt, semi-conductors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only

Definitions

  • the present invention relates to an optical element, an image pickup device, and an image pickup device.
  • Some image sensors are equipped with optical elements such as microlenses and color filters.
  • the color filter is shown in Non-Patent Document 1, for example.
  • the present invention aims to reduce manufacturing costs.
  • the optical element according to the present invention comprises a transparent layer for covering a plurality of pixels, each including a photoelectric conversion element, and a plurality of structures arranged on the transparent layer or in the transparent layer in the plane direction of the transparent layer.
  • the plurality of structures are arranged so as to condense the light of the color corresponding to each of the plurality of pixels among the incident light to the corresponding pixels, and the plurality of structures view the transparent layer in a plan view. It is characterized by including structures having different types of cross-sectional shapes from each other.
  • the image pickup device is characterized by including the above optical element and the plurality of pixels covered with the transparent layer.
  • the image pickup device is characterized by including the above-mentioned image pickup element and a signal processing unit that generates an image signal based on an electric signal obtained from the image pickup element.
  • FIG. 1 is a diagram showing an example of a schematic configuration of an image pickup device and an image pickup device in which the optical element according to the embodiment is used.
  • FIG. 2 is a diagram showing an example of a schematic configuration of an image pickup device.
  • FIG. 3 is a diagram showing an example of a schematic configuration of an image pickup device.
  • FIG. 4 is a diagram showing an example of a schematic configuration of an image pickup device.
  • FIG. 5 is a diagram showing an example of a schematic configuration of an image pickup device.
  • FIG. 6 is a diagram schematically showing light collection to the corresponding pixel.
  • FIG. 7 is a diagram schematically showing light collection to the corresponding pixel.
  • FIG. 8 is a diagram schematically showing light collection to the corresponding pixel.
  • FIG. 1 is a diagram showing an example of a schematic configuration of an image pickup device and an image pickup device in which the optical element according to the embodiment is used.
  • FIG. 2 is a diagram showing an example of a schematic configuration of an image pickup device.
  • FIG. 9 is a diagram showing an example of the light intensity distribution on the pixel at each wavelength.
  • FIG. 10 is a diagram showing an example of light intensity distribution on a pixel at each wavelength.
  • FIG. 11 is a diagram showing an example of the light intensity distribution on the pixel at each wavelength.
  • FIG. 12 is a diagram showing an example of a schematic configuration of a structure.
  • FIG. 13 is a diagram showing an example of a schematic configuration of a structure.
  • FIG. 14 is a diagram showing an example of a schematic configuration of a structure.
  • FIG. 15 is a diagram showing an example of a schematic configuration of a structure.
  • FIG. 16 is a diagram showing an example of a schematic configuration of a structure.
  • FIG. 17 is a diagram showing an example of a schematic configuration of a structure.
  • FIG. 18 is a diagram showing an example of a combination of each wavelength and an optical phase delay amount.
  • FIG. 19 is a diagram showing an example of a combination of each wavelength and an optical phase delay amount.
  • FIG. 20 is a diagram showing an example of lens design.
  • FIG. 21 is a diagram showing an example of lens design.
  • FIG. 22 is a diagram showing an example of lens design.
  • FIG. 23 is a diagram showing an example of lens design.
  • FIG. 24 is a diagram showing an example of lens design.
  • FIG. 25 is a diagram showing an example of lens design.
  • FIG. 26 is a diagram showing an example of lens design.
  • FIG. 27 is a diagram showing an example of lens design.
  • FIG. 28 is a diagram showing an example of lens design.
  • FIG. 29 is a diagram showing an example of lens design.
  • FIG. 29 is a diagram showing an example of lens design.
  • FIG. 30 is a diagram showing an example of lens design.
  • FIG. 31 is a diagram showing an example of lens design.
  • FIG. 32 is a diagram showing an example of lens design.
  • FIG. 33 is a diagram showing an example of lens design.
  • FIG. 34 is a diagram showing an example of lens design.
  • FIG. 35 is a diagram showing an example of lens design.
  • FIG. 36 is a diagram showing an example of lens design.
  • FIG. 37 is a diagram showing an example of lens design.
  • FIG. 38 is a diagram showing an example of lens design.
  • FIG. 39 is a diagram showing an example of lens design.
  • FIG. 40 is a diagram showing an example of a spectrum of light incident on a pixel.
  • FIG. 41 is a diagram showing an example of the intensity distribution of the light incident on the pixel.
  • FIG. 40 is a diagram showing an example of a spectrum of light incident on a pixel.
  • FIG. 41 is a diagram showing an example of the intensity distribution of the light incident on
  • FIG. 42 is a diagram showing an example of the intensity distribution of the light incident on the pixel.
  • FIG. 43 is a diagram showing an example of the intensity distribution of the light incident on the pixel.
  • FIG. 44 is a diagram showing an example of a spectrum of light incident on a pixel.
  • FIG. 45 is a diagram showing an example of the intensity distribution of light incident on a pixel.
  • FIG. 46 is a diagram showing an example of the intensity distribution of light incident on a pixel.
  • FIG. 47 is a diagram showing an example of the intensity distribution of the light incident on the pixel.
  • FIG. 48 is a diagram showing an example of incident angle dependence.
  • FIG. 49 is a diagram showing an example of incident angle dependence.
  • FIG. 50 is a diagram showing an example of incident angle dependence.
  • FIG. 51 is a diagram showing an example of incident angle dependence.
  • FIG. 52 is a diagram showing an example of incident angle dependence.
  • FIG. 53 is a diagram showing an example of incident angle dependence.
  • FIG. 54 is a diagram showing an example of incident angle dependence.
  • FIG. 55 is a diagram showing an example of incident angle dependence.
  • FIG. 56 is a diagram showing an example of incident angle dependence.
  • FIG. 57 is a diagram showing an example of incident angle dependence.
  • FIG. 58 is a diagram showing an example of incident angle dependence.
  • FIG. 59 is a diagram showing an example of incident angle dependence.
  • FIG. 60 is a diagram showing an example of incident angle dependence.
  • FIG. 61 is a diagram showing an example of incident angle dependence.
  • FIG. 62 is a diagram showing an example of incident angle dependence.
  • FIG. 61 is a diagram showing an example of incident angle dependence.
  • FIG. 63 is a diagram showing an example of incident angle dependence.
  • FIG. 64 is a diagram showing an example of incident angle dependence.
  • FIG. 65 is a diagram showing an example of incident angle dependence.
  • FIG. 66 is a diagram showing an example of incident angle dependence.
  • FIG. 67 is a diagram showing an example of a schematic configuration of an image pickup device according to a modified example.
  • FIG. 68 is a diagram showing an example of a schematic configuration of an image pickup device according to a modified example.
  • FIG. 69 is a diagram showing an example of the cross-sectional shape of the structure.
  • FIG. 70 is a diagram showing an example of a schematic configuration of an image pickup device according to a modified example.
  • FIG. 70 is a diagram showing an example of a schematic configuration of an image pickup device according to a modified example.
  • FIG. 71 is a diagram showing an example of a schematic configuration of an image pickup device according to a modified example.
  • FIG. 72 is a diagram showing an example of a spectrum of light incident on a pixel.
  • FIG. 73 is a diagram showing an example of a spectrum of light incident on a pixel.
  • FIG. 74 is a diagram showing an example of incident angle dependence.
  • FIG. 75 is a diagram showing an example of incident angle dependence.
  • FIG. 76 is a diagram showing an example of incident angle dependence.
  • FIG. 77 is a diagram showing an example of incident angle dependence.
  • FIG. 78 is a diagram showing an example of incident angle dependence.
  • FIG. 79 is a diagram showing an example of incident angle dependence.
  • FIG. 80 is a diagram showing an example of incident angle dependence.
  • FIG. 80 is a diagram showing an example of incident angle dependence.
  • FIG. 81 is a diagram showing an example of incident angle dependence.
  • FIG. 82 is a diagram showing an example of incident angle dependence.
  • FIG. 83 is a diagram showing an example of incident angle dependence.
  • FIG. 84 is a diagram showing an example of incident angle dependence.
  • FIG. 85 is a diagram showing an example of incident angle dependence.
  • FIG. 86 is a diagram showing an example of incident angle dependence.
  • FIG. 87 is a diagram showing an example of incident angle dependence.
  • FIG. 88 is a diagram showing an example of incident angle dependence.
  • FIG. 89 is a diagram showing an example of incident angle dependence.
  • FIG. 90 is a diagram showing an example of incident angle dependence.
  • FIG. 91 is a diagram showing an example of incident angle dependence.
  • FIG. 1 is a diagram showing an example of a schematic configuration of an image pickup device and an image pickup device in which the optical element according to the embodiment is used.
  • the image pickup apparatus 10 takes an image of the object 1 by using the light from the object 1 (subject) shown as a white arrow as incident light.
  • the incident light is incident on the image pickup device 12 via the lens optical system 11.
  • the signal processing unit 13 processes an electric signal from the image pickup device 12 to generate an image signal.
  • FIGS. 2 to 5 are diagrams showing an example of a schematic configuration of an image pickup device.
  • the XYZ coordinate system is shown.
  • the XY plane direction corresponds to the plane direction of the pixel layer 3, the transparent layer 5, and the like, which will be described later.
  • plane view refers to viewing in the Z-axis direction (for example, in the negative direction of the Z-axis).
  • ide view refers to viewing in the X-axis direction or the Y-axis direction (for example, the Y-axis negative direction).
  • the image pickup element 12 includes a wiring layer 2, a pixel layer 3, and an optical element 4.
  • the wiring layer 2, the pixel layer 3, and the optical element 4 are provided in this order in the positive direction of the Z axis.
  • FIG. 2 schematically shows the layout of the pixel layer 3 when viewed in a plan view.
  • the pixel layer 3 is a pixel array including a plurality of pixels arranged in the XY plane direction.
  • Each pixel is configured to include a photoelectric conversion element.
  • An example of a photoelectric conversion element is a photodiode (PD: Photo Diode).
  • PD Photo Diode
  • Each pixel corresponds to any of the colors red (R), green (G) and blue (B).
  • An example of the wavelength band of red light is 600 nm ⁇ 0 , where ⁇ 0 is the wavelength.
  • An example of the wavelength band of green light is 500 nm ⁇ 0 ⁇ 600 nm.
  • An example of the wavelength band of blue light is ⁇ 0 ⁇ 500 nm.
  • Pixels R, Pixels G1, Pixels G2, and Pixels B are designated and illustrated so that each pixel can be distinguished by color. These four pixels R, pixel G 1 , pixel G 2 and pixel B are Bayer-arranged to form one pixel unit (color pixel unit).
  • FIG. 3 shows an example of a cross section of the image pickup device 12 when viewed from the side along the line III-III'of FIG.
  • FIG. 4 shows an example of a cross section of the image pickup device 12 when viewed from the side along the IV-IV'line of FIG.
  • the arrows schematically indicate the light incident on the image sensor 12. The incident light travels along the negative direction of the Z axis and reaches the pixel layer 3 via the optical element 4.
  • the optical element 4 concentrates the red light of the incident light on the pixel R, the green light on the pixel G1 and the pixel G2, and the blue light on the pixel B. Condensate.
  • the electric charges generated in these pixels R, pixel G 1 , pixel G 2 , and pixel B are converted into electrical signals that are the basis of the pixel signal by a transistor (not shown) or the like, and are external to the image pickup element 12 via the wiring layer 2. Is output to. Some of the wiring contained in the wiring layer 2 is illustrated.
  • the optical element 4 is provided so as to cover the pixel layer 3.
  • An example of the optical element 4 is a metasurface.
  • the metasurface is composed of a plurality of microstructures (corresponding to structure 6 described later) having a width equal to or less than the wavelength of light.
  • the metasurface may have a two-dimensional structure or a three-dimensional structure.
  • the phase and light intensity can be controlled according to the characteristics of light (wavelength, polarization, angle of incidence) simply by changing the parameters of the microstructure. In the case of a three-dimensional structure, the degree of freedom in design is improved as compared with the two-dimensional structure.
  • the optical element 4 has two functions, a color separation function and a lens function.
  • the color separation function is a function (spectral function, light separation function) that separates incident light into light of each color (each wavelength band).
  • the lens function is a function of condensing light of each color on the corresponding pixel. In this example, the color separation function separates the incident light into red light, green light, and blue light.
  • the red light is focused on the pixel R
  • the green light is focused on the pixel G1 and the pixel G2
  • the blue light is focused on the pixel B.
  • the optical element 4 includes a transparent layer 5 and a structure 6.
  • the transparent layer 5 is provided on the pixel layer 3 so as to cover the pixel layer 3.
  • the transparent layer 5 may have a refractive index lower than that of the structure 6.
  • An example of the material of the transparent layer 5 is SiO 2 and the like.
  • the transparent layer 5 may be a void, in which case the refractive index of the transparent layer 5 may be equal to the refractive index of air.
  • the material of the transparent layer 5 may be a single material, or a plurality of materials may be layered.
  • the plurality of structures 6 are arranged on the transparent layer 5 or in the transparent layer 5 in the plane direction (XY plane direction) of the transparent layer 5, for example, periodically (having a periodic structure).
  • the structure 6 is provided on the transparent layer 5 on the side opposite to the pixel layer 3 (on the Z-axis positive direction side) with the transparent layer 5 interposed therebetween.
  • the plurality of structures 6 may be arranged at equal intervals or may be arranged at irregular intervals for the sake of facilitating the design.
  • Each structure 6 is a nano-order-sized microstructure having a dimension as small as or smaller than the wavelength of the incident light.
  • FIG. 5 schematically shows an example of a cross section of a plurality of structures 6 corresponding to the portion surrounded by the broken line V in FIG.
  • the plurality of structures 6 include a plurality of structures 61 (first structure), a plurality of structures 62 (second structure), and a plurality of structures 63 (third structure). ..
  • each of the plurality of structures 61 has the same type (first type) cross-sectional shape.
  • Cross-sectional shapes of the same type include cross-sectional shapes with different dimensions (length, width, etc.).
  • each of the plurality of structures 62 has the same type (second type) cross-sectional shape.
  • Each of the plurality of structures 63 has the same type (third type) cross-sectional shape.
  • the cross-sectional shape may be a four-fold rotationally symmetric shape. Such a cross-sectional shape may include, for example, at least one of a square shape, a cross shape, and a circular shape.
  • the structure 61, the structure 62, and the structure 63 have different types of cross-sectional shapes from each other.
  • the cross-sectional shape of the structure 61 is a square shape.
  • the cross-sectional shape of the structure 62 is an X-shape.
  • the X-shape is an example of a shape including a cross shape, and is a shape obtained by rotating the cross shape in an in-plane by 45 °.
  • the cross-sectional shape of the structure 63 is a hollow rhombus shape.
  • the hollow rhombus shape is an example of a shape including a square shape, and is a shape obtained by rotating the hollow square shape in-plane by 45 °.
  • pixel R, pixel G 1 , pixel G 2 and pixel B are Bayer-arranged as described above, they face pixel G 1 (or pixel G 2 ), as can be seen from the comparison of FIGS. 2 and 5.
  • the plurality of structures 6 arranged in the region have an overall arrangement structure in which the overall arrangement structure of the plurality of structures 6 arranged in the region facing the pixel G 2 (or pixel G 1 ) is rotated by 90 °. This is because the arrangement of the adjacent pixels R and B is different between the pixels G1 and the pixels G2.
  • efficient light collection can be achieved even in a complicated color arrangement such as a Bayer arrangement. It will be possible.
  • FIG. 6 to 8 are diagrams schematically showing light collection to the corresponding pixel.
  • blue light is focused on the pixel B.
  • the light of the color corresponding to the pixel B among the light incident on the outside of the region facing the pixel B is also arranged so as to be focused on the pixel B. Will be done.
  • the amount of received light can be increased as compared with the case where only the light incident on the region facing the pixel B is focused on the pixel B.
  • green light is focused on pixel G1 and pixel G2.
  • the light of the color facing the pixel G1 and the pixel G2 among the light incident on the outside of the region facing the pixel G1 and the pixel G2 is also the light of the color facing the pixel G1 and the pixel G2. It is arranged so as to concentrate on 2 . As a result, the amount of received light can be increased as compared with the case where only the light incident on the region facing the pixels G1 and G2 is focused on the pixels G1 and G2.
  • red light is focused on the pixel R.
  • the plurality of structures 6 are arranged so that the light of the color corresponding to the pixel R among the light incident on the outside of the region facing the pixel R is also focused on the pixel R.
  • the amount of received light can be increased as compared with the case where only the light incident on the region facing the pixel R is focused on the pixel R.
  • FIG. 9 to 11 show an example of a light intensity distribution for each wavelength (an example of a calculation result). Areas with high light intensity are shown brightly.
  • FIGS. 12 to 17 are diagrams showing an example of a schematic configuration of a structure.
  • 12 and 13 show an example of a schematic configuration of the structure 61 when viewed from a side view and a plan view.
  • 14 and 15 show an example of a schematic configuration of the structure 62 when viewed sideways and in a plan view.
  • 16 and 17 show an example of a schematic configuration of the structure 63 when viewed sideways and in a plan view.
  • the structure 61, the structure 62, and the structure 63 may be simply referred to as “structure 61 and the like”.
  • the structure 61 and the like are columnar structures extending in the Z-axis direction, and are formed on the base 6a. Examples of materials for columnar structures are TiO 2 (refractive index 2.40) or SiN (refractive index 2.05).
  • the base 6a constitutes a transparent layer below the columnar structure.
  • the base 61a is, for example, a part of a SiO 2 substrate (refractive index 1.45). Air is on the sides and above the structure 61 and the like.
  • the width of the base portion 6a corresponding to each structure 61 or the like is referred to as a width W and is shown in the figure.
  • the width W of the base 6a gives the arrangement period of the structure 61 and the like.
  • the width W may be set to W ⁇ ( ⁇ min / n 2 ) so that diffracted light does not occur on the transmission side.
  • ⁇ min is the shortest wavelength in the wavelength band of the light receiving target, and is, for example, 410 nm.
  • An example of the width W (arrangement period of the structure 61 or the like) is 280 nm.
  • the height (length in the Z-axis direction) of the structure 61 or the like when viewed from the side is referred to as height H and is shown in the figure.
  • the height H of the structure 61 and the like may be the same.
  • the height H is H ⁇ ⁇ r so that the structure 61 or the like can give an optical phase delay amount (phase value) of 2 ⁇ or more to the incident light, that is, the light traveling along the Z-axis direction.
  • / (N 1 ⁇ n 0 ) may be set.
  • the wavelength ⁇ r is a desired center wavelength in the wavelength band on the longest wavelength side of the wavelength bands of light to be color-separated.
  • n 1 is the refractive index of the structure 61 or the like.
  • n 1 2.40
  • the height H is, for example, 1250 nm.
  • n 1 2.05
  • the height H is, for example, 1600 nm.
  • the cross-sectional shape of the structure 61 or the like including dimensional design
  • the number of combinations increases and the degree of freedom in design is further improved.
  • FIGS. 18 and 19 are diagrams showing an example of a combination of each wavelength and an optical phase delay amount.
  • the square plot shows the amount of optical phase delay when various dimensions of the cross-sectional shape of the structure 61 having a square cross-sectional shape are set.
  • the X-shaped plot shows the amount of optical phase delay when various dimensions of the cross-sectional shape are set in the structure 62 having the X-shaped cross-sectional shape.
  • the rhombus plot shows the amount of optical phase delay when various dimensions of the cross-sectional shape are set in the structure 63 having the cross-sectional shape of the hollow rhombus shape. In both cases, the height H is constant.
  • the black circle plot is an ideal amount of optical phase delay in the lens design described later.
  • FIG. 18 shows the amount of optical phase delay when the structure 61 or the like is TiO 2 .
  • FIG. 19 shows the amount of optical phase delay when the structure 61 or the like is SiN.
  • the optical phase delay amount characteristic (phase characteristic) having various wavelength dispersions can be realized only by using a columnar structure having the same height H. This is because the wavelength dispersion characteristics of the resulting optical waveguide mode / optical resonance mode and the resulting optical phase delay amount can be changed depending on the cross-sectional shape.
  • a lens function having different light collection points for each wavelength can be realized by designing the cross-sectional shape and arrangement of the structure 61 or the like arranged in the plane direction of the transparent layer 5. It should be noted that the lens design is possible not only when the wavelength is three but also when the wavelength is two or the wavelength is four or more.
  • the cross-sectional shape and arrangement of the structure 61 and the like are designed so as to realize an ideal optical phase delay amount distribution (phase distribution).
  • the cross-sectional shape and arrangement of the structure 61 and the like are designed according to the ideal optical phase delay amount distribution for each central wavelength of the wavelength bands of red light, green light, and blue light.
  • the size of the pixel is 1.68 ⁇ m ⁇ 1.68 ⁇ m.
  • the focal length is 4.2 ⁇ m.
  • the central wavelength corresponding to blue light is 430 nm.
  • the central wavelength corresponding to green light is 520 nm.
  • the central wavelength corresponding to the red light is 635 m.
  • is expressed by the following equation.
  • ⁇ d is the center wavelength (design wavelength).
  • X f , Y f , and Z f are light collecting positions.
  • n 2 is the refractive index of the base 6a.
  • C is an arbitrary constant.
  • the ideal optical phase delay amount distribution is a phase distribution that gives the following focusing positions to each of pixel B, pixel G 1 , pixel G 2 , and pixel R.
  • the boundary region of the optical phase delay amount distribution is set so that the optical phase delay amount distribution at each center wavelength is symmetrical vertically and vertically (together with the adjacent lens) around the focusing position.
  • the constant C may be optimized so that the error (difference from the ideal value) of the optical phase delay amount distribution is minimized at each wavelength. From the optical phase delay amount at each wavelength, the structure most suitable for the optical phase delay amount distribution at each central wavelength (the structure that minimizes the error) was arranged at the corresponding position.
  • 20 to 29 show an example of lens design when the structure 61 or the like is TiO 2 .
  • a plurality of structures 61 and the like are arranged.
  • FIG. 21 shows an ideal optical phase delay amount distribution (Phase (rad / ⁇ )) when the center wavelength is 430 nm (blue light).
  • the dashed line (Ideal) shows the ideal optical phase delay amount distribution
  • the plot (Designed) shows the optical phase delay amount distribution obtained by the arrangement of the plurality of structures 61 and the like shown in FIG. 20 above.
  • FIG. 24 shows an ideal optical phase delay amount distribution when the center wavelength is 520 nm (green light).
  • FIG. 27 shows an ideal optical phase delay amount distribution when the center wavelength is 635 nm (red light).
  • a near-ideal optical phase delay distribution can be obtained at any of the central wavelengths of 430 nm, 520 nm and 635 nm (blue light, green light and red light).
  • FIG. 30 to 39 show an example of lens design when the structure 61 or the like is SiN. As shown in FIG. 30, a plurality of structures 61 and the like are arranged.
  • FIG. 31 shows an ideal optical phase delay amount distribution when the center wavelength is 430 nm (blue light).
  • FIG. 34 shows an ideal optical phase delay amount distribution when the center wavelength is 520 nm (green light).
  • FIG. 37 shows an ideal optical phase delay amount distribution when the center wavelength is 635 nm (red light).
  • a near-ideal optical phase delay distribution can be obtained at any of the central wavelengths of 430 nm, 520 nm and 635 nm (blue light, green light and red light).
  • FIG. 40 shows an example of the spectrum of light incident on each pixel when the structure 61 or the like is TiO 2 .
  • the spectrum is a spectrum when an unpolarized plane light wave is incident perpendicularly to a substrate (XY plane).
  • the distance from the lower end (lens structure end) of the structure 61 or the like to the pixel layer 3 is 4.2 ⁇ m (lens focal length).
  • the horizontal axis of the graph indicates wavelength (Wavelength (nm)).
  • the vertical axis indicates the light receiving efficiency (Detected power).
  • the light receiving efficiency is (light intensity on the pixel) / (light intensity incident on the structure 61 or the like). For example, when half of the light incident on the structure 61 or the like is incident on the pixel, the light receiving efficiency becomes 0.5.
  • each pixel has a peak in the wavelength band of light of the corresponding color.
  • the spectrum of light incident on the pixel R is shown by the graph line R.
  • the spectra of the light incident on the pixels G1 and the pixel G2 are shown by the graph lines G1 and the graph line G2.
  • the spectrum of light incident on pixel B is shown by graph line B.
  • Each of the pixel R, the pixel G 1 , the pixel G 2 and the pixel B has a peak value larger than the upper limit value 0.2 of the comparative example, and the amount of received light received by the pixel may be larger than that of the comparative example.
  • the light receiving efficiency of the pixel B greatly exceeds the upper limit value 0.2 of the comparative example.
  • the light receiving efficiencies of the pixels G1 and the pixel G2 greatly exceed the upper limit of 0.2 in the comparative example.
  • Even at the wavelength of 635 nm indicated by the marker MC the light receiving efficiency of the pixel R greatly exceeds the upper limit value 0.2 of the comparative example.
  • the average value of the total transmittance, that is, (total light intensity on all pixels) / (incident light intensity on the structure 61, etc.) over a wavelength of 400 nm to 700 nm is 93.2%, and a general filter is used. It greatly exceeds the upper limit of 33% when it is present. From this, it can be seen that the light receiving efficiency of the pixels can be improved.
  • FIG. 41 shows the intensity distribution of light (blue light) having the wavelength of the marker MA of FIG. 40. It can be seen that the distribution is concentrated in the pixel B.
  • FIG. 42 shows the intensity distribution of light (green light) having the wavelength of the marker MB in FIG. 40. It can be seen that the distribution is concentrated in the pixels G1 and the pixels G2.
  • FIG. 43 shows the intensity distribution of light (red light) having the wavelength of the marker MC of FIG. 40. It can be seen that the distribution is concentrated in the pixel R.
  • FIG. 44 shows an example of the spectrum of light incident on each pixel when the structure 61 or the like is SiN. Similar to the case where the structure 61 or the like described above is SiO 2 , each of the pixel R, the pixel G 1 , the pixel G 2 and the pixel B has a peak value larger than the upper limit value 0.2 of the comparative example. The amount of light received by the pixels is larger than that of the comparative example. The total transmittance is 97.1%, which greatly exceeds the upper limit to 33% when a general filter is used.
  • FIG. 45 shows the intensity distribution of light (blue light) having the wavelength of the marker MA of FIG. 44. It can be seen that the distribution is concentrated in the pixel B.
  • FIG. 46 shows the intensity distribution of light (green light) having the wavelength of the marker MB of FIG. 44. The wavelength indicated by the marker MB in the case of this SiN is 520 nm. It can be seen that the distribution is concentrated in the pixels G1 and the pixels G2.
  • FIG. 47 shows the intensity distribution of light (red light) having the wavelength of the marker MC of FIG. 44. It can be seen that the distribution is concentrated in the pixel R.
  • 48 to 66 are views showing an example of incident angle dependence.
  • 48 to 58 show an example of the incident angle dependence when the structure 61 or the like is TiO 2 .
  • the pixel R, the pixel G1 , the pixel G2, and the pixel B are arranged.
  • the incident angle dependence when the angle (Angle) in the XZ plane with the Z-axis direction as 0 ° is used as the incident angle is shown in FIGS. 50 to 53.
  • the light receiving efficiency of the pixel R is shown as a spectrum for each wavelength (Wavelength ( ⁇ m)) and for each incident angle (Incient angle (degree)), that is, for each incident angle.
  • FIG. 51 shows the light receiving efficiency of the pixel G 1 as a spectrum for each incident angle.
  • FIG. 52 shows the light receiving efficiency of the pixel G 2 as a spectrum for each incident angle.
  • FIG. 53 shows the light receiving efficiency of pixel B as a spectrum for each incident angle.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • FIGS. 54 the incident angle dependence when the angle (Angle) in the YZ plane with the Z-axis direction as 0 ° is the incident angle is shown in FIGS. 55 to 58.
  • the light receiving efficiency of the pixel R is shown as a spectrum for each incident angle.
  • FIG. 56 shows the light receiving efficiency of the pixel G 1 as a spectrum for each incident angle.
  • FIG. 57 shows the light receiving efficiency of the pixel G 2 as a spectrum for each incident angle.
  • FIG. 58 shows the light receiving efficiency of pixel B as a spectrum for each incident angle.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • FIGS. 59 to 66 show an example of the incident angle dependence when the structure 61 or the like is SiN.
  • FIGS. 59 to 62 The incident angle dependence in the XZ plane as shown in FIG. 49 described above is shown in FIGS. 59 to 62.
  • FIG. 59 shows the dependence of the incident angle on the pixel R.
  • FIG. 60 shows the dependence of the incident angle on the pixel G1.
  • FIG . 61 shows the dependence of the incident angle on the pixel G2.
  • FIG. 62 shows the dependence of the incident angle on the pixel B.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • FIGS. 63 to 66 The angle of incidence dependence in the YZ plane as shown in FIG. 54 described above is shown in FIGS. 63 to 66.
  • FIG. 63 shows the dependence of the incident angle on the pixel R.
  • FIG. 64 shows the dependence of the incident angle on the pixel G1.
  • FIG . 65 shows the dependence of the incident angle on the pixel G2.
  • FIG. 66 shows the dependence of the incident angle on the pixel B.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • the incident angle has a resistance of at least ⁇ 12 °. This means that, for example, even when an image is taken using an image pickup lens having an NA (numerical aperture) of ⁇ 0.21, color errors are unlikely to occur.
  • NA number of a general image pickup lens (telephoto) of a camera such as a smartphone
  • the optical element 4 according to the embodiment may be used for a camera for a smartphone or the like. Since the resistance to the incident angle mainly depends on the focal length, the allowable angle can be further expanded by designing a lens having a shorter focal length.
  • the image pickup device includes a filter (for example, a color filter) instead of the optical element 4. That is, a filter corresponding to the color of each pixel is provided so as to cover the pixel.
  • a filter for example, a color filter
  • the amount of light after passing through the filter remains only about 1/3 of the amount of light incident on the filter, and the light receiving efficiency is lowered.
  • the image pickup device 12 according to the embodiment the amount of light is maintained higher than that (for example, more than 90%) as described above, so that the light receiving efficiency is significantly improved.
  • a microlens is provided on the side opposite to the pixel with a filter in between. Some are (integrated).
  • the structure since the structure has at least a two-layer structure of a filter and a microlens, the structure becomes complicated and the manufacturing cost increases.
  • the optical element 4 according to the embodiment since the color separation function and the lens function can be realized only by the optical element 4, the structure can be simplified and the manufacturing cost can be reduced. Further, since the plurality of structures 6 can be arranged in the plane (in the XY plane) without gaps, the aperture ratio is increased as compared with the microlens.
  • the signal processing unit 13 of the image pickup apparatus 10 will be described.
  • the signal processing unit 13 generates a pixel signal based on the electric signal obtained from the image pickup device 12.
  • the signal processing unit 13 also controls the image pickup element 12.
  • the control of the image pickup element 12 includes exposure of the pixels of the image pickup element 12, conversion of the electric charge stored in the pixel layer 3 into an electric signal, reading of the electric signal, and the like.
  • FIGS. 67 and 68 are diagrams showing an example of a schematic configuration of an image pickup device according to a modified example.
  • the image pickup device 12A exemplified in FIG. 67 in the optical element 4A, a plurality of structures 6 are provided in the transparent layer 5.
  • the structure 6 is embedded in the transparent layer 5 (on the PD) on the pixel layer 3.
  • the transparent layer 5 in the image pickup device 12B exemplified in FIG. 68, in the optical element 4B, the transparent layer 5 includes a transparent substrate 5a and an air layer 5b.
  • the plurality of structures 6 are provided on the transparent substrate 5a (supported by the transparent substrate 5a) so as to extend from the transparent substrate 5a toward the pixel layer 3 (in the negative direction of the Z axis).
  • the cross-sectional shape of the structure 6 is not limited to the shape shown in FIG. 5 or the like described above.
  • FIG. 69 is a diagram showing an example of the cross-sectional shape of the structure.
  • the structure 6 may have various cross-sectional shapes as exemplified.
  • the exemplified shape is, for example, a four-fold rotationally symmetric shape obtained by various combinations of a square shape, a cross shape, and a circular shape.
  • the image sensor may be equipped with a filter.
  • 70 and 71 are diagrams showing an example of a schematic configuration of an image pickup device according to such a modification.
  • the exemplified image sensor 12C includes a filter layer 7 provided between the pixel layer 3 and the optical element 4.
  • FIG. 70 shows an example of a cross section of the image pickup device 12C when the image pickup device 12 is replaced with the image pickup device 12C in FIG. 2 and viewed from the side along the line III-III'.
  • FIG. 71 shows an example of a cross section of the image pickup device 12C when viewed from the side along the IV-IV'line when the image pickup device 12 is replaced with the image pickup device 12C in FIG.
  • the filter layer 7 includes a filter 7R, a filter 7G 1 , a filter 7G 2 , and a filter 7B.
  • the filter 7R is provided so as to cover the pixel R and allows red light to pass through.
  • the filter 7G 1 is provided so as to cover the pixel G1 and allows green light to pass therethrough.
  • the filter 7G 2 is provided so as to cover the pixel G2 and allows green light to pass therethrough.
  • the filter 7B is provided so as to cover the pixel B and allows blue light to pass therethrough.
  • Examples of the materials of the filter 7R, the filter 7G 1 , the filter 7G 2 and the filter 7B are organic materials such as resin.
  • the light color-separated by the optical element 4 further passes through the filter layer 7 and then reaches the pixel layer 3.
  • Color separation of both the optical element 4 and the filter layer 7 suppresses spectral crosstalk (removes most of the other unwanted color components) and color reproducibility compared to color separation of only one. Is improved.
  • the amount of light is not significantly reduced. Therefore, the light receiving efficiency of the pixels is improved as compared with the case where the optical element 4 is not provided and only the filter layer 7 is provided.
  • 72 and 73 are diagrams showing an example of the spectrum of light incident on the pixel.
  • FIG. 72 shows an example of the spectrum when the structure 61 or the like is TiO 2 .
  • the light receiving efficiency of the pixel R is shown by the graph line Metalens ⁇ R filter (R).
  • the light receiving efficiency of the pixel G 1 and the pixel G 2 is shown by the graph line Metalens ⁇ G filter (G 1 or G 2 ).
  • the light receiving efficiency of the pixel B is shown by the graph line Metalens ⁇ R filter (B).
  • the graph line R filter (R) the light receiving efficiency of the pixel R when the optical element 4 is not provided and only a general filter is provided is shown by the graph line R filter (R).
  • the light receiving efficiency of the pixel G is indicated by the graph line G filter (G 1 or G 2 ).
  • the light receiving efficiency of pixel B is shown by the graph line B filter (B).
  • the peak values of the spectra of the pixels R, the pixel G 1 , the pixel G 2 , and the pixel B are about 1.2 to 2.0 times that of the comparative example, and a higher light receiving efficiency than that of the comparative example can be obtained.
  • the total transmittance is also 43.3%, which greatly exceeds 34.7% of the comparative example (about 1.25 times). Further, it can be seen that the spectrum of the light incident on each pixel is sharper than the spectrum of the comparative example, and the unnecessary other color components can be reduced by that amount. This enhances color reproducibility.
  • FIG. 73 shows an example of the spectrum when the structure 61 or the like is SiN.
  • the peak values of the spectra of the pixels R, the pixel G 1 , the pixel G 2 , and the pixel B are about 1.2 to 2.0 times that of the comparative example, and a higher light receiving efficiency than that of the comparative example can be obtained.
  • the total transmittance is also 45%, which is much higher than the 34.7% of the comparative example (about 1.30 times). Further, it can be seen that the spectrum of the light incident on each pixel is sharper than that of the comparative example as compared with the comparative example, and it is possible to reduce unnecessary other color components by that amount. This enhances color reproducibility.
  • FIGS. 74 to 91. 74 to 83 show an example of the angle of incidence dependence when the structure 6 is TiO 2 .
  • FIGS. 75-78 The angle of incidence dependence in the XZ plane as shown in FIG. 74 is shown in FIGS. 75-78.
  • FIG. 75 shows the dependence of the incident angle on the pixel R.
  • FIG. 76 shows the dependence of the incident angle on the pixel G1.
  • FIG . 77 shows the dependence of the incident angle on the pixel G2.
  • FIG. 78 shows the dependence of the incident angle on the pixel B.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • FIGS. 80-83 The angle of incidence dependence on the YZ plane as shown in FIG. 79 is shown in FIGS. 80-83.
  • FIG. 80 shows the dependence of the incident angle on the pixel R.
  • FIG. 81 shows the dependence of the incident angle on the pixel G1.
  • FIG . 82 shows the dependence of the incident angle on the pixel G2.
  • FIG. 83 shows the dependence of the incident angle on the pixel B.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • FIGS. 84 to 91 show an example of the incident angle dependence when the structure 61 or the like is SiN.
  • FIGS. 84 to 87 The incident angle dependence in the XZ plane as shown in FIG. 74 described above is shown in FIGS. 84 to 87.
  • FIG. 84 shows the dependence of the incident angle on the pixel R.
  • FIG. 85 shows the dependence of the incident angle on the pixel G1.
  • FIG . 86 shows the dependence of the incident angle on the pixel G2.
  • FIG. 87 shows the dependence of the incident angle on the pixel B.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • FIGS. 88 to 91 The incident angle dependence in the YZ plane as shown in FIG. 79 described above is shown in FIGS. 88 to 91.
  • FIG. 88 shows the dependence of the incident angle on the pixel R.
  • FIG. 89 shows the dependence of the incident angle on the pixel G1.
  • FIG . 90 shows the dependence of the incident angle on the pixel G2.
  • FIG. 91 shows the dependence of the incident angle on the pixel B.
  • the spectrum does not change significantly in the range of the incident angle of about ⁇ 12 °.
  • the image pickup device 12C also provided with the filter layer 7, the light receiving efficiency can be improved and the color reproducibility can be further improved.
  • TiO 2 and SiN have been described as examples of the materials of the structure 6.
  • the material of the structure 6 is not limited to them.
  • SiC, TiO 2 , GaN or the like may be used as the material of the structure 6 in addition to SiN. It is suitable because it has a high refractive index and low absorption loss.
  • Si, SiC, SiCN, TiO 2 , GaAs, GaN and the like may be used as the material of the structure 6. Suitable because of its low loss.
  • InP or the like can be used as the material of the structure 6 in addition to the above-mentioned materials.
  • polyimide such as fluorinated polyimide, BCB (benzocyclobutene), photocurable resin, UV epoxy resin, acrylic resin such as PMMA, polymer such as resist in general, etc. Etc. are mentioned as materials.
  • the present invention is not limited thereto. Any material having a refractive index lower than that of the material of the structure 6, including a general glass material, and having a low loss with respect to the wavelength of the incident light may be used.
  • the transparent layer 5 may be made of the same material as the color filter, for example, an organic material such as a resin, as long as the loss is sufficiently low with respect to the wavelength of light to reach the corresponding pixel. good.
  • the transparent layer 5 is not only made of the same material as the color filter, but also has the same structure as the color filter, and is designed to have absorption characteristics according to the wavelength of light to be guided to the corresponding pixel. You may.
  • the three primary colors of RGB have been described as an example of the corresponding colors of the pixels, but the pixels also correspond to light having a wavelength other than the three primary colors (for example, infrared light, ultraviolet light, etc.). It's okay.
  • the optical element 4 includes a transparent layer 5 for covering a plurality of pixels (pixel R, etc.) each including a photoelectric conversion element.
  • a plurality of structures 6 arranged on the transparent layer 5 or in the transparent layer 5 in the plane direction (XY plane direction) of the transparent layer 5 are provided.
  • the plurality of structures 6 are arranged so as to condense the colors (for example, red, green, and blue) corresponding to each of the plurality of pixels of the incident light to the corresponding pixels.
  • the plurality of structures 6 have different types of cross-sectional shapes (for example, a square shape, an X-shape, and a hollow rhombus shape) when the transparent layer 5 is viewed in a plan view (when viewed in the Z-axis direction).
  • the structure 61, the structure 62 and the structure 63 are included.
  • the above optical element 4 has both a color separation function and a lens function (condensing function). Therefore, as compared with the case where a filter (for example, a color filter) corresponding to each pixel is provided or a microlens is provided, the light receiving efficiency of the pixel can be significantly improved and the light receiving sensitivity can be improved. Since the structure is simplified, the manufacturing cost can be reduced. Since the plurality of structures 6 can be arranged in the plane without gaps, the aperture ratio is also increased as compared with the microlens.
  • each of the plurality of structures 6 has a refractive index higher than that of the transparent layer 5, and corresponds to the cross-sectional shape with respect to the incident light. It may be a columnar structure that gives an optical phase delay amount. As described with reference to FIGS. 20 to 39 and the like, the plurality of structures 6 may be arranged according to the optical phase delay amount distribution for realizing the above-mentioned light collection. For example, by arranging such a plurality of structures 6, both the color separation function and the lens function can be realized.
  • the cross-sectional shape of each of the plurality of structures 6 may be a four-fold rotationally symmetric shape. This makes it possible to prevent polarization dependence from occurring.
  • the plurality of structures 6 also include light of a color corresponding to the one pixel among the light incident on the outside of the region facing the one pixel. It may be arranged so as to focus on one pixel. As a result, the amount of received light can be increased as compared with the case where only the light incident on the region facing one pixel is focused on the pixel.
  • the plurality of pixels are Bayer-arranged in one pixel R corresponding to red, two pixels G1 and G2 corresponding to green, and blue.
  • a plurality of structures including a pixel unit composed of one corresponding pixel B and arranged in a region facing one pixel (for example, pixel G 1 ) corresponding to green in the pixel unit among the plurality of structures 6.
  • Reference numeral 6 may have an overall arrangement structure in which the overall arrangement structure of the plurality of structures arranged in the region facing the other pixel corresponding to green (for example, pixel G2) is rotated by 90 °.
  • the image pickup device 12 described with reference to FIGS. 1 to 5 and the like is also an aspect of the present disclosure.
  • the image pickup device 12 includes an optical element 4 and a plurality of pixels (pixel R and the like) covered with the transparent layer 5.
  • pixel R and the like the manufacturing cost can be reduced. It is also possible to improve the light receiving sensitivity and increase the aperture ratio.
  • the image pickup device 12C may include a filter layer 7 provided between a plurality of pixels (pixel R or the like) and the transparent layer 5. As a result, the light receiving efficiency can be improved and the color reproducibility can be further improved.
  • the image pickup apparatus 10 described with reference to FIG. 1 and the like is also an aspect of the present disclosure.
  • the image pickup device 10 includes the above-mentioned image pickup element 12 and a signal processing unit 13 that generates an image signal based on a pixel signal based on an electric signal obtained from the image pickup element 12.
  • the manufacturing cost can be reduced. It is also possible to improve the light receiving sensitivity and increase the aperture ratio.
  • Pixel layer 4 Pixel layer 4
  • Optical element 5 Transparent layer 6
  • Filter layer 10 Image pickup device 11
  • Lens optical system 12 Image pickup element 61
  • Structure 62 Structure 63

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

光学素子は、各々が光電変換素子を含む複数の画素を覆うための透明層と、透明層上又は透明層内において透明層の面方向に配置された複数の構造体と、を備え、複数の構造体は、入射した光のうち、複数の画素それぞれに対応する色の光を、対応する画素に集光するように配置され、複数の構造体は、透明層を平面視したときに、互いに異なる種類の断面形状を有する構造体を含む。

Description

光学素子、撮像素子及び撮像装置
 本発明は、光学素子、撮像素子及び撮像装置に関する。
 撮像素子には、マイクロレンズ及びカラーフィルタ等の光学素子を備えるものもある。カラーフィルタは例えば非特許文献1に示される。
Takanori Kudo, Yuki Nanjo, Yuko Nozaki, Kazuya Nagao, Hidemasa Yamaguchi, Wen-Bing Kang, Georg Pawlowski, PIGMENTED PHOTORESISTS FOR COLOR FILTERS, Journal of Photopolymer Science and Technology, 1996, 9巻, 1号, p.109-119, 2006/08/04
 マイクロレンズ及びカラーフィルタの2つの光学素子を用いると、その分、製造コストがかかる。
 本発明は、製造コストを低減することを目的とする。
 本発明に係る光学素子は、各々が光電変換素子を含む複数の画素を覆うための透明層と、透明層上又は透明層内において透明層の面方向に配置された複数の構造体と、を備え、複数の構造体は、入射した光のうち、複数の画素それぞれに対応する色の光を、対応する画素に集光するように配置され、複数の構造体は、透明層を平面視したときに、互いに異なる種類の断面形状を有する構造体を含むことを特徴とする。
 本発明に係る撮像素子は、上記の光学素子と、前記透明層で覆われた前記複数の画素と、を備えることを特徴とする。
 本発明に係る撮像装置は、上記の撮像素子と、撮像素子から得られた電気信号に基づいて画像信号を生成する信号処理部と、を備えることを特徴とする。
 本発明によれば、製造コストを低減することが可能になる。
図1は、実施形態に係る光学素子が用いられる撮像素子及び撮像装置の概略構成の例を示す図である。 図2は、撮像素子の概略構成の例を示す図である。 図3は、撮像素子の概略構成の例を示す図である。 図4は、撮像素子の概略構成の例を示す図である。 図5は、撮像素子の概略構成の例を示す図である。 図6は、対応する画素への集光を模式的に示す図である。 図7は、対応する画素への集光を模式的に示す図である。 図8は、対応する画素への集光を模式的に示す図である。 図9は、各波長での画素上の光強度分布の例を示す図である。 図10は、各波長での画素上の光強度分布の例を示す図である。 図11は、各波長での画素上の光強度分布の例を示す図である。 図12は、構造体の概略構成の例を示す図である。 図13は、構造体の概略構成の例を示す図である。 図14は、構造体の概略構成の例を示す図である。 図15は、構造体の概略構成の例を示す図である。 図16は、構造体の概略構成の例を示す図である。 図17は、構造体の概略構成の例を示す図である。 図18は、各波長と光位相遅延量との組み合わせの例を示す図である。 図19は、各波長と光位相遅延量との組み合わせの例を示す図である。 図20は、レンズ設計の例を示す図である。 図21は、レンズ設計の例を示す図である。 図22は、レンズ設計の例を示す図である。 図23は、レンズ設計の例を示す図である。 図24は、レンズ設計の例を示す図である。 図25は、レンズ設計の例を示す図である。 図26は、レンズ設計の例を示す図である。 図27は、レンズ設計の例を示す図である。 図28は、レンズ設計の例を示す図である。 図29は、レンズ設計の例を示す図である。 図30は、レンズ設計の例を示す図である。 図31は、レンズ設計の例を示す図である。 図32は、レンズ設計の例を示す図である。 図33は、レンズ設計の例を示す図である。 図34は、レンズ設計の例を示す図である。 図35は、レンズ設計の例を示す図である。 図36は、レンズ設計の例を示す図である。 図37は、レンズ設計の例を示す図である。 図38は、レンズ設計の例を示す図である。 図39は、レンズ設計の例を示す図である。 図40は、画素に入射する光のスペクトルの例を示す図である。 図41は、画素に入射する光の強度分布の例を示す図である。 図42は、画素に入射する光の強度分布の例を示す図である。 図43は、画素に入射する光の強度分布の例を示す図である。 図44は、画素に入射する光のスペクトルの例を示す図である。 図45は、画素に入射する光の強度分布の例を示す図である。 図46は、画素に入射する光の強度分布の例を示す図である。 図47は、画素に入射する光の強度分布の例を示す図である。 図48は、入射角度依存性の例を示す図である。 図49は、入射角度依存性の例を示す図である。 図50は、入射角度依存性の例を示す図である。 図51は、入射角度依存性の例を示す図である。 図52は、入射角度依存性の例を示す図である。 図53は、入射角度依存性の例を示す図である。 図54は、入射角度依存性の例を示す図である。 図55は、入射角度依存性の例を示す図である。 図56は、入射角度依存性の例を示す図である。 図57は、入射角度依存性の例を示す図である。 図58は、入射角度依存性の例を示す図である。 図59は、入射角度依存性の例を示す図である。 図60は、入射角度依存性の例を示す図である。 図61は、入射角度依存性の例を示す図である。 図62は、入射角度依存性の例を示す図である。 図63は、入射角度依存性の例を示す図である。 図64は、入射角度依存性の例を示す図である。 図65は、入射角度依存性の例を示す図である。 図66は、入射角度依存性の例を示す図である。 図67は、変形例に係る撮像素子の概略構成の例を示す図である。 図68は、変形例に係る撮像素子の概略構成の例を示す図である。 図69は、構造体の断面形状の例を示す図である。 図70は、変形例に係る撮像素子の概略構成の例を示す図である。 図71は、変形例に係る撮像素子の概略構成の例を示す図である。 図72は、画素に入射する光のスペクトルの例を示す図である。 図73は、画素に入射する光のスペクトルの例を示す図である。 図74は、入射角度依存性の例を示す図である。 図75は、入射角度依存性の例を示す図である。 図76は、入射角度依存性の例を示す図である。 図77は、入射角度依存性の例を示す図である。 図78は、入射角度依存性の例を示す図である。 図79は、入射角度依存性の例を示す図である。 図80は、入射角度依存性の例を示す図である。 図81は、入射角度依存性の例を示す図である。 図82は、入射角度依存性の例を示す図である。 図83は、入射角度依存性の例を示す図である。 図84は、入射角度依存性の例を示す図である。 図85は、入射角度依存性の例を示す図である。 図86は、入射角度依存性の例を示す図である。 図87は、入射角度依存性の例を示す図である。 図88は、入射角度依存性の例を示す図である。 図89は、入射角度依存性の例を示す図である。 図90は、入射角度依存性の例を示す図である。 図91は、入射角度依存性の例を示す図である。
 以下、本発明の実施形態について、図面を参照して説明する。図面に示される形状、大きさ及び位置関係等は概略的なものに過ぎず、それによって本発明が限定されることはない。同一部分には同一の符号を付して示し、重複する説明は省略する。
 図1は、実施形態に係る光学素子が用いられる撮像素子及び撮像装置の概略構成の例を示す図である。撮像装置10は、白抜き矢印として図示される物体1(被写体)からの光を入射光として、物体1を撮像する。入射光は、レンズ光学系11を介して、撮像素子12に入射する。信号処理部13は、撮像素子12からの電気信号を処理して画像信号を生成する。
 図2~図5は、撮像素子の概略構成の例を示す図である。図において、XYZ座標系が示される。XY平面方向は、後述する画素層3、透明層5等の面方向に相当する。以下、とくに説明がある場合を除き、「平面視」は、Z軸方向に(例えばZ軸負方向に)視ることを指し示す。「側面視」は、X軸方向またはY軸方向(例えばY軸負方向)に視ることを指し示す。
 撮像素子12は、配線層2と、画素層3と、光学素子4とを含む。配線層2、画素層3及び光学素子4は、Z軸正方向にこの順に設けられる。
 図2には、平面視したときの画素層3のレイアウトが模式的に示される。画素層3は、XY平面方向に配置された複数の画素を含む画素アレイである。各画素は、光電変換素子を含んで構成される。光電変換素子の例は、フォトダイオード(PD:Photo Diode)である。各画素は、赤色(R)、緑色(G)及び青色(B)のいずれかの色に対応する。赤色の光の波長帯域の例は、波長をλとすると、600nm<λである。緑色の光の波長帯域の例は、500nm<λ≦600nmである。青色の光の波長帯域の例は、λ≦500nmである。各画素を色ごとに区別できるように、画素R、画素G、画素G及び画素Bと称し図示する。これら4つの画素R、画素G、画素G及び画素Bは、ベイヤー配列され、1つの画素ユニット(カラー画素ユニット)を構成する。
 図3には、図2のIII-III´線に沿って側面視したときの撮像素子12の断面の例が示される。図4には、図2のIV-IV´線に沿って側面視したときの撮像素子12の断面の例が示される。図中、矢印は、撮像素子12に入射する光を模式的に示す。入射した光は、Z軸負方向に沿って進み、光学素子4を介して画素層3に到達する。
 後述の原理により、光学素子4は、入射した光のうちの赤色の光を画素Rに集光し、緑色の光を画素G及び画素Gに集光し、青色の光を画素Bに集光する。これらの画素R、画素G、画素G及び画素Bで発生した電荷は、図示しないトランジスタ等によって、画素信号の基礎となる電気信号に変換され、配線層2を介して撮像素子12の外部に出力される。配線層2に含まれる配線のいくつかが図示される。
 光学素子4は、画素層3を覆うように設けられる。光学素子4の例は、メタサーフェスである。メタサーフェスは、光の波長以下の幅を有する複数の微細構造体(後述の構造体6に相当)を含んで構成される。メタサーフェスは、2次元構造を有してもよいし、3次元構造を有してもよい。微細構造体のパラメータを変えるだけで、光の特性(波長、偏波、入射角)に応じて、位相と光強度を制御することができる。3次元構造の場合、2次元構造よりも設計自由度が向上する。
 光学素子4は、色分離機能及びレンズ機能の2つの機能を有する。色分離機能は、入射した光を各色(各波長帯域)の光に分離する機能(分光機能、光分離機能)である。レンズ機能は、各色の光を対応する画素に集光する機能である。この例では、色分離機能により、入射した光が赤色の光、緑色の光及び青色の光に分離される。レンズ機能により、赤色の光が画素Rに集光され、緑色の光が画素G及び画素Gに集光され、青色の光が画素Bに集光される。
 光学素子4は、透明層5と、構造体6とを含む。透明層5は、画素層3を覆うように、画素層3上に設けられる。透明層5は、構造体6の屈折率よりも低い屈折率を有してよい。透明層5の材料の例は、SiO等である。透明層5は空隙であってもよく、その場合、透明層5の屈折率は、空気の屈折率に等しくてよい。透明層5の材料は単一であってもよいし、複数の材料が層状になったものでもよい。
 複数の構造体6は、透明層5上又は透明層5内において、透明層5の面方向(XY平面方向)に、例えば周期的に(周期構造を有して)、配置される。この例では、構造体6は、透明層5を挟んで画素層3とは反対側(Z軸正方向側)において、透明層5上に設けられる。複数の構造体6は、設計を容易にする等のために等間隔配置されてもよいし、不等間隔配置されてもよい。各構造体6は、入射光の波長と同程度又はそれよりも小さい寸法を有するナノオーダーサイズの微細構造体である。
 図5には、図2の破線Vで囲まれた部分に対応する複数の構造体6の断面の例が模式的に示される。複数の構造体6は、複数の構造体61(第1の構造体)と、複数の構造体62(第2の構造体)と、複数の構造体63(第3の構造体)とを含む。平面視したときに、複数の構造体61の各々は、同じ種類(第1の種類)の断面形状を有する。同じ種類の断面形状は、異なる寸法(長さ、幅等)を有する断面形状を含む。同様に、複数の構造体62の各々は、同じ種類(第2の種類)の断面形状を有する。複数の構造体63の各々は、同じ種類(第3の種類)の断面形状を有する。断面形状は、4回回転対称形状であってよい。そのような断面形状は、例えば、正方形形状、十字形状、円形形状の少なくとも1つを含んで構成されてよい。
 構造体61、構造体62及び構造体63は、互いに異なる種類の断面形状を有する。図5に示される例では、構造体61の断面形状は、正方形形状である。構造体62の断面形状は、X字形状である。X字形状は、十字形状を含んで構成された形状の例であり、十字型形状を45°面内回転させた形状である。構造体63の断面形状は、中空ひし形形状である。中空ひし形形状は、正方形形状を含んで構成された形状の例であり、中空正方形形状を45°面内回転させた形状である。
 なお、X字形状、ひし形形状のような45°面内回転させた形状を採用すれば、隣接する構造体との間の光学的結合を弱まるので、それぞれの構造体の光学特性が、隣接する構造体の影響を受けず維持されやすくなる。その結果、後述する理想的な位相遅延量分布を再現し易くなる。
 上述のように画素R、画素G、画素G及び画素Bがベイヤー配列される場合、図2及び図5の対比から理解されるように、画素G(あるいは画素G)に対向する領域に配置された複数の構造体6は、画素G(あるいは画素G)に対向する領域に配置された複数の構造体6の全体配置構造を90°回転させた全体配置構造を有する。これは、画素G及び画素Gそれぞれで隣り合う画素R及び画素Bの配置が異なるからである。画素G及び画素Gの上方における構造体6の全体配置構造を、90°回転させる点を除いて共通化することで、ベイヤー配列のような複雑な色配置においても効率的な集光が可能になる。
 図6~図8は、対応する画素への集光を模式的に示す図である。図6において矢印で示されるように、青色の光が画素Bに集光される。この例では、画素Bの上方(Z軸正方向)の光だけでなく、画素Bの周辺の画素の上方の光も、画素Bに集光される。すなわち、複数の構造体6(図3~図5)は、画素Bと対向する領域の外側に入射した光のうちの画素Bに対応する色の光も、画素Bに集光するように配置される。これにより、画素Bと対向する領域に入射した光だけを画素Bに集光する場合よりも、受光光量を増加させることができる。
 図7において矢印で示されるように、緑色の光が画素G及び画素Gに集光される。この例では、画素G及び画素Gの上方の光だけでなく、画素G及び画素Gの周辺の画素の上方の光も、画素G及び画素Gに集光される。すなわち、複数の構造体6は、画素G及び画素Gと対向する領域の外側に入射した光のうちの画素G及び画素Gと対向する色の光も、画素G及び画素Gに集光するように配置される。これにより、画素G及びGと対向する領域に入射した光だけを画素G及び画素Gに集光する場合よりも、受光光量を増加させることができる。
 図8において矢印で示されるように、赤色の光が画素Rに集光される。この例では、画素Rの上方の光だけでなく、画素Rの周辺の画素の上方の光も、画素Rに集光される。すなわち、複数の構造体6は、画素Rと対向する領域の外側に入射した光のうちの画素Rに対応する色の光も、画素Rに集光するように配置される。これにより、画素Rと対向する領域に入射した光だけを画素Rに集光する場合よりも、受光光量を増加させることができる。
 図9~図11は、波長ごとの光強度分布の例(計算結果の例)を示す。光強度が大きい箇所が明るく示される。図9に示されるように、青色の光(この例では波長λ=430nm)が画素Bに集中して分布する。図10に示されるように、緑色の光(この例では波長λ=525nm)が画素G及び画素Gに集中して分布する。図11に示されるように、赤色の光(この例では波長λ=635nm)が画素Rに集中して分布する。
 図12~図17は、構造体の概略構成の例を示す図である。図12及び図13には、側面視及び平面視したときの構造体61を概略構成の例が示される。図14及び図15には、側面視及び平面視したときの構造体62を概略構成の例が示される。図16及び図17には、側面視及び平面視したときの構造体63の概略構成の例が示される。以下、構造体61、構造体62及び構造体63を単に「構造体61等」という場合もある。
 構造体61等は、Z軸方向に延在する柱状構造体であり、基部6a上に形成される。柱状構造体の材料の例は、TiO(屈折率2.40)又はSiN(屈折率2.05)である。基部6aは、柱状構造体の下方の透明層を構成する。基部61aは、例えばSiO基板(屈折率1.45)の一部である。構造体61等の側方及び上方は、空気(Air)である。
 それぞれの構造体61等に対応する基部6aの幅を、幅Wと称し図示する。基部6aの幅Wは、構造体61等の配置周期を与える。幅Wは、透過側で回折光が生じないように、W≦(λmin/n)に設定されてよい。λminは、受光対象の波長帯域における最短波長であり、例えば410nmである。nは、基部6aの屈折率であり、基部6aがSiOの場合、n=1.45である。幅W(構造体61等の配置周期)の例は、280nmである。
 側面視したときの構造体61等の高さ(Z軸方向の長さ)を、高さHと称し図示する。構造体61等の高さHは同じであってよい。高さHは、構造体61等が、入射した光、すなわちZ軸方向に沿って進む光に対して2π以上の光位相遅延量(位相値)を与えることができるように、H≧λ/(n-n)に設定されてよい。波長λは、色分離の対象となる光の波長帯域のうち、最も長波長側の波長帯域における所望の中心波長である。nは、構造体61等の屈折率である。構造体61等がTiOの場合、n=2.40であり、高さHは例えば1250nmである。構造体61等がSiNの場合、n=2.05であり、高さHは例えば1600nmである。
 構造体61等の断面形状を設計(寸法設計を含む)することで、各色の光(各波長の光に)対して異なる光位相遅延量を与えることのできるさまざまな組み合わせが実現可能である。断面形状を多様化させることで、組み合わせが増加し、設計自由度はさらに向上する。
 図18及び図19は、各波長と光位相遅延量との組み合わせの例を示す図である。青色の光の例として、波長が430nmの光に対する光位相遅延量(Phase@λ=430nm(rad/π))が示される。緑色の光の例として、波長が520nmの光に対する光位相遅延量(Phase@λ=520nm(rad/π))が示される。赤色の光の例として、波長が635nmの光に対する光位相遅延量(Phase@λ=635nm(rad/π))が示される。
 四角プロットは、正方形形状の断面形状を有する構造体61の断面形状の寸法をさまざまに設定したときの光位相遅延量を示す。X字プロットは、X字形状の断面形状を有する構造体62において、断面形状の寸法をさまざまに設定したときの光位相遅延量を示す。ひし形プロットは、中空ひし形形状の断面形状を有する構造体63において、断面形状の寸法をさまざまに設定したときの光位相遅延量を示す。いずれも高さHは一定である。黒丸プロットは、後述のレンズ設計における理想的な光位相遅延量である。
 図18には、構造体61等がTiOである場合の光位相遅延量が示される。図19には、構造体61等がSiNである場合の光位相遅延量が示される。理解されるように、構造体61等の断面形状の設計により、各色の光(各波長の光)と光位相遅延量とのさまざまな組み合わせを実現できる。すなわち、同じ高さHを有する柱状構造体を用いるだけでも、多様な波長分散を持つ光位相遅延量特性(位相特性)が実現できる。これは、断面形状によって、生じる光導波モード・光共振モードとそれに起因する光位相遅延量の波長分散特性を変化させることができるからである。
 以上の原理に基づき、透明層5の面方向に配置された構造体61等の断面形状及び配置の設計により、波長ごとに異なる集光点を持つレンズ機能を実現できる。なお、波長が3つの場合に限らず、波長が2つ又は波長が4つ以上の場合でもレンズ設計は可能である。
 レンズ設計の例について、図20~図39を参照して説明する。レンズ設計では、理想的な光位相遅延量分布(位相分布)を実現するように、構造体61等の断面形状及び配置を設計する。以下に説明する例では、赤色の光、緑色の光及び青色の光それぞれの波長帯域の中心波長ごとに理想的な光位相遅延量分布に従って、構造体61等の断面形状及び配置を設計した。画素の大きさは、1.68μm×1.68μmである。焦点距離は、4.2μmである。青色の光に対応する中心波長は、430nmである。緑色の光に対応する中心波長は、520nmである。赤色の光に対応する中心波長は、635mである。
 理想的な光位相遅延量分布をφとすると、φは以下の式で表される。
Figure JPOXMLDOC01-appb-M000001
 上記の式(1)において、λdは、中心波長(設計波長)である。X、Y及びZは、集光位置である。nは、基部6aの屈折率である。Cは、任意定数である。
 理想的な光位相遅延量分布は、画素B、画素G、画素G及び画素Rそれぞれに以下の集光位置を与える位相分布とした。なお、4つの画素(画素ユニット)の中心位置が、x=0、y=0に対応する。
 画素B:X=+0.84μm、y=-0.84μm、Z=4.2μm
 画素G:X=+0.84μm、y=+0.84μm、Z=4.2μm
 画素G:X=―0.84μm、y=―0.84μm、Z=4.2μm
 画素R:X=―0.84μm、y=+0.84μm、Z=4.2μm
 φは、0~2πの範囲に収まるように変換している。例えば、-0.5π及び2.5πは、1.5π及び0.5πにそれぞれに変換している。各中心波長における光位相遅延量分布が、集光位置を中心に(隣接レンズとあわせて)左右上下対称となるように光位相遅延量分布の境界領域を設定した。定数Cは、各波長において、光位相遅延量分布のエラー(理想値との差)が最小になるように最適化されてよい。各波長における光位相遅延量から、各中心波長での光位相遅延量分布に最も適合する構造(エラーが最小になる構造)を、対応する位置に配置した。
 図20~図29には、構造体61等がTiOである場合のレンズ設計の例が示される。図20に示されるように複数の構造体61等が配置される。図示される構造体61等の中心位置が、x=0、y=0に対応する。
 図21には、中心波長が430nm(青色の光)の場合の理想的な光位相遅延量分布(Phase(rad/π))が示される。図22には、y=0.98μmでのX軸方向の光位相遅延量分布の例が示される。図23には、y=-0.98μmでのX軸方向の光位相遅延量分布の例が示される。破線(Ideal)は理想的な光位相遅延量分布を示し、プロット(Designed)は、上述の図20に示される複数の構造体61等の配置によって得られる光位相遅延量分布を示す。
 図24には、中心波長が520nm(緑色の光)の場合の理想的な光位相遅延量分布が示される。図25には、y=0.98μmでのX軸方向の光位相遅延量分布の例が示される。図26には、y=-0.98μmでのX軸方向の光位相遅延量分布の例が示される。
 図27には、中心波長が635nm(赤色の光)の場合の理想的な光位相遅延量分布が示される。図28には、y=0.98μmでのX軸方向の光位相遅延量分布の例が示される。図29には、y=-0.98μmでのX軸方向の光位相遅延量分布の例が示される。
 理解されるように、中心波長が430nm、520nm及び635nm(青色の光、緑色の光及び赤色の光)のいずれにおいても、理想に近い光位相遅延量分布が得られることが分かる。
 図30~図39には、構造体61等がSiNである場合のレンズ設計の例が示される。図30に示されるように複数の構造体61等が配置される。
 図31には、中心波長が430nm(青色の光)の場合の理想的な光位相遅延量分布が示される。図32には、y=0.98μmでのX軸方向の光位相遅延量分布の例が示される。図33には、y=-0.98μmでのX軸方向の光位相遅延量分布の例が示される。   
 図34には、中心波長が520nm(緑色の光)の場合の理想的な光位相遅延量分布が示される。図35には、y=0.98μmでのX軸方向の光位相遅延量分布の例が示される。図36には、y=-0.98μmでのX軸方向の光位相遅延量分布の例が示される。
 図37には、中心波長が635nm(赤色の光)の場合の理想的な光位相遅延量分布が示される。図38には、y=0.98μmでのX軸方向の光位相遅延量分布の例が示される。図39には、y=-0.98μmでのX軸方向の光位相遅延量分布の例が示される。
 理解されるように、中心波長が430nm、520nm及び635nm(青色の光、緑色の光及び赤色の光)のいずれにおいても、理想に近い光位相遅延量分布が得られることが分かる。
 画素に入射する光のスペクトル及び強度分布について、図40~図47を参照して説明する。
 図40には、構造体61等がTiOである場合の、各画素に入射する光のスペクトルの例が示される。スペクトルは、無偏光の平面光波を、基板(XY平面)に対して垂直に入射した際のスペクトルである。構造体61等の下端(レンズ構造端)から画素層3までの距離は、4.2μm(レンズ焦点距離)である。グラフの横軸は、波長(Wavelength(nm))を示す。縦軸は、受光効率(Detected power)を示す。受光効率は、(画素上の光強度)/(構造体61等への入射光強度)である。例えば構造体61等に入射した光の半分が画素に入射すると、受光効率は0.5になる。
 各画素が対応する色の光の波長帯域でピークを持つように、各画素に光が集光される。画素Rに入射する光のスペクトルが、グラフ線Rで示される。画素G及び画素Gに入射する光のスペクトルが、グラフ線G及びグラフ線Gで示される。画素Bに入射する光のスペクトルが、グラフ線Bで示される。比較例として、実施形態に係る光学素子4に代えて一般的なフィルタ(カラーフィルタ)を用いた場合の受光効率の上限値0.2が、Filter limit (with Tmax=80%)として示される。この受光効率の上限値0.2は、各波長で最大80%の透過率を有するフィルタを、画素R、画素G、画素G及び画素Bの4画素に分割した値(0.8/4=0.2)である。
 画素R、画素G、画素G及び画素Bのいずれもが、比較例の上限値0.2よりも大きいピーク値を持っており、画素での受光光量が比較例よりも大きくなることが分かる。例えば、マーカMAで示される波長430nmにおいて、画素Bの受光効率は、比較例の上限値0.2を大きく上回る。マーカMBで示される波長525nmにおいても、画素G及び画素Gの受光効率は、比較例の上限値0.2を大きく上回る。マーカMCで示される波長635nmにおいても、画素Rの受光効率は、比較例の上限値0.2を大きく上回る。
 総透過率、すなわち(全画素上の光強度の総和)/(構造体61等への入射光強度)を波長400nm~700nmにわたって平均した値は93.2%であり、一般的なフィルタを用いた場合の上限値~33%を大きく上回る。このことからも、画素の受光効率を向上できることが分かる。
 図41には、図40のマーカMAの波長の光(青色の光)の強度分布が示される。画素Bに分布が集中していることが分かる。図42には、図40のマーカMBの波長の光(緑色の光)の強度分布が示される。画素G及び画素Gに分布が集中していることが分かる。図43には、図40のマーカMCの波長の光(赤色の光)の強度分布が示される。画素Rに分布が集中していることが分かる。
 図44には、構造体61等がSiNである場合の、各画素に入射する光のスペクトルの例が示される。上述の構造体61等がSiOである場合と同様に、画素R、画素G、画素G及び画素Bのいずれもが、比較例の上限値0.2よりも大きいピーク値を持っており、画素での受光光量が比較例よりも大きい。総透過率は97.1%であり、一般的なフィルタを用いた場合の上限値~33%を大きく上回る。
 図45には、図44のマーカMAの波長の光(青色の光)の強度分布が示される。画素Bに分布が集中していることが分かる。図46には、図44のマーカMBの波長の光(緑色の光)の強度分布が示される。なお、このSiNの場合のマーカMBが示す波長は、520nmである。画素G及び画素Gに分布が集中していることが分かる。図47には、図44のマーカMCの波長の光(赤色の光)の強度分布が示される。画素Rに分布が集中していることが分かる。
 図48~図66は、入射角度依存性の例を示す図である。図48~図58には、構造体61等がTiOである場合の入射角度依存性の例が示される。
 これまでも説明したが、図48に示されるように、画素R、画素G、画素G及び画素Bが配置されている。このときに、図49に示されるようにZ軸方向を0°としたXZ平面での角度(Angle)を入射角度とした場合の入射角度依存性が、図50~図53に示される。図50には、画素Rの受光効率が、波長(Wavelength(μm))ごと及び入射角度(Incident angle (degree))ごとに、すなわち入射角度ごとにスペクトルで示される。図51には、画素Gの受光効率が、入射角度ごとにスペクトルで示される。図52には、画素Gの受光効率が、入射角度ごとにスペクトルで示される。図53には、画素Bの受光効率が、入射角度ごとにスペクトルで示される。画素R、画素G、画素G及び画素Bのいずれにおいても、入射角度が±12°程度の範囲においてスペクトルに大きな変化は生じない。
 図54に示されるようにZ軸方向を0°としたYZ平面での角度(Angle)を入射角度した場合の入射角度依存性が、図55~図58に示される。図55には、画素Rの受光効率が、入射角度ごとにスペクトルで示される。図56には、画素Gの受光効率が、入射角度ごとにスペクトルで示される。図57には、画素Gの受光効率が、入射角度ごとにスペクトルで示される。図58には、画素Bの受光効率が、入射角度ごとにスペクトルで示される。画素R、画素G、画素G及び画素Bのいずれにおいても、入射角度が±12°程度の範囲においてスペクトルに大きな変化は生じない。
 図59~図66には、構造体61等がSiNである場合の入射角度依存性の例が示される。
 先に説明した図49に示されるようなXZ平面での入射角度依存性が、図59~図62に示される。図59には、画素Rへの入射角度依存性が示される。図60には、画素Gへの入射角度依存性が示される。図61には、画素Gへの入射角度依存性が示される。図62には、画素Bへの入射角度依存性が示される。いずれの画素においても、入射角度が±12°程度の範囲において、スペクトルに大きな変化は生じない。
 先に説明した図54に示されるようなYZ平面での入射角度依存性が、図63~図66に示される。図63には、画素Rへの入射角度依存性が示される。図64には、画素Gへの入射角度依存性が示される。図65には、画素Gへの入射角度依存性が示される。図66には、画素Bへの入射角度依存性が示される。いずれの画素においても、入射角度が±12°程度の範囲において、スペクトルに大きな変化は生じない。
 以上のように、入射角度には少なくとも±12°の耐性があることが確認された。これは、例えばNA(開口数)が~0.21の撮像レンズを使用して撮像した場合でも色のエラーが生じにくいことを意味する。スマートフォンなどのカメラの一般的な撮像レンズ(望遠)のNAが0.2前後であることを考慮すると、実施形態に係る光学素子4は、スマートフォン用カメラ等にも使用できる可能性がある。なお、入射角度に対する耐性は、焦点距離に主に依存するため、より短い焦点距離を持つレンズを設計すれば許容角度がさらに広がる。
 以上説明したように、光学素子4によれば、レンズ機能の両方の機能が実現される。例えば従来技術に係る撮像素子は、光学素子4ではなく、フィルタ(例えばカラーフィルタ)を備えている。すなわち、各画素の色に対応するフィルタが、その画素を覆うように設けられる。この場合、フィルタによって透過波長帯域以外の波長の光が吸収されるので、フィルタ透過後の光量が、フィルタに入射した光の光量の約1/3程度しか残らず、受光効率が低下する。これに対し、実施形態に係る撮像素子12によれば、上述のとおり光量がそれよりも多く(例えば90%よりも多く)維持されるので、受光効率が大幅に向上する。
 また、従来技術には、開口率の向上、光入射角度依存性の低減等によって受光光量を増加させる(感度を向上させる)ために、フィルタを挟んで画素とは反対側にマイクロレンズを設けた(集積化した)ものもある。この場合は、少なくともフィルタ及びマイクロレンズの2層構造となるため、構造が複雑化し、製造コストも増加する。実施形態に係る光学素子4によれば、色分離機能及びレンズ機能が光学素子4のみで実現できるので、構造を簡素化し、製造コストを低減することができる。また、複数の構造体6を面内(XY平面内)に隙間なく配置できるので、マイクロレンズに比べて開口率が増加する。
 再び図1に戻り、撮像装置10の信号処理部13について説明する。信号処理部13は、撮像素子12から得られた電気信号に基づいて画素信号を生成する。電気信号を得るために、信号処理部13は、撮像素子12の制御も行う。撮像素子12の制御は、撮像素子12の画素の露光、画素層3に蓄積された電荷の電気信号への変換、電気信号の読出し等を含む。
 以上、本開示の一実施形態について説明したが、実施形態に係る光学素子、撮像素子及び撮像装置は、実施形態の趣旨を逸脱しない範囲において、さまざまな変形が可能である。いくつかの変形例について述べる。
 上記実施形態では、複数の構造体6が、透明層5を挟んで画素層3とは反対側において透明層5上に設けられる例について説明した。ただし、透明層5及び複数の構造体6の構成はこれに限定されない。
 図67及び図68は、変形例に係る撮像素子の概略構成の例を示す図である。図67に例示される撮像素子12Aでは、光学素子4Aにおいて、複数の構造体6が、透明層5内に設けられる。構造体6は、画素層3上の(PD上の)の透明層5内に埋め込まれる。一方、図68に例示される撮像素子12Bでは、光学素子4Bにおいて、透明層5は、透明基板5a及び空気層5bを含む。複数の構造体6は、透明基板5aから画素層3に向かって(Z軸負方向に)延在するように、透明基板5a上に設けられる(透明基板5aに支持される)。
 構造体6の断面形状は、先に説明した図5等に示される形状に限られない。図69は、構造体の断面形状の例を示す図である。例示されるようなさまざまな断面形状を、構造体6が有してよい。例示される形状は、例えば正方形形状、十字形状及び円形形状をさまざまに組み合わせることによって得られる4回回転対称形状である。
 撮像素子がフィルタを備えてもよい。図70及び図71は、そのような変形例に係る撮像素子の概略構成の例を示す図である。例示される撮像素子12Cは、画素層3と光学素子4との間に設けられたフィルタ層7を備える。図70には、図2において撮像素子12を撮像素子12Cに置き換えた場合の、III-III´線に沿って側面視したときの撮像素子12Cの断面の例が示される。図71には、図2において撮像素子12を撮像素子12Cに置き換えた場合の、IV-IV´線に沿って側面視したときの撮像素子12Cの断面の例が示される。
 フィルタ層7は、フィルタ7Rと、フィルタ7Gと、フィルタ7Gと、フィルタ7Bとを含む。フィルタ7Rは、画素Rを覆うように設けられ、赤色の光を通過させる。フィルタ7Gは、画素Gを覆うように設けられ、緑色の光を通過させる。フィルタ7Gは、画素Gを覆うように設けられ、緑色の光を通過させる。フィルタ7Bは、画素Bを覆うように設けられ、青色の光を通過させる。フィルタ7R、フィルタ7G、フィルタ7G及びフィルタ7Bの材料の例は、樹脂等の有機材料である。
 光学素子4によって色分離された光は、さらにフィルタ層7を通過してから、画素層3に到達する。光学素子4及びフィルタ層7の両方の色分離により、一方でのみ色分離される場合よりも、スペクトルのクロストークが抑制され(不要な他の色成分の大部分が除去され)、色再現性が向上する。また、入射した光は光学素子4で分離された後にフィルタ層7を通過するので、光量を大きく減少させることがない。したがって、光学素子4が無くフィルタ層7のみが設けられる場合と比較して、画素の受光効率が向上する。
 図72及び図73は、画素に入射する光のスペクトルの例を示す図である。
 図72には、構造体61等がTiOである場合のスペクトルの例が示される。画素Rの受光効率が、グラフ線Metalens×R filter (R)で示される。画素G及び画素Gの受光効率が、グラフ線Metalens×G filter (G or G)で示される。画素Bの受光効率が、グラフ線Metalens×R filter (B)で示される。比較例として、光学素子4が無く一般的なフィルタだけが設けられた場合の画素Rの受光効率が、グラフ線R filter (R)で示される。画素Gの受光効率が、グラフ線G filter (G or G)で示される。画素Bの受光効率が、グラフ線B filter (B)で示される。
 画素R、画素G、画素G及び画素Bのスペクトルのピーク値は比較例の1.2~2.0倍程度もあり、比較例よりも大きな受光効率が得られる。総透過率も43.3%であり、比較例の34.7%を大きく上回る(約1.25倍)。さらに、各画素に入射する光のスペクトルも比較例のスペクトルよりシャープになっており、その分、不要な他の色成分を減少できることも分かる。これにより、色再現性が高められる。
 図73には、構造体61等がSiNである場合のスペクトルの例が示される。画素R、画素G、画素G及び画素Bのスペクトルのピーク値は比較例の1.2~2.0倍程度もあり、比較例よりも大きな受光効率が得られる。総透過率も45%であり、比較例の34.7%を大きく上回(約1.30倍)。さらに、比較例と比べて、各画素に入射する光のスペクトルも比較例のスペクトルよりシャープになっており、その分、不要な他の色成分を減少できることも分かる。これにより、色再現性が高められる。
 入射角度依存性について、図74~図91を参照して説明する。図74~図83には、構造体6がTiOである場合の入射角度依存性の例が示される。
 図74に示されるようなXZ平面での入射角度依存性が、図75~図78に示される。図75には、画素Rへの入射角度依存性が示される。図76には、画素Gへの入射角度依存性が示される。図77には、画素Gへの入射角度依存性が示される。図78には、画素Bへの入射角度依存性が示される。いずれの画素においても、入射角度が±12°程度の範囲において、スペクトルに大きな変化は生じない。
 図79に示されるようなYZ平面での入射角度依存性が、図80~図83に示される。図80には、画素Rへの入射角度依存性が示される。図81には、画素Gへの入射角度依存性が示される。図82には、画素Gへの入射角度依存性が示される。図83には、画素Bへの入射角度依存性が示される。いずれの画素においても、入射角度が±12°程度の範囲において、スペクトルに大きな変化は生じない。
 図84~図91には、構造体61等がSiNである場合の入射角度依存性の例が示される。
 先に説明した図74に示されるようなXZ平面での入射角度依存性が、図84~図87に示される。図84には、画素Rへの入射角度依存性が示される。図85には、画素Gへの入射角度依存性が示される。図86には、画素Gへの入射角度依存性が示される。図87には、画素Bへの入射角度依存性が示される。いずれの画素においても、入射角度が±12°程度の範囲において、スペクトルに大きな変化は生じない。
 先に説明した図79に示されるようなYZ平面での入射角度依存性が、図88~図91に示される。図88には、画素Rへの入射角度依存性が示される。図89には、画素Gへの入射角度依存性が示される。図90には、画素Gへの入射角度依存性が示される。図91には、画素Bへの入射角度依存性が示される。いずれの画素においても、入射角度が±12°程度の範囲において、スペクトルに大きな変化は生じない。
 以上説明したように、フィルタ層7をも備える撮像素子12Cによれば、受光効率を向上させるとともに、色再現性をもさらに向上させることができる。
 上記実施形態では、構造体6の材料として、TiO及びSiNを例に挙げて説明した。ただし、構造体6の材料はそれらに限定されない。例えば、波長が380nm~1000nmの光(可視光~近赤外光)の光に対しては、SiNの他に、SiC、TiO、GaN等が構造体6の材料として用いられてよい。屈折率が高く、吸収損失が少ないため適している。波長が800~1000nmの光(近赤外光)で用いる場合は、Si、SiC、SiN、TiO、GaAs、GaN等が構造体6の材料として用いられてよい。低損失であるため適している。長波長帯の近赤外領域(通信波長である1.3μmや1.55μm等)の光に対しては、上述の材料に加えて、InP等を構造体6の材料として用いることができる。
 構造体6が、貼り付け、塗布等によって形成される場合、フッ素化ポリイミド等のポリイミド、BCB(ベンゾシクロブテン)、光硬化性樹脂、UVエポキシ樹脂、PMMA等のアクリル樹脂、レジスト全般などのポリマー等が材料として挙げられる。
 上記実施形態では、透明層5の材料としてSiO及び空気層を想定した例を示したが、これらに限定されない。一般的なガラス材料等も含め、構造体6の材料の屈折率より低い屈折率を有し、入射光の波長に対して低損失なものであればよい。透明層5は、対応する画素に到達すべき光の波長に対して十分に低損失であればよいため、カラーフィルタと同様の材質であってもよく、例えば樹脂などの有機材料であってもよい。この場合、単に透明層5がカラーフィルタと同様の材質であるばかりでなく、カラーフィルタと同様の構造を持ち、対応する画素に導かれるべき光の波長に応じた吸収特性を持つよう設計されていてもよい。
 上記実施形態では、画素の対応する色として、RGBの3原色を例に挙げて説明したが、画素は、3原色以外の波長の光(例えば、赤外光、紫外光等)にも対応してよい。
 上記実施形態では、構造体61、構造体62及び構造体63という異なる3種類の断面形状を有する構造体が用いられる例について説明した。ただし、2種類の構造体(例えば構造体61及び構造体62のみ)が用いられてもよいし、4種類以上の構造体が用いられてもよい。
 以上、本発明を具体的な実施の形態に基づいて説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。
 以上説明した技術は、例えば次のように特定される。図1~図5、図67及び図68等を参照して説明したように、光学素子4は、各々が光電変換素子を含む複数の画素(画素R等)を覆うための透明層5と、透明層5上又は透明層5内において透明層5の面方向(XY平面方向)に配置された複数の構造体6と、を備える。複数の構造体6は、入射した光のうち、複数の画素それぞれに対応する色(例えば赤色、緑色及び青色)を、対応する画素に集光するように配置される。複数の構造体6は、透明層5を平面視したときに(Z軸方向にみたときに)、互いに異なる種類の断面形状(例えば正方形形状、X字形状及び中空ひし形形状)を有する構造体(例えば構造体61、構造体62及び構造体63)を含む。
 上記の光学素子4は、色分離機能及びレンズ機能(集光機能)の両方の機能を兼ね備える。したがって、例えば各画素に対応するフィルタ(例えばカラーフィルタ)を設けたり、さらにはマイクロレンズを設けたりする場合よりも、画素の受光効率を大幅に向上させ、受光感度を向上させることができる。構造が簡素化されるので、製造コストを低減することもできる。複数の構造体6を面内に隙間なく配置できるので、マイクロレンズに比べて開口率も増加する。
 図12~図17等を参照して説明したように、複数の構造体6の各々は、透明層5の屈折率よりも高い屈折率を有し、入射した光に対して断面形状に応じた光位相遅延量を与える柱状構造体であってよい。図20~図39等を参照して説明したように、複数の構造体6は、上述の集光を実現するための光位相遅延量分布に従って配置されてよい。例えばこのような複数の構造体6の配置により、色分離機能及びレンズ機能の両方の機能を実現することができる。
 図5及び図69等を参照して説明したように、複数の構造体6の各々の断面形状は、4回回転対称形状であってよい。これにより、偏光依存性が生じないようにすることができる。
 図6~図8等を参照して説明したように、複数の構造体6は、1つの画素と対向する領域の外側に入射した光のうちの当該1つの画素に対応する色の光も当該1つの画素に集光するように配置されてよい。これにより、1つの画素と対向する領域に入射した光だけをその画素に集光する場合よりも、受光光量を増加させることができる。
 図2及び図5等を参照して説明したように、複数の画素は、ベイヤー配列された、赤色に対応する1つの画素R、緑色に対応する2つの画素G及び画素G並びに青色に対応する1つの画素Bからなる画素ユニットを含み、複数の構造体6のうち、画素ユニット中の緑色に対応する一方の画素(例えば画素G)と対向する領域に配置された複数の構造体6は、緑色に対応する他方の画素(例えば画素G)と対向する領域に配置された複数の構造体の全体配置構造を90°回転させた全体配置構造を有してよい。このように複数の構造体6の全体配置構造を、90°回転させる点を除いて共通化することで、ベイヤー配列のような複雑な色配置においても効率的な集光が可能になる。
 図1~図5等を参照して説明した撮像素子12も、本開示の一態様である。撮像素子12は、光学素子4と、透明層5で覆われた複数の画素(画素R等)と、を備える。これにより、先にも説明したように、製造コストを低減することができる。受光感度を向上させたり、開口率を増加させたりすることもできる。
 図70及び図71等を参照して説明したように、撮像素子12Cは、複数の画素(画素R等)と透明層5との間に設けられたフィルタ層7を備えてよい。これにより、受光効率を向上させるとともに、色再現性をさらに向上させることができる。
 図1等を参照して説明した撮像装置10も、本開示の一態様である。撮像装置10は、上述の撮像素子12と、撮像素子12から得られた電気信号に基づいて画素信号に基づいて画像信号を生成する信号処理部13と、を備える。これにより、先にも説明したように、製造コストを低減することができる。受光感度を向上させたり、開口率を増加させたりすることもできる。
  3 画素層
  4 光学素子
  5 透明層
  6 構造体
  7 フィルタ層
 10 撮像装置
 11 レンズ光学系
 12 撮像素子
 61 構造体
 62 構造体
 63 構造体
  R 画素
 G 画素
 G 画素
  B 画素

Claims (8)

  1.  各々が光電変換素子を含む複数の画素を覆うための透明層と、
     前記透明層上又は前記透明層内において前記透明層の面方向に配置された複数の構造体と、
     を備え、
     前記複数の構造体は、入射した光のうち、前記複数の画素それぞれに対応する色の光を、対応する画素に集光するように配置され、
     前記複数の構造体は、前記透明層を平面視したときに、互いに異なる種類の断面形状を有する構造体を含むことを特徴とする、
     光学素子。
  2.  前記複数の構造体の各々は、前記透明層の屈折率よりも高い屈折率を有し、入射した光に対して断面形状に応じた光位相遅延量を与える柱状構造体であり、
     前記複数の構造体は、前記集光を実現するための光位相量遅延分布に従って配置されることを特徴とする、
     請求項1に記載の光学素子。
  3.  前記複数の構造体の各々の断面形状は、4回回転対称形状であることを特徴とする、
     請求項1又は2に記載の光学素子。
  4.  前記複数の構造体は、1つの画素と対向する領域の外側に入射した光のうちの当該1つの画素に対応する色の光も当該1つの画素に集光するように配置されることを特徴とする、
     請求項1~3のいずれか1項に記載の光学素子。
  5.  前記複数の画素は、ベイヤー配列された、赤色に対応する1つの画素、緑色に対応する2つの画素及び青色に対応する1つの画素からなる画素ユニットを含み、
     前記複数の構造体のうち、前記画素ユニット中の緑色に対応する一方の画素と対向する領域に配置された複数の構造体は、緑色に対応する他方の画素と対向する領域に配置された複数の構造体の全体配置構造を90°回転させた全体配置構造を有することを特徴とする、
     請求項1~4のいずれか1項に記載の光学素子。
  6.  請求項1~5のいずれか1項に記載の光学素子と、
     前記透明層で覆われた前記複数の画素と、
     を備えることを特徴とする、
     撮像素子。
  7.  前記複数の画素と前記透明層との間に設けられたフィルタ層を備えることを特徴とする、
     請求項6に記載の撮像素子。
  8.  請求項6又は7に記載の撮像素子と、
     前記撮像素子から得られた電気信号に基づいて画像信号を生成する信号処理部と、
     を備えることを特徴とする、
     撮像装置。
PCT/JP2020/044560 2020-11-30 2020-11-30 光学素子、撮像素子及び撮像装置 WO2022113362A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2022565015A JPWO2022113362A1 (ja) 2020-11-30 2020-11-30
CN202080107529.7A CN116529637A (zh) 2020-11-30 2020-11-30 光学元件、摄像元件以及摄像装置
KR1020237017916A KR20230093325A (ko) 2020-11-30 2020-11-30 광학 소자, 촬상 소자 및 촬상장치
EP20963625.7A EP4242702A1 (en) 2020-11-30 2020-11-30 Optical element, imaging element, and imaging device
US18/039,048 US20240006440A1 (en) 2020-11-30 2020-11-30 Optical element, image sensor and imaging device
PCT/JP2020/044560 WO2022113362A1 (ja) 2020-11-30 2020-11-30 光学素子、撮像素子及び撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/044560 WO2022113362A1 (ja) 2020-11-30 2020-11-30 光学素子、撮像素子及び撮像装置

Publications (1)

Publication Number Publication Date
WO2022113362A1 true WO2022113362A1 (ja) 2022-06-02

Family

ID=81754186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044560 WO2022113362A1 (ja) 2020-11-30 2020-11-30 光学素子、撮像素子及び撮像装置

Country Status (6)

Country Link
US (1) US20240006440A1 (ja)
EP (1) EP4242702A1 (ja)
JP (1) JPWO2022113362A1 (ja)
KR (1) KR20230093325A (ja)
CN (1) CN116529637A (ja)
WO (1) WO2022113362A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156942A (ja) * 2008-12-31 2010-07-15 Ind Technol Res Inst 色分離光学装置およびそれを応用した画像装置
JP2011040441A (ja) * 2009-08-06 2011-02-24 Panasonic Corp 固体撮像装置
JP2015028960A (ja) * 2011-12-01 2015-02-12 ソニー株式会社 固体撮像装置および電子機器
JP2018146750A (ja) * 2017-03-03 2018-09-20 株式会社ジャパンディスプレイ 表示装置、表示方法及び色分離素子
JP2019184986A (ja) * 2018-04-17 2019-10-24 日本電信電話株式会社 カラー撮像素子および撮像装置
WO2020066738A1 (ja) * 2018-09-26 2020-04-02 日本電信電話株式会社 偏光イメージング撮像システム
JP2020123964A (ja) * 2018-04-17 2020-08-13 日本電信電話株式会社 カラー撮像素子および撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156942A (ja) * 2008-12-31 2010-07-15 Ind Technol Res Inst 色分離光学装置およびそれを応用した画像装置
JP2011040441A (ja) * 2009-08-06 2011-02-24 Panasonic Corp 固体撮像装置
JP2015028960A (ja) * 2011-12-01 2015-02-12 ソニー株式会社 固体撮像装置および電子機器
JP2018146750A (ja) * 2017-03-03 2018-09-20 株式会社ジャパンディスプレイ 表示装置、表示方法及び色分離素子
JP2019184986A (ja) * 2018-04-17 2019-10-24 日本電信電話株式会社 カラー撮像素子および撮像装置
JP2020123964A (ja) * 2018-04-17 2020-08-13 日本電信電話株式会社 カラー撮像素子および撮像装置
WO2020066738A1 (ja) * 2018-09-26 2020-04-02 日本電信電話株式会社 偏光イメージング撮像システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MONNOYUSUKE ET AL.: "Single-Sensor RGB-NIR Imaging: High-Quality System Design and Prototype Implementation", IEEE SENSORS JOURNAL, vol. 19, no. 2, 2018, pages 497 - 507, XP011694666, DOI: 10.1109/JSEN.2018.2876774
TAKANORI KUDOYUKI NANJOYUKO NOZAKIKAZUYA NAGAOHIDEMASA YAMAGUCHIWEN-BING KANGGEORG PAWLOWSKI: "PIGMENTED PHOTORESISTS FOR COLOR FILTERS", JOURNAL OF PHOTOPOLYMER SCIENCE AND TECHNOLOGY, vol. 9, no. 1, 1996, pages 109 - 119
Y. MONNOH. TERANAKAK. YOSHIZAKIM. TANAKAM. OKUTOMI: "Single-sensor RGB-NIR imaging: High-quality system design and prototype implementation", IEEE SENSORS JOURNAL, vol. 19, no. 2, 2018, pages 497 - 507, XP011694666, DOI: 10.1109/JSEN.2018.2876774

Also Published As

Publication number Publication date
JPWO2022113362A1 (ja) 2022-06-02
CN116529637A (zh) 2023-08-01
KR20230093325A (ko) 2023-06-27
EP4242702A1 (en) 2023-09-13
US20240006440A1 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
US11733100B2 (en) Polarization imaging system
KR20200099832A (ko) 다층 메타 렌즈 및 이를 포함하는 광학 장치
KR20200029572A (ko) 컬러촬상소자 및 촬상장치
JP2009252978A (ja) 固体撮像素子およびその製造方法
JP2006351972A (ja) 固体撮像素子、固体撮像装置およびその製造方法
JP2010170085A (ja) 光学素子、及びこれを用いたイメージセンサ、撮像装置
WO2005059607A1 (ja) 集光素子および固体撮像装置
US8848092B2 (en) Solid-state imaging device and electronic apparatus
WO2021070305A1 (ja) 分光素子アレイ、撮像素子および撮像装置
WO2022079757A1 (ja) 光学素子、撮像素子及び撮像装置
JP2005286034A (ja) 撮像素子
WO2022113362A1 (ja) 光学素子、撮像素子及び撮像装置
WO2021059409A1 (ja) 撮像素子および撮像装置
US9257469B2 (en) Color imaging device
WO2022079766A1 (ja) 撮像素子及び撮像装置
US20230239552A1 (en) Image sensor and imaging device
WO2022113352A1 (ja) 光学素子、撮像素子及び撮像装置
WO2022113363A1 (ja) 光学素子、撮像素子及び撮像装置
CN113345925A (zh) 像素单元、图像传感器及光谱仪
WO2023021632A1 (ja) 光学素子、撮像素子及び撮像装置
US20230411420A1 (en) Image sensor and imaging device
WO2022079765A1 (ja) 光学素子、撮像素子及び撮像装置
JP7265195B2 (ja) カラー撮像素子および撮像装置
EP3698405A1 (en) Image sensor comprising pixels for preventing or reducing the crosstalk effect

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20963625

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022565015

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20237017916

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18039048

Country of ref document: US

Ref document number: 202080107529.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2020963625

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2020963625

Country of ref document: EP

Effective date: 20230609

NENP Non-entry into the national phase

Ref country code: DE