WO2016203990A1 - 撮像素子、電子機器 - Google Patents

撮像素子、電子機器 Download PDF

Info

Publication number
WO2016203990A1
WO2016203990A1 PCT/JP2016/066570 JP2016066570W WO2016203990A1 WO 2016203990 A1 WO2016203990 A1 WO 2016203990A1 JP 2016066570 W JP2016066570 W JP 2016066570W WO 2016203990 A1 WO2016203990 A1 WO 2016203990A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
conversion layer
light
opening
pixel
Prior art date
Application number
PCT/JP2016/066570
Other languages
English (en)
French (fr)
Inventor
杉崎 太郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/580,356 priority Critical patent/US10319764B2/en
Publication of WO2016203990A1 publication Critical patent/WO2016203990A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • G02F1/133509Filters, e.g. light shielding masks
    • G02F1/133512Light shielding layers, e.g. black matrix
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/136Liquid crystal cells structurally associated with a semi-conducting layer or substrate, e.g. cells forming part of an integrated circuit
    • G02F1/1362Active matrix addressed cells
    • G02F1/136209Light shielding layers, e.g. black matrix, incorporated in the active matrix substrate, e.g. structurally associated with the switching element
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components

Definitions

  • This technology relates to image sensors and electronic devices. Specifically, the present invention relates to an imaging element and an electronic device that can improve the quality of a captured image.
  • a photodiode is also provided in the silicon layer under the organic photoelectric conversion film, and phase difference detection is performed with the photodiode in the silicon layer while acquiring an image with the organic photoelectric conversion film (for example, Patent Document 2). reference).
  • the present disclosure has been made in view of such a situation, and is intended to improve the image quality of a captured image.
  • two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked, and one pixel of the first photoelectric conversion layer on the side close to the optical lens is provided.
  • the incident light is configured to include a state where the light is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens, and the first photoelectric conversion layer and the second photoelectric conversion are included.
  • a light-shielding layer that shields light transmitted through the first photoelectric conversion layer between the first photoelectric conversion layer and the light-shielding layer that receives light from the first photoelectric conversion layer in the second photoelectric conversion layer;
  • An opening for transmitting light to the first photoelectric conversion layer is provided asymmetrically with respect to the pixels of the first photoelectric conversion layer.
  • the asymmetry of the opening can be made different depending on the image height of the optical lens.
  • the asymmetry of the opening can be increased.
  • the side that constitutes the opening is provided at a shifted position with respect to the side that constitutes the pixel of the first photoelectric conversion layer in which the opening is located, and among the sides that constitute the opening, The first side located on the center side of the optical lens and the second side different from the first side can be shifted by different shift amounts.
  • the shift can be performed in the horizontal direction.
  • the shift can be performed in the horizontal direction and the oblique direction.
  • the shift can be performed in the vertical direction.
  • the shift can be performed in the vertical direction and the oblique direction.
  • the shift can be performed in at least one direction of a horizontal direction, a vertical direction, and an oblique direction.
  • the pixel of the photoelectric conversion unit of the second photoelectric conversion layer may be a phase difference detection pixel.
  • a light shielding part that shields light transmitted through the opening is further provided between the light shielding layer and the second photoelectric conversion layer, and the pixel of the photoelectric conversion part of the second photoelectric conversion layer includes: It is configured in a state where the light is shielded half by the light shielding part, and the pixel of the photoelectric conversion part of the second photoelectric conversion layer can be a pixel for detecting a phase difference.
  • a light shielding portion formed in a grid shape that shields light transmitted through the first photoelectric conversion layer is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer. Can do.
  • the grids of the light shielding portions arranged adjacent to each other can be arranged in different directions.
  • a narrow band filter is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer, and the light transmitted through the first photoelectric conversion layer passes through the filter to the first photoelectric conversion layer. It can be made to reach the photoelectric conversion part of the two photoelectric conversion layers.
  • a plasmon filter is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer, and the light transmitted through the first photoelectric conversion layer is transmitted through the plasmon filter to the second It can be made to reach the photoelectric conversion part of the photoelectric conversion layer.
  • a Fabry-Perot interferometer is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer, and the light transmitted through the first photoelectric conversion layer passes through the Fabry-Perot interferometer.
  • the second photoelectric conversion layer can reach the photoelectric conversion unit.
  • the photoelectric conversion unit of the second photoelectric conversion layer may constitute a TOF (Time Of Flight) type sensor.
  • the photoelectric conversion unit of the second photoelectric conversion layer can constitute a light field camera.
  • the photoelectric conversion unit of the second photoelectric conversion layer can be used as an element that captures an image of a subject and acquires an image.
  • two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked, and one pixel of the first photoelectric conversion layer on the side close to the optical lens is provided.
  • the incident light is configured to include a state where the light is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens, and the first photoelectric conversion layer and the second photoelectric conversion are included.
  • a light-shielding layer that shields light transmitted through the first photoelectric conversion layer between the first photoelectric conversion layer and the light-shielding layer that receives light from the first photoelectric conversion layer in the second photoelectric conversion layer;
  • An opening for transmitting the light to the first photoelectric conversion layer is provided, and the opening includes an image sensor that is opened asymmetrically with respect to the pixels of the first photoelectric conversion layer.
  • two or more photoelectric conversion layers each having a photoelectric conversion unit divided into pixel units are stacked and incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens.
  • the light thus received is configured to include a state of being received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens.
  • a light shielding layer that shields light transmitted through the first photoelectric conversion layer is provided between the first photoelectric conversion layer and the second photoelectric conversion layer, and the light shielding layer includes the first photoelectric conversion layer.
  • An opening for transmitting light from the layer to the second photoelectric conversion layer is provided, and the opening is opened asymmetrically with respect to the pixels of the first photoelectric conversion layer.
  • the imaging element is provided.
  • the present technology described below includes an image capturing unit (such as an imaging device such as a digital still camera or a video camera, a portable terminal device having an imaging function such as a mobile phone, or a copier using the imaging device for an image reading unit).
  • an image capturing unit such as an imaging device such as a digital still camera or a video camera, a portable terminal device having an imaging function such as a mobile phone, or a copier using the imaging device for an image reading unit.
  • the present invention can be applied to all electronic devices using a semiconductor package for the photoelectric conversion unit.
  • FIG. 1 is a block diagram illustrating an example of a configuration of an electronic apparatus according to the present technology, for example, an imaging apparatus.
  • an imaging apparatus 10 according to the present technology includes an optical system including a lens group 21 and the like, an imaging element (imaging device) 22, a DSP (Digital Signal Processor) circuit 23, a frame memory 24, a display unit 25, A recording unit 26, an operation unit 27, a power supply unit 28, and the like are included.
  • the DSP circuit 23, the frame memory 24, the display unit 25, the recording unit 26, the operation unit 27, and the power supply unit 28 are connected to each other via a bus line 29.
  • the lens group 21 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging element 22.
  • the imaging element 22 converts the amount of incident light imaged on the imaging surface by the lens group 21 into an electrical signal for each pixel and outputs the electrical signal as a pixel signal.
  • the DSP circuit 23 processes a signal from the image sensor 22.
  • the image sensor 22 has pixels for detecting a focus, and processes a signal from such a pixel to detect a focus.
  • the image sensor 22 has pixels for constructing an image of a photographed subject, and processes such as processing a signal from such a pixel and developing it in the frame memory 24 are also performed.
  • the display unit 25 includes a panel type display device such as a liquid crystal display device or an organic EL (electroluminescence) display device, and displays a moving image or a still image captured by the image sensor 22.
  • the recording unit 26 records a moving image or a still image captured by the image sensor 22 on a recording medium such as a video tape or a DVD (Digital Versatile Disk).
  • the operation unit 27 issues operation commands for various functions of the imaging apparatus under operation by the user.
  • the power supply unit 28 appropriately supplies various power sources serving as operation power sources for the DSP circuit 23, the frame memory 24, the display unit 25, the recording unit 26, and the operation unit 27 to these supply targets.
  • FIG. 2 is a diagram illustrating an imaging mechanism including the imaging device according to the present disclosure.
  • the image sensor 101 receives the light of the subject 3 collected by the optical lens 102 as shown in FIG.
  • the image sensor 101 corresponds to the image sensor 22 in FIG.
  • the optical lens 102 corresponds to the optical lens group 21 of the imaging device 10 in FIG.
  • the image sensor 101 is, for example, a composite image sensor in which two semiconductor substrates 111A and 111B are stacked. Each of the semiconductor substrates 111A and 111B is formed with a photoelectric conversion layer having a photoelectric conversion unit and a charge detection unit for detecting charges photoelectrically converted there.
  • the semiconductor of the semiconductor substrates 111A and 111B is, for example, silicon (Si).
  • An aperture 112 is formed between the two semiconductor substrates 111A and 111B.
  • the semiconductor substrate 111A closer to the optical lens 102 is referred to as the upper substrate 111A
  • the semiconductor substrate 111B farther from the optical lens 102 is referred to as the lower substrate 111B.
  • the two semiconductor substrates 111A and 111B are not particularly distinguished, they are also simply referred to as the substrate 111.
  • FIG. 3 is a diagram showing a schematic configuration of the image sensor 101.
  • a plurality of pixels 121A are arranged in a two-dimensional array on the upper substrate 111A.
  • An on-chip lens 131 is formed in each pixel 121A. Pixel signals obtained by the plurality of pixels 121A arranged on the upper substrate 111A are used as signals for image generation. Therefore, the upper substrate 11A functions as an image sensor.
  • a plurality of pixels 121B are arranged in a two-dimensional array. Pixel signals obtained by the plurality of pixels 121B arranged on the lower substrate 111B can be used as, for example, a phase difference detection signal as described later. In such a case, the lower substrate 111B functions as a phase difference detection sensor.
  • the pixel 121A of the upper substrate 111A includes a pixel that transmits incident light to the lower substrate 111B and a pixel that does not transmit incident light to the lower substrate 111B.
  • incident light that has passed through one pixel (hereinafter referred to as a transmissive pixel) of the upper substrate 111A corresponding to the opening 121 of the aperture 112 is 2 ⁇ 2 4 of the lower substrate 111B. It is configured to enter the pixel.
  • FIGS. 2 and 3 are diagrams for explaining the relationship between the transmissive pixels of the upper substrate 111A and the light receiving pixels of the lower substrate 111B that receives incident light therefrom, and the upper substrate 111A and the lower substrate are illustrated.
  • the scale of the pixel size of the substrate 11B is different.
  • the pixels are arranged in two layers, for example, the pixels arranged in the upper layer are pixels for normal photographing, and the pixels arranged in the lower layer are Each pixel can be used as a pixel having a different function, such as a phase difference detection pixel.
  • the focal point of an on-chip lens is ideally the photodiode surface of a silicon layer. Actually, it is located deep in the silicon layer. For this reason, the condensing point for imaging and the condensing point for phase difference detection are different, and there is a problem that it is difficult to achieve optimization of the microlens.
  • the focal point of the on-chip lens is set on the surface of the photodiode of the silicon layer, the radius of curvature of the on-chip lens is reduced, and the oblique incidence characteristics are deteriorated. Therefore, as the image height (distance from the optical center) increases, the amount of received light decreases and shading occurs.
  • the curvature radius of the on-chip lens can be increased by stacking the two substrates 111 and arranging the pixels for phase difference detection on the lower substrate 111B as described later. Generation of shading can be suppressed.
  • phase separation pixel separation performance can be improved, and phase difference autofocus performance can be improved.
  • FIG. 4 is a cross-sectional view of the image sensor 101.
  • an upper substrate 111A on which an on-chip lens 131, an on-chip color filter 132, and a photodiode 133 are arranged.
  • the on-chip lens 131, the on-chip color filter 132, and the photodiode 133 constitute a pixel 121A (FIG. 2).
  • the photoelectric conversion layer on which the photodiode 133 is disposed may be formed of an organic photoelectric conversion film or the like. Moreover, when comprised with an organic photoelectric converting film, you may make it comprise from several photoelectric converting layers.
  • the upper substrate 111A formed by the backside illumination type will be described as an example, but the present technology can be applied to either the backside illumination type or the front side illumination type.
  • a multilayer wiring layer 201 including a plurality of wiring layers and an interlayer insulating film is formed below the photodiode 133 of the upper substrate 111A.
  • the multilayer wiring layer 201 may be configured such that a plurality of transistor circuits constituting a readout circuit for reading signal charges accumulated in the photodiode 133 are formed in the vicinity of the upper substrate 111A.
  • An aperture 112 is disposed below the upper substrate 111A.
  • the lower substrate 111B is configured by a silicon layer which is an n-type (first conductivity type) semiconductor region, and a photodiode as a photoelectric conversion unit is formed for each pixel by a pn junction in the silicon layer. Can be configured.
  • the pixel size of the lower substrate 111B may be different from the pixels of the upper substrate 111A.
  • a multilayer wiring layer including a plurality of transistor circuits, a plurality of wiring layers, an interlayer insulating film, and the like constituting a readout circuit for reading out signal charges accumulated in the photodiode is formed on the upper side or the lower side of the lower substrate 111B. May be.
  • the upper substrate 111 ⁇ / b> A and the lower substrate 111 ⁇ / b> B are bonded (adhered) via the interlayer insulating film 202.
  • Pixels 152-1 to 152-5 are arranged on the lower substrate 111B.
  • the pixel 152 corresponds to the pixel 121B in FIG.
  • each of the pixels 152-1 to 152-5 is assumed to be a photodiode, and is also referred to as a photodiode 152 as appropriate.
  • the pixels 152-1 to 152-5 are described as a pixel group 151 as appropriate.
  • the pixel group 151 is not limited to the case where five pixels are included, but may include a plurality of pixels.
  • Pixels 152-11 to 152-5 receive light transmitted through one on-chip lens 131.
  • the wiring layer of the multilayer wiring layer 201 includes a wiring made of copper or the like.
  • the multilayer wiring layer 201 can also be configured to function as a light shielding film in combination with the aperture 112. As shown in FIG. 4, when the on-chip lens 131 shown in the center of the figure is an on-chip lens 131A, the light transmitted through the on-chip lens 131A passes through the opening 123 of the aperture 112, and the pixel 152- 1 to 152-5 is configured to receive light.
  • light from an on-chip lens 131 different from the on-chip lens 131A is not transmitted by the aperture 112 and is transmitted to the pixels 152-1 to 152-5. It is configured not to receive light.
  • the aperture 112 blocks light so that the light transmitted through one on-chip lens 131 is received by the pixel group 151 of the lower substrate 111B.
  • the size of the opening 123 of the aperture 112 can be formed in one pixel size that is the same size as the pixel 121A of the upper substrate 111A. In other words, it can be formed at a position directly below the same size as the transmissive pixel.
  • FIG. 4 shows a case where the pixel 121A has the same size as the pixel 121A.
  • FIG. 5 is a graph showing the relationship between the incident angle of light in the image sensor 101 having the configuration as shown in FIG.
  • the horizontal axis of the graph shown in FIG. 5 represents the incident angle (angle) of the light beam, and the vertical axis represents the sensitivity characteristic (Pabs total).
  • the numbers in the figure represent the numbers of the pixels 152-1 to 152-5 (FIG. 4), for example, “1” represents the pixel 152-1.
  • the pixel from which the peak value is obtained differs depending on the incident angle of the light beam. For example, when the incident angle of the light beam is 0 degree, the pixel 152-5 has the highest peak value, and when the incident angle of the light beam is -15 degrees, the pixel 152-4 has the highest peak value.
  • the amount of received light received by the pixels 152-1 to 152-5 is low, and particularly at high incident angle light, for example, at an incident angle of ⁇ 30 degrees or less in FIG. It can be seen that no light is received.
  • a graph having a peak cannot be obtained in the pixel 152-1 and the pixel 152-2.
  • the aperture 112 When the aperture 112 is configured with the same size and the same position as the pixel 121A, the color mixture from the adjacent pixels is reduced, but the necessary light is vignetted and the received light amount is reduced.
  • FIG. 6 is a graph showing the relationship between the incident angle of light and the amount of light received by the pixel 152 in the image sensor 101 having the configuration shown in FIG. 4 when the opening 123 of the aperture 112 is widened (not shown). Show.
  • the horizontal axis represents the incident angle of the light beam
  • the vertical axis represents the sensitivity characteristic
  • the numbers in the figure represent the pixels 152-1 to 152-. 5 (FIG. 4).
  • the sensitivity of the graph shown in FIG. 6 is improved overall. Further, for example, referring to a graph having a peak in the range of the incident angle of ⁇ 25 to ⁇ 20 degrees (a graph representing the sensitivity of the pixel 152-3), the level is increased even at a high incident angle, and the high incident It can be seen that corner light is also received.
  • the opening 123 is obtained as shown in FIG.
  • the horizontal axis represents the incident angle of the light beam
  • the vertical axis represents the sensitivity characteristic
  • the numbers in the figure represent the pixel 152-1.
  • To 152-5 (FIG. 4).
  • a peak is obtained in any of the pixels 152-1 to 152-5. From this, it can be read that any one of the pixels 152 receives light with high sensitivity including a high incident angle, so that the pixel group 151 also realizes light reception with good sensitivity.
  • the image sensor 101 from which such a graph can be obtained will be described below.
  • FIG. 8 is a diagram illustrating a configuration of an embodiment of the image sensor 101 to which the present technology is applied.
  • the image sensor 101 shown in FIG. 8 and the image sensor 101 shown in FIG. 4 have basically the same configuration, but the position, size, shape, and the like of the opening 123 of the aperture 112 are different.
  • the aperture 301 is described, and the opening 123 is also described as the opening 302.
  • the opening 302 of the aperture 301 shown in FIG. 8 is formed at a position across two pixels. That is, the configuration is different from the above-described configuration in which the opening 302 is provided directly below the transmissive pixel.
  • the aperture 301 is formed of a material that does not transmit light, such as metal, and functions as a light blocking layer that blocks light transmitted through the upper substrate 111A. Therefore, the light transmitted through the upper substrate 111A other than the light transmitted through the opening 302 is shielded by the aperture 112 and does not reach the lower substrate 111B.
  • the opening 302 of the aperture 301 is also opened. Therefore, the following description is also applied to the opening portion of the multilayer wiring layer 201. Further, here, the aperture 301 and the multilayer wiring layer 201 are separated, and the description will be continued by taking the aperture 301 as an example. However, the function of the aperture 301 (light shielding function) is given to the multilayer wiring layer 201, and the aperture 301 is deleted. It is also possible to adopt the configuration described above. Alternatively, the aperture 301 can be made of a conductive material so as to function as the multilayer wiring layer 201.
  • the light shielding layer provided between the upper substrate 111A and the lower substrate 111B may be configured by the aperture 301, may be configured by the aperture 301 and the multilayer wiring layer 201, or may be configured by the multilayer wiring layer 201. It may consist of.
  • the opening 302 is provided from the vicinity of the central portion of the on-chip lens 131A to the vicinity of the central portion of the adjacent on-chip lens 131C.
  • the opening 302 is not provided below one pixel (photodiode 133) provided on the upper substrate 111A, but provided so as to straddle a plurality of pixels.
  • the on-chip lens 131A and the on-chip lens 131C are illustrated, and the respective central axes are illustrated by dotted lines.
  • the diameter of one on-chip lens 131, in other words, the width of one pixel is defined as a size a.
  • the opening 302 of the aperture 301 starts from the center axis of the on-chip lens 131A at the right side by the size b.
  • the opening 302 ends when the size d reaches the left side from the end of the on-chip lens 131A.
  • the opening 302 includes a size b, which corresponds to half of the size a (the radius of the on-chip lens 131A).
  • the size of the opening 302 is the size (b + c + d).
  • the size (b + c + d) may be the same size as the size a, or may be smaller or larger than the size a.
  • the opening 302 is not provided with the same size from the central axis but is asymmetrical in the left-right direction. Is provided.
  • the size of the opening 302 provided on the right side with respect to the central axis of the on-chip lens 131A is the size b, and the size of the opening 302 provided on the left side.
  • the size is the size (c + d).
  • the size b and the size (c + d) are not the same size but different sizes.
  • the left and right sizes are different and the left and right are asymmetrically provided.
  • the opening 123 of the aperture 112 shown in FIG. 4 is provided directly below the on-chip lens 131A, is equal in size from the central axis, and is provided symmetrically. As described above, when the opening 123 is provided symmetrically with respect to the central axis of the on-chip lens 131A, as described with reference to FIGS. 5 and 6, vignetting and color mixing may occur. .
  • the size from the central axis of the on-chip lens 131 ⁇ / b> A is different as in the opening 302 of the aperture 301, and the required light is provided by providing asymmetrical left and right. Therefore, it is possible to prevent color mixture from adjacent pixels without causing vignetting, and the imaging device 101 can obtain a graph as shown in FIG.
  • FIG. 10 shows a screen image and is a diagram showing pixels (photodiode 133 in FIG. 10) arranged on the first-layer upper substrate 111A in the screen image in which the opening 302 is provided.
  • a screen image 401 shown in FIG. 10 represents a part of an image captured by the imaging apparatus 10 (FIG. 1), and five openings 302-1 to 302-5 are arranged in the screen image 401.
  • the photodiodes 133-1 to 133-5 in which the respective openings 302-1 to 302-5 are arranged are illustrated.
  • the opening 302 is represented by a rectangular frame
  • the photodiode 133 (pixel) is represented by a hatched rectangle (square).
  • the opening 302-3 disposed at the position of the photodiode 133-3 disposed in the center portion of the screen image 401 is opened with a size that is substantially the left and right object.
  • the opening 302-2 disposed at the position of the photodiode 133-2 disposed on the left side of the photodiode 133-3 is opened with a size that is asymmetrical to the photodiode 133-3. The opening is shifted to the left side.
  • the opening 302-1 disposed at the position of the photodiode 133-1 disposed on the left side of the photodiode 133-2 is opened with a size that is asymmetrical with respect to the photodiode 133-1.
  • the opening is shifted to the left side.
  • the opening 302-1 is configured to have a larger shift amount than the opening 302-2.
  • the opening 302-4 disposed at the position of the photodiode 133-4 disposed on the right side of the photodiode 133-3 is opened with a size that is asymmetrical to the left and right, and the photodiode 133-4. On the other hand, it is opened at a position shifted to the right.
  • the opening 302-5 arranged at the position of the photodiode 133-5 arranged on the right side of the photodiode 133-4 has an opening that is asymmetrical to the photodiode 133-5. The opening is shifted to the right.
  • the opening 302-5 is configured to have a larger shift amount than the opening 302-4.
  • the position of the opening 302 with respect to the photodiode 133 differs depending on the position of the opening 302.
  • the shift amount from the central axis of the photodiode 133 increases as it goes from the central portion to the end portion of the screen image 401.
  • the position of the opening 302 is set according to the image height of the optical lens 102 (FIG. 2).
  • the example shown in FIG. 10 is configured such that the shift amount increases as the image height increases (near the end of the screen image 401) from near 0% (near the center of the screen image 401). In other words, as the image height increases, the asymmetry of the opening 302 is increased.
  • the opening area of the opening 302 may be increased as the image height increases.
  • the opening area (shift amount) can be set based on, for example, the graph shown in FIG. 11 or FIG.
  • the horizontal axis represents the image height
  • the vertical axis represents the aperture shift amount.
  • the thick line in the graph represents the shift amount on the center side
  • the thin line represents the shift amount on the peripheral side.
  • the center side means a side where the image height is directed toward 0% (image height center), and the side on the center side of the opening 302 is, for example, in the opening 302-2 in FIG. Is a side located on the right side, and in the opening 302-4, is a side located on the left side.
  • the peripheral side means the side opposite to the center side, which means the side where the image height faces 100%, and the side on the peripheral side of the opening 302 is, for example, the opening in FIG.
  • the portion 302-2 is a side located on the left side, and the opening 302-4 is a side located on the right side.
  • the shift amount of 0% of the image height is 0 on both the center side and the peripheral side.
  • the pixel having an image height of 0% is at the photodiode 133-3 (FIG. 10), and the opening 302-3 at the photodiode 133-3 has a shift amount of zero. Therefore, as shown in FIG. 10, the photodiode 133-3 and the opening 302-3 are provided so as to be substantially overlapped with each other and are not symmetric.
  • the shift amount of 90% of the image height is about 3 (a.u.) on the center side and about 6 (a.u.) on the peripheral side. If the 90% image height pixel is at the photodiode 133-5 (FIG. 10), the shift amount of the side near the center of the opening 302-3 at the photodiode 133-5 is about 3. The shift amount on the peripheral side is about 6.
  • the shift amount on the center side is an amount by which the center side is shifted leftward or rightward with respect to the photodiode 133, and is set according to the image height.
  • the central side (left side) of the opening 302-5 is provided at a position shifted to the right by about 3 (a.u.) from the left side of the photodiode 133-5.
  • the peripheral shift amount is an amount by which the peripheral side is shifted leftward or rightward with respect to the photodiode 133, and is set according to the image height.
  • the peripheral side (left side) of the opening 302-5 is provided at a position shifted to the right by about 6 (a.u.) from the right side of the photodiode 133-5.
  • the opening 302 provided for the photodiode 133 located on the left side of the photodiode 133 located in the center is an image in the left direction with respect to the left side (peripheral side) or the right side (center side) of the photodiode 133.
  • the shift amount is shifted according to the height.
  • the opening area of the opening 302 increases as the image height increases.
  • the shift amount shown in FIG. 11 has been shown to increase at the same ratio in proportion to the image height, but as shown in FIG. 12, the shift amount that does not increase at the same ratio according to the image height. But it ’s okay.
  • the inclination from 0 to 50% of the image height and the inclination from 50 to 100% of the image height are not the same inclination.
  • the shift amount may be set based on a graph in which the inclination changes at a predetermined image height, instead of being simply proportional to the image height. The reason for this will be described with reference to FIG.
  • the angle of incident light incident on the on-chip lens 131 also changes.
  • the left figure of FIG. 13 shows the case where the incident angle of the incident light incident on the optical lens 102 is small, and the right figure of FIG. 13 shows the case where the incident angle is large.
  • the on-chip lens 131 has a spherical shape. For this reason, the angle of the incident light incident on the optical lens 102 and the angle of the light after being refracted by the on-chip lens 131 may not be proportional. Therefore, as shown in FIG. 12, the effect of allowing the aperture 301 to transmit necessary light and the effect of cutting unnecessary light by setting the shift amount based on a graph having a predetermined image height and different inclinations. Can be obtained to the maximum.
  • FIG. 12 shows the case where two inclinations are set, two or more inclinations may be set. Further, when the effect of setting the shift amount using a graph in which a plurality of inclinations are set as shown in FIG. 12 can be ignored or not considered, FIG. The shift amount may be set by applying a graph in which one inclination is set as shown in FIG.
  • the example of the opening 302 shown in FIG. 10 is an example of the opening 302 arranged in the horizontal direction (lateral direction) of the screen image 401.
  • openings are also provided on the upper side and the lower side (vertical direction) of the openings 302-1 to 302-5, and the openings are arranged at the same position in the horizontal direction. 302 is shifted by the same shift amount to have the same opening area.
  • the shift amount may be provided only in the horizontal direction and the opening 302 may be configured.
  • the shift amount is set in the horizontal direction and the oblique direction,
  • the opening 302 may be configured.
  • the shift amount can be set based on the graph shown in FIG. 11 or the graph shown in FIG.
  • the center side is the right side of the opening 302-2-1 and the peripheral side is the opening.
  • the lower side of the opening 302-2-1 is a side in the vertical direction, in this case, it is not set as a side to be shifted.
  • the central side is the left side of the opening 302-4-1
  • the peripheral side is the opening 302.
  • the lower side of the opening 302-4-1 is a side in the vertical direction, in this case, it is not set as a side to be shifted.
  • the central side is the right side of the opening 302-2-2
  • the peripheral side is the opening 302.
  • the upper side of the opening 302-2-2 is a side in the vertical direction, in this case, it is not set as a side to be shifted.
  • the central side is the left side of the opening 302-4-2
  • the peripheral side is the opening.
  • the upper side of the opening 302-4-2 is a side in the vertical direction, in this case, it is not set as a side to be shifted.
  • FIG. 15 is a diagram illustrating an example where the shift amount of the opening 302 of the aperture 301 is applied only in the vertical direction.
  • the photodiode 133 (pixel) of the first upper substrate 111A is shifted only in the vertical direction, not in the horizontal direction.
  • the opening 302-3-1 disposed at the photodiode 133-3-1 disposed on the upper side of the pixel (photodiode 133-3) located at the center is shifted upward. Further, the opening 302-3-2 disposed at the photodiode 133-3-2 disposed below the photodiode 133-3 is shifted downward.
  • the opening 302 arranged above the center is shifted upward and below the center, like the openings 302-3-1 and 302-3-2.
  • the arranged opening 302 is shifted downward.
  • the shift amount when the opening 302 is shifted in the vertical direction can also be set based on the graph shown in FIG. 11 or FIG.
  • the central side is the lower side of the opening 302-3-1 and the peripheral side is This is the upper side of the opening 302-3-1.
  • the central side is the upper side of the opening 302-3-2
  • the peripheral side is the opening 302. The lower side of -3-2.
  • the shift may be performed in the vertical direction and the oblique direction.
  • the opening 302 of the aperture 301 is shifted in a vertical direction and an oblique direction with respect to a predetermined pixel (photodiode 133) of the first-layer upper substrate 111A.
  • the shift amount can be set based on the graph shown in FIG. 11 or the graph shown in FIG.
  • the center side is the lower side of the opening 302-2-1 and the peripheral side is the opening.
  • the right side of the opening 302-2-1 is a side in the horizontal direction, in this case, the side is not a shift target side.
  • the central side is the lower side of the opening 302-4-1
  • the peripheral side is the opening 302.
  • the left side of the opening 302-4-1 is a side in the horizontal direction, in this case, the side is not a shift target side.
  • the center side is the upper side of the opening 302-2-2
  • the peripheral side is the opening 302.
  • the right side of the opening 302-2-2 is a side in the horizontal direction, in this case, the side is not a shift target side.
  • the central side is the upper side of the opening 302-4-2
  • the peripheral side is the opening.
  • the left side of the opening 302-4-2 is a side in the horizontal direction, in this case, the side is not a shift target side.
  • the shift may be performed in the horizontal direction, the vertical direction, and the oblique direction.
  • the opening 302 of the aperture 301 is shifted with respect to a predetermined pixel (photodiode 133) on the first-layer upper substrate 111A with respect to the horizontal direction, the vertical direction, and the oblique direction.
  • the shift amount can be set based on the graph shown in FIG. 11 or the graph shown in FIG.
  • the central side is the lower side and the right side of the opening 302-2-1 and the peripheral side is The upper side and the left side of the opening 302-2-1 are used.
  • the central side is the lower side and the left side of the opening 302-4-1 and the peripheral side is the opening.
  • the upper side and the right side of the portion 302-4-1 are set.
  • the center side is the upper side and the right side of the opening 302-2-2
  • the peripheral side is the opening.
  • the lower side and the left side of the section 302-2-2 are used.
  • the center side is the upper side and the left side of the opening 302-4-2
  • the peripheral side is The lower side and the right side of the opening 302-4-2.
  • the sides related to the horizontal direction, the vertical direction, and the diagonal direction are respectively shifted.
  • the shift amount is set separately for the center side and the peripheral side, even if the sides related to the horizontal direction, the vertical direction, and the oblique direction are shifted, the sides related to the horizontal direction and the vertical direction are shifted. If the process is performed, the four sides of the opening 302 can be shifted. Therefore, a process of shifting the sides related to the horizontal direction and the vertical direction may be executed.
  • the side of the opening 302 is divided into the central side or the peripheral side, and the side of the corresponding opening 302 is shifted.
  • the central side and the peripheral side for example, it corresponds to an oblique direction. You may make it set the shift amount of the edge to perform.
  • the pixels arranged on the second lower substrate 111B are used for phase difference detection. It may be a pixel.
  • FIG. 18 is a diagram showing a configuration of a pixel for phase difference detection having a single layer structure.
  • the phase difference detection pixel has a configuration in which a light shielding film 452 that shields light from the on-chip lens 451 is provided between the on-chip lens 451 and the photodiode 453.
  • a light shielding film 452 that shields light from the on-chip lens 451 is provided between the on-chip lens 451 and the photodiode 453.
  • a left-side light-shielding pixel (FIG. 18) in which the light-shielding film 452 is provided on the left side and a right-side light-shielding pixel (not shown) in which the light-shielding film 452 is provided on the right side are provided in a part of the pixel array unit.
  • the right light-shielding pixel and the left light-shielding pixel are used as a pair of phase difference detection pixels.
  • the right side or the left side is shielded to realize a function (separation capability) for receiving light by selecting an incident angle of light.
  • the right-side light-shielding pixel and the left-side light-shielding pixel it becomes possible to separate and receive incident light, and by receiving the light coming from the left part and the light coming from the right part with respective photodiodes, The focus position can be detected.
  • the output from the right-side light-shielded photodiode does not match the output from the left-side light-shielded photodiode (the output of the paired phase difference detection pixels does not match).
  • the outputs from the two photodiodes match (the outputs of the pair of phase difference detection pixels match).
  • the photodiodes 152-1 to 152-6 arranged on the second-layer lower substrate 111B can be pixels for phase difference detection. Further, as described above, the opening 302 of the aperture 301 is arranged so as to be shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • phase difference detection pixel group 153 the photodiodes 152-1 to 152-6 are referred to as a phase difference detection pixel group 153.
  • the phase difference detection pixel group 153 is arranged in the horizontal direction (horizontal direction) in this way, the arrangement is as shown in FIG.
  • FIG. 20 shows a state in which nine transmissive pixels (photodiodes 133) are arranged in the screen image 401, and the opening 302 of the aperture 301 is provided in each transmissive pixel, as in the case shown in FIG. ing.
  • the phase difference detection pixel group 153 disposed on the lower substrate 111B is further disposed below each opening 302 (lower substrate 111B).
  • the phase difference detection pixel group 153 at the position of the opening 302-3 in the center portion includes the center of the opening 302-3 and the phase difference detection pixel group 153-3. It is arranged at a position where the centers of the two substantially overlap.
  • the phase difference detection pixel group 153-3-1 at the position of the opening 302-3-1 at the center upper part is arranged at a position shifted above the opening 302-3-1. Further, the phase difference detection pixel group 153-2-1 at the position of the opening 302-2-1 on the upper left side is shifted to the upper side of the opening 302-2-1 and shifted to the left side. Placed in position.
  • phase difference detection pixel group 153-4-1 at the position of the opening 302-4-1 on the upper right side was shifted above the opening 302-4-1 and shifted to the right. Placed in position.
  • the phase difference detection pixel group 153 is arranged at a position shifted by a predetermined amount with respect to the opening 302 in accordance with the image height.
  • the shift amount is set in the horizontal direction (lateral direction) and the position and size of the opening 302 are set.
  • the phase difference detection pixel group 153 may be arranged in the vertical direction (vertical direction).
  • the phase difference detection pixel group 153 is arranged in the vertical direction and configured to detect the phase difference in the vertical direction, as described with reference to FIGS. 15 and 16, the vertical direction (vertical direction). If the shift amount is set and the position and size of the opening 302 are set, the compatibility is good.
  • each photodiode 152-1 to 152-6 are arranged as pixels for phase difference detection, each photodiode 152-1 to When the amount of incident light received at 152-6 is graphed, a graph as shown in FIG. 21 is obtained.
  • FIG. 21 is a graph showing the phase difference characteristic result, where the horizontal axis represents the angle of incident light, and the vertical axis represents the amount of received light.
  • the numbers in the figure represent the photodiodes 152-1 to 152-6, and for example, “1” represents the photodiode 152-1.
  • the amount of light received by each of the photodiodes 152-1 to 152-6 is a graph having a peak at a predetermined incident light angle (incident angle).
  • incident angle a predetermined incident light angle
  • the photodiode 152-3 has a peak at an incident angle of about ⁇ 20 degrees
  • the photodiode 152-4 has a peak at an incident angle of about ⁇ 15 degrees.
  • the phase difference is obtained using a signal obtained from the photodiode 152-3, and when the incident angle is about ⁇ 15 degrees, the phase difference is obtained from the photodiode 152-4.
  • the phase difference can be obtained using the signal.
  • phase difference detection pixel group 153 by providing a phase difference detection pixel group 153 and arranging a plurality of phase difference detection pixels, a signal from the photodiode 152 that can obtain the largest signal according to the angle of incident light is used. It is possible to obtain a phase difference and perform autofocusing.
  • phase difference detection pixels are paired with two pixels, but two pixels may be selected from one phase difference detection pixel group 153 to detect the phase difference. Alternatively, one pixel may be selected from each of the two phase difference detection pixel groups 153 arranged at different positions, and the phase difference may be detected from the two selected pixels.
  • the pixels arranged on the lower substrate 111B are pixels for phase difference detection, as described with reference to FIG. 18, the right light-shielding film pixel and the left light-shielding film pixel are formed using the light shielding film 452. It is also possible to configure so that the phase difference is detected. Even in such a configuration, as described above, the opening 302 of the aperture 301 is shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • FIG. 22 shows the configuration of the right light-shielding pixel
  • FIG. 23 shows the configuration of the left light-shielding pixel.
  • a light-shielding film 452-1 is provided on the interlayer insulating film 202.
  • the light from the right side is shielded by the light shielding film 452-1, and the light from the left side is received by the photodiode 152-1 provided on the lower substrate 111B. .
  • a light-shielding film 452-2 is provided on the interlayer insulating film 202. Of the light transmitted through the opening 302, the light from the left side is shielded by the light shielding film 452-2, and the light from the right side is received by the photodiode 152-2 provided on the lower substrate 111B. .
  • FIG. 24 a graph as shown in FIG. 24 is obtained.
  • a phase difference is generated between the right light-shielding pixel and the left light-shielding pixel, and focusing is performed so that this phase difference is minimized.
  • a light shielding film is provided between the upper substrate 111A and the lower substrate 111B, and pixels for phase difference detection are provided on the lower substrate 111B.
  • FIG. 25 is a diagram showing light that causes color mixing in the configuration of the light-shielding pixel shown in FIG. 18 by dotted arrows.
  • Light that has entered through the on-chip lens 451 is shielded by the light shielding film 452, but part of the light is reflected and enters a photodiode (not shown) of an adjacent pixel.
  • incident light is reflected by the light shielding film 452 and leaks into adjacent pixels as a mixed color, which may adversely affect image quality.
  • phase difference detection pixel group 153 as shown in FIG.
  • the photodiode 152 shown in FIGS. 22 and 23 is arranged at a position shifted in accordance with the image height in the horizontal direction or the vertical direction with respect to the opening 302. Also in this case, as described with reference to FIG. 20, when the phase difference detection pixels to be paired are arranged in the horizontal direction, as described with reference to FIGS. If the shift amount is set in (direction) and the position and size of the opening 302 are set, the compatibility is good.
  • phase difference detection pixels are arranged in the vertical direction (vertical direction) and the phase difference is detected in the vertical direction, as described with reference to FIG. 15 and FIG. If the shift amount is set in the vertical direction (longitudinal direction) and the position and size of the opening 302 are set, the compatibility is good.
  • the opening 302 of the aperture 301 is arranged at a position shifted with respect to the transmissive pixel according to the image height. Therefore, it is possible to detect the phase difference in a state where no color mixing occurs. Therefore, it is possible to perform phase difference detection with high accuracy, and it is possible to improve autofocus performance.
  • a grid-like light shielding film may be provided as shown in FIG. Even in such a configuration, as described above, the opening 302 of the aperture 301 is arranged to be shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • a grid-like grid light shielding film 501 is provided on the interlayer insulating film 202, and the photodiode 152 provided on the lower substrate 111B is provided via the grid light shielding film 501.
  • the incident light is configured to enter.
  • FIG. 27 is a diagram illustrating an example when the grid directions are different.
  • FIG. 27 shows a state in which nine transmissive pixels (photodiodes 133) are arranged in the screen image 401 and the opening 302 of the aperture 301 is provided in each transmissive pixel, as in the case shown in FIG. ing.
  • a grid light shielding film 501 is further disposed between the upper substrate 111A and the lower substrate 111B.
  • a grid light shielding film 501 with a horizontal (horizontal) direction grid and a grid light shielding film 501 with a vertical (longitudinal) direction grid coexist. Further, the grid light shielding film 501 in the horizontal grid and the grid light shielding film 501 in the vertical grid are arranged adjacent to each other.
  • the grid light shielding film 501-3 located at the center of the screen image 401 is a horizontal grid
  • the grid light shielding film 501-2 located on the left side and the grid light shielding film 501-4 located on the right side are: It is a vertical grid.
  • the directions of the adjacent grid light shielding films 501 are configured to be different from each other.
  • the grid light shielding film 501 is arranged in accordance with the opening 302 that is shifted according to the image height, and is arranged at a position that is shifted with respect to the opening 302.
  • the grid light-shielding film 501 at the position of the opening 302-3 in the central portion is arranged such that the center of the opening 302-3 and the center of the grid light-shielding film 501-3 substantially overlap. It is arranged in the position.
  • the grid light shielding film 501-3-1 at the position of the opening 302-3-1 at the center upper part is arranged at a position shifted upward from the opening 302-3-1.
  • the grid light shielding film 501-2-1 at the position of the opening 302-2-1 in the upper left portion is shifted to the upper side of the opening 302-2-1 and shifted to the left side.
  • the grid light shielding film 501-4-1 at the position of the opening 302-4-1 in the upper right side portion is shifted to the position shifted to the upper side of the opening 302-4-1 and shifted to the right side. Is arranged.
  • the grid light shielding film 501 is arranged at a position shifted by a predetermined amount with respect to the opening 302 in accordance with the image height.
  • the position and size of the opening 302 are shifted in the horizontal direction (lateral direction), the vertical direction (longitudinal direction), and the diagonal direction as described with reference to FIG. If the amount is set, compatibility is good.
  • the grid shape of the grid light shielding film 501 has been described by taking the case of the vertical direction or the horizontal direction shown in FIG. 27 as an example, other shapes may be used.
  • a grid shape in an oblique direction may be used.
  • the grid direction of the grid light shielding film 501 shown in FIG. 28 is 45 degrees toward the lower right (hereinafter referred to as the lower right direction) or 45 degrees toward the lower left (hereinafter referred to as the lower left direction). It has become. That is, in the example shown in FIG. 28, the grid light shielding film 501 in the lower right direction and the grid light shielding film 501 in the lower left direction are mixed.
  • the grid light shielding film 501 in the lower right grid and the grid light shielding film 501 in the lower left grid are arranged adjacent to each other. That is, the grid light shielding film 501-3 located at the center of the screen image 401 is a grid in the lower left direction, and the grid light shielding film 501-2 located on the left side and the grid light shielding film 501-4 located on the right side are Each grid is in the lower right direction.
  • the grid light shielding film 501-3-1 located above the grid light shielding film 501-3 located at the center of the screen image 401 and the grid light shielding film 501-3-2 located below are respectively in the lower right direction. It is considered as a grid.
  • the grid directions of the adjacent grid light shielding films 501 are configured to be different from each other.
  • the grid light-shielding film 501 is arranged at a position shifted by a predetermined amount with respect to the opening 302 in accordance with the image height.
  • the grid light shielding film 501 in the horizontal direction, the grid light shielding film 501 in the vertical direction, the grid light shielding film 501 in the lower right direction, and the grid light shielding film 501 in the lower left direction are mixed. It is also possible.
  • the grid light shielding film 501-3 located at the center of the screen image 401 is a grid in the lower left direction
  • the grid light shielding film 501-2 located on the left side is a grid in the vertical direction
  • the grid light shielding film 501-4 located on the right side is a horizontal grid.
  • the grid light shielding film 501-2-1 located on the upper left side of the grid light shielding film 501-3 located at the center of the screen image 401 and the grid light shielding film 501-2-2 located on the lower left side are arranged in the horizontal direction. It is a grid.
  • the grid light shielding film 501-4-1 located on the upper right side of the grid light shielding film 501-3 located at the center of the screen image 401 and the grid light shielding film 501-4-2 located on the lower right side are arranged in the vertical direction. It is considered as a grid.
  • the directions of the adjacent grid light shielding films 501 are different from each other.
  • the grid light-shielding film 501 is arranged at a position shifted by a predetermined amount with respect to the opening 302 in accordance with the image height.
  • the grid light shielding film 501 is provided below the first upper substrate 111A. It does not affect the resulting image. Therefore, even when the grid light shielding film 501 is provided, it is possible to prevent color mixing due to the grid light shielding film 501.
  • the opening 302 of the aperture 301 is arranged at a position shifted with respect to the transmissive pixel in accordance with the image height, so that color mixing or the like occurs. In a state where it does not occur, light can be shielded by the grid light shielding film 501.
  • FIG. 30 illustrates a configuration of the image sensor 101 including a narrowband filter as a filter.
  • a narrow band filter 551 is provided in the interlayer insulating film 202, and incident light is incident on the photodiode 152 provided on the lower substrate 111B via the narrow band filter 551. It is configured to be incident.
  • the opening 302 of the aperture 301 is shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • the wavelength to be analyzed by the narrow band filter 551 is selected from the light transmitted through the predetermined pixel of the upper substrate 111A.
  • Light can be received by the diode 152. That is, the imaging device 101 can selectively extract the wavelength to be analyzed.
  • the upper substrate 111A has pixels arranged in a two-dimensional array. Among the pixels arranged in a two-dimensional array, a predetermined pixel set as a transmission pixel is provided with an opening 302, and the narrow-band filter is provided at the opening 302 provided. 551 is provided. Therefore, a plurality of narrow band filters 551 are provided in the image sensor 101.
  • the plurality of narrow band filters 551 may all be the same filter. In addition, by using a plurality of narrowband filters 551 that extract different wavelengths, the imaging device 101 can extract multispectral and hyperspectral data.
  • the narrowband filter 551 since the narrowband filter 551 is provided between the upper substrate 111A and the lower substrate 111B, the narrowband filter 551 affects the image captured by the pixels of the upper substrate 111A. It is possible to prevent the image quality from deteriorating.
  • FIG. 31 shows a configuration of an image sensor 101 including a plasmon filter as a filter.
  • a plasmon filter 601 is provided in the interlayer insulating film 202, and incident light is incident on the photodiode 152 provided in the lower substrate 111B via the plasmon filter 601. It is comprised so that.
  • the opening 302 of the aperture 301 is shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • the plasmon filter 601 is a filter that uses a plasmon resonator as a filter for performing spectroscopy. With reference to FIG. 32, the structure of the plasmon filter 601 is shown.
  • the plasmon resonator is a subwavelength structure obtained by finely processing a thin film made of a conductive material (specifically, gold, silver, copper, etc., but preferably aluminum, nickel, etc.).
  • a plasmon resonator has a resonance wavelength determined by the physical properties of the conductor, the pattern period, the aperture diameter, the dot size, the film thickness, the medium surrounding the structure, and the like.
  • the basic structure of the plasmon resonator is a hole array structure, in which holes (through holes 602 or non-through holes 602) having a diameter smaller than the detection wavelength are arranged in a two-dimensional array, and the holes have a dielectric structure. Body material is filled. Moreover, it is preferable to arrange the holes in a honeycomb or orthogonal matrix, and any other arrangement can be applied as long as it has a periodic structure.
  • the plasmon filter 601 shown in FIG. 32 is formed of a plasmon resonator in which through holes 602 are arranged in a honeycomb shape in a conductive thin film.
  • the opening diameter of the through hole 602 may be smaller than the wavelength of light to be transmitted.
  • the diameter is about 100 nm.
  • the transmission wavelength that passes through the plasmon filter 601 is set.
  • the interval is preferably in the range of about half wavelength to one wavelength of the effective electromagnetic wave wavelength in the medium, specifically about 150 to 1000 nm.
  • the wavelength to be analyzed by the plasmon filter 601 is selected from the light transmitted through the predetermined pixel of the upper substrate 111A, and the selected light is converted into the photodiode 152. So that it can receive light. That is, the imaging device 101 can selectively extract the wavelength to be analyzed.
  • the upper substrate 111A has pixels arranged in a two-dimensional array. Among the pixels arranged in a two-dimensional array, a predetermined pixel set as a transmissive pixel is provided with an opening 302, and the plasmon filter 601 is provided at the position where the opening 302 is provided. Is provided. Therefore, a plurality of plasmon filters 601 are provided in the image sensor 101.
  • the plurality of plasmon filters 601 provided may be all the same filter.
  • the imaging device 101 can extract multispectral and hyperspectral data.
  • the plasmon filter 601 since the plasmon filter 601 is provided between the upper substrate 111A and the lower substrate 111B, the plasmon filter 601 does not affect the image captured by the pixels of the upper substrate 111A. It is possible to prevent the image quality from being deteriorated.
  • the aperture 302 of the aperture 301 is disposed at a position shifted with respect to the transmissive pixel in accordance with the image height, and thus color mixing occurs. In this state, it is possible to perform spectroscopy using the plasmon filter 601.
  • FIG. 33 shows a configuration of the image sensor 101 including a Fabry-Perot interferometer as a filter.
  • a Fabry-Perot interferometer 651 is provided in the interlayer insulating film 202, and enters the photodiode 152 provided on the lower substrate 111B via the Fabry-Perot interferometer 651. It is comprised so that light may inject.
  • the opening 302 of the aperture 301 is shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • Fabry-Perot interferometer 651 is composed of two semi-transparent mirrors 652 and 653, and the two semi-transparent mirrors 652 and 653 are arranged so as to face each other in parallel. It is.
  • the semi-transparent mirrors 652 and 653 are finished to have a reflecting surface having a high reflectance and a slight transmittance.
  • the light incident from one of Fabry-Perot interferometers 651 (upper side in the figure) is reflected back and forth between both reflecting surfaces and interferes with each other.
  • the light that has passed through the semi-transparent mirror 653 becomes interference light having a considerable length due to light that has reciprocated many times with a certain optical path difference. Therefore, if this is used as a spectroscope, a very high resolution can be obtained.
  • a wavelength to be analyzed by the Fabry-Perot interferometer 651 is selected from the light transmitted through the transmission pixels of the upper substrate 111A, and the selected light Can be received by the photodiode 152. That is, the imaging device 101 can selectively extract the wavelength to be analyzed.
  • the upper substrate 111A has pixels arranged in a two-dimensional array. Of the pixels arranged in a two-dimensional array, a predetermined pixel set as a transmissive pixel is provided with an opening 302, and Fabry-Perot interference is provided at the position where the opening 302 is provided. A total of 651 is provided. Therefore, a plurality of Fabry-Perot interferometers 651 are provided in the image sensor 101.
  • the plurality of Fabry-Perot interferometers 651 provided may be the same filter.
  • the imaging device 101 that can extract multispectral and hyperspectral data can be obtained.
  • the Fabry-Perot interferometer 651 since the Fabry-Perot interferometer 651 is provided between the upper substrate 111A and the lower substrate 111B, the Fabry-Perot interferometer 651 affects the image picked up by the pixels of the upper substrate 111A. It is possible to prevent the image quality from deteriorating.
  • the aperture 302 of the aperture 301 is disposed at a position shifted with respect to the transmissive pixel in accordance with the image height, as in the case described above. It is possible to perform spectroscopy using the Fabry-Perot interferometer 651 in a state where no occurs.
  • the pixels arranged on the lower substrate 111B may be used as a TOF (Time To Flight) type sensor. Even in such a configuration, as described above, the opening 302 of the aperture 301 is arranged to be shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • TOF Time To Flight
  • the photodiode 152 provided on the lower substrate 111B constitutes a TOF type sensor.
  • a TOF type sensor is a sensor that measures a distance using two pixels as a pair.
  • the TOF type sensor is a sensor that measures the distance to the object by measuring the time it takes for the light emitted from it to hit the object and reflect back.
  • the TOF type sensor operates, for example, at the timing shown in FIG.
  • the irradiation light is irradiated on the object for a predetermined time, for example, a time that is the pulse emission time Tp here.
  • the emitted illumination light hits the object and is reflected back. This reflected light is received by the photodiode 152.
  • the time from the start of the irradiation of the irradiation light to the reception of the reflected light is a time corresponding to the distance to the object.
  • the first photodiode 152 receives light for a pulse emission time Tp from the time when irradiation of irradiation light is started. During this time, the background light and the reflected light are received. A signal n0 is acquired from the amount of light received accumulated in one light reception.
  • the second photodiode 152 receives light for the pulse emission time Tp from the time when the light reception of the first photodiode 152 is completed. During this time, the background light and the reflected light are received. A signal n1 is acquired from the amount of received light accumulated in one light reception.
  • the signal n0 and the signal n1 are acquired by performing the driving in which the phase of the accumulation timing is completely reversed. Such driving is repeated a plurality of times, and accumulation and integration are performed, whereby signal N0 and signal N1 are acquired.
  • the distance D is calculated from the signals N0 and N1 obtained in this way.
  • the signal N0 and the signal N1 include signals accumulated by receiving the background light, the background light is excluded in order to leave the signal from the reflected light except for the background light. Are also accumulated and integrated, and a signal N2 is obtained.
  • the distance D is calculated by the following formulas (1) and (2) using the signal N0, the signal N1, and the signal N2 acquired in this way.
  • the photodiode 152 arranged on the lower substrate 111B can be used as a TOF type sensor to measure the distance D to the object.
  • the TOF type sensor is disposed on the lower substrate 111B, and thus does not affect the upper substrate 111A. Therefore, it is possible to obtain the imaging element 101 that can measure the distance without affecting the image obtained by the pixels of the upper substrate 111A.
  • the senor on the upper substrate 111A and the sensor on the lower substrate 111B can be different sensors. That is, the imaging element 101 having two independent sensors can be obtained.
  • the light transmitted through the upper substrate 111A is received by the photodiode 152 disposed on the lower substrate 111B.
  • the upper substrate 111A is made of, for example, silicon
  • a visible light region having a short wavelength is absorbed.
  • the irradiation light of the TOF type sensor near infrared light near 850 nm is often used.
  • the light reaching the lower substrate 111B is light from which the visible light region having a short wavelength is removed, and near-infrared light near 850 nm is used.
  • Providing many TOF type sensors on the lower substrate 111B is also advantageous in this respect.
  • the opening 302 of the aperture 301 is arranged at a position shifted with respect to the transmissive pixel in accordance with the image height, so that color mixing or the like occurs. In such a state, the distance can be measured by the TOF type sensor.
  • the pixels arranged on the lower substrate 111B may be used as an LFC (Light Field Camera). Even in such a configuration, as described above, the opening 302 of the aperture 301 is arranged to be shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • LFC Light Field Camera
  • the photodiode 152 provided on the lower substrate 111B constitutes a light field camera.
  • a light field camera is a camera that obtains a large number of light rays as a light field (light ray space) and obtains a final image by performing a kind of image processing on the light ray set.
  • a main function of the light field camera is a refocus function for generating an image in which the camera focal length is changed by post-processing after shooting.
  • Such a light field camera can be configured on the lower substrate 111B.
  • the light field camera needs to receive light transmitted through one on-chip lens 131 by a plurality of pixels.
  • FIG. 37 shows a configuration in which light is received by two pixels of the photodiode 152-1 and the photodiode 152-2, but the number of pixels is 4 ⁇ 4 or more. Further, when light transmitted from one on-chip lens 131 (transmission pixel) is received by a plurality of pixels (photodiode 152), a stereo image is obtained by that number. By obtaining a plurality of stereo images, the refocus function can be realized as described above.
  • the photodiode 152 disposed on the lower substrate 111B can be used as a light field camera.
  • the light field camera is arranged on the lower substrate 111B, and thus does not affect the upper substrate 111A. Therefore, it is possible to obtain the imaging element 101 that can measure the distance without affecting the image obtained by the pixels of the upper substrate 111A.
  • the senor on the upper substrate 111A and the sensor on the lower substrate 111B can be different sensors. That is, the imaging element 101 having two independent sensors can be obtained.
  • the aperture 302 of the aperture 301 is arranged at a position shifted with respect to the transmissive pixel in accordance with the image height, so color mixing occurs. In this state, it is possible to perform imaging with a light field camera.
  • the pixels arranged on the lower substrate 111B may be used as pixels for capturing a normal image, similarly to the pixels arranged on the upper substrate 111A. Even in such a configuration, as described above, the opening 302 of the aperture 301 is arranged to be shifted with respect to the transmissive pixel by a shift amount corresponding to the image height.
  • the photodiode 152 provided on the lower substrate 111B is used as a pixel for capturing a normal image.
  • the image sensor 101 shown in FIG. 38 is configured to be able to capture the same image with the upper substrate 111A and the lower substrate 111B.
  • the image captured by the lower substrate 111B may be used for an image displayed on the display unit 25 (FIG. 1) of the imaging device 10.
  • a preview image is displayed on the display unit 25 at the time of image capturing, and it is conceivable that an image obtained by thinning out an image captured by pixels of the upper substrate 111A is used as the preview image.
  • imaging is performed with two layers of pixels, so that an image captured with pixels on one layer is used as a preview image, and an image captured with pixels on the other layer is recorded. It is possible to selectively use such as making an image for use.
  • a recording image is captured by the pixels of the upper substrate 111A
  • a preview image is captured by the pixels of the lower substrate 111B.
  • an image captured with pixels on one layer can be a moving image
  • an image captured with pixels on the other layer can be a still image.
  • a still image can be captured with pixels on the upper substrate 111A and a moving image can be captured with pixels on the lower substrate 111B.
  • pixels on the upper substrate 111A pick up a visible light image and pixels on the lower substrate 111B pick up a near infrared image.
  • the opening 302 of the aperture 301 is positioned at a position shifted with respect to the transmissive pixel in accordance with the image height, as described above. Since they are arranged, it is possible to obtain an image photographed with pixels of each layer in a state where no color mixing occurs.
  • the imaging device 101 is configured by two layers of the upper substrate 111A and the lower substrate 111B has been described.
  • the imaging device 101 is configured by three layers. May be.
  • the imaging element 101 has a three-layer structure in which a substrate 701 is provided between the upper substrate 111A and the lower substrate 111B.
  • the present technology can be applied to a multilayer structure such as a three-layer structure as well as a two-layer structure.
  • a structure in which a sufficient amount of light is transmitted to the lower layer can be provided by providing a through-hole in silicon.
  • a through hole may be provided.
  • a through-hole 702 is provided in the silicon of the upper substrate 111A set as a transmissive pixel.
  • the through-hole 702 light can easily pass through the through-hole 702 to the lower substrate 111B.
  • the color of the on-chip color filter 132 of the transmissive pixel may be any of so-called RGB such as red, green, and blue, and may be white (W) or transparent.
  • RGB red, green, and blue
  • W white
  • the color of the on-chip color filter 132 of the transmissive pixel may be any of so-called RGB such as red, green, and blue, and may be white (W) or transparent.
  • RGB red, green, and blue
  • W white
  • a pixel (sensor) that has shifted to the second layer can be detected with high sensitivity.
  • the opening 302 of the aperture 301 has been described as an example of being configured in a two-dimensional manner (two-dimensional). However, as illustrated in FIG. 41, the aperture 302 is configured in a three-dimensional manner.
  • metal is formed in the upper direction in the drawing, and the metal is provided not only in the horizontal direction (horizontal direction) but also in the vertical direction (vertical direction).
  • the aperture 301 has been described as being made of metal.
  • the aperture 301 may be made of a material other than metal as long as it does not transmit light.
  • the aperture 301 is provided as a part of the multilayer wiring layer 201, it is necessary to have conductivity.
  • the opening 302 of the aperture 301 (multilayer wiring layer 201) is configured to be asymmetrical so that unnecessary light such as color mixture from adjacent pixels is cut, and necessary light is cut. It can be set as the structure which can take in more. Further, it is possible to cope with light having a high incident angle.
  • FIG. 42 is a diagram illustrating a usage example in which the above-described imaging device and the electronic device including the imaging device are used.
  • the imaging device described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports such as action cameras and wearable cameras for sports applications etc.
  • Equipment used for agriculture such as cameras for monitoring the condition of fields and crops
  • system represents the entire apparatus composed of a plurality of apparatuses.
  • this technique can also take the following structures.
  • a photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is laminated in two or more layers, A configuration in which light incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens is configured.
  • a light-shielding layer that shields light transmitted through the first photoelectric conversion layer is provided, The light shielding layer is provided with an opening for transmitting light from the first photoelectric conversion layer to the second photoelectric conversion layer, The opening is asymmetrically opened with respect to the pixels of the first photoelectric conversion layer.
  • the imaging element according to (1), wherein the asymmetry of the opening is different depending on the image height of the optical lens.
  • the side that constitutes the opening is provided at a shifted position with respect to the side that constitutes the pixel of the first photoelectric conversion layer where the opening is located. Of the sides constituting the opening, the first side located on the center side of the optical lens and the second side different from the first side are shifted by different shift amounts.
  • the imaging device according to any one of 1) to (3).
  • the pixel of the photoelectric conversion unit of the second photoelectric conversion layer is configured in a state where it is half-shielded by the light shielding unit,
  • a light shielding portion formed in a grid shape that shields light transmitted through the first photoelectric conversion layer is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer.
  • the imaging device according to any one of (9) to (9).
  • a narrow band filter is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer, The light transmitted through the first photoelectric conversion layer reaches the photoelectric conversion unit of the second photoelectric conversion layer through the filter. Imaging according to any one of (1) to (9) element.
  • a plasmon filter is further provided between the first photoelectric conversion layer and the second photoelectric conversion layer, The light that has passed through the first photoelectric conversion layer reaches the photoelectric conversion unit of the second photoelectric conversion layer via the plasmon filter, according to any one of (1) to (9). Image sensor.
  • a photoelectric conversion layer having a photoelectric conversion unit divided into pixel units is laminated in two or more layers, A configuration in which light incident on one pixel of the first photoelectric conversion layer on the side close to the optical lens is received by the photoelectric conversion unit of the second photoelectric conversion layer on the side far from the optical lens is configured.
  • a light-shielding layer that shields light transmitted through the first photoelectric conversion layer.
  • the light shielding layer is provided with an opening for transmitting light from the first photoelectric conversion layer to the second photoelectric conversion layer,
  • the opening is an electronic device including an imaging element that is opened asymmetrically with respect to the pixels of the first photoelectric conversion layer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本技術は、混色を低減した撮像を行えるようにすることができるようにする撮像素子、電子機器に関する。 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、光学レンズから遠い側の第2の光電変換層の光電変換部で受光される状態を含むように構成され、第1の光電変換層と第2の光電変換層との間に、第1の光電変換層を透過してきた光を遮光する遮光層を備え、遮光層には、第1の光電変換層からの光を第2の光電変換層まで透過させるための開口部が設けられ、開口部は、第1の光電変換層の画素に対して、非対称に開口されている。本技術は、多層構造の撮像素子に適用できる。

Description

撮像素子、電子機器
 本技術は、撮像素子、電子機器に関する。詳しくは、撮像画像の高画質化を図ることができる撮像素子、電子機器に関する。
 光電変換素子として有機光電変換膜を用いた撮像素子がある(例えば、特許文献1参照)。有機光電変換膜は薄膜で色分離と受光を同時に行うことができるため、開口率が高く、オンチップレンズは基本的に不要である。
 有機光電変換膜の下のシリコン層にもフォトダイオードを設け、有機光電変換膜で画像を取得しながら、シリコン層のフォトダイオードで位相差検出を行うようにしたものもある(例えば、特許文献2参照)。
特許第5244287号公報 特開2011-103335号公報
 しかしながら、特許文献2に開示の構造では、オンチップレンズの焦光点をシリコン層のフォトダイオードに設定すると、オンチップレンズの曲率半径が小さくなり、斜入射特性が悪化してしまう。そのため、像高(光学中心からの距離)が大きくなるほど、受光量が少なくなり、シェーディングと呼ばれる感度ムラが発生する。
 本開示は、このような状況に鑑みてなされたものであり、撮像画像の高画質化を図ることができるようにするものである。
 本技術の一側面の撮像素子は、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光する遮光層を備え、前記遮光層には、前記第1の光電変換層からの光を前記第2の光電変換層まで透過させるための開口部が設けられ、前記開口部は、前記第1の光電変換層の画素に対して、非対称に開口されている。
 前記光学レンズの像高に応じて、前記開口部の非対称性が異なるようにすることができる。
 前記光学レンズの像高が高くなると、前記開口部の非対称性は大きくなるようにすることができる。
 前記開口部を構成する辺は、前記開口部が位置する前記第1の光電変換層の画素を構成する辺に対して、シフトされた位置に設けられ、前記開口部を構成する辺のうち、前記光学レンズの中心側に位置する第1の辺と、前記第1の辺とは異なる第2の辺とでは、異なるシフト量でシフトされているようにすることができる。
 前記シフトは、水平方向に対して行われるようにすることができる。
 前記シフトは、水平方向と斜め方向に対して行われるようにすることができる。
 前記シフトは、垂直方向に対して行われるようにすることができる。
 前記シフトは、垂直方向と斜め方向に対して行われるようにすることができる。
 前記シフトは、水平方向、垂直方向、斜め方向の少なくとも1方向に対して行われるようにすることができる。
 前記第2の光電変換層の前記光電変換部の画素は、位相差検出用の画素であるようにすることができる。
 前記遮光層と前記第2の光電変換層との間に、前記開口部を透過してきた光を遮光する遮光部をさらに備え、前記第2の光電変換層の前記光電変換部の画素は、前記遮光部により半分遮光された状態で構成され、前記第2の光電変換層の前記光電変換部の画素は、位相差検出用の画素とされているようにすることができる。
 前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光するグリッド状に形成された遮光部をさらに備えるようにすることができる。
 隣接して配置されている前記遮光部のグリッド同士は、異なる方向のグリッドとされているようにすることができる。
 前記第1の光電変換層と前記第2の光電変換層との間に、狭帯域のフィルタをさらに備え、前記第1の光電変換層を透過してきた光は、前記フィルタを介して、前記第2の光電変換層の前記光電変換部に到達するようにすることができる。
 前記第1の光電変換層と前記第2の光電変換層との間に、プラズモンフィルタをさらに備え、前記第1の光電変換層を透過してきた光は、前記プラズモンフィルタを介して、前記第2の光電変換層の前記光電変換部に到達するようにすることができる。
 前記第1の光電変換層と前記第2の光電変換層との間に、ファブリーペロー干渉計をさらに備え、前記第1の光電変換層を透過してきた光は、前記ファブリーペロー干渉計を介して、前記第2の光電変換層の前記光電変換部に到達するようにすることができる。
 前記第2の光電変換層の前記光電変換部は、TOF(Time Of Flight)型のセンサを構成するようにすることができる。
 前記第2の光電変換層の前記光電変換部は、ライトフィールドカメラ(Light Field Camera)を構成するようにすることができる。
 前記第2の光電変換層の前記光電変換部は、被写体を撮像し、画像を取得する素子として用いられるようにすることができる。
 本技術の一側面の電子機器は、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光する遮光層を備え、前記遮光層には、前記第1の光電変換層からの光を前記第2の光電変換層まで透過させるための開口部が設けられ、前記開口部は、前記第1の光電変換層の画素に対して、非対称に開口されている撮像素子を備える。
 本技術の一側面の撮像素子においては、画素単位に分割された光電変換部を有する光電変換層が2層以上に積層され、光学レンズに近い側の第1の光電変換層の1画素に入射された光が、光学レンズから遠い側の第2の光電変換層の光電変換部で受光される状態を含むように構成されている。また、第1の光電変換層と第2の光電変換層との間に、第1の光電変換層を透過してきた光を遮光する遮光層が備えられ、遮光層には、第1の光電変換層からの光を第2の光電変換層まで透過させるための開口部が設けられ、開口部は、第1の光電変換層の画素に対して、非対称に開口されている。
 本技術の一側面の電子機器においては、前記撮像素子が備えられる。
 本技術の一側面によれば、撮像画像の高画質化を図ることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示に係る撮像素子を含む撮像機構を示す図である。 本技術を適用した撮像素子の構成について説明するための図である。 本技術を適用した撮像素子の構成について説明するための図である。 従来の撮像素子の構成を示す図である。 開口部の大きさに依存して発生する混色について説明するための図である。 開口部の大きさに依存して発生する混色について説明するための図である。 開口部の大きさに依存して発生する混色について説明するための図である。 撮像素子の構成について説明するための図である。 開口部の左右非対称性について説明するための図である。 開口部のシフトについて説明するための図である。 像高とシフト量について説明するための図である。 像高とシフト量について説明するための図である。 オンチップレンズにおける光の屈折について説明するための図である。 開口部のシフトについて説明するための図である。 開口部のシフトについて説明するための図である。 開口部のシフトについて説明するための図である。 開口部のシフトについて説明するための図である。 位相差検出画素について説明するための図である。 位相差検出画素の配置について説明するための図である。 位相差検出画素の配置について説明するための図である。 位相差検出結果について説明するための図である。 遮光画素の構成について説明するための図である。 遮光画素の構成について説明するための図である。 遮光画素における検出強度について説明するための図である。 混色の発生について説明するための図である。 グリッド遮光膜の構成について説明するための図である。 グリッド遮光膜の構成について説明するための図である。 グリッド遮光膜の他の構成について説明するための図である。 グリッド遮光膜の他の構成について説明するための図である。 狭帯域フィルタを設けた撮像素子の構成を示す図である。 プラズモンフィルタを設けた撮像素子の構成を示す図である。 プラズモンフィルタの構成を示す図である。 ファブリーペロー干渉計を有する撮像素子の構成を示す図である。 ファブリーペロー干渉計の構成を示す図である。 TOF型センサを有する撮像素子の構成を示す図である。 TOF型センサの動作について説明するための図である。 LFC型センサを有する撮像素子の構成を示す図である。 2層で撮像を行う構成としたときの撮像素子の構成を示す図である。 撮像素子の他の構成について説明するための図である。 撮像素子の他の構成について説明するための図である。 撮像素子の他の構成について説明するための図である。 撮像素子の使用例について説明するための図である。
 以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
 1.撮像装置の構成
 2.撮像機構の構成
 3.開口部の大きさによる混色について
 4.本技術を適用した撮像素子の構成
 5.2層目の画素を位相差検出用の画素とした実施の形態
 6.グリッド状の遮光膜を有する構成について
 7.狭帯域フィルタを有する構成について
 8.プラズモンフィルタを有する構成について
 9.ファブリーペロー干渉計を有する構成について
 10.TOF型センサを有する構成について
 11.LFC型センサを有する構成について
 12.2層で画像を撮像する構成について
 13.他の構成について
 14.撮像素子の使用例
 <撮像装置の構成>
 以下に説明する本技術は、デジタルスチルカメラやビデオカメラ等の撮像装置や、携帯電話機などの撮像機能を有する携帯端末装置や、画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に半導体パッケージを用いる電子機器全般に対して適用可能である。
 図1は、本技術に係る電子機器、例えば撮像装置の構成の一例を示すブロック図である。図1に示すように、本技術に係る撮像装置10は、レンズ群21等を含む光学系、撮像素子(撮像デバイス)22、DSP(Digital Signal Processor)回路23、フレームメモリ24、表示部25、記録部26、操作部27、および電源部28等を有する。そして、DSP回路23、フレームメモリ24、表示部25、記録部26、操作部27および電源部28がバスライン29を介して相互に接続されている。
 レンズ群21は、被写体からの入射光(像光)を取り込んで撮像素子22の撮像面上に結像する。撮像素子22は、レンズ群21によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
 DSP回路23は、撮像素子22からの信号を処理する。例えば、詳細は後述するが、撮像素子22には、焦点を検出するための画素があり、そのような画素からの信号を処理し、焦点を検出する処理を行う。また、撮像素子22には、撮影された被写体の画像を構築するための画素があり、そのような画素からの信号を処理し、フレームメモリ24に展開するといった処理も行う。
 表示部25は、液晶表示装置や有機EL(electro luminescence)表示装置等のパネル型表示装置からなり、撮像素子22で撮像された動画または静止画を表示する。記録部26は、撮像素子22で撮像された動画または静止画を、ビデオテープやDVD(Digital Versatile Disk)等の記録媒体に記録する。
 操作部27は、ユーザによる操作の下に、本撮像装置が持つ様々な機能について操作指令を発する。電源部28は、DSP回路23、フレームメモリ24、表示部25、記録部26および操作部27の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 <撮像機構の構成>
 図2は、本開示に係る撮像素子を含む撮像機構を示す図である。
 本開示に係る撮像素子101は、図2に示されるように、光学レンズ102によって集光された被写体3の光を受光する。撮像素子101は、図1における撮像素子22に該当する。光学レンズ102は、図1における撮像装置10の光学レンズ群21に該当する。
 撮像素子101は、例えば、2枚の半導体基板111Aと111Bとが積層された複合型の撮像素子である。半導体基板111Aと111Bのそれぞれには、光電変換部と、そこで光電変換された電荷を検出する電荷検出部を有する光電変換層が形成されている。半導体基板111Aと111Bの半導体は、例えば、シリコン(Si)である。2枚の半導体基板111Aと111Bの間には、アパーチャ112が形成されている。
 なお、以下では、2枚の半導体基板111Aと111Bのうち、光学レンズ102に近い方の半導体基板111Aを上側基板111Aと称し、光学レンズ102から遠い方の半導体基板111Bを下側基板111Bと称する。また、2枚の半導体基板111Aと111Bを特に区別しない場合には、単に、基板111とも称する。
 図3は、撮像素子101の概略構成を示す図である。
 上側基板111Aには、画素121Aが2次元アレイ状に複数配列されている。各画素121Aには、オンチップレンズ131が形成されている。上側基板111Aに配列された複数の画素121Aで得られる画素信号は、画像生成用の信号として利用される。したがって、上側基板11Aは、画像センサとして機能する。
 下側基板111Bにも、画素121Bが2次元アレイ状に複数配列されている。下側基板111Bに配列された複数の画素121Bで得られる画素信号は、例えば、後述するように、位相差検出用の信号として用いることができる。このような場合、下側基板111Bは、位相差検出センサとして機能する。
 アパーチャ112には、図3に示されるように、開口部123が、所定の間隔で形成されている。これにより、上側基板111Aの画素121Aには、入射光を下側基板111Bへ透過させる画素と、下側基板111Bへ透過させない画素とがある。
 例えば、図2に示されるように、アパーチャ112の開口部121に対応する上側基板111Aの1画素(以下、透過画素という。)を通過した入射光は、下側基板111Bの2×2の4画素に入射される構成とされている。
 なお、図2及び図3は、上側基板111Aの透過画素と、そこからの入射光を受光する下側基板111Bの受光画素との関係を説明するための図であり、上側基板111Aと下側基板11Bの画素サイズの縮尺が異なっている。
 このように、本技術を適用した撮像素子101においては、画素を2層に配置し、例えば、上層に配置されている画素を、通常撮影を行う画素とし、下層に配置されている画素を、位相差検出画素とするといったように、それぞれ別の機能を有する画素として用いることができる。
 積層構造ではない単層構造のイメージセンサの一部に位相差画素を配置した像面位相差センサにおいて、オンチップレンズの集光点は、理想的には、シリコン層のフォトダイオード表面であるが、実際には、シリコン層の深い位置となる。そのため、撮像用の集光点と、位相差検出用の集光点が異なり、マイクロレンズの最適化が両立できにくいという問題があった。
 また、シリコン層のフォトダイオード表面にオンチップレンズの焦光点を設定すると、オンチップレンズの曲率半径が小さくなり、斜入射特性が悪化してしまう。そのため、像高(光学中心からの距離)が大きくなるほど、受光量が少なくなり、シェーディングが発生する。
 そこで、撮像素子101では、2枚の基板111を積層し、後述するように位相差検出用の画素を下側基板111Bに配置することで、オンチップレンズの曲率半径を大きくすることができ、シェーディングの発生を抑制することができる。
 また、後述するように上側基板111Aの1画素を通過した入射光を、2×2より大きい複数画素で受光するように構成することも可能であるため、多視点分離を行えるようになり、位相差画素の分離性能を向上させ、位相差オートフォーカスの高性能化が可能になる。
 図4は、撮像素子101の断面図である。撮像素子101の上部には、上側基板111Aがあり、オンチップレンズ131、オンチップカラーフィルタ132、フォトダイオード133が配置されている。オンチップレンズ131、オンチップカラーフィルタ132、フォトダイオード133は、画素121A(図2)を構成する。
 ここでは、上側基板111Aには、フォトダイオード133が配置されているとして説明するが、フォトダイオード133が配置される光電変換層は、有機光電変換膜などで構成されるようにしても良い。また、有機光電変換膜で構成される場合、複数の光電変換層から構成されるようにしても良い。またここでは、裏面照射型で形成された上側基板111Aを例にあげて説明するが、本技術は、裏面照射型、表面照射型のどちらにでも適用できる。
 上側基板111Aのフォトダイオード133の下側には、複数の配線層と層間絶縁膜を含む多層配線層201が形成されている。多層配線層201には、上側基板111A近傍に、フォトダイオード133に蓄積された信号電荷を読み出す読み出し回路を構成する複数のトランジスタ回路が形成されているように構成することも可能である。
 上側基板111Aの下側には、アパーチャ112が配置されている。
 下側基板111Bは、例えば、n型(第1導電型)の半導体領域であるシリコン層により構成され、そのシリコン層内に、光電変換部としてのフォトダイオードが、pn接合により画素毎に形成されているように構成することができる。下側基板111Bの画素サイズは、上側基板111Aの画素と異なるサイズであっても良い。
 下側基板111Bの上側または下側に、フォトダイオードに蓄積された信号電荷を読み出す読み出し回路を構成する複数のトランジスタ回路、複数の配線層、層間絶縁膜などを含む多層配線層が形成されようにしても良い。図4に示した実施の形態においては、上側基板111Aと下側基板111Bは、層間絶縁膜202を介して接合(接着)されている。
 下側基板111Bには、画素152-1乃至152-5が配置されている。画素152は、図2の画素121Bに該当する。ここでは、画素152-1乃至152-5は、それぞれフォトダイオードであるとし、適宜、フォトダイオード152とも記述する。
 また、画素152-1乃至152-5を、適宜、画素群151と記述する。画素群151は、5画素が含まれる場合に限定されるわけではなく、複数の画素が含まれていれば良い。
 画素152-11乃至152-5は、1枚のオンチップレンズ131を透過してきた光を受光する。
 多層配線層201の配線層は、銅などで構成される配線を含む。多層配線層201は、アパーチャ112と合わせて遮光膜としても機能するように構成することも可能である。図4に示すように、図中中央部分に示したオンチップレンズ131をオンチップレンズ131Aとした場合、オンチップレンズ131Aを透過した光が、アパーチャ112の開口部123を介して、画素152-1乃至152-5のいずれかに受光されるように構成されている。
 一方で、オンチップレンズ131Aとは異なるオンチップレンズ131、例えば、オンチップレンズ131Aの右隣のオンチップレンズ131Bからの光は、アパーチャ112により透過されず、画素152-1乃至152-5に受光されないように構成されている。
 このように、1枚のオンチップレンズ131を透過した光が、下側基板111Bの画素群151に受光されるように、アパーチャ112により遮光が行われる構成とされている。
 <開口部の大きさによる混色について>
 アパーチャ112の開口部123の大きさは、例えば、図3に示したように、上側基板111Aの画素121Aと同サイズの1画素サイズで形成することができる。換言すれば、透過画素と同一の大きさで、真下に位置する位置に形成することができる。図4は、画素121Aと同サイズで構成されている場合である。このように、開口部123の大きさを画素121Aと同サイズ、同位置とした場合、反射や回折が起こり、集光効率が低下してしまう可能性がある。
 このことについて図5を参照して説明する。図5は、図4に示したような構成を有する撮像素子101における光の入射角と画素152における受光量との関係を表すグラフである。図5に示したグラフの横軸は、光線の入射角度(angle)を表し、縦軸は、感度特性(Pabs total)を表す。図中の数字は、画素152-1乃至152-5(図4)をそれぞれ表す数字であり、例えば、“1”は、画素152-1を表す。
 図5に示した位相差特性を表すグラフにおいて、光線の入射角度により、ピーク値を得る画素が異なることが読み取れる。例えば、光線の入射角度が0度の場合、画素152-5が最もピーク値が高く、光線の入射角度が-15度の場合、画素152-4が最もピーク値が高い。
 また、図5から、画素152-1乃至画素152-5で受光される受光量は低く、特に、高入射角の光、例えば、図5においては、-30度以下の入射角においては、ほとんど受光されていないことが読み取れる。画素152-1や画素152-2では、ピークがあるグラフを得ることができない状態である。
 アパーチャ112を、画素121Aと同サイズ、同位置で構成した場合、隣接画素からの混色は低減するが、必要な光がケラレてしまい、受光量が低減してしまう。
 そこで、アパーチャ112の開口部123を広くした場合を考える。アパーチャ112の開口部123を広くした場合(不図示)の図4に示したような構成を有する撮像素子101における光の入射角と画素152の受光量との関係を表すグラフを、図6に示す。
 図6に示したグラフは、図5に示したグラフと同じく、横軸は、光線の入射角度を表し、縦軸は、感度特性を表し、図中の数字は、画素152-1乃至152-5(図4)をそれぞれ表す数字である。
 図5に示したグラフと図6に示したグラフを比較するに、図6に示したグラフの方が、全体的に感度が上がっていることが読み取れる。また、例えば、入射角度が-25~-20度の範囲でピークを有するグラフ(画素152-3の感度を表すグラフ)を参照するに、高入射角においても、レベルが上がっており、高入射角の光も受光していることが読み取れる。
 アパーチャ112の開口部123を広く構成することで、必要な光がケラレなくすることが可能となる。しかしながら、隣接画素からの混色が大きくなってしまう。
 理想的には、図7に示すようなグラフが得られる開口部123となるのが好ましい。図7に示したグラフは、図5や図6に示したグラフと同じく、横軸は、光線の入射角度を表し、縦軸は、感度特性を表し、図中の数字は、画素152-1乃至152-5(図4)をそれぞれ表す数字である。
 図7に示したグラフを参照するに、画素152-1乃至152-5のどの画素においてもピークが得られている。このことから、画素152のいずれかにおいて、高入射角を含めて、感度良く受光されているため、画素群151としても、感動良い受光が実現されていることが読み取れる。
 また、入射角度が-25~-20度の範囲でピークを有するグラフ(画素152-3の感度を表すグラフ)を参照するに、入射角度が-25~-20度の範囲外のところでは、レベルが下がっており、隣接画素からの混色の影響が抑えられていることが読み取れる。
 このようなグラフが得られる撮像素子101について以下に説明する。
 <本技術を適用した撮像素子の構成>
 図8は、本技術を適用した撮像素子101の一実施の形態の構成を示す図である。図8に示した撮像素子101と図4に示した撮像素子101は、基本的に同様の構成を有するが、アパーチャ112の開口部123の位置、大きさ、形状などが異なる。ここでは、図4に示した撮像素子101のアパーチャ112と異なることを示すためにアパーチャ301とし、開口部123も開口部302として記述する。
 図8に示したアパーチャ301の開口部302は、2つの画素にまたがるような位置に形成されている。すなわち、透過画素の真下に開口部302が設けられているような上述した構成とは異なる構成とされている。アパーチャ301は、メタルなど、光を透過しない材料で形成され、上側基板111Aを透過してきた光を遮光する遮光層として機能とする。よって、上側基板111Aを透過してきた光のうち、開口部302を透過する光以外は、アパーチャ112により遮光され、下側基板111Bには到達しないように構成されている。
 なお、多層配線層201も、アパーチャ301の開口部302の部分は開口されている。よって、以下の説明は、多層配線層201の開口部分にも適用される。またここでは、アパーチャ301と多層配線層201は、別体とし、アパーチャ301を例に挙げて説明を続けるが、アパーチャ301の機能(遮光機能)を多層配線層201に持たせ、アパーチャ301を削除した構成にすることも可能である。または、アパーチャ301を伝導性を有する材料で構成し、多層配線層201としても機能するように構成することも可能である。
 すなわち、上側基板111Aと下側基板111Bの間に設けられる遮光層は、アパーチャ301で構成されていても良いし、アパーチャ301と多層配線層201で構成されていても良いし、多層配線層201で構成されていても良い。
 開口部302は、オンチップレンズ131Aの中央部分付近から始まり、隣接するオンチップレンズ131Cの中央部分付近まで設けられている。このように、開口部302は、上側基板111Aに設けられている1画素(フォトダイオード133)の下に設けられているのではなく、複数の画素をまたぐように設けられている。
 さらに図9を参照し、開口部302の大きさについて説明する。オンチップレンズ131Aとオンチップレンズ131Cを図示し、それぞれの中心軸を点線で図示した。1つのオンチップレンズ131の直径、換言すれば、1画素の幅の大きさを大きさaとする。
 アパーチャ301の開口部302は、図9に示すように、オンチップレンズ131Aの中心軸から、大きさbだけ右側にいったところから開始されている。また開口部302は、オンチップレンズ131Aの端から、大きさdだけ左側にいったところで終了している。開口部302には、大きさbも含まれ、この大きさbは、大きさaの半分(オンチップレンズ131Aの半径)に該当する。
 この場合、開口部302の大きさは、大きさ(b+c+d)となる。この大きさ(b+c+d)は、大きさaと同じ大きさであっても良いし、大きさaよりも小さいまたは大きくても良い。
 オンチップレンズ131Aに注目したとき、換言すれば、開口部302が設けられている透過画素に注目したとき、開口部302は、中心軸から同じ大きさで設けられているのではなく、左右非対称で設けられている。図9で示した例では、オンチップレンズ131Aの中心軸に対して、右側に設けられている開口部302の大きさは、大きさbであり、左側に設けられている開口部302の大きさは、大きさ(c+d)である。この大きさbと大きさ(c+d)は同じ大きさではなく、異なる大きさである。
 このように、オンチップレンズ131A(透過画素)から、開口部302をみたとき、左右の大きさが異なり、左右非対称に設けられている。
 図4を再度参照するに、図4に示したアパーチャ112の開口部123は、オンチップレンズ131Aの真下に設けられ、中心軸からの大きさが等しく、左右対称に設けられている。このように、開口部123を、オンチップレンズ131Aの中心軸に対して左右対称に設けると、図5、図6を参照して説明したように、ケラレや混色が発生する可能性があった。
 しかしながら、図8、図9を参照して説明したように、アパーチャ301の開口部302のように、オンチップレンズ131Aの中心軸からの大きさが異なり、左右非対称に設けることで、必要な光がケラレることなく、また隣接画素からの混色を防ぐことが可能となり、図7に示したようなグラフを得ることができる撮像素子101とすることが可能となる。
 開口部302は、撮像素子101の上側からみたとき、図10に示すような位置、形状、大きさで設けられる。図10は、画面イメージを表し、開口部302が設けられている画面イメージ内の1層目の上側基板111Aに配置されている画素(図10では、フォトダイオード133)を表す図である。
 図10に示した画面イメージ401は、撮像装置10(図1)で撮像された画像の一部を表し、その画面イメージ401内に、5個の開口部302-1乃至302-5が配置され、それぞれの開口部302-1乃至302-5が配置されているフォトダイオード133-1乃至133-5を図示している。図10において、開口部302は、四角形の枠で表し、フォトダイオード133(画素)は、斜線を付した四角形(正方形)で表している。
 なお、図10、また以下の説明においては、5画素を例に挙げて説明するが、数画素から全画素まで、開口部302を設けることは可能であり、用途や精度に応じて、適宜、その数や、配置位置は変更可能であり、また後述するシフト量なども変更可能である。
 画面イメージ401の中央部分に配置されたフォトダイオード133-3の位置に配置された開口部302-3は、ほぼ左右対象となる大きさで開口されている。フォトダイオード133-3の左隣に配置されたフォトダイオード133-2の位置に配置された開口部302-2は、左右非対称となる大きさで開口されており、フォトダイオード133-3に対して、左側にシフトした位置に開口されている。
 フォトダイオード133-2の左隣に配置されたフォトダイオード133-1の位置に配置された開口部302-1は、左右非対称となる大きさで開口されており、フォトダイオード133-1に対して、左側にシフトした位置に開口されている。また開口部302-1は、開口部302-2と比較して、シフト量が大きく構成されている。
 同様に、フォトダイオード133-3の右隣に配置されたフォトダイオード133-4の位置に配置された開口部302-4は、左右非対称となる大きさで開口されており、フォトダイオード133-4に対して、右側にシフトした位置に開口されている。
 フォトダイオード133-4の右隣に配置されたフォトダイオード133-5の位置に配置された開口部302-5は、左右非対称となる大きさで開口されており、フォトダイオード133-5に対して、右側にシフトした位置に開口されている。また開口部302-5は、開口部302-4と比較して、シフト量が大きく構成されている。
 このように、開口部302のフォトダイオード133に対する位置は、開口部302の位置により異なる。図10に示した例では、画面イメージ401の中央部分から端部分へ向かうほど、フォトダイオード133の中心軸からのシフト量が大きくなるように構成されている。換言すれば、光学レンズ102(図2)の像高に応じて、開口部302の位置が設定されている。
 すなわち、図10に示した例では、像高が0割付近(画面イメージ401の中央付近)から像高が上がる(画面イメージ401の端付近)につれて、シフト量が増すように構成されている。換言すれば、像高が高くなるほど、開口部302の非対称性が増すように構成されている。
 また、像高が高くなるほど、開口部302の開口面積が大きくなるようにしても良い。開口面積が像高に応じて広くなるようにした場合、その開口面積(シフト量)は、例えば、図11または図12に示したグラフに基づいて設定することができる。図11、図12に示したグラフにおいて、横軸は、像高を表し、縦軸は絞りシフト量を表す。またグラフ中の太線は、中心側のシフト量を表し、細線は、周辺側のシフト量を表す。
 中心側とは、像高が0割(像高中心)の方に向いている側のことを意味し、開口部302の中心側の辺とは、例えば、図10の開口部302-2においては、右側に位置する辺であり、開口部302-4においては、左側に位置する辺である。
 周辺側とは、中心側の反対側のことであり、像高が10割の方に向いている側のことを意味し、開口部302の周辺側の辺とは、例えば、図10の開口部302-2においては、左側に位置する辺であり、開口部302-4においては、右側に位置する辺である。
 図11を参照するに、像高0割のシフト量は、中心側、周辺側、共に0である。像高0割の画素は、フォトダイオード133-3(図10)のところであり、フォトダイオード133-3のところの開口部302-3はシフト量が0とされる。よって、図10に示したように、フォトダイオード133-3と開口部302-3は、ほぼ重なるような状態で設けられ、左右対称にはされていない。
 また像高9割のシフト量は、中心側が、約3(a.u.)であり、周辺側が、約6(a.u.)である。像高9割の画素が、フォトダイオード133-5(図10)のところであるとした場合、フォトダイオード133-5のところの開口部302-3の中心側の辺のシフト量は、約3とされ、周辺側のシフト量は、約6とされる。
 中心側のシフト量は、中心側の辺を、フォトダイオード133に対して、左方向または右方向にシフトさせる量であり、像高に応じて設定される。この場合、開口部302-5の中心側の辺(左辺)は、フォトダイオード133-5の左辺よりも約3(a.u.)だけ右方向にシフトした位置に設けられる。
 同様に、周辺側のシフト量は、周辺側の辺を、フォトダイオード133に対して、左方向または右方向にシフトさせる量であり、像高に応じて設定される。この場合、開口部302-5の周辺側の辺(左辺)は、フォトダイオード133-5の右辺よりも約6(a.u.)だけ右方向にシフトした位置に設けられる。
 中央に位置するフォトダイオード133よりも左側に位置するフォトダイオード133に対して設けられる開口部302は、フォトダイオード133の左辺(周辺側)または右辺(中心側)に対して、左方向に、像高に応じたシフト量でシフトされる。
 中心側と周辺側でのシフト量が異なるため、像高が高くなるにつれて、開口部302の開口面積も大きくなる。
 図11に示したシフト量は、像高に比例して同一の比率で増加する場合を示したが、図12に示すように、像高に応じて、同一の比率で増加しないようなシフト量でも良い。図12を参照するに、像高0乃至5割までの傾きと、像高5割から10割までの傾きは同一の傾きではない。
 このように、像高に応じて単純に比例するのではなく、所定の像高において、傾きが変わるようなグラフに基づき、シフト量が設定されるようにしても良い。このようにする理由について、図13を参照して説明する。
 図13には図示していないが、光学レンズ102(図2)の像高が変わると、オンチップレンズ131に入射する入射光の角度も変化する。図13の左図は、光学レンズ102に入射された入射光の入射角が小さい場合を示し、図13の右図は、入射角が大きい場合を示している。
 また、図13に示したように、オンチップレンズ131は、球面形状を有している。このようなことから、光学レンズ102に入射してきた入射光の角度と、オンチップレンズ131で屈折した後の光の角度は比例しない場合がある。よって、図12に示したように、所定の像高で、傾きが異なるグラフに基づき、シフト量を設定することで、アパーチャ301が必要な光を透過させる効果と、不要な光をカットする効果を最大限に得ることが可能となる。
 なお、図12では、傾きが2つ設定されている場合を示したが、設定されている傾きは、2つ以上であっても良い。また、図12に示したような傾きが複数設定されているグラフを用いて、シフト量を設定した場合の効果が、無視できるような場合や、考慮する必要が無い場合などには、図11に示したような傾きが1個設定されているグラフを適用して、シフト量を設定しても良い。
 図10に示した開口部302の例は、画面イメージ401の水平方向(横方向)に配置された開口部302の例である。図10には示していないが、開口部302-1乃至302-5の上側や下側(垂直方向)にも開口部は設けられており、水平方向で同一の位置に配置されている開口部302は、同一のシフト量でシフトされ、同一の開口面積とされている。
 このように、水平方向にのみ、シフト量を設け、開口部302が構成されるようにしても良いが、図14に示すように、水平方向と斜め方向に対して、シフト量を設定し、開口部302が構成されるようにしても良い。
 シフト量としては、図11に示したグラフ、または図12に示したグラフに基づき設定されるようにすることができる。この場合、中央より左上側に位置する画素、例えば、フォトダイオード133-2-1においては、中心側の辺は、開口部302-2-1の右辺とされ、周辺側の辺は、開口部302-2-1の左辺と上辺とされる。また開口部302-2-1の下辺は、垂直方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 また、中央より右上側に位置する画素、例えば、フォトダイオード133-4-1においては、中心側の辺は、開口部302-4-1の左辺とされ、周辺側の辺は、開口部302-4-1の右辺と上辺とされる。また開口部302-4-1の下辺は、垂直方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 また、中央より左下側に位置する画素、例えば、フォトダイオード133-2-2においては、中心側の辺は、開口部302-2-2の右辺とされ、周辺側の辺は、開口部302-2-2の左辺と下辺とされる。また開口部302-2-2の上辺は、垂直方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 また、中央より右下側に位置する画素、例えば、フォトダイオード133-4-2においては、中心側の辺は、開口部302-4-2の左辺とされ、周辺側の辺は、開口部302-4-2の右辺と下辺とされる。また開口部302-4-2の上辺は、垂直方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 このように、垂直方向に関する辺はシフトせず、水平方向に関する辺と斜め方向に関する辺は、それぞれシフトされる。
 図15に示すように、垂直方向にのみシフトさせるようにしても良い。図15は、アパーチャ301の開口部302のシフト量が、垂直方向のみに適用された場合の一例を示す図である。1層目の上側基板111Aのフォトダイオード133(画素)に対して、垂直方向のみにシフトしており、水平方向にはシフトされていない。
 中央に位置する画素(フォトダイオード133-3)の上側に配置されているフォトダイオード133-3-1のところに配置される開口部302-3-1は、上側方向にシフトされている。また、フォトダイオード133-3の下側に配置されているフォトダイオード133-3-2のところに配置される開口部302-3-2は、下側方向にシフトされている。
 他の画素は図示しないが、開口部302-3-1や開口部302-3-2と同じく、中央より上側に配置されている開口部302は、上方向にシフトされ、中央より下側に配置されている開口部302は、下側方向にシフトされている。
 垂直方向に開口部302をシフトさせるようにした場合のシフト量も、図11または図12に示したグラフに基づいて設定されるようにすることができる。このようにした場合、中央より上側に位置する画素、例えば、フォトダイオード133-3-1においては、中心側の辺は、開口部302-3-1の下辺とされ、周辺側の辺は、開口部302-3-1の上辺とされる。
 また、中央より下側に位置する画素、例えば、フォトダイオード133-3-2においては、中心側の辺は、開口部302-3-2の上辺とされ、周辺側の辺は、開口部302-3-2の下辺とされる。
 このように、垂直方法のみシフトが行われるようにしても良い。
 さらに、図16に示すように、垂直方向と斜め方向にシフトが行われるようにしても良い。アパーチャ301の開口部302は、1層目の上側基板111Aの所定の画素(フォトダイオード133)に対して、垂直方向および斜め方向に対してシフトされる。
 シフト量としては、図11に示したグラフ、または図12に示したグラフに基づき設定されるようにすることができる。この場合、中央より左上側に位置する画素、例えば、フォトダイオード133-2-1においては、中心側の辺は、開口部302-2-1の下辺とされ、周辺側の辺は、開口部302-2-1の左辺と上辺とされる。また開口部302-2-1の右辺は、水平方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 また、中央より右上側に位置する画素、例えば、フォトダイオード133-4-1においては、中心側の辺は、開口部302-4-1の下辺とされ、周辺側の辺は、開口部302-4-1の右辺と上辺とされる。また開口部302-4-1の左辺は、水平方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 また、中央より左下側に位置する画素、例えば、フォトダイオード133-2-2においては、中心側の辺は、開口部302-2-2の上辺とされ、周辺側の辺は、開口部302-2-2の左辺と下辺とされる。また開口部302-2-2の右辺は、水平方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 また、中央より右下側に位置する画素、例えば、フォトダイオード133-4-2においては、中心側の辺は、開口部302-4-2の上辺とされ、周辺側の辺は、開口部302-4-2の右辺と下辺とされる。また開口部302-4-2の左辺は、水平方向に関する辺になるため、この場合、シフト対象の辺とはされない。
 このように、水平方向に関する辺はシフトせず、垂直方向に関する辺と斜め方向に関する辺は、それぞれシフトされる。
 さらに、図17に示すように、水平方向、垂直方向、および斜め方向にシフトが行われるようにしても良い。アパーチャ301の開口部302は、1層目の上側基板111Aの所定の画素(フォトダイオード133)に対して、水平方向、垂直方向、および斜め方向に対してシフトされる。
 シフト量としては、図11に示したグラフ、または図12に示したグラフに基づき設定されるようにすることができる。この場合、中央より左上側に位置する画素、例えば、フォトダイオード133-2-1においては、中心側の辺は、開口部302-2-1の下辺と右辺とされ、周辺側の辺は、開口部302-2-1の上辺と左辺とされる。
 また、中央より右上側に位置する画素、例えば、フォトダイオード133-4-1においては、中心側の辺は、開口部302-4-1の下辺と左辺とされ、周辺側の辺は、開口部302-4-1の上辺と右辺とされる。
 また、中央より左下側に位置する画素、例えば、フォトダイオード133-2-2においては、中心側の辺は、開口部302-2-2の上辺と右辺とされ、周辺側の辺は、開口部302-2-2の下辺と左辺とされる。
 また、中央より右下側に位置する画素、例えば、フォトダイオード133-4-2においては、中心側の辺は、開口部302-4-2の上辺と左辺とされ、周辺側の辺は、開口部302-4-2の下辺と右辺される。
 このように、水平方向、垂直方向、斜め方向にそれぞれ関する辺は、それぞれシフトされる。なお、ここでは、中心側と周辺側とに分けてシフト量を設定するため、水平方向、垂直方向、斜め方向にそれぞれ関する辺をシフトするとしても、水平方向、垂直方向にそれぞれ係わる辺をシフトする処理を行えば、開口部302の4辺をそれぞれシフトさせることができる。よって、水平方向、垂直方向にそれぞれ係わる辺をシフトする処理が実行されるようにしても良い。
 また、上記した例では、開口部302の辺を中心側または周辺側に分け、該当する開口部302の辺をシフトするとして説明したが、中心側、周辺側の他に、例えば斜め方向に該当する辺のシフト量を設定するようにしても良い。
 <2層目の画素を位相差検出用の画素とした実施の形態>
 上記したようにアパーチャ301の開口部302を、像高に応じて位置や大きさを変えて配置するようにした場合において、2層目の下側基板111Bに配置されている画素を位相差検出用の画素としても良い。
 ここで、一般的な位相差検出用の画素について簡便に説明を加える。図18は、単層構造の位相差検出用の画素の構成を示す図である。位相差検出用の画素は、オンチップレンズ451からの光を遮光する遮光膜452が、オンチップレンズ451とフォトダイオード453との間に設けられた構成とされている。遮光膜452が設けられることで、オンチップレンズ451を介して入射してきた光の一部が遮光され、一部がフォトダイオード453に受光されるように構成されている。
 遮光膜452が左側に設けられる左側遮光画素(図18)と、遮光膜452が右側に設けられた右側遮光画素(不図示)が画素アレイ部の一部に設けられる。右側遮光画素と左側遮光画素は、1対の位相差検出用画素として用いられる。右側または左側が遮光されることで、光の入射角を選択して受光する機能(分離能力)を実現するように構成されている。
 右側遮光画素と左側遮光画素を設けることで、入射光を分離して受光することが可能となり、左部から来た光と右部から来た光を、それぞれのフォトダイオードで受光することで、フォーカス位置を検出することができる。
 すなわち、後ピン時や前ピン時には、右側遮光されたフォトダイオードからの出力と左側遮光されたフォトダイオードからの出力が一致(対とされている位相差検出用画素の出力が一致)しないが、合焦時には、2つのフォトダイオードからの出力が一致(対とされている位相差検出用画素の出力が一致)する。後ピンや前ピンであると判断されるときには、レンズ群21を合焦する位置まで移動させることで、焦点の検出が実現される。
 本技術を適用した撮像素子101においては、図19に示すように、2層目の下側基板111Bに配置されたフォトダイオード152-1乃至152-6を位相差検出用の画素とすることができる。また、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 以下、フォトダイオード152-1乃至152-6を、位相差検出用画素群153と記述する。このように横方向(水平方向)に位相差検出用画素群153が配置された場合、その配置を撮像素子101の情報から見た場合、図20のようになる。
 図20は、図14に示した場合と同じく、画面イメージ401内に透過画素(フォトダイオード133)が9個配置され、それぞれの透過画素にアパーチャ301の開口部302が設けられている状態を示している。図20においては、さらに、下側基板111Bに配置されている位相差検出用画素群153が、各開口部302の下側(下側基板111B)に配置されている。
 図20に示した例では、例えば、中央部分にある開口部302-3の位置にある位相差検出用画素群153は、開口部302-3の中心と、位相差検出用画素群153-3の中心がほぼ重なるような位置に配置されている。
 中央上側部分にある開口部302-3-1の位置にある位相差検出用画素群153-3-1は、開口部302-3-1よりも上側にシフトされた位置に配置されている。また左上側部分にある開口部302-2-1の位置にある位相差検出用画素群153-2-1は、開口部302-2-1よりも上側にシフトされ、かつ左側にシフトされた位置に配置されている。
 右上側部分にある開口部302-4-1の位置にある位相差検出用画素群153-4-1は、開口部302-4-1よりも上側にシフトされ、かつ右側にシフトされたた位置に配置されている。
 このように、位相差検出用画素群153は、像高に応じて、開口部302に対して、所定量だけシフトされた位置に配置されている。
 図19、図20に示したように、位相差検出用画素が、横方向に配列され、横方向で位相差を検出するように構成される場合、図10や図14を参照して説明したように、水平方向(横方向)でシフト量が設定され、開口部302の位置や大きさが設定されるようにすると相性が良い。
 また、図示はしないが、縦方向(垂直方向)に位相差検出用画素群153を配置しても良い。位相差検出用画素群153を縦方向に配置し、縦方向で位相差を検出するように構成される場合、図15や図16を参照して説明したように、垂直方向(縦方向)でシフト量が設定され、開口部302の位置や大きさが設定されるようにすると相性が良い。
 図19に示したように、位相差検出用画素群153が設けられ、位相差検出用の画素として、フォトダイオード152-1乃至152-6が配置されている場合、各フォトダイオード152-1乃至152-6で受光される入射光の受光量をグラフにすると、図21に示すようなグラフが得られる。
 図21は、位相差特性結果を表すグラフであり、横軸は、入射光の角度を表し、縦軸は、受光量を表す。また図中の数字は、フォトダイオード152-1乃至152-6を表し、例えば、“1”は、フォトダイオード152-1を表す。
 図21に示したように、フォトダイオード152-1乃至152-6のそれぞれの受光量は、所定の入射光の角度(入射角)で、ピークを有するグラフとなる。例えば、フォトダイオード152-3は、入射角が、約-20度のところでピークを有し、フォトダイオード152-4は、入射角が、約-15度のところでピークを有する。
 例えば、入射角が約-20度のときには、フォトダイオード152-3から得られる信号を用いて位相差が求められるようにし、入射角が約-15度のときには、フォトダイオード152-4から得られる信号を用いて位相差が求められるようにすることができる。
 すなわち、位相差検出用画素群153を設け、複数の位相差検出用の画素を配置することで、入射光の角度に応じて、最も大きな信号を得られるフォトダイオード152からの信号を用いて、位相差を求め、オートフォーカスが実行されるように構成することが可能となる。
 なお、位相差検出用の画素は、2画素で1対とされるが、1つの位相差検出用画素群153から2個の画素が選択されて位相差が検出されるようにしても良いし、異なる位置に配置されている2つの位相差検出用画素群153のそれぞれから1個の画素を選択し、選択された2個の画素から位相差が検出されるようにしても良い。
 下側基板111Bに配置されている画素を、位相差検出用の画素とした場合、図18を参照して説明したように、遮光膜452を用いて、右側遮光膜画素と左側遮光膜画素を構成し、位相差が検出されるように構成することも可能である。またこのように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 図22は、右側遮光画素の構成を示し、図23は、左側遮光画素の構成を示す図である。図22に示した右側遮光画素は、層間絶縁膜202に遮光膜452-1が設けられている。開口部302を透過してきた光の内、右側からの光は、遮光膜452-1で遮光され、左側からの光は、下側基板111Bに設けられているフォトダイオード152-1に受光される。
 図23に示した左側遮光画素は、層間絶縁膜202に遮光膜452-2が設けられている。開口部302を透過してきた光の内、左側からの光は、遮光膜452-2で遮光され、右側からの光は、下側基板111Bに設けられているフォトダイオード152-2に受光される。
 図22に示した右側遮光画素の検出強度と、図23に示した左側遮光画素の検出強度をグラフにすると、図24に示すようなグラフが得られる。図24に示したように、また図18を参照して説明したように、右側遮光画素と左側遮光画素とで、位相差が生じ、この位相差が最小となるように焦点が合わされる。
 本技術を適用した撮像素子101においては、上側基板111Aと下側基板111Bとの間に、遮光膜を設け、下側基板111B上に位相差検出用の画素を設ける。このような構成とすることで、図18に示したような構成の遮光画素において起こりえる混色などの不具合を、解消することができる。
 図25を参照し、混色について説明する。図25は、図18に示した遮光画素の構成に、混色を起こす原因となる光を、点線の矢印で示した図である。オンチップレンズ451を介して入射してきた光は、遮光膜452で遮光されるが、一部は、反射され、隣接する画素のフォトダイオード(不図示)に入射されてしまう。
 このように、遮光膜452により入射光が反射され、隣接する画素に混色として漏れ込み、画質に悪影響を及ぼしてしまう可能性がある。
 しかしながら、本技術を適用した撮像素子101においては、図19に示したように、遮光膜が設けられていないため、遮光膜による混色が発生するようなことを防ぐことができる。また、図22や図23に示したように、遮光膜452を設ける構成としても、遮光膜452は、1層目の上側基板111Aの下側に設けられているため、1層目の上側基板111Aの画素で撮影されて得られる画像に影響を及ぼすようなことはない。
 よって、遮光膜452を設けた場合であっても、遮光膜452により混色が発生するようなことを防ぐことが可能となる。
 なお、図22、図23では、下側基板111Bに設けられている位相差検出用の画素は、画素群ではなく、1個のフォトダイオード152で構成されている例を示したが、図19に示したような位相差検出用画素群153であっても良い。
 また、図22、図23に示したフォトダイオード152は、開口部302に対して、水平方向または垂直方向において、像高に応じてシフトされた位置に配置される。この場合も、図20を参照して説明したように、対となる位相差検出用の画素を横方向に配置する場合、図10や図14を参照して説明したように、水平方向(横方向)でシフト量が設定され、開口部302の位置や大きさが設定されるようにすると相性が良い。
 また、図示はしないが、位相差検出用の画素を縦方向(垂直方向)に配置し、縦方向で位相差を検出するようにした場合、図15や図16を参照して説明したように、垂直方向(縦方向)でシフト量が設定され、開口部302の位置や大きさが設定されるようにすると相性が良い。
 このように、下側基板111Bに配置される画素を、位相差検出用の画素とした場合も、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、位相差を検出することが可能となる。よって、精度を高めた位相差検出を行うことが可能となり、オートフォーカスの性能を向上させることが可能となる。
 <グリッド状の遮光膜を有する構成について>
 層間絶縁膜202に遮光膜を設ける場合、図26に示すように、グリッド状の遮光膜が設けられるようにしても良い。このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 図26に示した撮像素子101においては、層間絶縁膜202に、グリッド状のグリッド遮光膜501が設けられ、このグリッド遮光膜501を介して、下側基板111Bに設けられているフォトダイオード152に入射光が入射されるように構成されている。
 グリッド遮光膜501を設け、そのグリッドの方向に違いを持たせることで、グリッドの方向の違いで視差を生み出すことが可能となり、ステレオカメラなどに適用できるようになる。図27は、グリッドの方向に違いを持たせたときの一例を示す図である。
 図27は、図14に示した場合と同じく、画面イメージ401内に透過画素(フォトダイオード133)が9個配置され、それぞれの透過画素にアパーチャ301の開口部302が設けられている状態を示している。図27においては、さらに、上側基板111Aと下側基板111Bの間にグリッド遮光膜501が配置されている。
 図27に示した例では、水平(横)方向のグリッドのグリッド遮光膜501と垂直(縦)方向のグリッドのグリッド遮光膜501が混在している。また水平方向のグリッドのグリッド遮光膜501と垂直方向のグリッドのグリッド遮光膜501は、隣り合うように配置されている。
 すなわち、画面イメージ401の中央に位置するグリッド遮光膜501-3は、水平方向のグリッドであり、その左側に位置するグリッド遮光膜501-2と、右側に位置するグリッド遮光膜501-4は、垂直方向のグリッドとされている。
 また、画面イメージ401の中央に位置するグリッド遮光膜501-3の上側に位置するグリッド遮光膜501-3-1と、下側に位置するグリッド遮光膜501-3-2は、垂直方向のグリッドとされている。
 このように、隣接するグリッド遮光膜501の方向は、互いに異なるように構成されている。
 また、グリッド遮光膜501は、像高に応じてシフトされている開口部302に合わせて配置され、開口部302に対してシフトされた位置に配置されるように構成されている。図27に示した例では、例えば、中央部分にある開口部302-3の位置にあるグリッド遮光膜501は、開口部302-3の中心と、グリッド遮光膜501-3の中心がほぼ重なるような位置に配置されている。
 また、中央上側部分にある開口部302-3-1の位置にあるグリッド遮光膜501-3-1は、開口部302-3-1よりも上側にシフトされた位置に配置されている。また左上側部分にある開口部302-2-1の位置にあるグリッド遮光膜501-2-1は、開口部302-2-1よりも上側にシフトされ、かつ左側にシフトされたた位置に配置されている。また右上側部分にある開口部302-4-1の位置にあるグリッド遮光膜501-4-1は、開口部302-4-1よりも上側にシフトされ、かつ右側にシフトされたた位置に配置されている。
 このように、グリッド遮光膜501は、像高に応じて、開口部302に対して、所定量だけシフトされた位置に配置されている。
 グリッド遮光膜501が設けられる場合、開口部302の位置や大きさは、図17を参照して説明したように、水平方向(横方向)、垂直方向(縦方向)、および斜め方向でそれぞれシフト量が設定されるようにすると相性が良い。
 グリッド遮光膜501のグリッドの形状は、図27に示した縦方向または横方向である場合を例に挙げて説明したが、他の形状であっても良い。例えば、図28に示すように、斜め方向のグリッド形状であっても良い。
 図28に示したグリッド遮光膜501のグリッドの方向は、右下に向かって45度(以下、右下方向と記述する)、または左下に向かって45度(以下、左下方向と記述する)となっている。すなわち、図28に示した例では、右下方向のグリッド遮光膜501と、左下方向のグリッド遮光膜501が混在している。
 右下方向のグリッドのグリッド遮光膜501と左下方向のグリッドのグリッド遮光膜501は、隣り合うように配置されている。すなわち、画面イメージ401の中央に位置するグリッド遮光膜501-3は、左下方向のグリッドであり、その左側に位置するグリッド遮光膜501-2と、右側に位置するグリッド遮光膜501-4は、それぞれ右下方向のグリッドとされている。
 また、画面イメージ401の中央に位置するグリッド遮光膜501-3の上側に位置するグリッド遮光膜501-3-1と、下側に位置するグリッド遮光膜501-3-2は、それぞれ右下方向のグリッドとされている。
 このように、隣接するグリッド遮光膜501のグリッドの方向は、互いに異なるように構成されている。また、図27に示した場合と同じく、グリッド遮光膜501は、像高に応じて、開口部302に対して、所定量だけシフトされた位置に配置されている。
 さらに図29に示すように、水平方向のグリッド遮光膜501、垂直方向のグリッド遮光膜501、右下方向のグリッド遮光膜501、および左下方向のグリッド遮光膜501が混在しているように構成することも可能である。
 図29に示した例では、画面イメージ401の中央に位置するグリッド遮光膜501-3は、左下方向のグリッドであり、その左側に位置するグリッド遮光膜501-2は、垂直方向のグリッドであり、右側に位置するグリッド遮光膜501-4は、水平方向のグリッドである。
 また、画面イメージ401の中央に位置するグリッド遮光膜501-3の上側に位置するグリッド遮光膜501-3-1と、下側に位置するグリッド遮光膜501-3-2は、右下方向のグリッドとされている。
 また、画面イメージ401の中央に位置するグリッド遮光膜501-3の左上側に位置するグリッド遮光膜501-2-1と、左下側に位置するグリッド遮光膜501-2-2は、水平方向のグリッドとされている。
 また、画面イメージ401の中央に位置するグリッド遮光膜501-3の右上側に位置するグリッド遮光膜501-4-1と、右下側に位置するグリッド遮光膜501-4-2は、垂直方向のグリッドとされている。
 図29に示した場合も、隣接するグリッド遮光膜501の方向は、互いに異なるように構成されている。また、図27に示した場合と同じく、グリッド遮光膜501は、像高に応じて、開口部302に対して、所定量だけシフトされた位置に配置されている。
 このように、グリッド形状を有するグリッド遮光膜501を、撮像素子101に配置するようにした場合、グリッドの方向の違いで視差が生まれ、ステレオカメラなどに応用できる。
 図19乃至図25を参照して説明した位相差検出用の画素の場合と同じく、グリッド遮光膜501を設けた場合であっても、グリッド遮光膜501により入射光が反射され、隣接する画素に混色として漏れ込み、画質に悪影響を及ぼしてしまう可能性をなくすることが可能である。
 本技術を適用した撮像素子101においては、図26に示したように、グリッド遮光膜501は、1層目の上側基板111Aの下側に設けられているため、1層目の上側基板111Aで得られる画像に影響を及ぼすようなことはない。よって、グリッド遮光膜501を設けた場合であっても、グリッド遮光膜501により混色が発生するようなことを防ぐことが可能となる。
 また、グリッド遮光膜501を設けた場合も、上記した場合と同じく、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、グリッド遮光膜501による遮光を行うことが可能となる。
 <狭帯域フィルタを有する構成について>
 層間絶縁膜202にフィルタを設ける構成とすることができる。図30に、フィルタとして狭帯域フィルタを備える撮像素子101の構成を示す。図30に示した撮像素子101においては、層間絶縁膜202に、狭帯域フィルタ551が設けられ、この狭帯域フィルタ551を介して、下側基板111Bに設けられているフォトダイオード152に入射光が入射されるように構成されている。
 このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 層間絶縁膜202に、狭帯域フィルタ551を設けることで、上側基板111Aの所定の画素を透過してきた光のうち、狭帯域フィルタ551で分析したい波長が選択され、その選択された光が、フォトダイオード152で受光されるようにすることができる。すなわち、分析したい波長を選択的に抽出することができる撮像素子101とすることができる。
 上側基板111Aには、2次元アレイ状に画素が配置されている。そして、2次元アレイ状に配置されている画素のうち、透過画素に設定されている所定の画素には、開口部302が設けられ、その開口部302が設けられているところに、狭帯域フィルタ551が設けられる。よって、狭帯域フィルタ551は、撮像素子101において、複数設けられていることになる。
 この複数設けられている狭帯域フィルタ551を全て同一のフィルタとしても良い。また、複数設けられている狭帯域フィルタ551を、それぞれ異なる波長を抽出するフィルタとすることで、マルチスペクトルやハイパースペクトルのデータを抽出できる撮像素子101とすることができる。
 この場合も、狭帯域フィルタ551は、上側基板111Aと下側基板111Bの間に設けられているため、上側基板111Aの画素で撮像される画像に対して、狭帯域フィルタ551が影響を与えることはなく、画質が劣化してしまうようなことを防ぐことができる。
 <プラズモンフィルタを有する構成について>
 図31に、フィルタとしてプラズモンフィルタを備える撮像素子101の構成を示す。図31に示した撮像素子101においては、層間絶縁膜202に、プラズモンフィルタ601が設けられ、このプラズモンフィルタ601を介して、下側基板111Bに設けられているフォトダイオード152に入射光が入射されるように構成されている。
 このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 プラズモンフィルタ601は、分光を行うためのフィルタとして、プラズモン共鳴体をフィルタとして利用するフィルタである。図32を参照して、プラズモンフィルタ601の構成を示す。プラズモン共鳴体は、導体素材(具体的には金、銀、銅などであるが、特にアルミニウム、ニッケルなどが好適である)からなる薄膜に微細加工を施したサブ波長構造体である。
 プラズモン共鳴体は、導体の物性と、パターン周期や、開口径、ドットサイズ、膜厚、構造体の周囲の媒質などによって決定される共鳴波長を有する。プラズモン共鳴体の基本構造はホールアレイ構造であり、検出波長よりも小さい径を有するホール(貫通穴602または非貫通穴602)が2次元配列状に配置された構造であって、ホールには誘電体素材が充填されている。また、ホールの配置は、ハニカムまたは直交行列に配置するのが好適であり、また、その他の配列でも周期性がある構造であれば適用することができる。
 例えば、図32に示されているプラズモンフィルタ601は、導体薄膜に貫通穴602がハニカム状に配置されたプラズモン共鳴体により構成されている。貫通穴602の開口径は透過させたい光の波長よりも小さければよく、例えば、直径100nm程度とされる。
 プラズモンフィルタ601において隣接する貫通穴602どうしの間隔を調整することで、プラズモンフィルタ601を透過する透過波長が設定される。その間隔は、媒質中での実効的な電磁波波長の半波長から1波長程度の範囲が好適であり、具体的には、150~1000nm程度とされる。
 層間絶縁膜202に、プラズモンフィルタ601を設けることで、上側基板111Aの所定の画素を透過してきた光のうち、プラズモンフィルタ601で分析したい波長が選択され、その選択された光が、フォトダイオード152で受光されるようにすることができる。すなわち、分析したい波長を選択的に抽出することができる撮像素子101とすることができる。
 上側基板111Aには、2次元アレイ状に画素が配置されている。そして、2次元アレイ状に配置されている画素のうち、透過画素に設定されている所定の画素には、開口部302が設けられ、その開口部302が設けられているところに、プラズモンフィルタ601が設けられる。よって、プラズモンフィルタ601は、撮像素子101において、複数設けられていることになる。
 この複数設けられているプラズモンフィルタ601を全て同一のフィルタとしても良い。また、複数設けられているプラズモンフィルタ601を、それぞれ異なる波長を抽出するフィルタとすることで、マルチスペクトルやハイパースペクトルのデータを抽出できる撮像素子101とすることができる。
 この場合も、プラズモンフィルタ601は、上側基板111Aと下側基板111Bの間に設けられているため、上側基板111Aの画素で撮像される画像に対して、プラズモンフィルタ601が影響を与えることはなく、画質が劣化してしまうようなことを防ぐことができる。
 また、プラズモンフィルタ601を設けた場合も、上記した場合と同じく、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、プラズモンフィルタ601による分光を行うことが可能となる。
 <ファブリーペロー干渉計を有する構成について>
 図33に、フィルタとしてファブリーペロー干渉計を備える撮像素子101の構成を示す。図33に示した撮像素子101においては、層間絶縁膜202に、ファブリーペロー干渉計651が設けられ、このファブリーペロー干渉計651を介して、下側基板111Bに設けられているフォトダイオード152に入射光が入射されるように構成されている。
 このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 ファブリーペロー干渉計651は、図34に示すように、2枚の半透鏡652と半透鏡653から構成され、この2枚の半透鏡652,653が向かい合わせ平行になるように配置された光学装置である。半透鏡652,653は、高い反射率とわずかな透過率をもつ反射面に仕上げられている。
 ファブリーペロー干渉計651の一方(図中、上側)から入射した光は、両反射面間を何回も反射往復して互いに干渉する。半透鏡653を透過した光は、一定の光路差をもって多数回往復した光による、かなりの長さのある干渉光となる。したがって、これを分光器として用いれば、非常に高い分解能が得られる。
 このようなファブリーペロー干渉計651を層間絶縁膜202に設けることで、上側基板111Aの透過画素を透過してきた光のうち、ファブリーペロー干渉計651で分析したい波長が選択され、その選択された光が、フォトダイオード152で受光されるようにすることができる。すなわち、分析したい波長を選択的に抽出することができる撮像素子101とすることができる。
 上側基板111Aには、2次元アレイ状に画素が配置されている。そして、2次元アレイ状に配置されている画素のうち、透過画素に設定されている所定の画素には、開口部302が設けられ、その開口部302が設けられているところに、ファブリーペロー干渉計651が設けられる。よって、ファブリーペロー干渉計651は、撮像素子101において、複数設けられていることになる。
 この複数設けられているファブリーペロー干渉計651を全て同一のフィルタとしても良い。また、複数設けられているファブリーペロー干渉計651を、それぞれ異なる波長を抽出するフィルタとすることで、マルチスペクトルやハイパースペクトルのデータを抽出できる撮像素子101とすることができる。
 この場合も、ファブリーペロー干渉計651は、上側基板111Aと下側基板111Bの間に設けられているため、上側基板111Aの画素で撮像される画像に対して、ファブリーペロー干渉計651が影響を与えることはなく、画質が劣化してしまうようなことを防ぐことができる。
 また、ファブリーペロー干渉計651を設けた場合も、上記した場合と同じく、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、ファブリーペロー干渉計651による分光を行うことが可能となる。
 <TOF型センサを有する構成について>
 下側基板111Bに配置されている画素を、TOF(Time To Flight)型センサとして用いるようにしても良い。このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 図35に示した撮像素子101において、下側基板111Bに設けられているフォトダイオード152は、TOF型センサを構成する。例えば、TOF型センサは、2画素を1対とし、その2画素を用いて、距離を計測するセンサである。
 TOF型センサは、自己が発した光が、対象物に当たり、反射して帰ってくるまでの時間を計測することで、対象物までの距離を計測するセンサである。TOF型センサは、例えば、図36に示したタイミングで動作する。
 所定の時間、例えば、ここでは、パルス発光時間Tpとする時間だけ、対象物に対して照射光が照射される。発光された照射光は、対象物に当たり、反射して戻ってくる。この反射光が、フォトダイオード152により受光される。図36に示したように、照射光の照射が開始されてから反射光を受光するまでの時間は、対象物までの距離応じた時間となる。
 第1のフォトダイオード152は、照射光の照射が開始された時点から、パルス発光時間Tpだけ受光する。この間に受光されるのは、背景光と反射光である。1回の受光で蓄積された受光量から、信号n0が取得される。
 第2のフォトダイオード152は、第1のフォトダイオード152の受光が終了された時点から、パルス発光時間Tpだけ受光する。この間に受光されるのは、背景光と反射光である。1回の受光で蓄積された受光量から、信号n1が取得される。
 このように、蓄積のタイミングの位相を全く逆にした駆動が行われることで、信号n0と信号n1が取得される。このような駆動が複数回繰り返され、蓄積、積算が行われることで、信号N0と信号N1が、それぞれ取得される。このようにして得られた信号N0と信号N1から距離Dが算出される。
 信号N0と信号N1(信号n0と信号n1)には、背景光を受光することで蓄積された信号も含まれるため、その背景光を除き、反射光からの信号を残すために、背景光に関しても蓄積と積算が行われ、信号N2が取得される。
 このようにして取得される信号N0、信号N1、および信号N2を用い、以下の式(1)、(2)により、距離Dが算出される。
Figure JPOXMLDOC01-appb-M000001
 式(1)、式(2)において、Dは、距離を表し、cは、高速を表し、Tpは、パルス発光時間を表す。
 下側基板111Bに配置されているフォトダイオード152を、TOF型センサとして用い、対象物までの距離Dを測定する構成とすることができる。本技術によれば、TOF型センサは、下側基板111Bに配置されるため、上側基板111Aに影響を与えることがない。よって、上側基板111Aの画素で得られる画像に影響を及ぼすことなく、距離測定を行える撮像素子101とすることができる。
 また、上側基板111Aのセンサと、下側基板111Bのセンサを、それぞれ別のセンサとすることができる。すなわち、2つの独立したセンサを有する撮像素子101とすることができる。
 図37に示したように、本技術を適用した撮像素子101においては、上側基板111Aと透過してきた光が、下側基板111Bに配置されているフォトダイオード152に受光される。上側基板111Aを、例えば、シリコンで構成した場合、波長の短い可視光領域は吸収される。TOF型センサの照射光としては、850nm付近の近赤外光が利用されることが多い。
 このようなことから、フィルタなどを用いなくても、下側基板111Bに到達する光は、波長の短い可視光領域が除かれた光となり、850nm付近の近赤外光が利用されることが多いTOF型センサを、下側基板111Bに設けるのは、この点からも有利である。
 また、TOF型センサを設けた場合も、上記した場合と同じく、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、TOF型センサによる距離測定を行うことが可能となる。
 <LFC型センサを有する構成について>
 下側基板111Bに配置されている画素を、LFC(Light Field Camera)として用いるようにしても良い。このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 図37に示した撮像素子101において、下側基板111Bに設けられているフォトダイオード152は、ライトフィールドカメラを構成する。
 ライトフィールドカメラは、ライトフィールド(光線空間)として多数の光線を取得し、その光線集合に一種の画像処理を施すことで最終画像を得るカメラである。ライトフィールドカメラの主な機能には、撮影後の後処理によってカメラ焦点距離を変更した画像を生成するリフォーカス機能がある。このようなライトフィールドカメラを、下側基板111Bに構成することができる。
 ライトフィールドカメラは、1つのオンチップレンズ131を透過してきた光を複数の画素で受光する必要がある。図37では、フォトダイオード152-1とフォトダイオード152-2の2個の画素で受光される構成を示したが、4×4個以上の画素数とされる。また、1つのオンチップレンズ131(透過画素)から透過してきた光を複数の画素(フォトダイオード152)で受光すると、その数分だけ、ステレオ画像が得られる。複数のステレオ画像が得られることで、上記したように、リフォーカス機能を実現できる。
 このように、本技術によれば、下側基板111Bに配置されているフォトダイオード152を、ライトフィールドカメラとして用いる構成とすることができる。本技術によれば、ライトフィールドカメラは、下側基板111Bに配置されるため、上側基板111Aに影響を与えることがない。よって、上側基板111Aの画素で得られる画像に影響を及ぼすことなく、距離測定を行える撮像素子101とすることができる。
 また、上側基板111Aのセンサと、下側基板111Bのセンサを、それぞれ別のセンサとすることができる。すなわち、2つの独立したセンサを有する撮像素子101とすることができる。
 また、ライトフィールドカメラを設けた場合も、上記した場合と同じく、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、ライトフィールドカメラによる撮像を行うことが可能となる。
 <2層で画像を撮像する構成について>
 下側基板111Bに配置されている画素を、上側基板111Aに配置されている画素と同じく、通常の画像を撮像する画素として用いるようにしても良い。このように構成した場合も、上述したように、アパーチャ301の開口部302は、像高に応じたシフト量で、透過画素に対してシフトされて配置されている。
 図38に示した撮像素子101において、下側基板111Bに設けられているフォトダイオード152は、通常の画像を撮像する画素として用いられる。
 すなわち、図38に示した撮像素子101は、上側基板111Aと下側基板111Bで同一の画像を撮像することができる構成とされている。このように構成した場合、下側基板111Bで撮像される画像は、撮像装置10の表示部25(図1)に表示される画像用としても良い。
 表示部25には、画像撮影時にプレビュー画像が表示されるが、そのプレビュー画像は、上側基板111Aの画素で撮像されている画像を間引いた画像が用いられることが考えられる。
 本実施の形態のように、2層の画素で撮像を行う構成とすることで、一方の層の画素で撮像された画像をプレビュー画像とし、他方の層の画素で撮像された画像を、記録用の画像とするといったような、使い分けを行うことが可能となる。ここでは、上側基板111Aの画素で記録用の画像を撮像し、下側基板111Bの画素でプレビュー画像の画像を撮像する例を示した。
 また、2層の画素で撮像を行う構成とすることで、一方の層の画素で撮像される画像は動画像とし、他方の層の画素で撮像された画像は静止画像とすることも可能となる。例えば、上側基板111Aの画素で静止画像を撮像し、下側基板111Bの画素で動画像を撮影するように構成することができる。
 また、上側基板111Aの画素は、可視光の画像を撮像し、下側基板111Bの画素は、近赤外線の画像を撮像するといったように、異なる波長の光を同時に撮像することも可能となる。
 異なる層に配置された画素で、それぞれ画像を撮像するため、互いに影響を与えることがなく、両方とも良好な画像を取得することが可能となる。
 また、2層にそれぞれ配置された画素で画像を撮像するようにした場合も、上記した場合と同じく、アパーチャ301の開口部302は、像高に応じて透過画素に対してシフトされた位置に配置されているため、混色などが発生しない状態で、それぞれの層の画素で撮影された画像を得ることが可能となる。
 <他の構成について>
 上述した実施の形態においては、上側基板111Aと下側基板111Bの2層で撮像素子101が構成される例を挙げて説明したが、図39に示すように、3層で構成されるようにしても良い。図38に示した例では、上側基板111Aと下側基板111Bの間に、基板701を設けた3層構造の撮像素子101である。
 このように、2層に限らず、3層構造など、多層構造に、本技術は適用できる。また、途中層においてシリコンによる光の吸収により下層まで十分な光が透過されない場合など、シリコンに貫通口を設け、下層まで十分な光が透過されるような構成とすることも可能である。
 また、2層の場合であっても、図40に示すように、貫通口を設けるようにしても良い。図40に示した撮像素子101においては、透過画素に設定されている上側基板111Aのシリコンには、貫通口702が設けられている。貫通口702が設けられることで、その貫通口702を介して下側基板111Bまで光が透過しやすくなり、例えば、短い波長の可視光なども、下層基板111Bで受光されやすい撮像素子101とすることができる。
 また透過画素のオンチップカラーフィルタ132の色は、赤、緑、青など、いわゆるRGBのいずれかであっても良いし、さらに白色(W)や透明であっても良い。特に、白(透明)にした場合、2層目移行の画素(センサ)でも、高感度で検出が行えるようになる。
 上述した実施の形態においては、アパーチャ301の開口部302は、平面的(2次元)で構成されている例を挙げて説明したが、図41に示すように、3次元で構成されているようにしても良い。図41に示した開口部302は、図中上方向にもメタルが形成され、横方向(水平方向)のみならず、縦方向(垂直方向)にもメタルが設けられている。
 このように、開口部302を3次元で構成することで、隣接画素からの混色をより抑制することが可能となる。
 なお、上述した実施の形態においては、アパーチャ301は、メタルで構成されているとして説明したが、光を透過しない材料であれば、メタル以外の材料で構成することも可能である。ただし、アパーチャ301を、多層配線層201の一部として設ける場合、導電性が有する必要がある。
 本技術によれば、上述したように、アパーチャ301(多層配線層201)の開口部302を、左右非対称に構成することで、隣接画素からの混色などの不要な光をカットし、必要な光をより多く取り込めるような構成とすることができる。また、高入射角光まで対応することが可能となる。
 また、様々なセンサにおいて、特に位相差センサにおいて、高入射角まで分離比の高いセンサの作成が可能となる。
 <撮像素子の使用例>
 図42は、上述の撮像素子や撮像素子を含む電子機器を使用する使用例を示す図である。
 上述した撮像素子は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本技術は以下のような構成も取ることができる。
(1)
 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
 光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
 前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光する遮光層を備え、
 前記遮光層には、前記第1の光電変換層からの光を前記第2の光電変換層まで透過させるための開口部が設けられ、
 前記開口部は、前記第1の光電変換層の画素に対して、非対称に開口されている
 撮像素子。
(2)
 前記光学レンズの像高に応じて、前記開口部の非対称性が異なる
 前記(1)に記載の撮像素子。
(3)
 前記光学レンズの像高が高くなると、前記開口部の非対称性は大きくなる
 前記(1)または(2)に記載の撮像素子。
(4)
 前記開口部を構成する辺は、前記開口部が位置する前記第1の光電変換層の画素を構成する辺に対して、シフトされた位置に設けられ、
 前記開口部を構成する辺のうち、前記光学レンズの中心側に位置する第1の辺と、前記第1の辺とは異なる第2の辺とでは、異なるシフト量でシフトされている
 前記(1)乃至(3)のいずれかに記載の撮像素子。
(5)
 前記シフトは、水平方向に対して行われる
 前記(4)に記載の撮像素子。
(6)
 前記シフトは、水平方向と斜め方向に対して行われる
 前記(4)に記載の撮像素子。
(7)
 前記シフトは、垂直方向に対して行われる
 前記(4)に記載の撮像素子。
(8)
 前記シフトは、垂直方向と斜め方向に対して行われる
 前記(4)に記載の撮像素子。
(9)
 前記シフトは、水平方向、垂直方向、斜め方向の少なくとも1方向に対して行われる
 前記(4)に記載の撮像素子。
(10)
 前記第2の光電変換層の前記光電変換部の画素は、位相差検出用の画素である
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(11)
 前記遮光層と前記第2の光電変換層との間に、前記開口部を透過してきた光を遮光する遮光部をさらに備え、
 前記第2の光電変換層の前記光電変換部の画素は、前記遮光部により半分遮光された状態で構成され、
 前記第2の光電変換層の前記光電変換部の画素は、位相差検出用の画素とされている
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(12)
 前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光するグリッド状に形成された遮光部をさらに備える
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(13)
 隣接して配置されている前記遮光部のグリッド同士は、異なる方向のグリッドとされている
 前記(12)に記載の撮像素子。
(14)
 前記第1の光電変換層と前記第2の光電変換層との間に、狭帯域のフィルタをさらに備え、
 前記第1の光電変換層を透過してきた光は、前記フィルタを介して、前記第2の光電変換層の前記光電変換部に到達する
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(15)
 前記第1の光電変換層と前記第2の光電変換層との間に、プラズモンフィルタをさらに備え、
 前記第1の光電変換層を透過してきた光は、前記プラズモンフィルタを介して、前記第2の光電変換層の前記光電変換部に到達する
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(16)
 前記第1の光電変換層と前記第2の光電変換層との間に、ファブリーペロー干渉計をさらに備え、
 前記第1の光電変換層を透過してきた光は、前記ファブリーペロー干渉計を介して、前記第2の光電変換層の前記光電変換部に到達する
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(17)
 前記第2の光電変換層の前記光電変換部は、TOF(Time Of Flight)型のセンサを構成する
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(18)
 前記第2の光電変換層の前記光電変換部は、ライトフィールドカメラ(Light Field Camera)を構成する
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(19)
 前記第2の光電変換層の前記光電変換部は、被写体を撮像し、画像を取得する素子として用いられる
 前記(1)乃至(9)のいずれかに記載の撮像素子。
(20)
 画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
 光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
 前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光する遮光層を備え、
 前記遮光層には、前記第1の光電変換層からの光を前記第2の光電変換層まで透過させるための開口部が設けられ、
 前記開口部は、前記第1の光電変換層の画素に対して、非対称に開口されている
 撮像素子を備える
 電子機器。
 10 撮像装置, 21 レンズ群, 22 撮像素子, 101 撮像素子,102 光学レンズ, 111A 上側基板, 111B 下側基板, 131 オンチップレンズ, 132 オンチップカラーフィルタ, 133 フォトダイオード, 151 画素群, 152 フォトダイオード, 301 アパーチャ, 302 開口部

Claims (20)

  1.  画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
     光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
     前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光する遮光層を備え、
     前記遮光層には、前記第1の光電変換層からの光を前記第2の光電変換層まで透過させるための開口部が設けられ、
     前記開口部は、前記第1の光電変換層の画素に対して、非対称に開口されている
     撮像素子。
  2.  前記光学レンズの像高に応じて、前記開口部の非対称性が異なる
     請求項1に記載の撮像素子。
  3.  前記光学レンズの像高が高くなると、前記開口部の非対称性は大きくなる
     請求項1に記載の撮像素子。
  4.  前記開口部を構成する辺は、前記開口部が位置する前記第1の光電変換層の画素を構成する辺に対して、シフトされた位置に設けられ、
     前記開口部を構成する辺のうち、前記光学レンズの中心側に位置する第1の辺と、前記第1の辺とは異なる第2の辺とでは、異なるシフト量でシフトされている
     請求項1に記載の撮像素子。
  5.  前記シフトは、水平方向に対して行われる
     請求項4に記載の撮像素子。
  6.  前記シフトは、水平方向と斜め方向に対して行われる
     請求項4に記載の撮像素子。
  7.  前記シフトは、垂直方向に対して行われる
     請求項4に記載の撮像素子。
  8.  前記シフトは、垂直方向と斜め方向に対して行われる
     請求項4に記載の撮像素子。
  9.  前記シフトは、水平方向、垂直方向、斜め方向の少なくとも1方向に対して行われる
     請求項4に記載の撮像素子。
  10.  前記第2の光電変換層の前記光電変換部の画素は、位相差検出用の画素である
     請求項1に記載の撮像素子。
  11.  前記遮光層と前記第2の光電変換層との間に、前記開口部を透過してきた光を遮光する遮光部をさらに備え、
     前記第2の光電変換層の前記光電変換部の画素は、前記遮光部により半分遮光された状態で構成され、
     前記第2の光電変換層の前記光電変換部の画素は、位相差検出用の画素とされている
     請求項1に記載の撮像素子。
  12.  前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光するグリッド状に形成された遮光部をさらに備える
     請求項1に記載の撮像素子。
  13.  隣接して配置されている前記遮光部のグリッド同士は、異なる方向のグリッドとされている
     請求項12に記載の撮像素子。
  14.  前記第1の光電変換層と前記第2の光電変換層との間に、狭帯域のフィルタをさらに備え、
     前記第1の光電変換層を透過してきた光は、前記フィルタを介して、前記第2の光電変換層の前記光電変換部に到達する
     請求項1に記載の撮像素子。
  15.  前記第1の光電変換層と前記第2の光電変換層との間に、プラズモンフィルタをさらに備え、
     前記第1の光電変換層を透過してきた光は、前記プラズモンフィルタを介して、前記第2の光電変換層の前記光電変換部に到達する
     請求項1に記載の撮像素子。
  16.  前記第1の光電変換層と前記第2の光電変換層との間に、ファブリーペロー干渉計をさらに備え、
     前記第1の光電変換層を透過してきた光は、前記ファブリーペロー干渉計を介して、前記第2の光電変換層の前記光電変換部に到達する
     請求項1に記載の撮像素子。
  17.  前記第2の光電変換層の前記光電変換部は、TOF(Time Of Flight)型のセンサを構成する
     請求項1に記載の撮像素子。
  18.  前記第2の光電変換層の前記光電変換部は、ライトフィールドカメラ(Light Field Camera)を構成する
     請求項1に記載の撮像素子。
  19.  前記第2の光電変換層の前記光電変換部は、被写体を撮像し、画像を取得する素子として用いられる
     請求項1に記載の撮像素子。
  20.  画素単位に分割された光電変換部を有する光電変換層が2層以上に積層されており、
     光学レンズに近い側の第1の光電変換層の1画素に入射された光が、前記光学レンズから遠い側の第2の光電変換層の前記光電変換部で受光される状態を含むように構成され、
     前記第1の光電変換層と前記第2の光電変換層との間に、前記第1の光電変換層を透過してきた光を遮光する遮光層を備え、
     前記遮光層には、前記第1の光電変換層からの光を前記第2の光電変換層まで透過させるための開口部が設けられ、
     前記開口部は、前記第1の光電変換層の画素に対して、非対称に開口されている
     撮像素子を備える
     電子機器。
PCT/JP2016/066570 2015-06-18 2016-06-03 撮像素子、電子機器 WO2016203990A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/580,356 US10319764B2 (en) 2015-06-18 2016-06-03 Image sensor and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015122530A JP2017011002A (ja) 2015-06-18 2015-06-18 撮像素子、電子機器
JP2015-122530 2015-06-18

Publications (1)

Publication Number Publication Date
WO2016203990A1 true WO2016203990A1 (ja) 2016-12-22

Family

ID=57545684

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/066570 WO2016203990A1 (ja) 2015-06-18 2016-06-03 撮像素子、電子機器

Country Status (3)

Country Link
US (1) US10319764B2 (ja)
JP (1) JP2017011002A (ja)
WO (1) WO2016203990A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9978154B2 (en) * 2015-07-02 2018-05-22 Pixart Imaging Inc. Distance measurement device base on phase difference and distance measurement method thereof
US10148864B2 (en) 2015-07-02 2018-12-04 Pixart Imaging Inc. Imaging device having phase detection pixels and regular pixels, and operating method thereof
CN110520996B (zh) * 2017-04-06 2023-08-08 新唐科技日本株式会社 摄像装置、以及在其中使用的固体摄像装置
JP2020113630A (ja) * 2019-01-10 2020-07-27 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
JP7006654B2 (ja) * 2019-05-09 2022-01-24 セイコーエプソン株式会社 表示装置、および電子機器
FR3098991B1 (fr) * 2019-07-19 2023-08-25 Isorg Pixel de capteur d’images
WO2023067969A1 (ja) * 2021-10-20 2023-04-27 ソニーセミコンダクタソリューションズ株式会社 光検出装置およびその製造方法、電子機器ならびに移動体
US11867562B2 (en) * 2022-01-25 2024-01-09 Visera Technologies Company Limited Optical devices

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030626A (ja) * 2011-07-28 2013-02-07 Sony Corp 固体撮像素子および撮像システム
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
JP2013187475A (ja) * 2012-03-09 2013-09-19 Olympus Corp 固体撮像装置およびカメラシステム
JP2014003461A (ja) * 2012-06-19 2014-01-09 Sony Corp 撮像装置
US20150054962A1 (en) * 2013-08-23 2015-02-26 Aptina Imaging Corporation Imaging systems with stacked image sensors
JP2015041780A (ja) * 2013-08-22 2015-03-02 シリコンファイル テクノロジーズ インコーポレイテッドSiliconFile Technologies Inc. 3次元積層構造のイメージセンサ
JP2015099875A (ja) * 2013-11-20 2015-05-28 オリンパス株式会社 撮像素子
US20150146056A1 (en) * 2013-11-27 2015-05-28 Sony Corporation Solid-state imaging device and electronic apparatus

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001053258A (ja) * 1999-08-05 2001-02-23 Sony Corp 固体撮像素子とその製造方法
JP4208072B2 (ja) * 2003-12-05 2009-01-14 シャープ株式会社 半導体素子およびその製造方法
JP4325557B2 (ja) * 2005-01-04 2009-09-02 ソニー株式会社 撮像装置および撮像方法
US7683407B2 (en) * 2005-08-01 2010-03-23 Aptina Imaging Corporation Structure and method for building a light tunnel for use with imaging devices
JP2007053183A (ja) * 2005-08-17 2007-03-01 Fujifilm Corp 固体撮像素子
JP2007273586A (ja) * 2006-03-30 2007-10-18 Toshiba Corp 固体撮像素子
KR101786069B1 (ko) * 2009-02-17 2017-10-16 가부시키가이샤 니콘 이면 조사형 촬상 소자, 그 제조 방법 및 촬상 장치
JP5404112B2 (ja) * 2009-03-12 2014-01-29 キヤノン株式会社 固体撮像素子、その駆動方法及び撮像システム
JP5794068B2 (ja) * 2011-09-16 2015-10-14 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
JP5537523B2 (ja) * 2011-09-22 2014-07-02 株式会社東芝 固体撮像装置
JP2013157442A (ja) * 2012-01-30 2013-08-15 Nikon Corp 撮像素子および焦点検出装置
JP6184240B2 (ja) * 2013-08-08 2017-08-23 オリンパス株式会社 固体撮像装置および撮像装置
JP6108172B2 (ja) * 2013-09-02 2017-04-05 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2016012122A (ja) * 2014-06-03 2016-01-21 キヤノン株式会社 フォトマスク、光学素子アレイの製造方法、光学素子アレイ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030626A (ja) * 2011-07-28 2013-02-07 Sony Corp 固体撮像素子および撮像システム
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
JP2013187475A (ja) * 2012-03-09 2013-09-19 Olympus Corp 固体撮像装置およびカメラシステム
JP2014003461A (ja) * 2012-06-19 2014-01-09 Sony Corp 撮像装置
JP2015041780A (ja) * 2013-08-22 2015-03-02 シリコンファイル テクノロジーズ インコーポレイテッドSiliconFile Technologies Inc. 3次元積層構造のイメージセンサ
US20150054962A1 (en) * 2013-08-23 2015-02-26 Aptina Imaging Corporation Imaging systems with stacked image sensors
JP2015099875A (ja) * 2013-11-20 2015-05-28 オリンパス株式会社 撮像素子
US20150146056A1 (en) * 2013-11-27 2015-05-28 Sony Corporation Solid-state imaging device and electronic apparatus

Also Published As

Publication number Publication date
JP2017011002A (ja) 2017-01-12
US10319764B2 (en) 2019-06-11
US20180166488A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
WO2016203990A1 (ja) 撮像素子、電子機器
JP7180658B2 (ja) 固体撮像素子、および電子機器
JP7281681B2 (ja) 撮像システム
JP6260006B2 (ja) 撮像装置、並びにそれを用いた撮像システム、電子ミラーシステムおよび測距装置
WO2016199594A1 (ja) 固体撮像装置及び電子機器
JP5421207B2 (ja) 固体撮像装置
EP3338305B1 (en) System and method to extend near infrared spectral response for imaging systems
WO2016129406A1 (ja) 撮像素子、および電子装置
US9848118B2 (en) Phase detection autofocus using opposing filter masks
JP2011176715A (ja) 裏面照射型撮像素子および撮像装置
JP2015128131A (ja) 固体撮像素子および電子機器
KR101808355B1 (ko) 촬상 장치
WO2018047665A1 (ja) 固体撮像装置およびその製造方法、並びに、電子機器
JP2016036127A (ja) 撮像装置および撮像システム
KR20130100891A (ko) 촬상 장치 및 촬상 방법
WO2016052249A1 (ja) 固体撮像素子および製造方法、並びに電子機器
US20110279716A1 (en) Composite imaging element and imaging device equipped with same
JP5997149B2 (ja) 固体撮像素子、撮像装置、および信号処理方法
TWI584643B (zh) 基於單一成像感測器的攝影機裝置及系統以及其製造方法
WO2017119317A1 (ja) 固体撮像素子および製造方法、並びに電子機器
JP6234024B2 (ja) 撮像素子、及び撮像装置
KR20200078480A (ko) 고체 촬상 소자, 제조 방법 및 전자 기기
WO2017068713A1 (ja) 固体撮像装置および撮像装置
JP5537687B2 (ja) 固体撮像装置
JP7398284B2 (ja) カラー画像撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16811465

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15580356

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16811465

Country of ref document: EP

Kind code of ref document: A1