WO2017169479A1 - 撮像素子、及び、撮像装置 - Google Patents

撮像素子、及び、撮像装置 Download PDF

Info

Publication number
WO2017169479A1
WO2017169479A1 PCT/JP2017/007936 JP2017007936W WO2017169479A1 WO 2017169479 A1 WO2017169479 A1 WO 2017169479A1 JP 2017007936 W JP2017007936 W JP 2017007936W WO 2017169479 A1 WO2017169479 A1 WO 2017169479A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
photoelectric conversion
unit
light
imaging
Prior art date
Application number
PCT/JP2017/007936
Other languages
English (en)
French (fr)
Inventor
周太郎 加藤
高木 徹
崇志 瀬尾
良次 安藤
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US16/085,168 priority Critical patent/US10686004B2/en
Priority to EP17774024.8A priority patent/EP3439038A4/en
Priority to CN201780029752.2A priority patent/CN109155323A/zh
Priority to JP2018508832A priority patent/JP6791243B2/ja
Publication of WO2017169479A1 publication Critical patent/WO2017169479A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present invention relates to an imaging element and an imaging apparatus.
  • An imaging device in which a reflective layer is provided below a photoelectric conversion unit, and light reflected by the photoelectric conversion unit is reflected by the reflection layer to the photoelectric conversion unit (Patent Document 1).
  • the reflective layer is provided only at the same position with respect to the photoelectric conversion unit.
  • the imaging device is an imaging device in which a plurality of pixels are arranged in the first direction, and a first photoelectric conversion unit that photoelectrically converts incident light to generate charges; A part of the light that is provided at least in part in a region on the first direction side with respect to the center of the first photoelectric conversion unit on the plane intersecting the direction in which the light is incident, and transmitted through the first photoelectric conversion unit Crossing the direction in which the light is incident, a first pixel having a first reflection unit that reflects the light to the first photoelectric conversion unit, a second photoelectric conversion unit that photoelectrically converts incident light to generate charges A portion of the light transmitted through the second photoelectric conversion unit is at least partially provided in a region on the opposite side of the first direction from the center of the second photoelectric conversion unit.
  • the imaging apparatus is configured to convert a signal output from the first pixel and a signal output from the second pixel of the imaging element that has captured an image by an optical system having a focus lens. And a control unit that controls the position of the focus lens so that an image formed by the optical system is focused on the image sensor.
  • FIG. 1 is a main part configuration diagram of an imaging apparatus according to a first embodiment.
  • FIG. FIG. 3 is a diagram showing an example of pixel arrangement of the image sensor according to the first embodiment. The figure for demonstrating the light beam which injects into the image pick-up element which concerns on 1st Embodiment.
  • FIG. 3 is a diagram illustrating an example of a cross-sectional structure of the image sensor according to the first embodiment.
  • FIG. 9 is a diagram illustrating an example of a cross-sectional structure of an image sensor according to Modification Example 1.
  • FIG. 9 is a diagram illustrating an example of a cross-sectional structure of an image sensor according to Modification Example 2.
  • FIG. 9 is a diagram illustrating an example of pixel arrangement of an image sensor according to Modification 3.
  • FIG. 10 is a diagram illustrating an example of a cross-sectional structure of an image sensor according to Modification 3.
  • FIG. 10 is a diagram illustrating another example of a cross-sectional structure of an image sensor according to Modification 3.
  • FIG. 10 is a diagram illustrating an example of a cross-sectional structure of an image sensor according to Modification Example 4.
  • FIG. 10 is a diagram showing another example of a cross-sectional structure of an image sensor according to Modification Example 4.
  • FIG. 1 is a main part configuration diagram of a digital camera 1 (hereinafter referred to as a camera 1) which is an imaging apparatus according to the first embodiment.
  • the camera 1 includes a camera body 2 and an interchangeable lens 3.
  • the interchangeable lens 3 is attached to the camera body 2 via a mount portion (not shown).
  • the connection portion 202 on the camera body 2 side and the connection portion 302 on the interchangeable lens 3 side are connected, and communication between the camera body 2 and the interchangeable lens 3 becomes possible.
  • the interchangeable lens 3 includes an imaging optical system (imaging optical system) 31, a lens control unit 32, and a lens memory 33.
  • the imaging optical system 31 includes a plurality of lenses including a focus adjustment lens (focus lens) and an aperture, and forms a subject image on the imaging surface of the imaging element 22 of the camera body 2.
  • the lens control unit 32 adjusts the focal position of the imaging optical system 31 by moving the focus adjustment lens forward and backward in the direction of the optical axis L1 based on a signal output from the body control unit 21 of the camera body 2.
  • the signal output from the body control unit 21 includes a signal representing the movement amount, movement direction, movement speed, and the like of the focus adjustment lens.
  • the lens memory 33 is configured by a non-volatile storage medium or the like, and stores information related to the interchangeable lens 3, for example, lens information such as information related to the position of the exit pupil of the imaging optical system 31.
  • the lens information stored in the lens memory 33 is read by the lens control unit 32 and transmitted to the body control unit 21.
  • the camera body 2 includes a body control unit 21, an image sensor 22, a memory 23, a display unit 24, and an operation unit 25.
  • the image sensor 22 is an image sensor such as a CCD or a CMOS, and a plurality of pixels are arranged two-dimensionally (row direction and column direction) on the image sensor 22.
  • the imaging element 22 receives the light beam that has passed through the exit pupil of the imaging optical system 31, generates a signal corresponding to the amount of received light, and outputs the generated signal to the body control unit 21.
  • the plurality of pixels of the image sensor 22 have, for example, R (red), G (green), and B (blue) color filters, respectively. Each pixel captures a subject image through a color filter.
  • a signal output from the image sensor 22 and RGB color information are input to the body control unit 21.
  • the body control unit 21 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the camera 1 based on a control program.
  • the body control unit 21 performs various signal processing.
  • the body control unit 21 supplies a control signal to the image sensor 22 to control the operation of the image sensor 22.
  • the body control unit 21 includes a focus detection unit 21a and an image data generation unit 21b.
  • the image data generation unit 21b performs various kinds of image processing on the signal output from the image sensor 22 to generate image data.
  • the focus detection unit 21 a calculates a defocus amount by a pupil division type phase difference detection method using a signal from the image sensor 22, and transmits the defocus amount to the lens control unit 32.
  • the focus detection unit 21 a calculates a defocus amount that is a signal for adjusting the focus position of the imaging optical system 31 and transmits the defocus amount to the lens control unit 32.
  • the focus detection unit 21 a calculates the amount of deviation between the image formation surface of the image pickup optical system 31 and the image pickup surface of the image pickup device 22 using the signal output from the image pickup device 22.
  • the body control unit 21 calculates the movement amount and movement direction of the focus adjustment lens from the deviation amount.
  • the body control unit 21 transmits information regarding the calculated amount and direction of movement of the focus adjustment lens to the lens control unit 32 via the connection unit 202 and the connection unit 302.
  • the lens control unit 32 drives a motor (not shown) based on the information transmitted from the body control unit 21 to position the focus adjustment lens so that an image formed by the imaging optical system 31 is formed on the imaging surface of the imaging element 22. That is, it is moved to the in-focus position.
  • the memory 23 is a recording medium such as a memory card, and the body control unit 21 writes and reads image data and audio data.
  • the display unit 24 displays an image generated from the image data generated by the body control unit 21. Further, the display unit 24 displays information related to shooting such as a shutter speed and an aperture value, a menu screen, and the like.
  • the operation unit 25 includes a release button, a recording button, various setting switches, and the like, and outputs an operation signal corresponding to the operation of the operation unit 25 to the body control unit 21.
  • FIG. 2 is a diagram illustrating an arrangement example of pixels of the image sensor 22 according to the first embodiment.
  • the pixels are arranged two-dimensionally (row direction and column direction).
  • Each pixel is provided with one of three color filters having different spectral characteristics of R (red), G (green), and B (blue), for example.
  • the R color filter mainly transmits light in the red wavelength region
  • the G color filter mainly transmits light in the green wavelength region
  • the B color filter mainly transmits light in the blue wavelength region. .
  • Each pixel has different spectral characteristics depending on the color filter to be arranged.
  • a pixel group 402 in which R pixels, G pixels, and B pixels) are alternately arranged is repeatedly arranged two-dimensionally.
  • the R pixel, the G pixel, and the B pixel are arranged according to the Bayer array.
  • the imaging element 22 includes the R, G, and B imaging pixels 12 arranged in a Bayer array as described above, and the imaging and focus detection pixels 11 and 13 that are arranged by being replaced with a part of the imaging pixel 12.
  • the imaging pixel 12 outputs a signal for the image data generation unit 21b to generate image data, that is, an imaging signal.
  • the imaging and focus detection pixels 11 and 13 output an imaging signal and a signal for the focus detection unit 21a to calculate a defocus amount, that is, a focus detection signal.
  • the imaging and focus detection pixels 11 and 13 may be focus detection pixels that output only a focus detection signal for the focus detection unit 21a to calculate the defocus amount.
  • the focus detection unit 21 a calculates the defocus amount based on the focus detection signals output from the focus detection pixels 11 and 13.
  • the imaging and focus detection pixels 11 and 13 are arranged by being replaced with G imaging pixels arranged in the row direction, they have G spectral characteristics. In other words, the imaging and focus detection pixels 11 and 13 each output an imaging signal based on charges generated by photoelectrically converting light in the G wavelength range. Further, the imaging and focus detection pixels 11 and 13 are alternately arranged in the row direction (X-axis direction shown in FIG. 2) with the R imaging pixel 12 interposed therebetween. The signal of the imaging / focus detection pixel 11 and the signal of the imaging / focus detection pixel 13 are used as a pair of focus detection signals for phase difference focus detection described later. Note that the pixel 11 and the pixel 13 may be arranged at an arbitrary interval. Further, the pixel 11, the pixel 12, and the pixel 13 may be arranged as a unit at an arbitrary interval in the row direction or the column direction, or the row direction and the column direction.
  • the imaging pixel 12 includes a microlens 40 and a photoelectric conversion unit 41.
  • the imaging and focus detection pixels 11 and 13 include reflection units 42A and 42B, respectively.
  • the reflection units 42A and 42B are provided at positions in the order of the microlens 40, the photoelectric conversion unit 41, and the reflection units 42A and 42B in the light incident direction.
  • the imaging and focus detection pixel 11 and the imaging and focus detection pixel 13 are different in the positions of the reflecting portions 42A and 42B.
  • the imaging and focus detection pixels 11 and 13 may be alternately arranged in the row direction with the two R imaging pixels and the G imaging pixel 12 interposed therebetween. Good. In this case, the G imaging pixel 12 sandwiched between the imaging and focus detection pixels 11 and 13 does not have the reflecting portion 42A or the reflecting portion 42B.
  • the reflection part 42 ⁇ / b> A of the imaging / focus detection pixel 11 is arranged corresponding to the almost left half region of the photoelectric conversion part 41.
  • the reflection part 42 ⁇ / b> B of the imaging / focus detection pixel 13 is arranged corresponding to the almost right half region of the photoelectric conversion part 41.
  • the reflection unit 42A is arranged corresponding to one region obtained by dividing the photoelectric conversion unit 41 into two parts (dividing the Y-axis direction shown in FIG. 2 as an axis) in the direction in which the imaging and focus detection pixels 11 and 13 are arranged.
  • the reflection part 42B is arranged corresponding to the other region obtained by dividing the photoelectric conversion part 41 into two parts.
  • the imaging and focus detection pixels 11 and 13 are arranged in the row direction (X-axis direction shown in FIG. 2), that is, in the horizontal direction, but in the column direction (Y-axis direction shown in FIG. 2), That is, they may be arranged in the vertical direction.
  • the reflection part 42A is arranged corresponding to one of the upper and lower halves of the photoelectric conversion part 41
  • the reflection part 42B is photoelectric. It is arranged corresponding to the other region of the upper half and the lower half of the conversion unit 41.
  • the reflection unit 42A corresponds to one region obtained by dividing the photoelectric conversion unit 41 into two parts (dividing the X-axis direction shown in FIG. 2 as an axis) in a direction crossing the arrangement direction of the imaging and focus detection pixels 11 and 13.
  • the reflection part 42B is arranged corresponding to the other region obtained by dividing the photoelectric conversion part 41 into two parts.
  • FIG. 3 is a diagram for explaining a light beam incident on the image sensor according to the first embodiment.
  • FIG. 3 shows one imaging pixel 12, one imaging / focus detection pixel 11, and one imaging / focus detection pixel 13.
  • the imaging pixel 12 includes the microlens 40 and the photoelectric conversion unit 41 that receives the light beam transmitted through the microlens 40.
  • the imaging and focus detection pixels 11 and 13 photoelectrically convert the microlens 40, the photoelectric conversion unit 41 into which the light beam transmitted through the microlens 40 is incident, and the light beam transmitted through a part of the photoelectric conversion unit 41. Reflecting portions 42 ⁇ / b> A and 42 ⁇ / b> B that reflect toward the portion 41.
  • the imaging pixel 12 illustrated in FIG. 3 is the G imaging pixel 12.
  • the G imaging pixel 12 is arranged around the imaging and focus detection pixel 11 or the imaging and focus detection pixel 13.
  • the G imaging pixel 12 includes the imaging and focus detection pixel 11, the imaging and focus detection pixel 13, and the like.
  • G imaging pixels 12 arranged between the two.
  • the G imaging pixel 12 may be arranged around the imaging / focus detection pixel 11 or the imaging / focus detection pixel 13.
  • the first light beam that has passed through the first pupil region 61 and the second light beam that has passed through the second pupil region 62 are incident on the photoelectric conversion unit 41 via the microlens 40.
  • the second light beam among the first and second light beams incident on the photoelectric conversion unit 41 passes through the photoelectric conversion unit 41, is reflected by the reflection unit 42 ⁇ / b> A, and reenters the photoelectric conversion unit 41.
  • the imaging and focus detection pixel 13 the first light flux that has passed through the first pupil region 61 and the second light flux that has passed through the second pupil region 62 are transmitted to the photoelectric conversion unit 41 via the microlens 40. Incident.
  • a broken line 65 indicates the first light flux that has passed through the first pupil region 61 and transmitted through the microlens 40 and the photoelectric conversion unit 41 of the imaging / focus detection pixel 13 and reflected by the reflection unit 42B. This is schematically shown.
  • the imaging pixel 12 the light beam that has passed through both the first pupil region 61 and the second pupil region 62 of the exit pupil 60 of the imaging optical system 31 in FIG. 1 enters the photoelectric conversion unit 41 through the microlens 40. .
  • the imaging pixel 12 outputs a signal S1 related to the light flux that has passed through both the first and second pupil regions 61 and 62. That is, the imaging pixel 12 photoelectrically converts light that has passed through both the first and second pupil regions 61 and 62, and outputs a signal S1 based on the charge generated by the photoelectric conversion.
  • the imaging / focus detection pixel 11 includes a signal S1 based on the electric charge obtained by photoelectrically converting the first and second light fluxes that have passed through the first pupil region 61 and the second pupil region 62, and the first reflected by the reflecting unit 42A.
  • a signal (S1 + S2) obtained by adding the signal S2 based on the charge obtained by photoelectrically converting the two luminous fluxes is output.
  • the imaging / focus detection pixel 13 includes the signal S1 based on the charge obtained by photoelectrically converting the first and second light fluxes that have passed through the first pupil region 61 and the second pupil region 62, and the first reflected by the reflecting unit 42B.
  • a signal (S1 + S3) obtained by adding the signal S3 based on the charge obtained by photoelectrically converting one light beam is output.
  • the image data generation unit 21b of the body control unit 21 generates image data related to the subject image based on the signal S1 of the imaging pixel 12 and the signals (S1 + S2) and (S1 + S3) of the imaging and focus detection pixels 11 and 13.
  • the gains of the signals (S1 + S2) and (S1 + S3) of the imaging / focus detection pixels 11 and 13 are set to the signals of the imaging pixel 12. It is better to make it smaller than the gain of S1.
  • the focus detection unit 21a of the body control unit 21 determines the focus position based on the signal S1 of the imaging pixel 12, the signal (S1 + S2) of the imaging / focus detection pixel 11 and the signal (S1 + S3) of the imaging / focus detection pixel 13. Correlation calculation is performed to obtain it.
  • the focus detection unit 21a calculates the amount of deviation between the image of the first light beam that has passed through the first pupil region 61 and the image of the second light beam that has passed through the second pupil region 62 by this correlation calculation, A defocus amount is calculated based on the image shift amount.
  • the focus detection unit 21a obtains the difference between the output of the imaging pixel 12 and the output of the imaging / focus detection pixel 11, and the difference between the output of the imaging pixel 12 and the imaging / focus detection pixel 13.
  • the focus detection unit 21a calculates an image shift amount between the image of the first light beam that has passed through the first pupil region 61 and the image of the second light beam that has passed through the second pupil region 62 from the obtained difference. To do.
  • a defocus amount is calculated based on the calculated image shift amount. For example, from the signal S1 and the signal (S1 + S2), the signal S2 based on the electric charge obtained by photoelectrically converting the second light beam reflected by the reflecting portion 42A is obtained.
  • the focus detection unit 21a obtains a signal S3 based on the charge obtained by photoelectrically converting the first light beam reflected by the reflection unit 42B from the signal S1 and the signal (S1 + S3).
  • the focus detection unit 21a detects the phase difference between the signal S2 and the signal S3 to obtain the defocus amount.
  • the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 are provided with reflecting portions 42A and 42B at positions different from each other in the direction intersecting the light incident direction.
  • the reflective portion 42A reflects light incident through the pupil region 62
  • the reflective portion 42B of the imaging / focus detection pixel 13 reflects light incident through the pupil region 61.
  • the amount of light received through the pupil region 62 is increased in the photoelectric conversion unit 41 of the imaging / focus detection pixel 11.
  • the photoelectric conversion unit 41 of the imaging / focus detection pixel 13 increases.
  • the signal output from the imaging / focus detection pixel 11 increases the signal component due to light passing through the pupil region 62.
  • the signal component due to the light passing through the pupil region 61 increases.
  • the phase difference information of the subject image can be obtained, and the defocus amount can be calculated.
  • the phase difference of the subject image is detected using the reflected light without providing a light-shielding film for detecting the phase difference on the light incident surface as in the prior art. For this reason, it can avoid that the opening which a pixel has becomes small.
  • the sensitivity (quantum efficiency) of the photoelectric conversion unit 41 of the pixel can be improved.
  • FIG. 4 is a diagram illustrating an example of a cross-sectional structure of the image sensor according to the first embodiment.
  • the image sensor 22 shown in FIG. 4 is a back-illuminated image sensor.
  • the image sensor 22 includes a first substrate (also referred to as a semiconductor layer) 111 and a second substrate 114.
  • the first substrate 111 is composed of a semiconductor substrate
  • the second substrate 114 is composed of a semiconductor substrate, a glass substrate, or the like.
  • the second substrate 114 functions as a support substrate for the first substrate 111.
  • the first substrate 111 is stacked on the second substrate 114 via the adhesive layer 113.
  • the incident light is incident mainly in the positive direction of the Z-axis indicated by a white arrow.
  • the imaging / focus detection pixel 11 (hereinafter also referred to as imaging / focus detection pixel 11A), the imaging pixel 12 (hereinafter also referred to as imaging pixel 12A), and imaging / focus detection toward the X-axis plus direction.
  • a pixel 13, an imaging pixel 12 (hereinafter also referred to as an imaging pixel 12B), and an imaging and focus detection pixel 11 (hereinafter also referred to as an imaging and focus detection pixel 11B) are disposed.
  • the imaging / focus detection pixel 11, the imaging pixel 12, and the imaging / focus detection pixel 13 are provided with a microlens 40, a color filter 43, a light shielding film 44, an antireflection film 45, a p + layer 46, and a diffusion separation unit 57, respectively. .
  • the microlens 40 condenses incident light on the photoelectric conversion unit 41.
  • a G color filter is provided in the imaging / focus detection pixel 11
  • an R color filter is provided in the imaging pixel 12
  • a G color filter is provided in the imaging / focus detection pixel 13.
  • the light shielding film 44 prevents light from leaking to adjacent pixels.
  • the p + layer 46 is formed using p-type impurities, and reduces the mixing of dark current into the photoelectric conversion unit 41.
  • the diffusion separation unit 57 separates the photoelectric conversion units 41.
  • the first substrate 111 has a first surface 105a on which an electrode and an insulating film are provided, and a second surface 105b different from the first surface.
  • the second surface 105b is an incident surface on which light is incident.
  • a wiring layer 112 is stacked on the first surface 105 a of the first substrate 111.
  • the imaging element 22 includes a photoelectric conversion unit 41 and an output unit 70, and a plurality of photoelectric conversion units 41 and output units 70 are arranged in the X-axis direction and the Y-axis direction.
  • the photoelectric conversion unit 41 is, for example, a photodiode (PD), and converts incident light into electric charges.
  • the output unit 70 generates a signal from the charge photoelectrically converted by the photoelectric conversion unit 41 and outputs the signal.
  • the output unit 70 outputs the generated signal to the wiring layer 112.
  • the output unit 70 includes a transfer transistor (transfer unit) 50, a transistor such as an amplification transistor, and the like.
  • the n + region 47 and the n + region 48 formed in the semiconductor layer 111 are each formed using n-type impurities and function as the source / drain regions of the transfer transistor 50.
  • the electrode 49 formed on the wiring layer 112 with an insulating film functions as a gate electrode (transfer gate) of the transfer transistor 50.
  • n + region 47 also functions as a part of the photoelectric conversion unit 41.
  • the electrode 49 is connected to the wiring 52 of the output unit 70 provided on the metal layer 115 via the contact 51.
  • the imaging and focus detection pixels 11 and 13 and the imaging pixel 12 are arranged in the row direction (X-axis direction), and the wiring 52 of the imaging and focus detection pixels 11 and 13 and the imaging pixel 12 are connected to each other and shared. .
  • the wiring layer 112 is a wiring layer including a conductor film (metal film) and an insulating film, and a plurality of wirings and vias are arranged therein. Copper, aluminum, or the like is used for the conductor film.
  • the insulating film includes an insulating film or an insulating film between the conductor films, and is configured by an oxide film, a nitride film, or the like.
  • the wiring layer 112 is provided with a reflective portion 42A and a reflective portion 42B. The reflective portion 42A and the reflective portion 42B are provided in the metal layer 115.
  • the reflecting portion 42A and the reflecting portion 42B are made of a conductor film or the like, and are, for example, aluminum, copper, tungsten, or a multilayer film of these films.
  • the reflective portion 42 ⁇ / b> A and the reflective portion 42 ⁇ / b> B are configured by a conductor film that covers almost half of the photoelectric conversion portion 41 in the metal layer 115.
  • a part of the wiring formed in the wiring layer 112, for example, a part of the signal line connected to the output unit 70 can be used as the reflecting unit 42.
  • the reflection part 42A and the reflection part 42B are shared by a conductor film for reflecting light and a signal line for transmitting a signal.
  • a part of the insulating film or metal layer used for the output unit 70 can be used as the reflection unit 42.
  • the reflective portion 42A and the reflective portion 42B are provided at different intervals from the adjacent pixels in the direction intersecting with the light incident direction.
  • the reflection part 42A of the imaging / focus detection pixel 11A is provided at a predetermined first interval D1 from the imaging pixel 12A adjacent to the imaging / focus detection pixel 11A in the X-axis direction.
  • the reflection part 42B of the imaging / focus detection pixel 13 is provided at a predetermined second interval D2 different from the first interval D1 from the imaging pixel 12B adjacent to the imaging / focus detection pixel 13 in the X-axis direction.
  • the distance from the adjacent pixel may be the distance from the diffusion separation unit 57.
  • the first interval D1 may be the interval between the diffusion separation unit 57 and the reflection unit 42A of the imaging pixel 12A.
  • the second interval D2 may be the interval between the diffusion separation unit 57 and the reflection unit 42B of the imaging pixel 12B. Further, the first interval D1 and the second interval D2 may have no interval (zero).
  • the reflection unit 42A and the reflection unit 42B are provided between the output unit 70 of the imaging / focus detection pixel 11 and the output unit 70 of the imaging / focus detection pixel 13.
  • the reflection unit 42 ⁇ / b> A of the imaging / focus detection pixel 11 ⁇ / b> B and the reflection unit 42 ⁇ / b> B of the imaging / focus detection pixel 13 include the output unit 70 of the imaging / focus detection pixel 11 ⁇ / b> B and the output unit 70 of the imaging / focus detection pixel 13. It is provided between.
  • the output unit 70 of the imaging / focus detection pixel 11 and the output unit 70 of the imaging / focus detection pixel 13 are provided between the reflection unit 42A and the reflection unit 42B.
  • the output unit 70 of the imaging / focus detection pixel 11 ⁇ / b> A and the output unit 70 of the imaging / focus detection pixel 13 include a reflection unit 42 ⁇ / b> A of the imaging / focus detection pixel 11 ⁇ / b> A and a reflection unit 42 ⁇ / b> B of the imaging / focus detection pixel 13. It is provided between.
  • the reflection part 42A and the reflection part 42B are provided at different intervals from the diffusion separation part 57 between the photoelectric conversion part of the adjacent pixel.
  • the reflection unit 42A of the imaging / focus detection pixel 11A is a diffusion separation unit 57 between the photoelectric conversion unit 41 of the imaging / focus detection pixel 11A and the photoelectric conversion unit 41 of the adjacent imaging pixel 12A.
  • the reflection part 42B of the imaging / focus detection pixel 13 is different from the diffusion separation part 57 between the photoelectric conversion part 41 of the imaging / focus detection pixel 13 and the photoelectric conversion part 41 of the adjacent imaging pixel 12B. They are provided at different predetermined fourth intervals.
  • the photoelectric conversion unit 41 of the imaging / focus detection pixel 11 is provided between the second surface 105b serving as the light incident surface of the imaging / focus detection pixel 11 and the reflection unit 42A.
  • the photoelectric conversion unit 41 is provided between the second surface 105b serving as the light incident surface of the imaging / focus detection pixel 13 and the reflection unit 42B.
  • the photoelectric conversion unit 41 and the reflection unit 42 ⁇ / b> A of the imaging / focus detection pixel 11 are sequentially provided in the light incident direction (Z-axis plus direction).
  • the photoelectric conversion unit 41 and the reflection unit 42B of the imaging / focus detection pixel 13 are sequentially provided in the direction in which light enters.
  • the reflection unit 42 ⁇ / b> A and the reflection unit 42 ⁇ / b> B are provided between the wiring 52 of the output unit 70 of the imaging / focus detection pixel 11 and the wiring 52 of the output unit 70 of the imaging / focus detection pixel 13.
  • the reflection unit 42A of the imaging / focus detection pixel 11B and the reflection unit 42B of the imaging / focus detection pixel 13 are the wiring 52 of the output unit 70 of the imaging / focus detection pixel 11B and the output of the imaging / focus detection pixel 13. It is provided between the wirings 52 of the unit 70.
  • the output units 70 of the imaging pixel 12A and the imaging pixel 12B are provided between the reflecting unit 42A and the reflecting unit 42B, respectively.
  • the wiring 52 of the output unit 70 of the imaging pixel 12A and the imaging pixel 12B is provided between the reflecting unit 42A and the reflecting unit 42B, respectively.
  • the imaging pixel 12A is provided between the reflection unit 42A of the imaging / focus detection pixel 11A and the reflection unit 42B of the imaging / focus detection pixel 13, and the imaging pixel 12B is a reflection unit 42A of the imaging / focus detection pixel 11B.
  • the reflective portion 42A has a surface (XY plane) that intersects the direction in which light is incident (Z-axis plus direction) and passes through the center of the photoelectric conversion portion 41 and is divided by a line parallel to the Y-axis.
  • the reflection unit 42B has a right half (in the region divided by a line passing through the center of the photoelectric conversion unit 41 and parallel to the Y axis on the plane (XY plane) intersecting the light incident direction (Z-axis plus direction). At least a part is provided in the region on the X axis plus direction side. Note that the reflecting portion 42A is located above the region divided by a line that passes through the center of the photoelectric conversion portion 41 and is parallel to the X axis on the plane (XY plane) that intersects the light incident direction (Z-axis plus direction). At least a part may be provided in the region on the half (Y-axis minus direction) side.
  • the reflection part 42B has a lower half (in the region divided by a line passing through the center of the photoelectric conversion part 41 and parallel to the X axis on the plane (XY plane) intersecting the light incident direction (Z-axis plus direction) ( At least a part may be provided in the region on the Y axis plus direction side.
  • the reflection part 42A and the reflection part 42B reflect the light transmitted through the photoelectric conversion part 41 to the photoelectric conversion part 41 side.
  • the photoelectric conversion unit 41 of the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 receives the light incident through the microlens 40 and the light reflected by the reflection unit 42A and the reflection unit 42B, and the received light amount. The electric charge according to is generated.
  • the photoelectric conversion unit 41 of the imaging pixel 12 receives light incident through the microlens 40 and generates a charge corresponding to the amount of received light.
  • the output unit 70 outputs a signal based on charges from the photoelectric conversion unit 41 to the wiring layer 112. A signal from each pixel output to the wiring layer 112 is subjected to signal processing such as AD conversion by a peripheral circuit of the pixel and the like, and is output to the body control unit 21 shown in FIG.
  • the focus detection unit 21a of the body control unit 21 calculates the defocus amount using a signal based on the photoelectrically converted charge output from the imaging element 22. For example, the focus detection unit 21a subtracts the signal (S1 + S2) of the imaging / focus detection pixel 11 and the signal S1 of the imaging pixel 12 to obtain the signal S2. The focus detection unit 21a subtracts the signal (S1 + S3) from the imaging / focus detection pixel 13 and the signal S1 from the imaging pixel 12 to obtain a signal S3. The focus detection unit 21a performs correlation calculation based on the signal S2 and the signal S3, thereby obtaining phase difference information of an image by a pair of light beams incident through different pupil regions of the imaging optical system 31. The defocus amount can be calculated by the phase difference detection method. Further, the lens control unit 32 can adjust the focal position of the imaging optical system 31 using the defocus amount output from the body control unit 21.
  • the image pickup device 22 has passed through the first photoelectric conversion unit 41 that photoelectrically converts incident light to generate charges, and the first photoelectric conversion unit 41 provided at the first interval D1 from the adjacent pixel 12A.
  • the first pixel 11 having the first reflection part 42A that reflects light
  • the second photoelectric conversion part 41 that photoelectrically converts incident light to generate charges
  • the first distance D1 from the adjacent pixel 12B
  • a second pixel 13 having a second reflection part 42B that reflects light that has passed through the second photoelectric conversion part 41 and is provided at a different second interval D2.
  • the pixel 11 and the pixel 13 that are different from each other in the position where the reflecting portion 42 is disposed are provided. Therefore, the phase difference information of the subject image can be obtained by using signals from the pixels 11 and 13.
  • the imaging device 22 includes a first photoelectric conversion unit 41 that photoelectrically converts incident light to generate a charge, and a first output unit 70 that outputs a signal based on the charge generated by the first photoelectric conversion unit 41.
  • a first reflection unit 42A that is provided between the first output unit 70 and the second output unit 70 and reflects light that has passed through the first photoelectric conversion unit 41;
  • a second reflection unit 42B provided between the output unit 70 and the second output unit 70 and configured to reflect the light that has passed through the second photoelectric conversion unit 41; Since it did in this way, the phase difference information of a to-be-photographed image can be obtained by using the signal by the pixel 11 and the pixel 13.
  • the third photoelectric conversion unit 41 is adjacent to the first or second pixel in the row direction (X direction) and photoelectrically converts incident light to generate charges, and is generated by the third photoelectric conversion unit 41.
  • the first reflecting unit 42A or the second reflecting unit 42B includes the third output unit 70 and the first output unit 70.
  • the output unit 70 or between the third output unit 70 and the second output unit 70 may be provided.
  • the first output unit 70 may be provided between the third output unit 70 and the first reflection unit 42A, or the second output unit 70 may be provided between the third output unit 70 and the second reflection unit 42B.
  • the first reflection unit 42A is provided at a third interval from the separation unit 57 between the first photoelectric conversion unit 41 and the photoelectric conversion unit 41 of the adjacent pixel, and the second reflection unit 42B is the second reflection unit 42B.
  • the focus control apparatus includes the image sensor 22, a signal output from the first output unit 70 of the image sensor 22 that has received light incident via the optical system (imaging optical system 31), and the second output unit 70. And a control unit (lens control unit 32) that adjusts the focal position of the optical system on the basis of the signal output from. Since it did in this way, the phase difference information of a to-be-photographed image can be obtained using reflected light, and a focus position can be adjusted.
  • the focus detection apparatus includes a signal from the first photoelectric conversion unit 41 and a signal from the second photoelectric conversion unit 41 that have received light that has entered through the imaging element 22 and the optical system (imaging optical system 31).
  • a focus detection unit (body control unit 21) for detecting the focus of the optical system. Since it did in this way, the phase difference information of a to-be-photographed image can be obtained using reflected light, and the focus detection about an optical system can be performed.
  • the size of the aperture of the pixel becomes smaller (shorter) than the wavelength of light, and light may not enter the photoelectric conversion unit of the pixel. Since the amount of light received at the photoelectric conversion unit is reduced, the charge that is photoelectrically converted is also reduced. Therefore, it is difficult to detect the focus of the optical system from the phase difference information of the signal generated from the charge and to adjust the focus of the optical system. In order to detect the phase difference, the amount of light received by the pixel provided with the light shielding film on the light incident surface is further reduced. Therefore, it becomes more difficult to detect the focus of the optical system from the phase difference information and to adjust the focus of the optical system.
  • the present embodiment it is possible to detect the focus of the optical system from the phase difference information and adjust the focus of the optical system without providing a light-shielding film on the light incident surface.
  • the pixel 11 and the pixel 13 that function as focus detection pixels of the present embodiment have the same sensitivity as a pixel that does not have a reflecting portion. For this reason, the defect correction etc. with respect to the signal from the pixel 11 and the pixel 13 become easy, and it can suppress that it becomes a defective pixel as an imaging pixel for producing
  • FIG. 5 is a diagram illustrating an example of a cross-sectional structure of the image sensor according to the first modification.
  • the reflective portion 42A and the reflective portion 42B are provided by being directly stacked on the semiconductor layer 111.
  • the reflecting part 42A and the reflecting part 42B are an oxide film, a nitride film, or the like.
  • a silicon oxide film, a silicon nitride film, a silicon oxynitride film, or a multilayer film of these films is used.
  • the reflective portion may be stacked on the semiconductor layer 111 with an insulating film interposed therebetween. In this modification, the reflective portion is provided at a position closer to the semiconductor layer 111 as compared to the case where the reflective portion is provided using the conductor film of the metal layer 115. For this reason, it can suppress that the reflected light by a reflection part injects into an adjacent pixel. As a result, it is possible to suppress noise from being mixed into signals from adjacent pixels.
  • FIG. 6 is a diagram illustrating an example of a cross-sectional structure of an image sensor according to the second modification.
  • the light shielding portions 55 (light shielding portions 55A to 55D), 56 (Light shielding part 56A to light shielding part 56D) are further provided.
  • the light shielding portion 55 shown in FIG. 6A is made of a conductor film (metal film), polysilicon, or the like.
  • the light shielding unit 55A is provided between the photoelectric conversion unit 41 and the reflection unit 42A of the imaging / focus detection pixel 11, and the light shielding unit 55D is provided between the photoelectric conversion unit 41 and the reflection unit 42B of the imaging / focus detection pixel 13.
  • the light shielding portion 56 shown in FIG. 6B is configured by DTI (Deep Trench Isolation). That is, in the example shown in FIG. 6B, a groove is formed between the pixels, and an oxide film, a nitride film, polysilicon, or the like is embedded in the groove.
  • the light shielding unit 56 is provided between the adjacent photoelectric conversion units 41.
  • the light shielding unit 56B is provided between the photoelectric conversion unit 41 of the imaging and focus detection pixel 11 and the photoelectric conversion unit 41 of the imaging pixel 12, and the light shielding unit 56C is the photoelectric conversion unit 41 of the imaging and focus detection pixel 13. And the photoelectric conversion unit 41 of the imaging pixel 12.
  • the light-shielding part 55 and the light-shielding part 56 are arranged, it is possible to suppress the reflected light from the reflective part 42A and the reflective part 42B from entering adjacent pixels and to suppress crosstalk between the pixels. it can.
  • the sensitivity of the photoelectric conversion unit 41 can be improved, and the accuracy of focus detection can be improved.
  • the light shielding part 55 (light shielding part 55A to light shielding part 55D) and the light shielding part 56 (light shielding part 56A to light shielding part 56D) are the reflection part 55 (reflection part 55A to reflection part 55D) and the reflection part 56 (reflection part 56A to reflection part). 56D).
  • FIG. 7 is a diagram illustrating an arrangement example of pixels of the image sensor according to the third modification
  • FIG. 8 is a diagram illustrating an example of a cross-sectional structure of the image sensor according to the third modification.
  • the imaging and focus detection pixels 11 and 13 are alternately arranged in the row direction with the R imaging pixels 12 interposed therebetween.
  • the imaging and focus detection pixels 11 and 13 are alternately arranged in the row direction (X-axis direction) with the two R imaging pixels 12 and the G imaging pixels 12 interposed therebetween. It may be arranged.
  • FIG. 8 and 9 are diagrams showing an example of a cross-sectional structure of the image sensor according to the third modification.
  • the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 are arranged so that the positions of the photoelectric conversion unit 41 and the output unit 70 are symmetrical (symmetrical) with respect to the optical axis. ing.
  • the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 may have the same configuration except that the positions of the reflection portions 42A and 42B are different.
  • the signal based on the electric charge obtained by photoelectrically converting the light reflected by the reflector may be calculated by subtracting the signal of the imaging / focus detection pixel and the average value of the signals of the two imaging pixels.
  • signals from the G imaging pixels 12A, 12B, and 12C arranged as shown in FIG. 7 and signals from the imaging and focus detection pixels 11 and 13 are used. Use.
  • the focus detection unit 21a subtracts the signal of the imaging / focus detection pixel 11 from the average value of the signals of the imaging pixels 12A and 12B, thereby converting the second light beam reflected by the reflection unit 42A into a photoelectrically converted charge. Based on this, the signal S2 is calculated. Similarly, the focus detection unit 21a performs subtraction between the signal of the imaging / focus detection pixel 13 and the average value of the signals of the G imaging pixels 12B and 12C, and the first light flux reflected by the reflecting unit 42B. A signal S3 is calculated based on the charge obtained by photoelectric conversion of The focus detection unit 21a can calculate the defocus amount by performing correlation calculation using the signal S2 and the signal S3.
  • the charge obtained by photoelectrically converting the light reflected by the reflection unit by subtracting the signal of the imaging / focus detection pixel from the average value of the signals of the plurality of imaging pixels arranged around the imaging / focus detection pixel.
  • the focus detection unit 21a subtracts the signal of the imaging / focus detection pixel 11 and the average value of the signals of the imaging pixels 12D, 12E, 12F, and 12G, thereby photoelectrically converting the second light flux reflected by the reflection unit 42A.
  • a signal S2 based on the converted charge is calculated.
  • the focus detection unit 21a performs subtraction between the signal of the imaging / focus detection pixel 13 and the average value of the signals of the imaging pixels 12H, 12I, 12J, and 12K, and the first reflected by the reflection unit 42B.
  • a signal S3 based on the charge obtained by photoelectrically converting the luminous flux is calculated.
  • the focus detection unit 21a can calculate the defocus amount by performing correlation calculation using the signal S2 and the signal S3.
  • FIG. 10 is a diagram illustrating an example of a cross-sectional structure of an image sensor according to the fourth modification.
  • the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 are arranged so that the positions of the photoelectric conversion unit 41 and the output unit 70 are symmetric (laterally symmetric) with respect to the optical axis. ing.
  • the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 may have the same configuration except that the positions of the reflection portions 42A and 42B are different.
  • the reflection portion 42B is formed in two layers.
  • the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13 have the same configuration except for the positions of the reflection part 42 ⁇ / b> A and the reflection part 42 ⁇ / b> B, and are the same as in the first modification.
  • the reflecting portion 42A and the reflecting portion 42B may be formed using an oxide film, a nitride film, or the like. In this case, the reflecting portions 42A and 42B may be formed using a plurality of insulating films.
  • the reflecting portion 42 ⁇ / b> B is formed using a plurality of insulating films such as a gate insulating film used for the output unit 70 and an insulating film between wirings.
  • the light that has passed through the photoelectric conversion unit 41 is reflected by the reflection unit 42A and the reflection unit 42B, and focus detection is performed using the signal component of the reflected light.
  • the G color filter is provided in the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13
  • an R color filter is provided in the imaging / focus detection pixel 11 and the imaging / focus detection pixel 13. Also good.
  • a signal of light in a long wavelength region that easily passes through the photoelectric conversion unit 41 for example, light such as infrared light or near infrared light, for focus detection.
  • the present invention is also applied to industrial cameras and medical cameras in which infrared or near-infrared images are used. can do.
  • the image sensor 22 has been described as an example of a backside illumination type configuration.
  • the imaging element 22 may have a surface irradiation type configuration in which the wiring layer 112 is provided on the incident surface side on which light is incident.
  • the image sensor is output from a first substrate on which a pixel having a photoelectric conversion unit is arranged, a second substrate on which an AD conversion unit that converts a signal from the pixel into a digital signal is arranged, and the AD conversion unit A configuration may be employed in which a third substrate on which an image processing unit that performs various types of image processing on a digital signal is disposed is stacked.
  • the first substrate, the second substrate, and the third substrate are provided from the light incident side.
  • the image sensor 22 described in the above-described embodiment may be applied to a camera, a smartphone, a tablet, a camera built in a PC, a vehicle-mounted camera, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Blocking Light For Cameras (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

撮像素子は、複数の画素が第1方向に配列される撮像素子であって、入射した光を光電変換して電荷を生成する第1光電変換部と、前記光が入射する方向と交差する面において、前記第1光電変換部の中心よりも前記第1方向側の領域に少なくとも一部に設けられ、前記第1光電変換部を透過した光の一部を前記第1光電変換部へ反射する第1反射部と、を有する第1画素と、入射した光を光電変換して電荷を生成する第2光電変換部と、前記光が入射する方向と交差する面において、前記第2光電変換部の中心よりも前記第1方向と逆方向側の領域に少なくとも一部に設けられ、前記第2光電変換部を透過した光の一部を前記第2光電変換部へ反射する第2反射部と、を有する第2画素と、を備える。

Description

撮像素子、及び、撮像装置
 本発明は、撮像素子、及び、撮像装置に関する。
 光電変換部の下に反射層を設け、この反射層によって光電変換部を透過した光を光電変換部に反射させる撮像装置が知られている(特許文献1)。従来技術では、反射層は光電変換部に対して同じ位置にしか設けられていなかった。
日本国特開2010-177704号公報
 本発明の第1の態様によると、撮像素子は、複数の画素が第1方向に配列される撮像素子であって、入射した光を光電変換して電荷を生成する第1光電変換部と、前記光が入射する方向と交差する面において、前記第1光電変換部の中心よりも前記第1方向側の領域に少なくとも一部に設けられ、前記第1光電変換部を透過した光の一部を前記第1光電変換部へ反射する第1反射部と、を有する第1画素と、入射した光を光電変換して電荷を生成する第2光電変換部と、前記光が入射する方向と交差する面において、前記第2光電変換部の中心よりも前記第1方向と逆方向側の領域に少なくとも一部に設けられ、前記第2光電変換部を透過した光の一部を前記第2光電変換部へ反射する第2反射部と、を有する第2画素と、を備える。
 本発明の第2の態様によると、撮像装置は、フォーカスレンズを有する光学系による像を撮像した前記撮像素子の前記第1画素から出力された信号と前記第2画素から出力された信号とに基づいて、前記光学系による像が前記撮像素子に合焦するよう前記フォーカスレンズの位置を制御する制御部と、を備える。
第1の実施の形態に係る撮像装置の要部構成図。 第1の実施の形態に係る撮像素子の画素の配置例を示す図。 第1の実施の形態に係る撮像素子に入射する光束を説明するための図。 第1の実施の形態に係る撮像素子の断面構造の一例を示す図。 変形例1に係る撮像素子の断面構造の一例を示す図。 変形例2に係る撮像素子の断面構造の一例を示す図。 変形例3に係る撮像素子の画素の配置例を示す図。 変形例3に係る撮像素子の断面構造の一例を示す図。 変形例3に係る撮像素子の断面構造の別の例を示す図。 変形例4に係る撮像素子の断面構造の一例を示す図。 変形例4に係る撮像素子の断面構造の別の例を示す図。
(第1の実施の形態)
 図1は、第1の実施の形態に係る撮像装置であるデジタルカメラ1(以下、カメラ1と呼ぶ)の要部構成図である。カメラ1は、カメラボディ2と交換レンズ3とにより構成される。交換レンズ3は、マウント部(不図示)を介してカメラボディ2に装着される。カメラボディ2に交換レンズ3が装着されると、カメラボディ2側の接続部202と交換レンズ3側の接続部302とが接続され、カメラボディ2および交換レンズ3間の通信が可能となる。
 交換レンズ3は、撮像光学系(結像光学系)31と、レンズ制御部32と、レンズメモリ33とを備える。撮像光学系31は、焦点調節レンズ(フォーカスレンズ)を含む複数のレンズや絞りにより構成され、カメラボディ2の撮像素子22の撮像面上に被写体像を結像する。レンズ制御部32は、カメラボディ2のボディ制御部21から出力される信号に基づいて焦点調節レンズを光軸L1方向に進退移動させ撮像光学系31の焦点位置を調節する。ボディ制御部21から出力される信号には、焦点調節レンズの移動量や移動方向、移動速度などを表す信号が含まれる。レンズメモリ33は、不揮発性の記憶媒体等により構成され、交換レンズ3に関連する情報、例えば撮像光学系31の射出瞳の位置に関する情報等のレンズ情報が記憶される。レンズメモリ33に記憶されるレンズ情報は、レンズ制御部32により読み出されて、ボディ制御部21に送信される。
 カメラボディ2は、ボディ制御部21と、撮像素子22と、メモリ23と、表示部24と、操作部25とを備える。撮像素子22は、CCDやCMOS等のイメージセンサであり、撮像素子22には複数の画素が二次元状(行方向及び列方向)に配置される。撮像素子22は、撮像光学系31の射出瞳を通過した光束を受光して受光量に応じた信号を生成し、生成した信号をボディ制御部21に出力する。撮像素子22の複数の画素は、例えば、それぞれR(赤)、G(緑)、B(青)のカラーフィルタを有する。各画素はカラーフィルタを通して被写体像を撮像する。撮像素子22から出力される信号と、RGBの色情報とが、ボディ制御部21に入力される。
 ボディ制御部21は、CPU、ROM、RAM等により構成され、制御プログラムに基づきカメラ1の各部を制御する。また、ボディ制御部21は、各種の信号処理を行う。例えば、ボディ制御部21は、撮像素子22に制御信号を供給して撮像素子22の動作を制御する。ボディ制御部21は、焦点検出部21aと画像データ生成部21bとを有する。画像データ生成部21bは、撮像素子22から出力される信号に各種の画像処理を行って画像データを生成する。焦点検出部21aは、撮像素子22からの信号を用いて瞳分割型の位相差検出方式によりデフォーカス量を算出し、デフォーカス量をレンズ制御部32に送信する。すなわち、焦点検出部21aは、撮像光学系31の焦点位置を調節するための信号であるデフォーカス量を算出し、レンズ制御部32に送信する。換言すると、焦点検出部21aは、撮像素子22から出力される信号を用いて、撮像光学系31による像の結像面と撮像素子22の撮像面とのずれ量を算出する。ボディ制御部21は、ずれ量から焦点調節レンズの移動量と移動方向とを算出する。ボディ制御部21は、算出された焦点調節レンズの移動量と移動方向とに関する情報を、接続部202と接続部302とを介してレンズ制御部32に送信する。レンズ制御部32は、ボディ制御部21から送信された情報に基づき、不図示のモータを駆動して、焦点調節レンズを、撮像光学系31による像が撮像素子22の撮像面に結像する位置、すなわち合焦位置に移動させる。
 メモリ23は、メモリカード等の記録媒体であり、ボディ制御部21によって画像データや音声データ等の書き込み及び読み出しが行われる。表示部24は、ボディ制御部21により生成された画像データから生成される画像を表示する。また、表示部24は、シャッター速度、絞り値等の撮影に関する情報やメニュー画面等を表示する。操作部25は、レリーズボタン、録画ボタン、各種設定スイッチなどを含み、操作部25の操作に応じた操作信号をボディ制御部21へ出力する。
 図2は、第1の実施の形態に係る撮像素子22の画素の配置例を示す図である。撮像素子22では、画素が二次元状(行方向および列方向)に配置される。各画素には、例えば、R(赤)、G(緑)、B(青)の異なる分光特性を有する3つのカラーフィルタのいずれかが設けられる。Rのカラーフィルタは主に赤色の波長域の光を透過し、Gのカラーフィルタは主に緑色の波長域の光を透過し、Bのカラーフィルタは主に青色の波長域の光を透過する。
 各画素は、配置されるカラーフィルタに応じて異なる分光特性を有する。撮像素子22では、RおよびGのカラーフィルタを有する画素が交互に配置される画素群401と、GおよびBのカラーフィルタを有する画素(以下、R、GおよびBのカラーフィルタを有する画素をそれぞれR画素、G画素、およびB画素と称する)が交互に配置される画素群402とが二次元状に繰り返し配置される。こうして、R画素とG画素とB画素とは、ベイヤー配列に従い、配置されている。
 撮像素子22は、上述のようにベイヤー配列されたR、G、Bの撮像画素12と、撮像画素12の一部に置換して配置された撮像兼焦点検出画素11、13とを有する。撮像画素12は、画像データ生成部21bが画像データを生成するための信号、すなわち撮像信号を出力する。撮像兼焦点検出画素11、13は、撮像信号と、焦点検出部21aがデフォーカス量を算出するための信号、すなわち焦点検出信号とを出力する。なお、撮像兼焦点検出画素11、13は、焦点検出部21aがデフォーカス量を算出するための焦点検出信号のみを出力する焦点検出画素としてもよい。焦点検出部21aは、焦点検出画素11、13から出力される焦点検出信号に基づいてデフォーカス量を算出する。撮像兼焦点検出画素11、13は、行方向に並んだGの撮像画素に置換して配置されるので、Gの分光特性を有する。即ち、撮像兼焦点検出画素11、13は、それぞれ、Gの波長域の光を光電変換して生成された電荷に基づく撮像信号を出力する。また、撮像兼焦点検出画素11、13は互いに、Rの撮像画素12を挟んで、行方向(図2に示すX軸方向)に交互に配置される。撮像兼焦点検出画素11の信号と撮像兼焦点検出画素13の信号とは、後述する位相差式焦点検出のための一対の焦点検出信号として用いられる。なお、画素11と画素13とは任意の間隔で配置してもよい。また、画素11と画素12と画素13とを1つの単位として、行方向または列方向、または行方向および列方向に任意の間隔で配置してもよい。
 撮像画素12は、マイクロレンズ40と光電変換部41とを有する。撮像兼焦点検出画素11、13は、マイクロレンズ40および光電変換部41に加えて、反射部42A、42Bをそれぞれ有する。反射部42A、42Bは、光の入射方向において、マイクロレンズ40、光電変換部41、反射部42A、42Bの順となる位置に設けられる。撮像兼焦点検出画素11と撮像兼焦点検出画素13とは、その反射部42A、42Bの位置が異なる。なお、後述の図7または図8に示すように、撮像兼焦点検出画素11、13は、2つのRの撮像画素とGの撮像画素12とを挟んで、行方向に交互に配置してもよい。この場合、撮像兼焦点検出画素11、13に挟まれるGの撮像画素12は、反射部42Aまたは反射部42Bを有していない。
 図2に図示するように、撮像兼焦点検出画素11の反射部42Aは、その光電変換部41のほぼ左半分の領域に対応して配置される。他方、撮像兼焦点検出画素13の反射部42Bは、その光電変換部41のほぼ右半分の領域に対応して配置される。換言すると、反射部42Aは、撮像兼焦点検出画素11、13の並び方向に光電変換部41を2分割(図2に示すY軸方向を軸に分割)した一方の領域に対応して配置され、反射部42Bは、光電変換部41を2分割した他方の領域に対応して配置される。
 なお、図2においては、撮像兼焦点検出画素11、13は、行方向(図2に示すX軸方向)、即ち横方向に配列されたが、列方向(図2に示すY軸方向)、即ち縦方向に配列されてもよい。撮像兼焦点検出画素11、13が列方向に配列された場合には、反射部42Aが光電変換部41のほぼ上半分と下半分の一方の領域に対応して配置され、反射部42Bが光電変換部41のほぼ上半分と下半分の他方の領域に対応して配置される。換言すると、反射部42Aは、撮像兼焦点検出画素11、13の並び方向と交差する方向に光電変換部41を2分割(図2に示すX軸方向を軸に分割)した一方の領域に対応して配置され、反射部42Bは、光電変換部41を2分割した他方の領域に対応して配置される。
 図3は、第1の実施の形態に係る撮像素子に入射する光束を説明するための図である。なお、図3は、1つの撮像画素12と1つの撮像兼焦点検出画素11と1つの撮像兼焦点検出画素13とが示されている。撮像画素12は、上述のように、マイクロレンズ40と、マイクロレンズ40を透過した光束を受光する光電変換部41とを有する。撮像兼焦点検出画素11、13は、上述のように、マイクロレンズ40と、マイクロレンズ40を透過した光束が入射する光電変換部41と、光電変換部41の一部を透過した光束を光電変換部41に向けて反射する反射部42A、42Bとを有する。
 なお、図3で図示する撮像画素12はGの撮像画素12である。図2に図示するように撮像兼焦点検出画素11、13と撮像画素12が配置されている場合、Gの撮像画素12は撮像兼焦点検出画素11または撮像兼焦点検出画素13の周辺に配置されるGの撮像画素12である。
 後述の図7または図8に示すように撮像兼焦点検出画素11、13と撮像画素12が配置されている場合、Gの撮像画素12は撮像兼焦点検出画素11と撮像兼焦点検出画素13との間に配置されるGの撮像画素12である。なお、撮像兼焦点検出画素11または撮像兼焦点検出画素13の周辺に配置されるGの撮像画素12であってもよい。
 撮像兼焦点検出画素11では、第1の瞳領域61を通過した第1の光束と第2の瞳領域62を通過した第2の光束とがマイクロレンズ40を介して光電変換部41に入射する。光電変換部41に入射した第1及び第2の光束のうちの第2の光束は、光電変換部41を通過して反射部42Aで反射されて光電変換部41に再入射する。他方、撮像兼焦点検出画素13は、第1の瞳領域61を通過した第1の光束と第2の瞳領域62を通過した第2の光束とがマイクロレンズ40を介して光電変換部41に入射する。光電変換部41に入射した第1及び第2の光束のうちの第1の光束は、光電変換部41を通過して反射部42Bで反射されて光電変換部41に再入射する。なお、図3において、破線65は、第1の瞳領域61を通過して撮像兼焦点検出画素13のマイクロレンズ40および光電変換部41を透過し反射部42Bで反射された第1の光束を模式的に表している。
 撮像画素12では、図1の撮像光学系31の射出瞳60の第1の瞳領域61及び第2の瞳領域62の両方を通過した光束がマイクロレンズ40を介して光電変換部41に入射する。撮像画素12は、第1及び第2の瞳領域61、62の両方を通過した光束に関する信号S1を出力する。すなわち、撮像画素12は、第1及び第2の瞳領域61、62の両方を通過した光を光電変換し、光電変換して生成された電荷に基づく信号S1を出力する。撮像兼焦点検出画素11は、第1の瞳領域61及び第2の瞳領域62を通過した第1及び第2の光束を光電変換した電荷に基づく信号S1と、反射部42Aによって反射された第2の光束を光電変換した電荷に基づく信号S2とを加算した信号(S1+S2)を出力する。撮像兼焦点検出画素13は、第1の瞳領域61及び第2の瞳領域62を通過した第1及び第2の光束を光電変換した電荷に基づく信号S1と、反射部42Bによって反射された第1の光束を光電変換した電荷に基づく信号S3とを加算した信号(S1+S3)を出力する。
 ボディ制御部21の画像データ生成部21bは、撮像画素12の信号S1と、撮像兼焦点検出画素11、13の信号(S1+S2)、(S1+S3)とに基づき、被写体像に関する画像データを生成する。なお、この画像データの生成の際には、信号S2,S3の影響を抑えるために、例えば、撮像兼焦点検出画素11、13の信号(S1+S2)、(S1+S3)のゲインを撮像画素12の信号S1のゲインに比べて小さくするとよい。
 ボディ制御部21の焦点検出部21aは、撮像画素12の信号S1と、撮像兼焦点検出画素11の信号(S1+S2)と撮像兼焦点検出画素13の信号(S1+S3)とに基づき、合焦位置を求めるため相関演算を行う。焦点検出部21aは、この相関演算によって、第1の瞳領域61を通過した第1の光束による像と第2の瞳領域62を通過した第2の光束による像とのズレ量を算出し、この像ズレ量に基づきデフォーカス量を算出する。
 焦点検出部21aは、撮像画素12の出力と撮像兼焦点検出画素11の出力との差分、撮像画素12の出力と撮像兼焦点検出画素13との差分を求める。焦点検出部21aは、求めた差分から、第1の瞳領域61を通過した第1の光束による像と、第2の瞳領域62を通過した第2の光束による像との像ズレ量を算出する。算出した像ズレ量に基づきデフォーカス量を算出する。例えば、信号S1と信号(S1+S2)とから、反射部42Aによって反射された第2の光束を光電変換した電荷に基づく信号S2を求める。焦点検出部21aは、信号S1と信号(S1+S3)とから、反射部42Bによって反射された第1の光束を光電変換した電荷に基づく信号S3を求める。焦点検出部21aは、信号S2と信号S3との位相差検出を行ってデフォーカス量を求める。
 本実施の形態では、撮像兼焦点検出画素11および撮像兼焦点検出画素13では、光が入射する方向と交差する方向において互いに異なる位置に反射部42A、42Bが設けられ、撮像兼焦点検出画素11の反射部42Aは瞳領域62を介して入射する光を反射し、撮像兼焦点検出画素13の反射部42Bは瞳領域61を介して入射する光を反射する。このため、撮像兼焦点検出画素11の光電変換部41では瞳領域62を通過する光の受光量が増加する。撮像兼焦点検出画素13の光電変換部41では瞳領域61を通過する光の受光量が増加する。この結果、撮像兼焦点検出画素11から出力される信号は、瞳領域62を通過する光による信号成分が増加する。撮像兼焦点検出画素13から出力される信号は、瞳領域61を通過する光による信号成分が増加する。撮像画素12および撮像兼焦点検出画素11および撮像兼焦点検出画素13による信号を用いることで、被写体像の位相差情報を得ることができ、デフォーカス量を算出することができる。また、本実施の形態では、従来のように、光の入射面において位相差検出のための遮光膜を設けることなく、反射光を用いて被写体像の位相差を検出する。このため、画素が有する開口が小さくなることを回避できる。さらに、光電変換部41を通過した光を反射部42A、42Bにより光電変換部41に反射させるため、画素の光電変換部41の感度(量子効率)を向上させることができる。
 図4は、第1の実施の形態に係る撮像素子の断面構造の一例を示す図である。図4に示す撮像素子22は、裏面照射型の撮像素子である。撮像素子22は、第1基板(半導体層とも称する)111と、第2基板114とを備える。第1基板111は半導体基板により構成され、第2基板114は半導体基板やガラス基板等により構成される。第2基板114は、第1基板111の支持基板として機能する。第1基板111は、接着層113を介して第2基板114に積層される。図4に示すように、入射光は、主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。また、座標軸に示すように、Z軸に直交する紙面右方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。図4に示す例では、X軸プラス方向に向かって撮像兼焦点検出画素11(以下、撮像兼焦点検出画素11Aとも称する)、撮像画素12(以下、撮像画素12Aとも称する)、撮像兼焦点検出画素13、撮像画素12(以下、撮像画素12Bとも称する)、撮像兼焦点検出画素11(以下、撮像兼焦点検出画素11Bとも称する)が配置されている。
 撮像兼焦点検出画素11、撮像画素12および撮像兼焦点検出画素13には、それぞれマイクロレンズ40、カラーフィルタ43、遮光膜44、反射防止膜45、およびp+層46、拡散分離部57が設けられる。マイクロレンズ40は、入射した光を光電変換部41に集光する。図4に示す例では、撮像兼焦点検出画素11にGのカラーフィルタ、撮像画素12にRのカラーフィルタ、撮像兼焦点検出画素13にGのカラーフィルタがそれぞれ設けられている。遮光膜44は、隣接する画素に光が漏れることを抑制する。p+層46は、p型の不純物を用いて形成され、光電変換部41への暗電流の混入を低減させる。拡散分離部57は、光電変換部41間を分離する。
 第1基板111は、電極や絶縁膜が設けられる第1面105aと、第1面とは異なる第2面105bとを有する。第2面105bは、光が入射する入射面となる。第1基板111の第1面105aには、配線層112が積層して設けられる。撮像素子22には、光電変換部41および出力部70が設けられ、光電変換部41および出力部70は、X軸方向およびY軸方向に複数配置されている。
 光電変換部41は、例えばフォトダイオード(PD)であり、入射した光を電荷に変換する。また、出力部70は、光電変換部41によって光電変換された電荷から信号を生成して出力する。出力部70は、生成した信号を配線層112へ出力する。出力部70は、転送トランジスタ(転送部)50や増幅トランジスタ等のトランジスタ等により構成される。図4に示す例では、半導体層111に形成されるn+領域47およびn+領域48は、それぞれn型の不純物を用いて形成され、転送トランジスタ50のソース・ドレイン領域として機能する。また、配線層112に絶縁膜を介して形成される電極49は、転送トランジスタ50のゲート電極(転送ゲート)として機能する。また、n+領域47は、光電変換部41の一部としても機能する。電極49は、コンタクト51を介してメタル層115に設けられる出力部70の配線52に接続される。撮像兼焦点検出画素11、13、および撮像画素12は行方向(X軸方向)に配置され、撮像兼焦点検出画素11、13、および撮像画素12の配線52は、互いに接続されて共有される。
 配線層112は、導体膜(金属膜)および絶縁膜を含む配線層であり、複数の配線やビアなどが配置される。導体膜には、銅、アルミニウム等が用いられる。絶縁膜は、導体膜間の絶縁膜や絶縁膜などを含み、酸化膜や窒化膜などで構成される。配線層112には、反射部42Aおよび反射部42Bが設けられる。反射部42Aおよび反射部42Bは、メタル層115に設けられる。反射部42Aおよび反射部42Bは、導体膜等により構成され、例えばアルミニウム、銅、タングステン、又はこれらの膜の多層膜である。図4に示す例では、反射部42Aおよび反射部42Bは、メタル層115において光電変換部41のほぼ半分を覆う導体膜により構成される。また、配線層112に形成される配線の一部、例えば出力部70に接続する信号線の一部を、反射部42として用いることができる。この場合、反射部42Aおよび反射部42Bは、光を反射するための導体膜と、信号を伝送するための信号線とに共用される。なお、反射部42Aおよび反射部42Bを、絶縁膜により構成するようにしてもよい。この場合、出力部70に用いられる絶縁膜やメタル層の一部を、反射部42として用いることができる。
 反射部42Aおよび反射部42Bは、光が入射する方向と交差する方向において、隣の画素から異なる間隔で設けられる。例えば、図4においては、撮像兼焦点検出画素11Aの反射部42Aは、X軸方向において、撮像兼焦点検出画素11Aの隣の撮像画素12Aから所定の第1間隔D1で設けられる。撮像兼焦点検出画素13の反射部42Bは、X軸方向において、撮像兼焦点検出画素13の隣の撮像画素12Bから第1間隔D1とは異なる所定の第2間隔D2で設けられている。なお、後述するように、隣の画素からの間隔は、拡散分離部57からの間隔であってもよい。例えば、第1間隔D1は、撮像画素12Aの拡散分離部57と反射部42Aとの間隔でもよい。第2間隔D2は、撮像画素12Bの拡散分離部57と反射部42Bとの間隔でもよい。また、第1間隔D1、第2間隔D2は間隔がない(ゼロ)ことがあってもよい。
 また、反射部42Aおよび反射部42Bは、撮像兼焦点検出画素11の出力部70と撮像兼焦点検出画素13の出力部70との間に設けられる。図4においては、撮像兼焦点検出画素11Bの反射部42Aおよび撮像兼焦点検出画素13の反射部42Bは、撮像兼焦点検出画素11Bの出力部70と撮像兼焦点検出画素13の出力部70との間に設けられている。撮像兼焦点検出画素11の出力部70および撮像兼焦点検出画素13の出力部70は、反射部42Aと反射部42Bとの間に設けられる。図4においては、撮像兼焦点検出画素11Aの出力部70および撮像兼焦点検出画素13の出力部70は、撮像兼焦点検出画素11Aの反射部42Aと撮像兼焦点検出画素13の反射部42Bとの間に設けられている。
 反射部42Aおよび反射部42Bは、隣の画素の光電変換部との間にある拡散分離部57から異なる間隔で設けられる。例えば、図4においては、撮像兼焦点検出画素11Aの反射部42Aは、撮像兼焦点検出画素11Aの光電変換部41と隣の撮像画素12Aの光電変換部41との間にある拡散分離部57から所定の第3間隔で設けられる。撮像兼焦点検出画素13の反射部42Bは、撮像兼焦点検出画素13の光電変換部41と隣の撮像画素12Bの光電変換部41との間にある拡散分離部57から、第3間隔とは異なる所定の第4間隔で設けられる。また、撮像兼焦点検出画素11の光電変換部41は、撮像兼焦点検出画素11の光の入射面となる第2面105bと反射部42Aとの間に設けられ、撮像兼焦点検出画素13の光電変換部41は、撮像兼焦点検出画素13の光の入射面となる第2面105bと反射部42Bとの間に設けられる。このため、撮像兼焦点検出画素11の光電変換部41と反射部42Aとは、光が入射する方向(Z軸プラス方向)に順に設けられる。同様に、撮像兼焦点検出画素13の光電変換部41と反射部42Bとは、光が入射する方向に順に設けられる。
 また、反射部42Aおよび反射部42Bは、撮像兼焦点検出画素11の出力部70の配線52と撮像兼焦点検出画素13の出力部70の配線52との間に設けられる。図4においては、撮像兼焦点検出画素11Bの反射部42Aおよび撮像兼焦点検出画素13の反射部42Bは、撮像兼焦点検出画素11Bの出力部70の配線52と撮像兼焦点検出画素13の出力部70の配線52との間に設けられている。さらに、図4においては、撮像画素12Aおよび撮像画素12Bの出力部70は、それぞれ反射部42Aと反射部42Bとの間に設けられる。撮像画素12Aおよび撮像画素12Bの出力部70の配線52は、それぞれ反射部42Aと反射部42Bとの間に設けられる。また、撮像画素12Aは、撮像兼焦点検出画素11Aの反射部42Aと撮像兼焦点検出画素13の反射部42Bとの間に設けられ、撮像画素12Bは、撮像兼焦点検出画素11Bの反射部42Aと撮像兼焦点検出画素13の反射部42Bとの間に設けられる。
 また、反射部42Aは、光が入射する方向(Z軸プラス方向)と交差する面(XY平面)において、光電変換部41の中心を通りY軸と平行な線で分割された領域のうち左半分(X軸マイナス方向)側の領域に少なくとも一部が設けられている。反射部42Bは、光が入射する方向(Z軸プラス方向)と交差する面(XY平面)において、光電変換部41の中心を通りY軸と平行な線で分割された領域のうち右半分(X軸プラス方向)側の領域に少なくとも一部が設けられている。なお、反射部42Aは、光が入射する方向(Z軸プラス方向)と交差する面(XY平面)において、光電変換部41の中心を通りX軸と平行な線で分割された領域のうち上半分(Y軸マイナス方向)側の領域に少なくとも一部が設けられていてもよい。反射部42Bは、光が入射する方向(Z軸プラス方向)と交差する面(XY平面)において、光電変換部41の中心を通りX軸と平行な線で分割された領域のうち下半分(Y軸プラス方向)側の領域に少なくとも一部が設けられていてもよい。
 反射部42Aおよび反射部42Bは、光電変換部41を透過した光を光電変換部41側に反射する。撮像兼焦点検出画素11および撮像兼焦点検出画素13の光電変換部41は、マイクロレンズ40を介して入射する光と、反射部42Aおよび反射部42Bにより反射された光とを受光し、受光量に応じた電荷を生成する。また、撮像画素12の光電変換部41は、マイクロレンズ40を介して入射した光を受光し、受光量に応じた電荷を生成する。出力部70は、光電変換部41からの電荷による信号を配線層112へ出力する。配線層112へ出力された各画素からの信号は、画素の周辺回路等によりAD変換等の信号処理が行われて図1に示すボディ制御部21へ出力される。
 ボディ制御部21の焦点検出部21aは、前述したように、撮像素子22から出力される光電変換された電荷に基づく信号を用いて、デフォーカス量を算出する。例えば、焦点検出部21aは、撮像兼焦点検出画素11の信号(S1+S2)と撮像画素12の信号S1との減算を行って信号S2を得る。また、焦点検出部21aは、撮像兼焦点検出画素13の信号(S1+S3)と撮像画素12の信号S1との減算を行って信号S3を得る。焦点検出部21aは、信号S2および信号S3に基づき相関演算を行うことにより、撮像光学系31の異なる瞳領域を介して入射された一対の光束による像の位相差情報を得ることができ、位相差検出方式によりデフォーカス量を算出することができる。また、レンズ制御部32は、ボディ制御部21から出力されるデフォーカス量を用いて、撮像光学系31の焦点位置を調節することができる。
 上述した実施の形態によれば、次の作用効果が得られる。
(1)撮像素子22は、入射した光を光電変換して電荷を生成する第1光電変換部41と、隣の画素12Aから第1間隔D1で設けられる、第1光電変換部41を通過した光を反射する第1反射部42Aと、を有する第1画素11と、入射した光を光電変換して電荷を生成する第2光電変換部41と、隣の画素12Bから第1間隔D1とは異なる第2間隔D2で設けられる、第2光電変換部41を通過した光を反射する第2反射部42Bと、を有する第2画素13と、を備える。本実施の形態では、反射部42が配置される位置が互いに異なる画素11および画素13を備える。このため、画素11および画素13による信号を用いることで、被写体像の位相差情報を得ることができる。
(2)撮像素子22は、入射した光を光電変換して電荷を生成する第1光電変換部41と、第1光電変換部41で生成された電荷による信号を出力する第1出力部70と、を有する第1画素11と、入射した光を光電変換して電荷を生成する第2光電変換部41と、第2光電変換部41で生成された電荷による信号を出力する第2出力部70と、を有する第2画素13と、第1出力部70と第2出力部70との間に設けられ、第1光電変換部41を通過した光を反射する第1反射部42Aと、第1出力部70と第2出力部70との間に設けられ、第2光電変換部41を通過した光を反射する第2反射部42Bと、を備える。このようにしたので、画素11および画素13による信号を用いることで、被写体像の位相差情報を得ることができる。
 また、上記第1または第2画素と行方向(X方向)において隣接し、入射した光を光電変換して電荷を生成する第3光電変換部41と、第3光電変換部41で生成された電荷による信号を出力する第3出力部70と、を有する撮像のみを行う画素を第3画素とした場合、上記第1反射部42Aまたは第2反射部42Bは、第3出力部70と第1出力部70または第3出力部70と第2出力部70の間にあってもよい。
 もしくは、第3出力部70と第1反射部42Aの間に第1出力部70、または、第3出力部70と第2反射部42Bの間に第2出力部70があってもよい。
(3)第1反射部42Aは、第1光電変換部41と隣の画素の光電変換部41との間にある分離部57から第3間隔で設けられ、第2反射部42Bは、第2光電変換部41と隣の画素の光電変換部41との間にある分離部57から第4間隔で設けられる。このようにしたので、異なる瞳領域を介して入射された一対の光束による像の位相差情報を得ることができる。
(4)焦点制御装置は、撮像素子22と、光学系(撮像光学系31)を介して入射した光を受光した撮像素子22の第1出力部70から出力された信号と第2出力部70から出力された信号とに基づいて、光学系の焦点位置を調節する制御部(レンズ制御部32)と、を備える。このようにしたので、反射光を用いて被写体像の位相差情報を得ることができ、焦点位置の調節を行うことができる。
(5)焦点検出装置は、撮像素子22と、光学系(撮像光学系31)を介して入射した光を受光した第1光電変換部41からの信号と第2光電変換部41からの信号とに基づき光学系について焦点検出する焦点検出部(ボディ制御部21)と、を備える。このようにしたので、反射光を用いて被写体像の位相差情報を得ることができ、光学系についての焦点検出を行うことができる。
(6)画素の微細化が進むと、画素が有する開口の大きさが光の波長よりも小さく(短く)なり、画素の有する光電変換部に光が入射しないおそれがある。光電変換部での受光量が減少するため、光電変換される電荷も減る。したがって、電荷から生成される信号の位相差情報から光学系の焦点検出を行うこと、光学系の焦点調節を行うことが困難となる。位相差検出のために、光の入射面において遮光膜を設けた画素はさらに受光量が減少する。したがって、位相差情報から光学系の焦点検出を行うこと、光学系の焦点調節を行うことがさらに困難となる。本実施の形態では、光の入射面において遮光膜を設けることなく、位相差情報から光学系の焦点検出を行うこと、光学系の焦点調節を行うことができる。本実施の形態では、画素の微細化が進んだ場合の受光量の減少、および焦点検出の精度の低下を抑制し、正確な焦点調節を行うことができる。
(7)本実施の形態の焦点検出用の画素として機能する画素11および画素13は、反射部を有しない画素と同等の感度を有する。このため、画素11および画素13からの信号に対する欠陥補正等が容易となり、画像を生成するための撮像用画素としては欠陥画素となることを抑制することができる。
 次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形
態と組み合わせることも可能である。
(変形例1)
 上述した実施の形態では、反射部42Aおよび反射部42Bをメタル層115の導体膜を用いて形成する例について説明した。しかし、メタル層115とは異なる位置に反射部を設けるようにしてもよい。また、導体(金属)とは異なる材料を用いて反射部を設けるようにしてもよい。図5は、変形例1に係る撮像素子の断面構造の一例を示す図である。変形例1に係る撮像素子では、反射部42Aおよび反射部42Bは、半導体層111に直接積層して設けられる。例えば、反射部42Aおよび反射部42Bは、酸化膜や窒化膜などである。具体的には、シリコン酸化膜、シリコン窒化膜、シリコン酸窒化膜、又はこれらの膜の多層膜などである。なお、ポリシリコンを用いて反射部を形成するようにしてもよい。また、反射部は、半導体層111に絶縁膜を介して積層してもよい。本変形例では、メタル層115の導体膜を用いて反射部を設ける場合と比較して、半導体層111に近い位置に反射部が設けられる。このため、隣接する画素に反射部による反射光が入射することを抑制することができる。この結果、隣接する画素による信号にノイズが混入することを抑制することができる。
(変形例2)
 図6は、変形例2に係る撮像素子の断面構造の一例を示す図である。変形例2に係る撮像素子22では、図6(a)および図6(b)に示すように、反射部42Aおよび反射部42Bに加えて遮光部55(遮光部55A~遮光部55D)、56(遮光部56A~遮光部56D)が更に設けられる。図6(a)に示す遮光部55は、導体膜(金属膜)やポリシリコン等により構成される。遮光部55Aは、撮像兼焦点検出画素11の光電変換部41と反射部42Aとの間に設けられ、遮光部55Dは、撮像兼焦点検出画素13の光電変換部41と反射部42Bとの間に設けられる。また、図6(b)に示す遮光部56は、DTI(Deep Trench Isolation)により構成される。すなわち、図6(b)に示す例では、画素間に溝が形成され、その溝に酸化膜、窒化膜、ポリシリコン等が埋め込まれる。遮光部56は、隣り合う光電変換部41の間に設けられる。例えば、遮光部56Bは、撮像兼焦点検出画素11の光電変換部41と撮像画素12の光電変換部41との間に設けられ、遮光部56Cは、撮像兼焦点検出画素13の光電変換部41と撮像画素12の光電変換部41との間に設けられる。
 本変形例では、遮光部55や遮光部56が配置されるため、隣接する画素に反射部42Aおよび反射部42Bによる反射光が入射することを抑制し、画素間のクロストークを抑制することができる。また、遮光部55および遮光部56により光電変換部41に光を再入射させるため、光電変換部41の感度を向上させることができ、焦点検出の精度を向上させることができる。なお、遮光部55および遮光部56の両方を各画素に設けるようにしてもよい。遮光部55(遮光部55A~遮光部55D)および遮光部56(遮光部56A~遮光部56D)は、反射部55(反射部55A~反射部55D)および反射部56(反射部56A~反射部56D)としてもよい。
(変形例3)
 図7は変形例3に係る撮像素子の画素の配置例を示す図であり、図8は変形例3に係る撮像素子の断面構造の一例を示す図である。上述した実施の形態では、撮像兼焦点検出画素11、13は互いに、Rの撮像画素12を挟んで、行方向に交互に配置される例について説明した。しかし、図7および図8に示すように、撮像兼焦点検出画素11、13を互いに、2つのRの撮像画素12およびGの撮像画素12を挟んで、行方向(X軸方向)に交互に配置するようにしてもよい。
 図8および図9は、変形例3に係る撮像素子の断面構造の一例を示す図である。図8に示す例では、撮像兼焦点検出画素11と撮像兼焦点検出画素13とでは、光電変換部41および出力部70の位置が光軸に対して対称(左右対称)となるように配置されている。しかし、図9に示すように、撮像兼焦点検出画素11と撮像兼焦点検出画素13とは、その反射部42A、42Bの位置が異なる以外は同様の構成としてもよい。
 また、上述した実施の形態では、撮像兼焦点検出画素の信号と1つの撮像画素の信号との減算を行って、反射部によって反射された光を光電変換した電荷に基づく信号を算出する例について説明した。しかし、撮像兼焦点検出画素の信号と2つの撮像画素の信号の平均値との減算を行って、反射部によって反射された光を光電変換した電荷に基づく信号を算出するようにしてもよい。例えば、画素群401のGの撮像画素12のうち、図7に示すように配置されたGの撮像画素12A、12B、12Cからの信号と、撮像兼焦点検出画素11、13からの信号とを用いる。焦点検出部21aは、撮像兼焦点検出画素11の信号と撮像画素12A、12Bの信号の平均値との減算を行うことにより、反射部42Aによって反射された第2の光束を光電変換した電荷に基づく信号S2を算出する。また、焦点検出部21aは、同様に、撮像兼焦点検出画素13の信号とGの撮像画素12B、12Cの信号の平均値との減算を行って、反射部42Bによって反射された第1の光束を光電変換した電荷に基づく信号S3を算出する。焦点検出部21aは、信号S2および信号S3を用いて相関演算を行うことにより、デフォーカス量を算出することができる。
 また、撮像兼焦点検出画素の信号と、撮像兼焦点検出画素の周辺に配置される複数の撮像画素の信号の平均値との減算を行って、反射部によって反射された光を光電変換した電荷に基づく信号を算出するようにしてもよい。例えば、画素群402のGの撮像画素12のうち、図7に示すように配置されたGの撮像画素12D~12Kからの信号と、撮像兼焦点検出画素11、13からの信号とを用いる。焦点検出部21aは、撮像兼焦点検出画素11の信号と撮像画素12D、12E、12F、12Gの信号の平均値との減算を行うことにより、反射部42Aによって反射された第2の光束を光電変換した電荷に基づく信号S2を算出する。また、焦点検出部21aは、同様に、撮像兼焦点検出画素13の信号と撮像画素12H、12I、12J、12Kの信号の平均値との減算を行って、反射部42Bによって反射された第1の光束を光電変換した電荷に基づく信号S3を算出する。焦点検出部21aは、信号S2および信号S3を用いて相関演算を行うことにより、デフォーカス量を算出することができる。
(変形例4)
 図10は、変形例4に係る撮像素子の断面構造の一例を示す図である。上述した実施の形態では、撮像兼焦点検出画素11と撮像兼焦点検出画素13とでは、光電変換部41および出力部70の位置が光軸に対して対称(左右対称)となるように配置されている。しかし、図10に示すように、撮像兼焦点検出画素11と撮像兼焦点検出画素13とは、その反射部42A、42Bの位置が異なる以外は同様の構成としてもよい。また、反射部42A、42Bを、複数の層に設けるようにしてもよい。図10(b)に示す例では、反射部42Bは、2つの層に形成されている。さらに、図11に示すように、撮像兼焦点検出画素11と撮像兼焦点検出画素13とは、反射部42Aおよび反射部42Bの位置が異なる以外は同様の構成とし、変形例1の場合と同様にして反射部42Aおよび反射部42Bを酸化膜、窒化膜等を用いて形成するようにしてもよい。この場合に、反射部42A、42Bを、複数の絶縁膜を用いて形成してもよい。図11に示す撮像兼焦点検出画素13では、出力部70に用いられるゲート絶縁膜や配線間の絶縁膜等の複数の絶縁膜を用いて反射部42Bを形成している。
(変形例5)
 上述した実施の形態および変形例では、反射部42Aおよび反射部42Bにより光電変換部41を通過した光を反射させ、反射光による信号成分を用いて焦点検出を行う。撮像兼焦点検出画素11および撮像兼焦点検出画素13にGのカラーフィルタを設ける例について説明したが、撮像兼焦点検出画素11および撮像兼焦点検出画素13に例えばRのカラーフィルタを設けるようにしてもよい。これにより、光電変換部41を透過しやすい長波長領域の光、例えば赤外光や近赤外光等の光による信号を焦点検出に用いることができる。また、光電変換部41を透過しやすい長波長領域の光を用いることがより好適であるため、本発明を、赤外線や近赤外線の画像が用いられる産業用のカメラや医療用のカメラにも適用することができる。
(変形例6)
 上述した実施の形態では、算出されたデフォーカス量に基づいて焦点調節レンズを制御する例について説明したが、本発明はこれに限定されない。デフォーカス量に基づいてズームレンズや絞り等の動作を制御するようにしてもよい。
(変形例7)
 上述した実施の形態では、撮像素子22は、裏面照射型の構成とする例について説明した。しかし、撮像素子22を、光が入射する入射面側に配線層112を設ける表面照射型の構成としてもよい。
(変形例8)
 上述した実施の形態では、撮像兼焦点検出画素11および撮像兼焦点検出画素13にGのカラーフィルタを設ける例について説明したが、例えばRのカラーフィルタやBのカラーフィルタを設けるようにしてもよい。また、撮像兼焦点検出画素11および撮像兼焦点検出画素13に入射する光の全波長域を透過させるフィルタ(白色フィルタ)を設けるようにしてもよい。白色フィルタを設けることにより、焦点検出用の画素に入射する光の光量を増加させることができ、光電変換部41の感度を向上させることができる。また、白色フィルタを配置した画素を、焦点検出のための専用の画素として用いるようにしてもよい。
(変形例9)
 上述した実施の形態および変形例で説明した撮像素子を、複数の基板(例えば、複数の半導体基板)を積層して構成される積層センサ(積層型の撮像素子)に適用してもよい。例えば、撮像素子を、光電変換部を有する画素が配置された第1基板と、画素からの信号をデジタル信号に変換するAD変換部が配置された第2基板と、AD変換部から出力されるデジタル信号に対して各種の画像処理を行う画像処理部が配置された第3基板とを積層した構成としてもよい。この場合には、例えば、光が入射する側から、第1基板と第2基板と第3基板とを設けられる。
(変形例10)
 上述の実施の形態で説明した撮像素子22は、カメラ、スマートフォン、タブレット、PCに内臓のカメラ、車載カメラ等に適用されてもよい。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2016年第70959号(2016年3月31日出願)
2…カメラボディ、3…交換レンズ、21…ボディ制御部、22…撮像素子、31…撮像光学系、41…光電変換部、42…反射部
 

Claims (23)

  1.  複数の画素が第1方向に配列される撮像素子であって、
     入射した光を光電変換して電荷を生成する第1光電変換部と、前記光が入射する方向と交差する面において、前記第1光電変換部の中心よりも前記第1方向側の領域に少なくとも一部に設けられ、前記第1光電変換部を透過した光の一部を前記第1光電変換部へ反射する第1反射部と、を有する第1画素と、
     入射した光を光電変換して電荷を生成する第2光電変換部と、前記光が入射する方向と交差する面において、前記第2光電変換部の中心よりも前記第1方向と逆方向側の領域に少なくとも一部に設けられ、前記第2光電変換部を透過した光の一部を前記第2光電変換部へ反射する第2反射部と、を有する第2画素と、を備える撮像素子。
  2.  請求項1に記載の撮像素子において、
     前記第1画素は、前記第1光電変換部で生成された電荷による信号を出力する第1出力部を有し、
     前記第2画素は、前記第2光電変換部で生成された電荷による信号を出力する第2出力部を有し、
     前記第1反射部と前記第2反射部とは前記第1出力部と前記第2出力部との間、または前記第1出力部と前記第2出力部とは前記第1反射部と前記第2反射部との間に設けられる撮像素子。
  3.  請求項2に記載の撮像素子において、
     前記第1出力部は、第1配線を有し、
     前記第2出力部は、第2配線を有し、
     前記第1反射部と前記第2反射部とは前記第1配線と前記第2配線との間、または前記第1配線と前記第2配線とは前記第1反射部と前記第2反射部との間に設けられる撮像素子。
  4.  請求項1から請求項3までのいずれか一項に記載の撮像素子において、
     前記第1反射部は、前記第1画素と隣の画素との間にある分離部から前記第1方向において第1間隔で設けられ、
     前記第2反射部は、前記第2画素と隣の画素との間にある分離部から前記第1方向において前記第1間隔とは異なる第2間隔で設けられる撮像素子。
  5.  請求項1から請求項4までのいずれか一項に記載の撮像素子において、
     入射した光を光電変換して電荷を生成する第3光電変換部を有する第3画素を備え、
     前記第1画素と前記第2画素と第3画素とは、第1分光特性を有する第1フィルタを有する撮像素子。
  6.  請求項5に記載の撮像素子において、
     入射した光を光電変換して電荷を生成する第4光電変換部を有する第4画素を備え、
     前記第4画素は、前記第1分光特性よりも短い波長の光の透過率が高い第2分光特性を有する第2フィルタを有する撮像素子。
  7.  請求項6に記載の撮像素子において、
     前記第1フィルタは、第1波長の光を透過し、
     前記第2フィルタは、前記第1波長よりも短い波長の光を透過する撮像素子。
  8.  請求項1から請求項4までのいずれか一項に記載の撮像素子において、
     入射した光を光電変換して電荷を生成する第3光電変換部を有する第3画素を備え、
     前記第1画素と前記第2画素とは、第1分光特性を有する第1フィルタを有し、
     前記第3画素は、前記第1分光特性よりも短い波長の光の透過率が高い第2分光特性を有する第2フィルタを有する撮像素子。
  9.  請求項8に記載の撮像素子において、
     前記第1フィルタは、第1波長の光を透過し、
     前記第2フィルタは、前記第1波長よりも短い波長の光を透過する撮像素子。
  10.  請求項6から請求項9までのいずれか一項に記載の撮像素子において、
     前記第1フィルタは、赤色の光を透過し、
     前記第2フィルタは、緑色の光を透過する撮像素子。
  11.  請求項6から請求項9までのいずれか一項に記載の撮像素子において、
     前記第1フィルタは、緑色の光を透過し、
     前記第2フィルタは、青色の光を透過する撮像素子。
  12.  請求項1から請求項4までのいずれか一項に記載の撮像素子において、
     入射した光を光電変換して電荷を生成する第3光電変換部を有する第3画素と、
     入射した光を光電変換して電荷を生成する第4光電変換部を有する第4画素と、を備え、
     前記第1画素と前記第2画素とは、第1分光特性を有する第1フィルタを有し、
     前記第3画素は、前記第1分光特性よりも短い波長の光の透過率が高い第2分光特性を有する第2フィルタを有し、
     前記第4画素は、前記第2分光特性よりも短い波長の光の透過率が高い第3分光特性を有する第3フィルタを有する撮像素子。
  13.  請求項12に記載の撮像素子において、
     前記第1フィルタは、第1波長の光を透過し、
     前記第2フィルタは、前記第1波長よりも短い第2波長の光を透過し、
     前記第3フィルタは、前記第2波長よりも短い波長の光を透過する撮像素子。
  14.  請求項13に記載の撮像素子において、
     前記第1フィルタは、赤色の光を透過し、
     前記第2フィルタは、緑色の光を透過し、
     前記第3フィルタは、青色の光を透過する撮像素子。
  15.  請求項1から請求項14までのいずれか一項に記載の撮像素子において、
     前記第1画素は、前記第2画素の隣に設けられ、
     前記第1光電変換部と前記第2光電変換部との間に遮光部または反射部が設けられる撮像素子。
  16.  請求項5から請求項14までのいずれか一項に記載の撮像素子において、
     前記第3画素は、前記第1画素と前記第2画素の間に設けられ、
     前記第1光電変換部と前記第3光電変換部との間と、前記第2光電変換部と前記第3光電変換部との間との少なくとも一方に遮光部または反射部が設けられる撮像素子。
  17.  請求項16に記載の撮像素子において、
     複数の前記第3画素が、前記第1画素と前記第2画素の間に設けられ、
     複数の前記第3画素のうちの少なくとも1つの前記第3光電変換部と前記第1光電変換部との間と、複数の前記第3画素のうちの少なくとも1つの前記第3光電変換部と前記第2光電変換部との間と、の少なくとも一方に遮光部または反射部が設けられる撮像素子。
  18.  請求項1から請求項17までのいずれか一項に記載の撮像素子において、
     前記第1画素は、前記第1光電変換部と前記第1反射部との間に遮光部または反射部を有し、
     前記第2画素は、前記第2光電変換部と前記第2反射部との間に遮光部または反射部を有する撮像素子。
  19.  請求項1から請求項18までのいずれか一項に記載の撮像素子において、
     前記第1反射部と前記第2反射部とは、金属膜または絶縁膜である撮像素子。
  20.  請求項1から請求項19までのいずれか一項に記載の撮像素子と、
     フォーカスレンズを有する光学系による像を撮像する前記撮像素子の前記第1画素から出力された信号と前記第2画素から出力された信号とに基づいて、前記光学系による像が前記撮像素子に合焦するよう前記フォーカスレンズの位置を制御する制御部と、
    を備える撮像装置。
  21.  請求項5に記載の撮像素子と、
     フォーカスレンズを有する光学系による像を撮像する前記撮像素子の前記第1画素から出力された信号と前記第2画素から出力された信号と前記第3画素から出力された信号とに基づいて、前記光学系による像が前記撮像素子に合焦するよう前記フォーカスレンズの位置を制御する制御部と、
    を備える撮像装置。
  22.  請求項21に記載の撮像装置において、
     前記制御部は、前記第1画素から出力された信号と前記第3画素から出力された信号との差分と、前記第2画素から出力された信号と前記第3画素から出力された信号との差分と、に基づいて前記フォーカスレンズの位置を制御する撮像装置。
  23.  請求項20から請求項22までのいずれか一項に記載の撮像装置において、
     前記撮像素子の前記第1画素から出力された信号と前記第2画素から出力された信号とに基づいて、画像データを生成する画像生成部を備える撮像装置。
PCT/JP2017/007936 2016-03-31 2017-02-28 撮像素子、及び、撮像装置 WO2017169479A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/085,168 US10686004B2 (en) 2016-03-31 2017-02-28 Image capturing element and image capturing device image sensor and image-capturing device
EP17774024.8A EP3439038A4 (en) 2016-03-31 2017-02-28 IMAGE CAPTURE ELEMENT AND IMAGE CAPTURE DEVICE
CN201780029752.2A CN109155323A (zh) 2016-03-31 2017-02-28 拍摄元件以及拍摄装置
JP2018508832A JP6791243B2 (ja) 2016-03-31 2017-02-28 撮像素子、及び、撮像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016070959 2016-03-31
JP2016-070959 2016-03-31

Publications (1)

Publication Number Publication Date
WO2017169479A1 true WO2017169479A1 (ja) 2017-10-05

Family

ID=59964020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007936 WO2017169479A1 (ja) 2016-03-31 2017-02-28 撮像素子、及び、撮像装置

Country Status (5)

Country Link
US (1) US10686004B2 (ja)
EP (1) EP3439038A4 (ja)
JP (1) JP6791243B2 (ja)
CN (1) CN109155323A (ja)
WO (1) WO2017169479A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134145A (ja) * 2018-02-02 2019-08-08 株式会社ニコン 撮像素子、及び、撮像装置
WO2020017341A1 (ja) * 2018-07-18 2020-01-23 ソニーセミコンダクタソリューションズ株式会社 受光素子および測距モジュール
JP2020013909A (ja) * 2018-07-18 2020-01-23 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
WO2020195825A1 (ja) * 2019-03-25 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
EP3644366A4 (en) * 2018-07-18 2021-08-04 Sony Semiconductor Solutions Corporation LIGHT RECEIVING ELEMENT AND DISTANCE MEASURING MODULE
WO2021166672A1 (ja) * 2020-02-20 2021-08-26 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018056518A (ja) * 2016-09-30 2018-04-05 株式会社ニコン 撮像素子および焦点調節装置
CN117577654A (zh) 2017-05-29 2024-02-20 索尼半导体解决方案公司 固态摄像装置和电子设备
JP7316764B2 (ja) 2017-05-29 2023-07-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器
EP3410486B1 (en) * 2017-06-02 2022-08-24 ams AG Resonant cavity enhanced image sensor
WO2019065291A1 (ja) * 2017-09-28 2019-04-04 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置
CN108965704B (zh) * 2018-07-19 2020-01-31 维沃移动通信有限公司 一种图像传感器、移动终端及图像拍摄方法
EP3671837B1 (en) * 2018-12-21 2023-11-29 ams Sensors Belgium BVBA Pixel of a semiconductor image sensor and method of manufacturing a pixel
TWI734294B (zh) * 2019-12-11 2021-07-21 香港商京鷹科技股份有限公司 影像感測器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070045513A1 (en) * 2005-08-30 2007-03-01 Lee Ji S Image sensors with optical trench
JP2013055159A (ja) * 2011-09-01 2013-03-21 Canon Inc 固体撮像装置
WO2013147199A1 (ja) * 2012-03-30 2013-10-03 株式会社ニコン 撮像素子、撮影方法、および撮像装置
WO2014156933A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 撮像素子および撮像装置
WO2016063727A1 (ja) * 2014-10-20 2016-04-28 ソニー株式会社 固体撮像素子及び電子機器
JP2016127043A (ja) * 2014-12-26 2016-07-11 ソニー株式会社 固体撮像素子及び電子機器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5092685B2 (ja) * 2007-10-23 2012-12-05 株式会社ニコン 撮像素子および撮像装置
JP4798270B2 (ja) * 2009-02-13 2011-10-19 株式会社ニコン 撮像素子、撮像装置及び撮像素子の製造方法
JP5131309B2 (ja) 2010-04-16 2013-01-30 ソニー株式会社 固体撮像装置、その製造方法および撮像装置
JP5856376B2 (ja) * 2011-01-27 2016-02-09 キヤノン株式会社 撮像装置及びその制御方法
JP2013098503A (ja) * 2011-11-07 2013-05-20 Toshiba Corp 固体撮像素子
US9093345B2 (en) * 2012-10-26 2015-07-28 Canon Kabushiki Kaisha Solid-state imaging apparatus and imaging system
JP6161258B2 (ja) 2012-11-12 2017-07-12 キヤノン株式会社 固体撮像装置およびその製造方法ならびにカメラ
JP2014213767A (ja) 2013-04-26 2014-11-17 日本プラスト株式会社 可動部材の組み付け構造
JP6458343B2 (ja) * 2014-02-27 2019-01-30 株式会社ニコン 撮像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070045513A1 (en) * 2005-08-30 2007-03-01 Lee Ji S Image sensors with optical trench
JP2013055159A (ja) * 2011-09-01 2013-03-21 Canon Inc 固体撮像装置
WO2013147199A1 (ja) * 2012-03-30 2013-10-03 株式会社ニコン 撮像素子、撮影方法、および撮像装置
WO2014156933A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 撮像素子および撮像装置
WO2016063727A1 (ja) * 2014-10-20 2016-04-28 ソニー株式会社 固体撮像素子及び電子機器
JP2016127043A (ja) * 2014-12-26 2016-07-11 ソニー株式会社 固体撮像素子及び電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3439038A4 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134145A (ja) * 2018-02-02 2019-08-08 株式会社ニコン 撮像素子、及び、撮像装置
JP7383876B2 (ja) 2018-02-02 2023-11-21 株式会社ニコン 撮像素子、及び、撮像装置
US11538942B2 (en) 2018-07-18 2022-12-27 Sony Semiconductor Solutions Corporation Light receiving element and ranging module having light receiving regions and an isolation portion between adjacent light receiving regions
US11538845B2 (en) 2018-07-18 2022-12-27 Sony Semiconductor Solutions Corporation Light receiving element, ranging module, and electronic apparatus
KR20210033935A (ko) * 2018-07-18 2021-03-29 소니 세미컨덕터 솔루션즈 가부시키가이샤 수광 소자 및 거리측정 모듈
JPWO2020017341A1 (ja) * 2018-07-18 2021-07-15 ソニーセミコンダクタソリューションズ株式会社 受光素子および測距モジュール
EP3644366A4 (en) * 2018-07-18 2021-08-04 Sony Semiconductor Solutions Corporation LIGHT RECEIVING ELEMENT AND DISTANCE MEASURING MODULE
KR102675996B1 (ko) * 2018-07-18 2024-06-18 소니 세미컨덕터 솔루션즈 가부시키가이샤 수광 소자 및 거리측정 모듈
JP2020013909A (ja) * 2018-07-18 2020-01-23 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
JP7451395B2 (ja) 2018-07-18 2024-03-18 ソニーセミコンダクタソリューションズ株式会社 受光素子および測距モジュール
US11652175B2 (en) 2018-07-18 2023-05-16 Sony Semiconductor Solutions Corporation Light reception device and distance measurement module
US11764246B2 (en) 2018-07-18 2023-09-19 Sony Semiconductor Solutions Corporation Light receiving element, ranging module, and electronic apparatus
JP7362198B2 (ja) 2018-07-18 2023-10-17 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
WO2020017341A1 (ja) * 2018-07-18 2020-01-23 ソニーセミコンダクタソリューションズ株式会社 受光素子および測距モジュール
US11916154B2 (en) 2018-07-18 2024-02-27 Sony Semiconductor Solutions Corporation Light receiving element and ranging module having a plurality of pixels that each includes voltage application units and charge detection units
US11863892B2 (en) 2019-03-25 2024-01-02 Sony Semiconductor Solutions Corporation Imaging unit and electronic apparatus with first and second light blocking films
WO2020195825A1 (ja) * 2019-03-25 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2021166672A1 (ja) * 2020-02-20 2021-08-26 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器

Also Published As

Publication number Publication date
EP3439038A4 (en) 2020-03-04
JPWO2017169479A1 (ja) 2019-01-31
US10686004B2 (en) 2020-06-16
EP3439038A1 (en) 2019-02-06
US20190081094A1 (en) 2019-03-14
CN109155323A (zh) 2019-01-04
JP6791243B2 (ja) 2020-11-25

Similar Documents

Publication Publication Date Title
JP6791243B2 (ja) 撮像素子、及び、撮像装置
KR102523203B1 (ko) 고체 화상 센서 및 그 제조 방법, 및 전자 장치
JP6458343B2 (ja) 撮像装置
JP2015128131A (ja) 固体撮像素子および電子機器
JP4983271B2 (ja) 撮像装置
JP2013157442A (ja) 撮像素子および焦点検出装置
JP5067148B2 (ja) 撮像素子、焦点検出装置および撮像装置
WO2018181590A1 (ja) 撮像素子および撮像装置
JP6693567B2 (ja) 撮像素子、焦点検出装置、及び、電子カメラ
WO2012066846A1 (ja) 固体撮像素子及び撮像装置
WO2018061978A1 (ja) 撮像素子および焦点調節装置
JP2017183992A (ja) 撮像素子、焦点検出装置および撮像装置
JP2021100253A (ja) 撮像素子および撮像装置
WO2018181585A1 (ja) 撮像素子および撮像装置
JP6693568B2 (ja) 撮像素子、焦点検出装置、及び、撮像装置
WO2018061729A1 (ja) 撮像素子および焦点調節装置
WO2018061941A1 (ja) 撮像素子および撮像装置
WO2018181591A1 (ja) 撮像素子および撮像装置
WO2018061728A1 (ja) 撮像素子および焦点調節装置
WO2018061940A1 (ja) 撮像素子および焦点調節装置
JP7419975B2 (ja) 撮像素子、及び、撮像装置
JP7383876B2 (ja) 撮像素子、及び、撮像装置
JP2020109779A (ja) 撮像素子、及び、撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018508832

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017774024

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017774024

Country of ref document: EP

Effective date: 20181031

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17774024

Country of ref document: EP

Kind code of ref document: A1