WO2018062558A1 - 撮像素子、焦点検出装置、及び、電子カメラ - Google Patents

撮像素子、焦点検出装置、及び、電子カメラ Download PDF

Info

Publication number
WO2018062558A1
WO2018062558A1 PCT/JP2017/035749 JP2017035749W WO2018062558A1 WO 2018062558 A1 WO2018062558 A1 WO 2018062558A1 JP 2017035749 W JP2017035749 W JP 2017035749W WO 2018062558 A1 WO2018062558 A1 WO 2018062558A1
Authority
WO
WIPO (PCT)
Prior art keywords
photoelectric conversion
conversion unit
signal
unit
pixel
Prior art date
Application number
PCT/JP2017/035749
Other languages
English (en)
French (fr)
Inventor
良次 安藤
智史 中山
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP17856505.7A priority Critical patent/EP3522224A4/en
Priority to JP2018542058A priority patent/JP6693567B2/ja
Priority to US16/335,886 priority patent/US20190258025A1/en
Priority to CN201780068186.6A priority patent/CN109923670A/zh
Publication of WO2018062558A1 publication Critical patent/WO2018062558A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present invention relates to an image sensor, a focus detection device, and an electronic camera.
  • An imaging device in which a reflective layer is provided below a photoelectric conversion unit, and light reflected by the photoelectric conversion unit is reflected by the reflection layer to the photoelectric conversion unit (Patent Document 1). With this imaging apparatus, it is impossible to obtain phase difference information of a subject image.
  • the imaging device includes a microlens into which the first light flux and the second light flux that have passed through the imaging optical system are incident, the first light flux that has passed through the microlens, and the first light flux.
  • a plurality of pixels having a reflecting portion that reflects and a second photoelectric conversion portion on which one of the first light flux and the second light flux that has passed through the first photoelectric conversion portion is incident are disposed, The pixel outputs a signal from the first photoelectric conversion unit and a signal from the second photoelectric conversion unit as a focus detection signal.
  • the focus detection apparatus is configured to perform the connection based on the image sensor according to the first aspect, the signal from the first photoelectric conversion unit, and the signal from the second photoelectric conversion unit.
  • a focus detection unit that performs focus detection of the image optical system.
  • an electronic camera includes an image sensor according to the first aspect and a correction unit that corrects a signal from the first photoelectric conversion unit based on a signal from the second photoelectric conversion unit. And comprising.
  • FIG. 1 It is a figure showing an example of composition of an image sensor concerning a 1st embodiment. It is a conceptual diagram which shows the structural example of the pixel of the image pick-up element which concerns on 2nd Embodiment. It is a figure which shows an example of the cross-section of the image pick-up element which concerns on the modification 1.
  • FIG. 1 It is a figure showing an example of composition of an image sensor concerning a 1st embodiment. It is a conceptual diagram which shows the structural example of the pixel of the image pick-up element which concerns on 2nd Embodiment. It is a figure which shows an example of the cross-section of the image pick-up element which concerns on the modification 1.
  • FIG. 1 It is a figure showing an example of composition of an image sensor concerning a 1st embodiment. It is a conceptual diagram which shows the structural example of the pixel of the image pick-up element which concerns on 2nd Embodiment. It is a figure which shows an example of the cross-section of the image pick-up element which concerns on the
  • FIG. 1 is a diagram illustrating a configuration example of an electronic camera 1 (hereinafter referred to as a camera 1) that is an example of an imaging apparatus according to the first embodiment.
  • the camera 1 includes a camera body 2 and an interchangeable lens 3.
  • the interchangeable lens 3 is detachably attached to the camera body 2 via a mount portion (not shown).
  • the connection portion 202 on the camera body 2 side and the connection portion 302 on the interchangeable lens 3 side are connected, and communication between the camera body 2 and the interchangeable lens 3 becomes possible.
  • the interchangeable lens 3 includes an imaging optical system (imaging optical system) 31, a lens control unit 32, and a lens memory 33.
  • the imaging optical system 31 includes a plurality of lenses including a focus adjustment lens (focus lens) and an aperture, and forms a subject image on the imaging surface of the imaging element 22 of the camera body 2.
  • the lens control unit 32 adjusts the focal position of the imaging optical system 31 by moving the focus adjustment lens forward and backward in the direction of the optical axis L1 based on the signal output from the body control unit 21 of the camera body 2.
  • the signal output from the body control unit 21 includes information indicating the moving direction, moving amount, moving speed, and the like of the focus adjustment lens.
  • the lens control unit 32 controls the aperture diameter of the diaphragm based on a signal output from the body control unit 21 of the camera body 2.
  • the lens memory 33 is configured by, for example, a nonvolatile storage medium. Information relating to the interchangeable lens 3 is stored in the lens memory 33 as lens information.
  • the lens information includes, for example, information related to the position of the exit pupil of the imaging optical system 31.
  • the lens control unit 32 writes lens information to the lens memory 33 and reads lens information from the lens memory 33.
  • the camera body 2 includes a body control unit 21, an image sensor 22, a memory 23, a display unit 24, and an operation unit 25.
  • the body control unit 21 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the camera 1 based on a control program.
  • the body control unit 21 performs various signal processing.
  • the image sensor 22 is, for example, a CMOS image sensor or a CCD image sensor.
  • the imaging element 22 receives the light beam that has passed through the exit pupil of the imaging optical system 31 and captures a subject image.
  • a plurality of pixels having photoelectric conversion units are arranged in a two-dimensional manner (for example, in a row direction and a column direction).
  • the photoelectric conversion unit is configured by, for example, a photodiode (PD).
  • PD photodiode
  • the image sensor 22 photoelectrically converts incident light to generate a signal, and outputs the generated signal to the body control unit 21.
  • the imaging element 22 is a signal for generating image data, that is, an imaging signal, and a pair of focus detection signals for performing phase difference focus detection on the focus of the imaging optical system 31, that is, a first.
  • the second focus detection signal are output to the body control unit 21.
  • the first and second focus detection signals are the first and second light fluxes that have passed through the first and second regions of the exit pupil of the imaging optical system 31, respectively.
  • 2 is a signal obtained by photoelectrically converting the two images.
  • the memory 23 is a recording medium such as a memory card, for example. Image data and the like are recorded in the memory 23. Writing of data to the memory 23 and reading of data from the memory 23 are performed by the body control unit 21.
  • the display unit 24 displays an image based on image data, information relating to shooting such as a shutter speed and an aperture value, a menu screen, and the like.
  • the operation unit 25 includes various setting switches such as a release button and a power switch, and outputs an operation signal corresponding to each operation to the body control unit 21.
  • the body control unit 21 includes an image data generation unit 21a, a correction unit 21b, and a focus detection unit 21c.
  • the image data generation unit 21a performs various kinds of image processing on the image pickup signal output from the image pickup element 22 to generate image data.
  • the image processing includes, for example, known image processing such as gradation conversion processing, color interpolation processing, and contour enhancement processing.
  • the correction unit 21 b performs correction processing on the focus detection signal output from the image sensor 22. Although details will be described later, the correction unit 21b performs processing for removing a component that becomes noise for the focus detection processing from the focus detection signal.
  • the focus detection unit 21c performs a focus detection process necessary for automatic focus adjustment (AF) of the imaging optical system 31. Specifically, the focus detection unit 21c calculates the defocus amount by the pupil division type phase difference detection method using the focus detection signal corrected by the correction unit 21b. More specifically, the focus detection unit 21c is based on the first and second light fluxes that have passed through the first and second regions of the exit pupil of the imaging optical system 31 based on the first and second focus detection signals. Image shift amounts of the first and second images are detected, and a defocus amount is calculated based on the detected image shift amount.
  • AF automatic focus adjustment
  • the focus detection unit 21c determines whether or not the defocus amount is within an allowable value.
  • the focus detection unit 21c determines that the in-focus state is achieved if the defocus amount is within an allowable value. On the other hand, when the defocus amount exceeds the allowable value, the focus detection unit 21c determines that the in-focus state is not achieved, and transmits the defocus amount and the lens drive instruction to the lens control unit 32 of the interchangeable lens 3.
  • the lens control unit 32 that has received an instruction from the focus detection unit 21c drives the focus adjustment lens according to the defocus amount, whereby the focus adjustment is automatically performed.
  • FIG. 2 is a diagram illustrating an arrangement example of pixels of the image sensor 22 according to the first embodiment.
  • a total of 40 pixels 10 in 5 rows and 8 columns are illustrated. Note that the number and arrangement of pixels arranged in the image sensor 22 are not limited to the illustrated example.
  • the imaging element 22 is provided with, for example, millions to hundreds of millions of pixels or more.
  • Each pixel 10 is provided with one of three color filters having different spectral sensitivities, for example, R (red), G (green), and B (blue).
  • the R color filter mainly transmits light of the first wavelength (red wavelength range light)
  • the G color filter mainly transmits light of a wavelength shorter than the first wavelength (green wavelength range light).
  • the B color filter mainly transmits light having a wavelength shorter than the second wavelength (light in the blue wavelength range).
  • the pixel 10 has different spectral sensitivity characteristics depending on the arranged color filter.
  • the image sensor 22 includes pixels having R color filters (hereinafter referred to as R pixels) 10 and pixels having G color filters (hereinafter referred to as G pixels) 10 alternately in the first direction, that is, the row direction.
  • the pixel group 401 is arranged in the area.
  • the image sensor 22 includes a pixel group 402 in which pixels having G pixels 10 and B color filters (hereinafter referred to as B pixels) 10 are alternately arranged in the first direction, that is, the row direction.
  • B pixels pixels having G pixels 10 and B color filters
  • the pixel group 401 and the pixel group 402 are alternately arranged in the second direction, ie, the column direction, which intersects the first direction.
  • the R pixel 10, the G pixel 10, and the B pixel 10 are arranged according to a Bayer array.
  • the pixel 10 receives light incident through the imaging optical system 31 and generates a signal corresponding to the amount of light received.
  • the signal generated by each pixel 10 is used as an imaging signal and first and second focus detection signals, details of which will be described later.
  • FIG. 3 is a conceptual diagram illustrating a configuration example of the pixel 10 of the image sensor 22 according to the first embodiment.
  • FIG. 3 only two G pixels 10 and two B pixels 10 in the pixel group 402 are shown, but the configurations of the R pixel 10 and the G pixel 10 in the pixel group 401 are the same. That is, the configuration of the R pixel 10, the configuration of the G pixel 10, and the configuration of the B pixel 10 are the same except for the color filter.
  • the pixel 10 includes a first photoelectric conversion unit 41, a second photoelectric conversion unit 42, a reflection unit 43, a microlens 44, and a color filter 45.
  • the first and second photoelectric conversion units 41 and 42 are stacked on each other, are configured to have the same size in the present embodiment, and are separated and insulated from each other.
  • the reflection unit 43 is, for example, a metal reflection film, and is provided between the first photoelectric conversion unit 41 and the second photoelectric conversion unit 42.
  • the reflection unit 43 is arranged corresponding to the region on the substantially left half of each of the first photoelectric conversion unit 41 and the second photoelectric conversion unit 42 (minus X side of the photoelectric conversion unit 42). Insulating films (not shown) are provided between the first photoelectric conversion unit 41 and the reflection unit 43 and between the second photoelectric conversion unit 42 and the reflection unit 43, respectively. In addition, you may make it comprise the reflection part 43 with an insulating film.
  • first photoelectric conversion unit 41 (plus X side of the photoelectric conversion unit 41) and the almost right half of the second photoelectric conversion unit 42 (plus X side of the photoelectric conversion unit 42) Is provided with a transparent electrical insulating film 46.
  • the first and second photoelectric conversion units 41 and 42 are separated and insulated by the transparent insulating film 46 and the above-described insulating film (not shown).
  • the microlens 44 condenses light incident from above through the imaging optical system 3 in FIG.
  • the power of the microlens 44 is determined so that the position of the reflecting portion 43 and the position of the exit pupil of the imaging optical system 3 are conjugate with respect to the microlens 44.
  • the G pixel 10 and the B pixel 10 are alternately arranged in the X direction, that is, in the row direction, the G color filter 45 and the B color filter 45 are arranged in the X direction. Alternatingly arranged.
  • the first light beam 61 and the second light beam 62 that have passed through the first and second pupil regions of the pupil of the photographing optical system 3 pass through the microlens 44 and the color filter 45, respectively.
  • the light enters the first photoelectric conversion unit 41.
  • the first photoelectric conversion unit 41 photoelectrically converts the first and second light beams 61 and 62 incident on the first photoelectric conversion unit 41. Further, a part of the light transmitted through the first photoelectric conversion unit 41, that is, the first light beam 61 is reflected by the reflection unit 43 and reenters the first photoelectric conversion unit 41.
  • the other part of the light transmitted through the first photoelectric conversion unit 41, that is, the second light beam 62 passes through the transparent insulating film 46 and enters the second photoelectric conversion unit 42.
  • the transparent insulating film 46 functions as an opening that allows the second light flux 62 that has passed through the first photoelectric conversion unit 41 to enter the second photoelectric conversion unit 42.
  • the focus detection unit 21c shown in FIG. 1 is based on the first and second focus detection signals from each of the plurality of G pixels 10 arranged every other pixel in FIG. 3, as will be described in detail later.
  • phase difference focus detection is performed based on the first and second focus detection signals from the plurality of B pixels 10 arranged every other pixel.
  • the focus detection unit 21c performs phase difference type focus detection based on the first and second focus detection signals from each of the plurality of R pixels 10 arranged in every other pixel group 401 of FIG.
  • phase difference type focus detection is performed based on the first and second focus detection signals from each of the plurality of G pixels 10 arranged in every other pixel group 401 in FIG.
  • the first focus detection signal is obtained by photoelectrically converting the first image formed by the first light beam 61
  • the second focus detection signal is a second signal formed by the second light beam 62. These images are photoelectrically converted.
  • a light beam incident on the pixel 10 and a signal generated by the pixel 10 will be described in detail.
  • FIG. 4 is a diagram showing a light beam incident on the pixel 10 of the image sensor 22 according to the first embodiment.
  • the region of the projection image of the reflecting unit 43 projected onto the exit pupil position of the imaging optical system 31 by the microlens 44 is referred to as the first pupil region of the exit pupil of the imaging optical system 3.
  • the region of the projection image of the transparent insulating film 46 projected onto the exit pupil position of the imaging optical system 31 by the microlens 44 is referred to as a second pupil region of the exit pupil of the imaging optical system 3.
  • the first light beam 61 indicated by the broken line that has passed through the first pupil region of the imaging optical system 3 in FIG. 1 passes through the microlens 44, the color filter 45, and the first photoelectric conversion unit 41.
  • the light is reflected by the reflecting portion 43 and reenters the first photoelectric conversion portion 41.
  • the second light beam 62 indicated by the solid line that has passed through the second pupil region of the imaging optical system 3 passes through the microlens 44, the color filter 45, and the first photoelectric conversion unit 41, and is further transparently insulated.
  • the light passes through the film 46 and enters the second photoelectric conversion unit 42.
  • the first photoelectric conversion unit 41 is The first light beam 61 and the second light beam 62 are photoelectrically converted to generate charges.
  • the first light beam 61 incident on the first photoelectric conversion unit 41 is transmitted through the first photoelectric conversion unit 41, reflected by the reflection unit 43, and reenters the first photoelectric conversion unit 41.
  • the first photoelectric conversion unit 41 photoelectrically converts the reflected first light beam 61 to generate charges.
  • the first photoelectric conversion unit 41 generates a charge obtained by photoelectrically converting the first light beam 61 and the second light beam 62 and a charge obtained by photoelectrically converting the first light beam 61 reflected by the reflecting unit 43. .
  • the pixel 10 outputs a signal based on these charges generated by the first photoelectric conversion unit 41 as the first photoelectric conversion signal S1.
  • the second photoelectric conversion unit 42 receives the second light beam 62. To generate electric charges.
  • the pixel 10 outputs a signal based on the charge generated by the second photoelectric conversion unit 42 as the second photoelectric conversion signal S2.
  • the focus detection unit 21c illustrated in FIG. 1 has a first focus obtained by photoelectrically converting the first image with respect to an image shift between the first image by the first light beam 61 and the second image by the second light beam 62. This is detected as a phase difference between the detection signal and the second focus detection signal obtained by photoelectrically converting the second image.
  • the first light beam 61 reflected by the reflector 43 is photoelectrically converted as a first focus detection signal obtained by photoelectrically converting the first image of the first light beam 61.
  • the first photoelectric conversion signal S1 generated in this way is used.
  • Signal S2 is used.
  • the first photoelectric conversion signal S1 based on the electric charge generated by the first photoelectric conversion unit 41 includes a signal obtained by photoelectric conversion of the first light beam 61 reflected by the reflection unit 43 and the first photoelectric conversion.
  • a signal obtained by photoelectrically converting the first and second light beams 61 and 62 incident on the portion 41 is added. Therefore, the photoelectric conversion signal generated by photoelectrically converting the first and second light beams 61 and 62 incident on the first photoelectric conversion unit 41 from the first photoelectric conversion signal S1 is removed as a noise component. There is a need to.
  • the correction unit 21b of the body control unit 21 performs a correction process for removing a noise component from the first photoelectric conversion signal S1, as will be described in detail later.
  • the correction unit 21b performs a noise component removal correction process on the first photoelectric conversion signal S1, and photoelectrically converts the first light beam 61 reflected by the reflection unit 43 and re-entering the first photoelectric conversion unit 41.
  • a signal based on the converted electric charge (corrected first photoelectric conversion signal S1) is generated as a first focus detection signal.
  • the focus detection unit 21c of the body control unit 21 focuses based on the first focus detection signal composed of the corrected first photoelectric conversion signal S1 and the second focus detection signal composed of the second photoelectric conversion signal S2. Detection is performed, that is, correlation calculation processing is performed on the first and second focus detection signals to calculate a defocus amount.
  • the size of the first and second photoelectric conversion signals S1 and S2 with respect to the first and second light beams 61 and 62 is approximated for the description of the correction processing by the correction unit 21b.
  • the light intensity (light quantity) of the first light beam 61 incident on the first photoelectric conversion unit 41 is A
  • the conversion coefficient for photoelectric conversion of the light beam incident on the first photoelectric conversion unit 41 is k
  • the first Photoelectric conversion by photoelectrically converting the first light beam 61 directly incident on the first photoelectric conversion unit 41 where ⁇ is the ratio of light incident on the first photoelectric conversion unit 41 to be absorbed by the first photoelectric conversion unit 41.
  • the signal is k ⁇ A.
  • the light intensity of the first light beam 61 that is incident on and absorbed by the first photoelectric conversion unit 41 via the microlens 44 is ⁇ A. Further, if all of the first light beam 61 transmitted through the first photoelectric conversion unit 41 is reflected by the reflection unit 43 and reenters the first photoelectric conversion unit 41, the first light conversion unit 41 re-enters the first photoelectric conversion unit 41.
  • a signal based on a charge obtained by photoelectrically converting incident light is k (A ⁇ A).
  • k (1- ⁇ ) A is generated by photoelectric conversion of the first light beam 61 reflected by the reflection unit 43 and re-entering the first photoelectric conversion unit 41 as described above. It is a photoelectric conversion signal and corresponds to the first focus detection signal.
  • (k ⁇ A + k ⁇ B) is a noise component.
  • the second photoelectric conversion signal S2 is used. The second photoelectric conversion signal S2 can be estimated as follows.
  • the light intensity of the second light beam 62 incident on the first photoelectric conversion unit 41 via the microlens 44 and absorbed is ⁇ B.
  • the conversion coefficient when photoelectrically converting the light beam incident on the second photoelectric conversion unit 42 is set to the same value k as the conversion coefficient of the first photoelectric conversion unit 41 and transmitted through the first photoelectric conversion unit 41. It is assumed that all the second light beams 62 are incident on the second photoelectric conversion unit 42.
  • the second photoelectric conversion signal S2 based on the charge obtained by photoelectrically converting the second light beam 62 by the second photoelectric conversion unit 42 can be expressed by the following equation.
  • the conversion coefficient k for the first photoelectric conversion unit 41 and the value of the absorption ratio ⁇ of the first photoelectric conversion unit 41 are known values determined by the quantum efficiency of the first photoelectric conversion unit 41, the thickness of the substrate, and the like. . Therefore, the body control unit 21 calculates the light intensities A and B of the first and second light beams 61 and 62 using the equations (1) and (2), and based on the calculated light intensities A and B. A noise component (k ⁇ A + k ⁇ B) is calculated.
  • the correction unit 21b calculates k (1- ⁇ ) A by subtracting the calculated noise component (k ⁇ A + k ⁇ B) from the first photoelectric conversion signal S1. That is, the correction unit 21b removes the noise component (k ⁇ A + k ⁇ B) from the first photoelectric conversion signal S1, and is reflected by the reflection unit 43 and re-incident on the first photoelectric conversion unit 41.
  • the component k (1- ⁇ ) A is extracted as the corrected first photoelectric conversion signal S1.
  • the value of the conversion coefficient k regarding the first and second photoelectric conversion units 41 and 42 and the absorption ratio ⁇ of the first photoelectric conversion unit 41 are the quantum efficiency of the first and second photoelectric conversion units 41 and 42, and Each value can be calculated in advance because it depends on the thickness of the substrate.
  • the values of the conversion coefficient k and the absorption ratio ⁇ are recorded in a memory or the like inside the body control unit 21.
  • the focus detection unit 21c uses the corrected first photoelectric conversion signal S1 as the first focus detection signal, the second photoelectric conversion signal S2 as the second focus detection signal, and the first and second focus detection signals.
  • the correlation calculation is performed to obtain the in-focus position of the imaging optical system 3.
  • the focus detection unit 21 c calculates the amount of deviation between the image of the first light beam that has passed through the first pupil region 61 and the image of the second light beam that has passed through the second pupil region 62 by this correlation calculation. Then, the focus detection unit 21c calculates the defocus amount by multiplying the image shift amount by a predetermined conversion coefficient. Since the defocus amount calculation by such a pupil division type phase difference detection method is known, detailed description thereof is omitted.
  • the reflection portion 43 is disposed in the substantially left half region of each of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42, and the transparent insulating film 46 is formed of the first photoelectric conversion portion 41.
  • the photoelectric conversion unit 41 and the second photoelectric conversion unit 42 are arranged in almost right half regions.
  • the reflecting portion 43 is disposed in the substantially right half region of each of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42, and the transparent insulating film 46 is replaced with the first photoelectric conversion portion 41 and You may arrange
  • the G pixels 10 arranged every other pixel group 402 have their reflection portions 43 in the substantially left half regions of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42 (or B pixels 10 arranged in every other pixel group 402 in the right half region) have their reflection portions 43 of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42, respectively.
  • the image data generation unit 21a generates image data based on the imaging signal S3.
  • the signal level of the photoelectric conversion signal S1 of the present embodiment is greatly improved as compared with a conventional image sensor, that is, a signal that does not have a reflection portion. More specifically, when the first and second light beams 61 and 62 are received by the photoelectric conversion unit, the photoelectric conversion signal from the photoelectric conversion unit becomes k ⁇ (A + B). On the other hand, the photoelectric conversion signal of the present embodiment is k (1 ⁇ ) A + k ⁇ A + k ⁇ B as shown in the equation (1). The photoelectric conversion signal S1 in this embodiment is larger by k (1 ⁇ ) A than k ⁇ (A + B).
  • the imaging signal S3 is generated by adding the first photoelectric conversion signal S1 and the second photoelectric conversion signal S2 in the image data generation unit 21a of the body control unit 21. It was. However, the addition of the first photoelectric conversion signal S1 and the second photoelectric conversion signal S2 may be performed within the image sensor 22 as will be described in detail later with reference to FIGS. Further, the image data generation unit 21a may use only the first photoelectric conversion signal S1 as an imaging signal. In this case, the correction unit 21b may subtract the signal component of k (1- ⁇ ) A in Expression (1) from the first photoelectric conversion signal S1.
  • FIG. 5 is a circuit diagram showing a configuration example of the image sensor 22 according to the first embodiment.
  • the image sensor 22 includes a plurality of pixels 10 and a pixel vertical drive unit 70.
  • the pixel 10 includes the first photoelectric conversion unit 41 and the second photoelectric conversion unit 42 described above, and the reading unit 20.
  • the reading unit 20 includes a first transfer unit 11, a second transfer unit 12, a first floating diffusion (hereinafter referred to as FD) 15, a second FD 16, and a discharge unit 17 (reset unit). And amplifying section 18 and first and second connecting sections 51 and 52.
  • the pixel vertical driving unit 70 supplies control signals such as the signal TX1, the signal TX2, and the signal RST to each pixel 10 to control the operation of each pixel 10. In the example shown in FIG. 5, only one pixel is shown for the sake of simplicity.
  • the first transfer unit 11 is controlled by the signal TX1 and transfers the electric charge photoelectrically converted by the first photoelectric conversion unit 41 to the first FD 15. That is, the first transfer unit 11 forms a charge transfer path between the first photoelectric conversion unit 41 and the first FD 15.
  • the second transfer unit 12 is controlled by the signal TX ⁇ b> 2 and transfers the charge photoelectrically converted by the second photoelectric conversion unit 42 to the second FD 16. That is, the second transfer unit 12 forms a charge transfer path between the second photoelectric conversion unit 42 and the second FD 16.
  • the first FD 15 and the second FD 16 are electrically connected via the connection portions 51 and 52 and hold (accumulate) electric charges.
  • the amplifying unit 18 amplifies and outputs a signal based on the charges held in the first FD 15 and the second FD 16.
  • the amplifying unit 18 is connected to the vertical signal line 30 and functions as a part of a source follower circuit using a current source (not shown) as a load current source.
  • the discharge unit 17 is controlled by the signal RST, discharges the charges of the first FD 15 and the second FD 16, and resets the potentials of the first FD 15 and the second FD 16 to a reset potential (reference potential).
  • the first transfer unit 11, the second transfer unit 12, the discharge unit 17, and the amplification unit 18 are configured by, for example, a transistor M1, a transistor M2, a transistor M3, and a transistor M4, respectively.
  • the reading unit 20 reads a signal based on the electric charge generated by the first photoelectric conversion unit 41, that is, the first photoelectric conversion signal S1 to the vertical signal line 30. Further, by setting the signal TX1 to the low level and the signal TX2 to the high level, the transistor M1 is turned off and the transistor M2 is turned on. As a result, the charge generated by the second photoelectric conversion unit 42 is transferred to the first FD 15 and the second FD 16.
  • the reading unit 20 reads a signal based on the charge accumulated by the second photoelectric conversion unit 42, that is, the second photoelectric conversion signal S ⁇ b> 2 to the vertical signal line 30.
  • the reading unit 20 uses the addition signal generated by adding the charge generated by the first photoelectric conversion unit 41 and the charge generated by the second photoelectric conversion unit 42, that is, the imaging signal S3.
  • the pixel vertical drive unit 70 sequentially outputs the first photoelectric conversion signal S1 and the second photoelectric conversion signal S2 by performing on / off control of the first transfer unit 11 and the second transfer unit 12. Can be made.
  • the pixel vertical drive unit 70 can add the charge generated by the first photoelectric conversion unit 41 and the charge generated by the second photoelectric conversion unit 42 to output the imaging signal S3. .
  • the signal TX1 and the signal TX2 do not necessarily have to be simultaneously set to the high level when the imaging signal S3 is read. That is, even if the timing at which the signal TX1 is set to the high level and the timing at which the signal TX2 is set to the high level are shifted, the charge generated by the first photoelectric conversion unit 41 and the second photoelectric conversion unit 42 are generated. The charge can be added.
  • FIG. 6 is a diagram illustrating an example of a cross-sectional structure of the image sensor 22 according to the first embodiment.
  • FIG. 7 is a diagram illustrating a configuration example of the image sensor 22 according to the first embodiment.
  • the image sensor 22 includes a first substrate 111 and a second substrate 112.
  • the first substrate 111 and the second substrate 112 are each composed of a semiconductor substrate.
  • a wiring layer 101 is stacked on the first substrate 111, and a wiring layer 102 is stacked on the second substrate 112.
  • the wiring layer 101 and the wiring layer 102 include a conductor film (metal film) and an insulating film, and a plurality of wirings, vias, contacts, and the like are arranged.
  • copper or aluminum is used for the conductor film.
  • the insulating film is composed of, for example, an oxide film or a nitride film.
  • a plurality of through electrodes 201 are provided around a pixel region 210 in which each pixel 10 is arranged.
  • An electrode PAD 202 is provided corresponding to the through electrode 201.
  • 6 illustrates the example in which the through electrode 201 and the electrode PAD202 are provided on the first substrate 111, the through electrode 201 and the electrode PAD202 may be provided on the second substrate 112.
  • the pixel 10 includes the first photoelectric conversion unit 41, the second photoelectric conversion unit 42, the reflection unit 43, the microlens 44, the color filter 45, and the reading unit 20. .
  • the first FD 15 and the second FD 16 of the reading unit 20 are electrically connected via contacts 53 and 54 and connection units 51 and 52.
  • the connection part 51 and the connection part 52 are a bump, an electrode, etc., for example.
  • the signal of each pixel 10 output from the reading unit 20 to the vertical signal line 30 illustrated in FIG. 5 is subjected to signal processing such as A / D conversion by an arithmetic circuit (not illustrated) provided on the first substrate 111, for example. .
  • the arithmetic circuit reads out the signal of each pixel 10 after the signal processing to the body control unit 21 via the through electrode 201 and the electrode PAD202.
  • the operation of this embodiment will be described.
  • the first photoelectric conversion signal S1, the second photoelectric conversion signal S2, and the addition signal of the first and second photoelectric conversion signals are output from the image sensor 22. That is, the imaging signal S3 is sequentially read out.
  • the body control unit 21 is based on the read first and second photoelectric conversion signals S1 and S2 and the values of the conversion coefficient k and the absorption ratio ⁇ recorded in the memory or the like inside the body control unit 21.
  • the noise component (k ⁇ A + k ⁇ B) is calculated.
  • the correction unit 21b subtracts the noise component (k ⁇ A + k ⁇ B) from the read first photoelectric conversion signal S1 to generate a corrected first photoelectric conversion signal S1.
  • the focus detection unit 21c uses the corrected first photoelectric conversion signal S1 as the first focus detection signal, the second photoelectric conversion signal S2 as the second focus detection signal, and the first and second focus detection signals. Based on the above, a phase difference type focus detection calculation is performed to calculate a defocus amount. Based on the defocus amount, the lens control unit 32 moves the focus adjustment lens of the imaging optical system 31 to the in-focus position and adjusts the focus. In the focus adjustment, the image sensor 22 may be moved in the optical axis direction of the image pickup optical system 31 instead of moving the focus adjustment lens.
  • the image data generating unit 21a generates image data for through image and image data for recording of actual photographing based on the imaging signal S3 read from the imaging element 22.
  • the image data for the through image is displayed on the display unit 24, and the image data for recording of the actual photographing is recorded in the memory 23.
  • the aperture of the pixel becomes smaller. For this reason, as pixel miniaturization progresses, the size of the aperture of the pixel becomes smaller (shorter) than the wavelength of light, and the focus detection pixel provided with a light-shielding film on the light incident surface for phase difference detection.
  • the light may not enter the photoelectric conversion unit (photodiode). Since light in the red wavelength band has a longer wavelength than light of other colors (green and blue), red light does not enter the photoelectric conversion unit in the focus detection pixel using the light shielding film. Cheap.
  • the focus detection pixel using the light shielding film the charge that is photoelectrically converted by the photoelectric conversion unit is reduced, and it is difficult to detect the focus of the optical system using the pixel signal. In particular, it becomes difficult to perform focus detection by photoelectrically converting long-wavelength light (red light or the like).
  • the pixel provided with the reflective portion (reflective film) 43 since the pixel provided with the reflective portion (reflective film) 43 is used, the aperture of the pixel can be made larger than the focus detection pixel using the light shielding film.
  • the pixel provided with the reflective film 43 can be said to be a focus detection pixel suitable for a long wavelength region in a wavelength region of light photoelectrically converted by the image sensor 22.
  • the reflective film 43 may be provided on the R pixel.
  • the imaging device 22 includes a microlens 44 into which the first light beam 61 and the second light beam 62 that have passed through the imaging optical system 31 are incident, and the first light beam 61 and the second light beam that have passed through the microlens 44.
  • the first photoelectric conversion unit 41 on which the light beam 62 is incident, and the first light beam 61 and the second light beam 62 transmitted through the first photoelectric conversion unit 41 are directed toward the first photoelectric conversion unit 41.
  • a plurality of pixels 10 each having a reflective portion 43 to be reflected and a second photoelectric conversion portion 42 on which one of the first light flux 61 and the second light flux 62 transmitted through the first photoelectric conversion portion 41 is incident. Be placed.
  • the pixel outputs a signal from the first photoelectric conversion unit 41 and a signal from the second photoelectric conversion unit 42 as focus detection signals.
  • the first photoelectric conversion unit 41 generates charges based on the first light beam 61 reflected by the reflection unit 43
  • the second photoelectric conversion unit 42 is based on the second light beam 62.
  • a second photoelectric conversion signal is generated. Therefore, the first light beam 61 is obtained by using the first photoelectric conversion signal S1 based on the charge of the first photoelectric conversion unit 41 and the second photoelectric conversion signal S2 based on the charge of the second photoelectric conversion unit 42.
  • the phase difference information of the image by the second light beam 62 can be obtained.
  • the first light beam 61 and the second light beam 62 are light beams that have passed through the first region and the second region of the pupil of the imaging optical system 31, respectively.
  • the position of the pupil of the system 31 is a conjugate positional relationship with respect to the microlens 44. Since it did in this way, the phase difference information of the image by a pair of light beam which entered via a different pupil area
  • the image pickup device 22 stores the first storage unit (first FD 15) that stores the charges converted by the first photoelectric conversion unit 41 and the charge converted by the second photoelectric conversion unit 42.
  • the image sensor 22 includes a first transfer unit 11 that transfers the charge converted by the first photoelectric conversion unit 41 to the first accumulation unit (first FD 15), and a second photoelectric conversion unit 42.
  • First control for sequentially outputting a signal based on the charge converted by the conversion unit 41 and a signal based on the charge converted by the second photoelectric conversion unit 42, and the charge converted by the first photoelectric conversion unit 41
  • a control unit pixel vertical drive unit 70 that performs a second control for outputting a signal based on a charge obtained by adding the charge converted by the second photoelectric conversion unit 42.
  • 1st photoelectric conversion signal S1 and 2nd photoelectric conversion signal S2 can be output sequentially. Further, the charge generated by the first photoelectric conversion unit 41 and the charge generated by the second photoelectric conversion unit 42 can be added to output the imaging signal S3. For this reason, all the pixels 10 provided in the image sensor 22 can be used for both an imaging pixel for generating an imaging signal and a focus detection pixel for generating a focus detection signal. As a result, each pixel 10 can be prevented from being a defective pixel as an imaging pixel.
  • the focus detection device performs focus detection of the imaging optical system 31 based on the image sensor 22, the signal from the first photoelectric conversion unit 41, and the signal from the second photoelectric conversion unit 42. 21c. Since it did in this way, the phase difference information of the image by the 1st light beam 61 and the 2nd light beam 62 can be obtained, and the focus detection of the imaging optical system 31 can be performed.
  • FIG. 8 is a conceptual diagram illustrating a configuration example of pixels of the image sensor 22 according to the second embodiment.
  • the main differences between the second embodiment and the first embodiment are as follows.
  • the G pixel 10 and the B pixel 10 that are alternately arranged have all the reflection portions 43 of the first photoelectric element.
  • Each of the conversion unit 41 and the second photoelectric conversion unit 42 is disposed in a substantially left half region.
  • the G pixels 10 arranged every other pixel group 402 have reflection portions 43 that are substantially the same as the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42, respectively.
  • the B pixels 10 arranged in every other pixel group 402 have their reflection portions 43 in the substantially left half region of each of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42 and Alternatingly arranged in the almost right half area.
  • Other configurations are the same as those of the first embodiment. This will be described in detail below.
  • the G pixel 10 includes two types of G pixels, that is, a first G pixel 10G and a second G pixel 10g.
  • the first G pixel 10G and the second G pixel 10g are both Are alternately arranged with the B pixel interposed therebetween.
  • the reflection portion 43 is positioned in the substantially left half region of each of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42, and the second G pixel 10g
  • the unit 43 is located in the almost right half region of each of the first photoelectric conversion unit 41 and the second photoelectric conversion unit 42.
  • the first and second G pixels 10 ⁇ / b> G and 10 g have the same configuration except for the reflecting portion 43.
  • the B pixel 10 includes two types of B pixels, that is, a first B pixel 10B and a second B pixel 10b, and the first B pixel 10B and the second B pixel 10b have a G
  • the pixels are alternately arranged across the pixel.
  • the reflection portion 43 is located in the substantially left half region of each of the first photoelectric conversion portion 41 and the second photoelectric conversion portion 42
  • the second B pixel 10b The unit 43 is located in the almost right half region of each of the first photoelectric conversion unit 41 and the second photoelectric conversion unit 42.
  • the first and second G pixels 10G and 10g have the same configuration other than the reflection unit 43.
  • the R pixel 10 and the G pixel 10 in the pixel group 401 also have the same configuration as the first and second B pixels 10B and 10b and the first and second G pixels 10G and 10g in the pixel group 402. It has an R pixel and a second R pixel, and a first G pixel and a second G pixel.
  • the first and second photoelectric conversion signals S1 and S2 of the first and second G pixels 10G and 10g of the pixel group 402 shown in FIG. The relationship between the first and second focus detection signals obtained by photoelectrically converting the first and second images will be described.
  • the first and second photoelectric conversion signals S1 and S2 of the first and second B pixels and R pixel, and the first and second images obtained by the first and second light beams 61 and 62 are photoelectrically converted.
  • the relationship with the second focus detection signal is the same as that of the first and second G pixels 10G and 10g.
  • the first photoelectric conversion unit 41 outputs the first photoelectric conversion signal S1G.
  • the second photoelectric conversion unit 42 outputs the second photoelectric conversion signal S2G.
  • the first photoelectric conversion signal S1G of the first G pixel 10G is expressed by the above formula (1)
  • the second photoelectric conversion signal S2G is expressed by the above formula (2). That is, the first and second photoelectric conversion signals S1G and S2G are expressed by the following equations.
  • S1G k (1- ⁇ ) A + k ⁇ A + k ⁇ B (1G)
  • S2G k (1- ⁇ ) B Equation (2G)
  • the first photoelectric conversion unit 41 outputs the first photoelectric conversion signal S1g
  • the second photoelectric conversion unit 42 outputs the second photoelectric conversion signal S2g.
  • the first and second photoelectric conversion signals S1g and S2g of the second G pixel 10g are expressed by the following formulas (4) and (2) in which A and B are interchanged in the above formulas (1) and (2). 5).
  • S1g k (1 ⁇ ) B + k ⁇ A + k ⁇ B (4)
  • S2g k (1- ⁇ ) A (5)
  • the body control unit 21 receives the first and second light incident on the first G pixel 10G from the equations (1G) and (2G) just as in the case of the G pixel 10 of the first embodiment shown in FIG.
  • the light intensities A and B of the second light beams 61 and 62 are calculated, and the noise component (k ⁇ A + k ⁇ B) of the first G pixel 10G is calculated based on the calculated light intensities A and B.
  • the body control unit 21 calculates the light intensities A and B of the first and second light beams 61 and 62 incident on the second G pixel 10g from the expressions (4) and (5) and calculates them. Based on the light intensities A and B, the noise component (k ⁇ A + k ⁇ B) of the second G pixel 10g is calculated.
  • the corrected first photoelectric conversion signal S1G is k (1- ⁇ ) A
  • the second photoelectric conversion signal S2G is k (1- ⁇ ) B.
  • the corrected first photoelectric conversion signal S1g is k (1- ⁇ ) B
  • the second photoelectric conversion signal S2g is k (1- ⁇ ) A.
  • the conversion signal S1g ( k (1- ⁇ ) B).
  • the focus detection unit 21c shown in FIG. 1 calculates the defocus amount of the imaging optical system 31 based on the first focus detection signal and the second focus detection signal. That is, the focus detection unit 21c corrects the first photoelectric conversion signal S1G after the correction of the first G pixel 10G, the second photoelectric conversion signal S2g of the second G pixel 10g, and the first photoelectric conversion signal S2g of the first G pixel 10G. The defocus amount is calculated based on the second photoelectric conversion signal S2G and the corrected first photoelectric conversion signal S1g of the second G pixel 10g.
  • the imaging signal S3G of the first G pixel 10G is k (A + B) by adding the first photoelectric conversion signal S1G of the formula (1G) and the second photoelectric conversion signal S2G of the formula (2G). .
  • the imaging signal S3g of the second G pixel 10g is obtained by adding the first photoelectric conversion signal S1g of Expression (4) and the second photoelectric conversion signal S2g of Expression (5) to k (A + B )
  • the image data generation unit 21a illustrated in FIG. 1 is based on the imaging signal S3 of the first and second G pixels, the first and second B pixels, and the first and second R pixels. Image data and image data for actual shooting recording are respectively generated. Since the operation of the second embodiment is substantially the same as the operation of the first embodiment described above, description thereof is omitted.
  • the first G pixel 10G and the second G pixel 10g are alternately arranged with the B pixel interposed therebetween, but are not necessarily arranged alternately. There is no need to be done. The same applies to the alternate arrangement of the first and second B pixels and the alternate arrangement of the first and second R pixels.
  • the plurality of pixels 10 include a first pixel (for example, pixel 10G) and a second pixel (for example, pixel 10g) arranged in the first direction.
  • the first pixel 10 ⁇ / b> G includes a microlens 44, a first photoelectric conversion unit 41, and a reflection unit that reflects the first light beam 61 transmitted through the first photoelectric conversion unit 41 toward the first photoelectric conversion unit 41. 43 and a second photoelectric conversion unit 42 on which the second light flux 62 transmitted through the first photoelectric conversion unit 41 is incident.
  • the second pixel 10 g includes a microlens 44, a first photoelectric conversion unit 41, and a reflection unit that reflects the second light beam 62 transmitted through the first photoelectric conversion unit 41 toward the first photoelectric conversion unit 41. 43 and a second photoelectric conversion unit 42 on which the first light beam 61 transmitted through the first photoelectric conversion unit 41 is incident. For this reason, the signal of the first photoelectric conversion unit 41 of the first pixel 10G and the signal of the second photoelectric conversion unit 42 of the second pixel 10g, the signal of the second photoelectric conversion unit 42 of the first pixel 10G, and the first By using the signal of the first photoelectric conversion unit 41 of the two pixels 10g, the phase difference information of the image by the first light beam 61 and the second light beam 62 can be obtained.
  • the focus detection apparatus includes the image sensor 22, the signal of the first photoelectric conversion unit 41 of the first pixel 10G, the signal of the second photoelectric conversion unit 42 of the second pixel 10g, and the first of the first pixel 10G.
  • a focus detection unit 21c that performs focus detection of the imaging optical system 31 based on the signal of the second photoelectric conversion unit 42 and the signal of the first photoelectric conversion unit 41 of the second pixel 10g. Since it did in this way, the phase difference information of the image by the 1st light beam 61 and the 2nd light beam 62 can be obtained, and the focus detection of the imaging optical system 31 can be performed.
  • FIG. 9 is a diagram illustrating an example of a cross-sectional structure of the image sensor 22 according to the first modification.
  • the imaging device of Modification 1 is different from the imaging device of the first embodiment in the stacked structure of the first substrate 111 and the second substrate 112.
  • a wiring layer 101 and a wiring layer 103 are stacked on the first substrate 111, and a wiring layer 102 and a wiring layer 104 are stacked on the second substrate 112.
  • the wiring layer 103 is provided with a connection portion 51 and a contact 53
  • the wiring layer 104 is provided with a connection portion 52 and a contact 54.
  • the first substrate 111 is provided with a diffusion layer 55 formed using n-type impurities
  • the second substrate 112 is provided with a diffusion layer 56 formed using n-type impurities.
  • the diffusion layer 55 and the diffusion layer 56 are connected to the first FD 15 and the second FD 16, respectively. Thereby, the first FD 15 and the second FD 16 are electrically connected through the diffusion layers 55 and 56, the contacts 53 and 54, and the connection portions 51 and 52.
  • the signal of each pixel 10 is read out to the wiring layer 101 between the first substrate 111 and the second substrate 112. For this reason, in the first embodiment, it is necessary to provide a plurality of through electrodes 201 in order to read the signal of each pixel 10 to the body control unit 21. In Modification 1, the signal of each pixel 10 is read to the wiring layer 101 above the first substrate 111. For this reason, it is not necessary to provide the through electrode 201, and the signal of each pixel 10 can be read out to the body control unit 21 through the electrode PAD 202.
  • Modification 2 In the first embodiment described above, in order for the correction unit 21b to remove the noise component (k ⁇ A + k ⁇ B) from the first photoelectric conversion signal S1, the body control unit 21 uses the first photoelectric conversion signal S1 and the second photoelectric conversion signal S1. Based on the photoelectric conversion signal S2, a noise component (k ⁇ A + k ⁇ B) was calculated.
  • the configuration of the image sensor 22 is different.
  • an image pickup device in which one photoelectric conversion unit is arranged around each of the pixel groups 401 and 402 shown in FIGS. 3 and 4 under the microlens 44 and the color filter 45. Pixels are scattered.
  • the body control unit 21 calculates (k ⁇ A + k ⁇ B) of Expression (1) based on the photoelectric conversion signal of the imaging pixel, and the correction unit 21b calculates the first photoelectric conversion signal S1 of Expression (1) from (The corrected photoelectric conversion signal S1, that is, k (1- ⁇ ) A is calculated by subtracting k ⁇ A + k ⁇ B).
  • a semiconductor substrate such as a silicon substrate used for the image sensor 22 has a characteristic in which the transmittance varies depending on the wavelength length of incident light. For example, light having a long wavelength (red light) is more likely to pass through the photoelectric conversion unit than light having a short wavelength (green light or blue light). Light having a short wavelength (green light, blue light) is less likely to pass through the photoelectric conversion unit than light having a long wavelength (red light). That is, light having a short wavelength has a shallower depth reaching the photoelectric conversion unit than light having a long wavelength.
  • light having a short wavelength is photoelectrically converted in a shallow region of the semiconductor substrate, that is, in a shallow portion of the photoelectric conversion unit ( ⁇ Z direction side in FIG. 3) in the light incident direction (Z-axis direction in FIG. 3)
  • the Light having a long wavelength is photoelectrically converted in a deep region of the semiconductor substrate, that is, a deep portion of the photoelectric conversion portion (+ Z direction side in FIG. 3) in the light incident direction.
  • the position of the reflective film 43 may be changed for each of R, G, and B pixels.
  • a reflective film is disposed in the B pixel at a position shallower than the G pixel and the R pixel (a position on the ⁇ Z direction side compared to the G pixel and the R pixel), and the G pixel is compared with the B pixel.
  • a reflective film is disposed deeply (position on the + Z direction side compared to the B pixel) and shallower than the R pixel (position on the ⁇ Z direction side compared to the R pixel).
  • the R pixel includes the G pixel and the B pixel.
  • a reflective film may be disposed at a deeper position (position on the + Z direction side than the G and B pixels).
  • the amount of light incident on the photoelectric conversion unit via the imaging optical system 31 can be increased, and even when light is incident obliquely, pupil division can be appropriately performed in that state.
  • Modification 7 The image sensor 22 described in the above-described embodiments and modifications is applied to a camera, a smartphone, a tablet, a camera built in a PC, an in-vehicle camera, a camera mounted on an unmanned aircraft (such as a drone or a radio control machine), and the like. Also good.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

撮像素子は,結像光学系(31)を通過した第1の光束(61)及び第2の光束(62)が入射するマイクロレンズ(44)と,前記マイクロレンズを透過した前記第1の光束及び第2の光束が入射する第1の光電変換部(41)と,前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか一方を前記第1の光電変換部に向けて反射する反射部(43)と,前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか他方が入射する第2の光電変換部(42)とを有する複数の画素(10)が配置され,前記画素は,前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とを焦点検出信号として出力する。

Description

撮像素子、焦点検出装置、及び、電子カメラ
 本発明は、撮像素子、焦点検出装置、及び、電子カメラに関する。
 光電変換部の下に反射層を設け、この反射層によって光電変換部を透過した光を光電変換部に反射させる撮像装置が知られている(特許文献1)。この撮像装置では、被写体像の位相差情報を得ることができない。
日本国特開2010-177704号公報
 本発明の第1の態様によると、撮像素子は、結像光学系を通過した第1の光束及び第2の光束が入射するマイクロレンズと、前記マイクロレンズを透過した前記第1の光束及び第2の光束が入射する第1の光電変換部と、前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか一方を前記第1の光電変換部に向けて反射する反射部と、前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか他方が入射する第2の光電変換部とを有する複数の画素が配置され、前記画素は、前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とを焦点検出信号として出力する。
 本発明の第2の態様によると、焦点検出装置は、第1の態様による撮像素子と、前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とに基づき前記結像光学系の焦点検出を行う焦点検出部と、を備える。
 本発明の第3の態様によると、電子カメラは、第1の態様による撮像素子と、前記第2の光電変換部からの信号に基づき前記第1の光電変換部からの信号を補正する補正部と、を備える。
第1の実施の形態に係る撮像装置の構成例を示す図である。 第1の実施の形態に係る撮像素子の画素の配置例を示す図である。 第1の実施の形態に係る撮像素子の画素の構成例を示す概念図である。 第1の実施の形態に係る撮像素子の画素に入射する光束を示す図である。 第1の実施の形態に係る撮像素子の構成例を示す回路図である。 第1の実施の形態に係る撮像素子の断面構造の一例を示す図である。 第1の実施の形態に係る撮像素子の構成例を示す図である。 第2の実施の形態に係る撮像素子の画素の構成例を示す概念図である。 変形例1に係る撮像素子の断面構造の一例を示す図である。
(第1の実施の形態)
 図1は、第1の実施の形態に係る撮像装置の一例である電子カメラ1(以下、カメラ1と称する)の構成例を示す図である。カメラ1は、カメラボディ2と交換レンズ3とにより構成される。交換レンズ3は、不図示のマウント部を介してカメラボディ2に着脱可能に装着される。カメラボディ2に交換レンズ3が装着されると、カメラボディ2側の接続部202と交換レンズ3側の接続部302とが接続され、カメラボディ2および交換レンズ3間の通信が可能となる。
 図1において、被写体からの光は、図1のZ軸プラス方向に向かって入射する。また、座標軸に示すように、Z軸に直交する紙面手前方向をX軸プラス方向、Z軸およびX軸に直交する下方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きが分かるように座標軸を表示する。
 交換レンズ3は、撮像光学系(結像光学系)31と、レンズ制御部32と、レンズメモリ33とを備える。撮像光学系31は、焦点調節レンズ(フォーカスレンズ)を含む複数のレンズと絞りとを含み、カメラボディ2の撮像素子22の撮像面上に被写体像を結像する。
 レンズ制御部32は、カメラボディ2のボディ制御部21から出力される信号に基づき、焦点調節レンズを光軸L1方向に進退移動させて撮像光学系31の焦点位置を調節する。ボディ制御部21から出力される信号には、焦点調節レンズの移動方向や移動量、移動速度などを示す情報が含まれる。また、レンズ制御部32は、カメラボディ2のボディ制御部21から出力される信号に基づき、絞りの開口径を制御する。
 レンズメモリ33は、例えば、不揮発性の記憶媒体等により構成される。レンズメモリ33には、交換レンズ3に関連する情報がレンズ情報として記憶される。レンズ情報には、例えば、撮像光学系31の射出瞳の位置に関する情報が含まれる。レンズメモリ33へのレンズ情報の書き込みや、レンズメモリ33からのレンズ情報の読み出しは、レンズ制御部32によって行われる。
 カメラボディ2は、ボディ制御部21と、撮像素子22と、メモリ23と、表示部24と、操作部25とを備える。ボディ制御部21は、CPU、ROM、RAM等により構成され、制御プログラムに基づきカメラ1の各部を制御する。また、ボディ制御部21は、各種の信号処理を行う。
 撮像素子22は、例えば、CMOSイメージセンサやCCDイメージセンサである。撮像素子22は、撮像光学系31の射出瞳を通過した光束を受光して、被写体像を撮像する。撮像素子22には、光電変換部を有する複数の画素が二次元状(例えば、行方向及び列方向)に配置される。光電変換部は、例えばフォトダイオード(PD)によって構成される。撮像素子22は、入射した光を光電変換して信号を生成し、生成した信号をボディ制御部21に出力する。撮像素子22は、詳細は後述するが、画像データを生成するための信号すなわち撮像信号と、撮像光学系31の焦点について位相差式焦点検出を行うための一対の焦点検出信号、即ち、第1及び第2の焦点検出信号とを、ボディ制御部21に出力する。この第1及び第2の焦点検出信号は、後に詳述するように、撮像光学系31の射出瞳の第1及び第2の領域をそれぞれ通過した第1及び第2の光束による第1及び第2の像をそれぞれ光電変換した信号である。
 メモリ23は、例えば、メモリカード等の記録媒体である。メモリ23には、画像データ等が記録される。メモリ23へのデータの書き込みや、メモリ23からのデータの読み出しは、ボディ制御部21によって行われる。表示部24は、画像データに基づく画像、シャッター速度や絞り値等の撮影に関する情報、およびメニュー画面等を表示する。操作部25は、レリーズボタン、電源スイッチなどの各種設定スイッチ等を含み、それぞれの操作に応じた操作信号をボディ制御部21へ出力する。
 ボディ制御部21は、画像データ生成部21aと補正部21bと焦点検出部21cとを有する。画像データ生成部21aは、撮像素子22から出力される撮像信号に各種の画像処理を行って画像データを生成する。画像処理には、例えば、階調変換処理、色補間処理、輪郭強調処理等の公知の画像処理が含まれる。補正部21bは、撮像素子22から出力される焦点検出信号に対して補正処理を行う。詳細は後述するが、補正部21bは、焦点検出処理にとってはノイズとなる成分を、焦点検出信号から除去する処理を行う。
 焦点検出部21cは、撮像光学系31の自動焦点調節(AF)に必要な焦点検出処理を行う。具体的には、焦点検出部21cは、補正部21bにより補正された焦点検出信号を用いて、瞳分割型の位相差検出方式によりデフォーカス量を算出する。より具体的には、焦点検出部21cは、第1及び第2の焦点検出信号に基づき、撮像光学系31の射出瞳の第1及び第2の領域を通過した第1及び第2の光束による第1及び第2の像の像ズレ量を検出し、検出した像ズレ量に基づいてデフォーカス量を算出する。
 焦点検出部21cは、デフォーカス量が許容値以内か否かを判定する。焦点検出部21cは、デフォーカス量が許容値以内であれば合焦していると判断する。一方、焦点検出部21cは、デフォーカス量が許容値を超えている場合は合焦していないと判断し、交換レンズ3のレンズ制御部32へデフォーカス量とレンズ駆動指示とを送信する。焦点検出部21cからの指示を受けたレンズ制御部32が、デフォーカス量に応じて焦点調節レンズを駆動することにより、焦点調節が自動で行われる。
 図2は、第1の実施の形態に係る撮像素子22の画素の配置例を示す図である。図2に示す例では、5行8列の計40個の画素10を図示している。なお、撮像素子22に配置される画素の数および配置は、図示した例に限られない。撮像素子22には、例えば、数百万~数億、又はそれ以上の画素が設けられる。
 各画素10には、例えばR(赤)、G(緑)、B(青)の異なる分光感度を有する3つのカラーフィルタのいずれかが設けられる。Rのカラーフィルタは主に第1の波長の光(赤色の波長域の光)を透過し、Gのカラーフィルタは主に第1の波長より短い波長の光(緑色の波長域の光)を透過し、Bのカラーフィルタは主に第2の波長より短い波長の光(青色の波長域の光)を透過する。これにより、画素10は、配置されたカラーフィルタによって異なる分光感度特性を有する。
 撮像素子22は、Rのカラーフィルタを有する画素(以下、R画素と称する)10およびGのカラーフィルタを有する画素(以下、G画素と称する)10が第1の方向、即ち、行方向に交互に配置される画素群401を有する。また、撮像素子22は、G画素10およびBのカラーフィルタを有する画素(以下、B画素と称する)10が第1の方向、即ち、行方向に交互に配置される画素群402を有する。画素群401と画素群402とは、第1の方向に交差する方向である第2の方向、即ち、列方向に交互に配置される。このように、本実施の形態では、R画素10、G画素10、およびB画素10は、ベイヤー配列に従って配置される。
 画素10は、撮像光学系31を介して入射した光を受光し、受光量に応じた信号を生成する。各画素10により生成される信号は、詳細は後述するが、撮像信号および第1及び第2の焦点検出信号として用いられる。
 図3は、第1の実施の形態に係る撮像素子22の画素10の構成例を示す概念図である。図3では、画素群402内の2つのG画素10および2つのB画素10のみを示しているが、画素群401内のR画素10およびG画素10の構成も同様である。即ち、R画素10の構成とG画素10の構成とB画素10の構成は、カラーフィルタを除いて、同一である。
 画素10は、第1の光電変換部41と、第2の光電変換部42と、反射部43と、マイクロレンズ44と、カラーフィルタ45とを有する。第1及び第2の光電変換部41、42は、互いに積層され、本実施の形態にあっては同一の大きさに構成され、互いに分離絶縁されている。反射部43は、例えば金属の反射膜であり、第1の光電変換部41と第2の光電変換部42との間に設けられる。反射部43は、第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分(光電変換部42のマイナスX側)の領域に対応して配置される。また、第1の光電変換部41と反射部43との間、及び第2の光電変換部42と反射部43との間には、不図示の絶縁膜がそれぞれ設けられる。なお、反射部43を、絶縁膜により構成するようにしてもよい。
 第1の光電変換部41のほぼ右半分(光電変換部41のプラスX側)の領域と第2の光電変換部42のほぼ右半分(光電変換部42のプラスX側)の領域との間には、透明な電気的絶縁膜46が設けられている。こうして、第1及び第2の光電変換部41、42は、透明絶縁膜46と上述した不図示の絶縁膜とによって分離絶縁される。
 マイクロレンズ44は、図3において上方から結像光学系3を介して入射された光を集光する。マイクロレンズ44のパワーは、反射部43の位置と結像光学系3の射出瞳の位置とがマイクロレンズ44に関して共役な位置関係となるように、定められている。上述のように、画素群402は、G画素10とB画素10がX方向、即ち行方向に交互に配置されているので、Gのカラーフィルタ45とBのカラーフィルタ45とが、X方向に交互に配置されている。
 後に詳述するように、撮影光学系3の瞳の第1及び第2の瞳領域をそれぞれ通過した第1の光束61と第2の光束62は、マイクロレンズ44およびカラーフィルタ45を透過し、第1の光電変換部41に入射する。第1の光電変換部41は、第1の光電変換部41に入射された第1及び第2の光束61、62を光電変換する。また、第1の光電変換部41を透過した光のうちの一部、即ち第1の光束61は、反射部43で反射されて第1の光電変換部41に再入射する。
 第1の光電変換部41を透過した光のうちの他の一部、即ち第2の光束62は、透明絶縁膜46を透過して第2の光電変換部42に入射する。このように、透明絶縁膜46は、第1の光電変換部41を通過した第2の光束62が第2の光電変換部42に入射することを許容する開口として作用する。
 なお、図1に示した焦点検出部21cは、後に詳述するように、図3において、一画素置きに並んだ複数のG画素10の各々からの第1及び第2の焦点検出信号に基づき、位相差式焦点検出を行うと共に、一画素置きに並んだ複数のB画素10の各々からの第1及び第2の焦点検出信号に基づき、位相差式焦点検出を行う。同様に、焦点検出部21cは、図2の画素群401の一画素置きに並んだ複数のR画素10の各々からの第1及び第2の焦点検出信号に基づき、位相差式焦点検出を行うと共に、図2の画素群401の一画素置きに並んだ複数のG画素10の各々からの第1及び第2の焦点検出信号に基づき、位相差式焦点検出を行う。なお、第1の焦点検出信号は、第1の光束61により形成される第1の像を光電変換したものであり、第2の焦点検出信号は、第2の光束62により形成される第2の像を光電変換したものである。
 以下では、画素10に入射する光束、および画素10により生成される信号について詳しく説明する。
 図4は、第1の実施の形態に係る撮像素子22の画素10に入射する光束を示す図である。なお、以下の説明にあっては、マイクロレンズ44によって撮像光学系31の射出瞳位置に投影される反射部43の投影像の領域を撮像光学系3の射出瞳の第1の瞳領域と称する。同様に、マイクロレンズ44によって撮像光学系31の射出瞳位置に投影される透明絶縁膜46の投影像の領域を撮像光学系3の射出瞳の第2の瞳領域と称する。
 図4において、図1の撮像光学系3の第1の瞳領域を通過した破線で示した第1の光束61は、マイクロレンズ44、カラーフィルタ45および第1の光電変換部41を透過した後に、反射部43で反射されて第1の光電変換部41に再入射する。同様に、撮像光学系3の第2の瞳領域を通過した実線で示した第2の光束62は、マイクロレンズ44、カラーフィルタ45および第1の光電変換部41を透過した後に、更に透明絶縁膜46を透過して第2の光電変換部42に入射する。
 このように、第1の光束61と第2の光束62との両方が、マイクロレンズ44およびカラーフィルタ45を介して第1の光電変換部41に入射するので、第1の光電変換部41は、第1の光束61及び第2の光束62を光電変換して電荷を生成する。また、第1の光電変換部41に入射された第1の光束61は、第1の光電変換部41を透過して反射部43で反射されて第1の光電変換部41に再入射するので、第1の光電変換部41は、反射された第1の光束61を光電変換して電荷を生成する。
 こうして、第1の光電変換部41は、第1の光束61および第2の光束62を光電変換した電荷と、反射部43によって反射された第1の光束61を光電変換した電荷とを生成する。画素10は、第1の光電変換部41により生成されたこれらの電荷による信号を、第1の光電変換信号S1として出力する。
 第2の光束62は、第1の光電変換部41の通過後に透明絶縁膜46を通って第2の光電変換部42に入射するので、第2の光電変換部42は、第2の光束62を光電変換して電荷を生成する。画素10は、第2の光電変換部42により生成された電荷による信号を、第2の光電変換信号S2として出力する。
 図1に示した焦点検出部21cは、第1の光束61による第1の像と第2の光束62による第2の像との像ズレを、第1の像を光電変換した第1の焦点検出信号と第2の像を光電変換した第2の焦点検出信号との位相差として検出するものである。本実施の形態にあっては、図4において、第1の光束61による第1の像を光電変換した第1の焦点検出信号として、反射部43によって反射された第1の光束61を光電変換して生成された第1の光電変換信号S1を使用する。第2の光束62による第2の像を光電変換した第2の焦点検出信号として、第2の光電変換部42に入射した第2の光束62を光電変換して生成された第2の光電変換信号S2を使用する。
 ところが、第1の光電変換部41が生成した電荷に基づく第1の光電変換信号S1は、上述の反射部43によって反射された第1の光束61を光電変換した信号と、第1の光電変換部41に入射した第1及び第2の光束61、62をそれぞれ光電変換した信号とを加算したものである。従って、第1の光電変換信号S1から、第1の光電変換部41に入射した第1及び第2の光束61、62をそれぞれ光電変換して生成された光電変換信号を、ノイズ成分として、除去する必要がある。
 このため、ボディ制御部21の補正部21bは、詳細は後述するが、第1の光電変換信号S1からノイズ成分を排除する補正処理を行う。補正部21bは、第1の光電変換信号S1に対してノイズ成分除去の補正処理を行って、反射部43によって反射されて第1の光電変換部41に再入射した第1の光束61を光電変換した電荷に基づく信号(補正後の第1の光電変換信号S1)を第1の焦点検出信号として生成する。ボディ制御部21の焦点検出部21cは、補正後の第1の光電変換信号S1からなる第1の焦点検出信号と、第2の光電変換信号S2からなる第2の焦点検出信号とに基づき焦点検出を行う、即ち、第1及び第2の焦点検出信号に対して相関演算処理を行い、デフォーカス量を算出する。
 次に、補正部21bによる補正処理の説明のために、第1及び第2の光束61、62に対する第1及び第2の光電変換信号S1、S2の大きさを概算する。第1の光電変換部41に入射する第1の光束61の光強度(光量)をAとし、第1の光電変換部41に入射した光束を光電変換する際の変換係数をkとし、第1の光電変換部41に入射した光のうち第1の光電変換部41において吸収される割合をαとすると、第1の光電変換部41に直接入射する第1の光束61を光電変換した光電変換信号はkαAとなる。また、マイクロレンズ44を介して第1の光電変換部41に入射して吸収される第1の光束61の光強度はαAとなる。また、第1の光電変換部41を透過した第1の光束61はすべて反射部43で反射されて第1の光電変換部41に再入射されるとすると、第1の光電変換部41に再入射した光を光電変換した電荷に基づく信号はk(A-αA)となる。
 また、第1の光電変換部41に入射する第2の光束62の光強度(光量)をBとすると、第1の光電変換部41に直接入射する第2の光束62を光電変換した電荷に基づく信号はkαBとなる。このため、第1の光電変換部41により変換された電荷に基づく第1の光電変換信号S1は、次式で表すことができる。
 S1=kαA+k(A-αA)+kαB
   =k(1-α)A+kαA+kαB ……式(1)           
 式(1)において、k(1-α)Aは、上述のように、反射部43で反射され第1の光電変換部41に再入射した第1の光束61を光電変換して生成された光電変換信号であり、第1の焦点検出信号に相当する。また、式(1)において、(kαA+kαB)がノイズ成分である。このノイズ成分(kαA+kαB)を算出するために、第2の光電変換信号S2を使用する。第2の光電変換信号S2は、以下のように概算することができる。
 マイクロレンズ44を介して第1の光電変換部41に入射して吸収される第2の光束62の光強度はαBとなる。また、第2の光電変換部42に入射した光束を光電変換する際の変換係数を、第1の光電変換部41の変換係数と同一の値kとし、第1の光電変換部41を透過した第2の光束62はすべて第2の光電変換部42に入射するとする。第2の光電変換部42により第2の光束62を光電変換した電荷に基づく第2の光電変換信号S2は、次式で表すことができる。
 S2=k(B-αB)
   =k(1-α)B ……式(2)
 第1の光電変換部41についての変換係数kおよび第1の光電変換部41の吸収割合αの値は、第1の光電変換部41の量子効率や基板の厚み等によって決まる既知の値である。そこで、ボディ制御部21は、式(1)及び式(2)を用いて第1及び第2の光束61、62の光強度A、Bを算出すると共に、算出した光強度A、Bに基づきノイズ成分(kαA+kαB)を算出する。
 補正部21bは、算出されたノイズ成分(kαA+kαB)を、第1の光電変換信号S1から減算することにより、k(1-α)Aを算出する。即ち、補正部21bは、第1の光電変換信号S1からノイズ成分(kαA+kαB)を除去して、反射部43により反射されて第1の光電変換部41に再入射した第1の光束61による信号成分であるk(1-α)Aを、補正後の第1の光電変換信号S1として抽出する。なお、第1及び第2の光電変換部41、42に関する変換係数kや第1の光電変換部41の吸収割合αの値は、第1及び第2の光電変換部41、42の量子効率や基板の厚み等によって決まるため、それぞれの値は予め算出することができる。変換係数kおよび吸収割合αの値は、ボディ制御部21の内部のメモリ等に記録されている。
 焦点検出部21cは、補正後の第1の光電変換信号S1を第1の焦点検出信号とし、第2の光電変換信号S2を第2の焦点検出信号とし、第1及び第2の焦点検出信号に対して撮像光学系3の合焦位置を求めるため相関演算を行う。焦点検出部21cは、この相関演算によって、第1の瞳領域61を通過した第1の光束による像と第2の瞳領域62を通過した第2の光束による像とのズレ量を算出する。そして、焦点検出部21cは、像のズレ量に所定の変換係数を乗算することによって、デフォーカス量を算出する。このような瞳分割型の位相差検出方式によるデフォーカス量演算は公知であるので、詳細な説明は省略する。
 なお、図3及び図4では、反射部43は、第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域に配置され、透明絶縁膜46は、第1の光電変換部41及び第2の光電変換部42のそれぞれのほぼ右半分の領域に配置された。この代わりに、反射部43を、第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ右半分の領域に配置し、透明絶縁膜46を、第1の光電変換部41及び第2の光電変換部42のそれぞれのほぼ左半分の領域に配置してもよい。この場合は、式(1)及び式(2)は、AとBとが入れ替わることになる。
 また、画素群402のうちの一つ置きに配置されたG画素10は、その反射部43を第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域(又は右半分の領域)に配置し、画素群402のうちの一つ置きに配置されたB画素10は、その反射部43を第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ右半分の領域(又は左半分の領域)に配置してもよい。画素群401のうちの一つ置きに配置されたR画素10及びG画素10についても同様である。
 次に、図1に示したボディ制御部21の画像データ生成部21aについて説明する。ボディ制御部21の画像データ生成部21aは、第1の光電変換信号S1と第2の光電変換信号S2とを加算して撮像信号S3を生成する。即ち、撮像信号S3は、式(1)の第1の光電変換信号S1と式(2)の第2の光電変換信号S2とを加算することによって、次式(3)で表される。
 S3=k(A+B) ……式(3)
 こうして、撮像信号S3は、撮像光学系3の第1及び第2の瞳領域をそれぞれ通過した第1及び第2の光束61、62の光強度A、Bを加算した値に関連した値になる。画像データ生成部21aは、撮像信号S3に基づき、画像データを生成する。
 なお、本実施の形態の光電変換信号S1は、従来の撮像素子、即ち、反射部を有しないものと比べて、信号レベルが大幅に向上している。詳述すると、第1及び第2の光束61、62を光電変換部で受光すると、その光電変換部からの光電変換信号は、kα(A+B)になる。他方、本実施の形態の光電変換信号は、式(1)に示したように、k(1-α)A+kαA+kαBである。本実施の形態の光電変換信号S1は、kα(A+B)よりも、k(1-α)Aだけ大きい。
 また、以上の説明では、撮像信号S3は、ボディ制御部21の画像データ生成部21aにおいて第1の光電変換信号S1と第2の光電変換信号S2とを加算して、生成されるものであった。しかしながら、第1の光電変換信号S1と第2の光電変換信号S2との加算は、図5及び図6を用いて後に詳述するように、撮像素子22内で行ってもよい。また、画像データ生成部21aは、第1の光電変換信号S1のみを撮像信号として用いるようにしてもよい。この場合には、補正部21bが第1の光電変換信号S1から式(1)のk(1-α)Aの信号成分を減算するようにしてもよい。
 図5は、第1の実施の形態に係る撮像素子22の構成例を示す回路図である。撮像素子22は、複数の画素10と、画素垂直駆動部70とを備える。画素10は、上述した第1の光電変換部41および第2の光電変換部42と、読み出し部20とを有する。読み出し部20は、第1の転送部11と、第2の転送部12と、第1のフローティングディフュージョン(以下、FDと称する)15と、第2のFD16と、排出部17(リセット部)と、増幅部18と、第1及び第2の接続部51、52とを有する。画素垂直駆動部70は、信号TX1、信号TX2、信号RSTなどの制御信号を各画素10に供給して、各画素10の動作を制御する。なお、図5に示す例では、説明を簡略化するために1画素のみ図示している。
 第1の転送部11は、信号TX1により制御され、第1の光電変換部41で光電変換された電荷を第1のFD15に転送する。すなわち、第1の転送部11は、第1の光電変換部41および第1のFD15の間に電荷転送路を形成する。第2の転送部12は、信号TX2により制御され、第2の光電変換部42で光電変換された電荷を第2のFD16に転送する。すなわち、第2の転送部12は、第2の光電変換部42および第2のFD16の間に電荷転送路を形成する。第1のFD15および第2のFD16は、図6を用いて後述するが、接続部51、52を介して電気的に接続され、電荷を保持(蓄積)する。
 増幅部18は、第1のFD15および第2のFD16に保持された電荷による信号を増幅して出力する。増幅部18は、垂直信号線30に接続され、不図示の電流源を負荷電流源としてソースフォロワ回路の一部として機能する。排出部17は、信号RSTにより制御され、第1のFD15および第2のFD16の電荷を排出し、第1のFD15および第2のFD16の電位をリセット電位(基準電位)にリセットする。第1の転送部11、第2の転送部12、排出部17、および増幅部18は、例えば、それぞれトランジスタM1、トランジスタM2、トランジスタM3、トランジスタM4により構成される。
 信号TX1をハイレベル、信号TX2をローレベルにすることで、トランジスタM1がオン状態になり、トランジスタM2がオフ状態になる。これにより、第1のFD15および第2のFD16には、第1の光電変換部41により生成された電荷が転送される。読み出し部20は、第1の光電変換部41により生成された電荷に基づく信号、すなわち第1の光電変換信号S1を垂直信号線30に読み出す。また、信号TX1をローレベル、信号TX2をハイレベルにすることで、トランジスタM1がオフ状態になり、トランジスタM2がオン状態になる。これにより、第1のFD15および第2のFD16には、第2の光電変換部42により生成された電荷が転送される。読み出し部20は、第2の光電変換部42により蓄積された電荷に基づく信号、すなわち第2の光電変換信号S2を垂直信号線30に読み出す。
 さらに、信号TX1および信号TX2を共にハイレベルにすることで、第1のFD15および第2のFD16には、第1の光電変換部41および第2の光電変換部42により生成された電荷が共に転送される。これにより、読み出し部20は、第1の光電変換部41により生成された電荷と、第2の光電変換部42により生成された電荷とを加算して生成された加算信号、すなわち撮像信号S3を垂直信号線30に読み出す。このように、画素垂直駆動部70は、第1の転送部11および第2の転送部12のオンオフ制御を行うことにより、第1の光電変換信号S1および第2の光電変換信号S2を順次出力させることができる。また、画素垂直駆動部70は、第1の光電変換部41により生成された電荷と、第2の光電変換部42により生成された電荷とを加算して、撮像信号S3を出力させることができる。
 なお、信号TX1および信号TX2を共にハイレベルにすることで、撮像信号S3を読み出す場合に、信号TX1と信号TX2とを必ずしも同時にハイレベルにする必要はない。即ち、信号TX1をハイレベルにするタイミングと信号TX2をハイレベルにするタイミングとをずらしても、第1の光電変換部41により生成された電荷と、第2の光電変換部42により生成された電荷とを加算することができる。
 図6は、第1の実施の形態に係る撮像素子22の断面構造の一例を示す図である。図7は、第1の実施の形態に係る撮像素子22の構成例を示す図である。撮像素子22は、第1基板111と、第2基板112とを備える。第1基板111および第2基板112は、それぞれ半導体基板により構成される。第1基板111には、配線層101が積層されており、第2基板112には、配線層102が積層されている。配線層101および配線層102は、導体膜(金属膜)および絶縁膜を含み、複数の配線やビア、コンタクトなどが配置される。導体膜には、例えば、銅やアルミニウム等が用いられる。絶縁膜は、例えば、酸化膜や窒化膜などで構成される。図6および図7に示すように、各画素10が配置される画素領域210の周囲には、複数の貫通電極201が設けられる。また、貫通電極201に対応して電極PAD202が設けられる。なお、図6では、貫通電極201および電極PAD202を第1基板111に設ける例について示したが、貫通電極201および電極PAD202を第2基板112に設けるようにしてもよい。
 画素10には、上述したように、第1の光電変換部41と、第2の光電変換部42と、反射部43と、マイクロレンズ44と、カラーフィルタ45と、読み出し部20とが設けられる。読み出し部20の第1のFD15および第2のFD16は、コンタクト53、54と、接続部51、52とを介して電気的に接続されている。接続部51および接続部52は、例えばバンプや電極等である。
 読み出し部20から図5に示す垂直信号線30へ出力された各画素10の信号は、例えば、第1基板111に設けられた不図示の演算回路によってA/D変換等の信号処理が行われる。演算回路は、信号処理後の各画素10の信号を、貫通電極201および電極PAD202を介してボディ制御部21に読み出す。
 次に、本実施の形態の動作を説明する。電子カメラ1は、操作部25によって電源スイッチが操作されると、撮像素子22から第1の光電変換信号S1、第2の光電変換信号S2、及び第1及び第2の光電変換信号の加算信号、即ち撮像信号S3が、順次読み出される。ボディ制御部21は、読み出された第1及び第2の光電変換信号S1、S2と、ボディ制御部21の内部のメモリ等に記録されている変換係数kや吸収割合αの値とに基づき、ノイズ成分(kαA+kαB)を算出する。
 補正部21bは、読み出された第1の光電変換信号S1からノイズ成分(kαA+kαB)を減算して、補正後の第1の光電変換信号S1を生成する。焦点検出部21cは、補正後の第1の光電変換信号S1を第1の焦点検出信号とし、第2の光電変換信号S2を第2の焦点検出信号とし、第1及び第2の焦点検出信号に基づき、位相差式焦点検出演算を行い、デフォーカス量を算出する。レンズ制御部32は、このデフォーカス量に基づき、撮像光学系31の焦点調節レンズを合焦位置に移動して焦点調節する。なお、焦点調節は、焦点調節レンズを移動する代わりに、撮像素子22を撮像光学系31の光軸方向に移動しても良い。
 画像データ生成部21aは、撮像素子22から読み出された撮像信号S3に基づき、スルー画像用の画像データ、及び本撮影の記録用の画像データをそれぞれ生成する。スルー画像用の画像データは、表示部24に表示され、本撮影の記録用の画像データは、メモリ23に記録される。
 画素の微細化が進むと、画素の開口が小さくなる。このため、画素の微細化が進むと、画素の開口の大きさが光の波長よりも小さく(短く)なり、位相差検出のために光の入射面において遮光膜を設けた焦点検出用画素では、光電変換部(フォトダイオード)に光が入射しない可能性がある。赤色の波長域の光は、他の色(緑色、青色)の光に比べて波長が長いため、遮光膜を用いた焦点検出用画素では、赤色の光が光電変換部に入射しないことが起こりやすい。このため、遮光膜を用いた焦点検出用画素では、光電変換部で光電変換される電荷が減り、画素の信号を用いて光学系の焦点検出を行うことが困難となる。とくに、長波長の光(赤色の光等)を光電変換して焦点検出を行うことが難しくなる。
 一方、本実施の形態では、反射部(反射膜)43を設けた画素を用いるため、遮光膜を用いた焦点検出用画素と比べて、画素の開口を大きくすることができる。これにより、本実施の形態では、長波長の光が光電変換部に入射するため、長波長の光でも焦点検出を行うことができる。このため、反射膜43を設けた画素は、撮像素子22で光電変換する光の波長域のうちの長波長域に適した焦点検出用画素といえる。例えば、R、G、Bの画素の一部に反射膜43を設けて使用する場合に、R画素に反射膜43を設けるようにしてもよい。
 上述した実施の形態によれば、次の作用効果が得られる。
(1)撮像素子22は、結像光学系31を通過した第1の光束61及び第2の光束62が入射するマイクロレンズ44と、マイクロレンズ44を透過した第1の光束61及び第2の光束62が入射する第1の光電変換部41と、第1の光電変換部41を透過した第1の光束61及び第2の光束62のいずれか一方を第1の光電変換部41に向けて反射する反射部43と、第1の光電変換部41を透過した第1の光束61及び第2の光束62のいずれか他方が入射する第2の光電変換部42とを有する複数の画素10が配置される。画素は、第1の光電変換部41からの信号と第2の光電変換部42からの信号とを焦点検出信号として出力する。本実施の形態では、第1の光電変換部41は、反射部43によって反射された第1の光束61に基づく電荷を生成し、第2の光電変換部42は、第2の光束62に基づく第2の光電変換信号を生成する。このため、第1の光電変換部41の電荷に基づく第1の光電変換信号S1および第2の光電変換部42の電荷に基づく第2の光電変換信号S2を用いることで、第1の光束61及び第2の光束62による像の位相差情報を得ることができる。
(2)第1の光束61及び第2の光束62は、結像光学系31の瞳の第1の領域及び第2の領域をそれぞれ通過した光束であり、反射部43の位置と結像光学系31の瞳の位置とは、マイクロレンズ44に関して共役な位置関係である。このようにしたので、異なる瞳領域を介して入射された一対の光束による像の位相差情報を得ることができる。
(3)撮像素子22は、第1の光電変換部41により変換された電荷を蓄積する第1の蓄積部(第1のFD15)と、第2の光電変換部42により変換された電荷を蓄積する第2の蓄積部(第2のFD16)と、第1の蓄積部と第2の蓄積部とを接続する接続部(接続部51、52)と、を備える。このようにしたので、第1の光電変換部41により変換された電荷と、第2の光電変換部42により変換された電荷とを加算させることができる。
(4)撮像素子22は、第1の光電変換部41により変換された電荷を第1の蓄積部(第1のFD15)に転送する第1の転送部11と、第2の光電変換部42により変換された電荷を第2の蓄積部(第2のFD16)に転送する第2の転送部12と、第1の転送部11および第2の転送部12を制御して、第1の光電変換部41により変換された電荷に基づく信号と第2の光電変換部42により変換された電荷に基づく信号とを順次出力させる第1の制御と、第1の光電変換部41により変換された電荷と第2の光電変換部42により変換された電荷とを加算した電荷に基づく信号を出力させる第2の制御とを行う制御部(画素垂直駆動部70)と、を備える。このようにしたので、第1の光電変換信号S1および第2の光電変換信号S2を順次出力させることができる。また、第1の光電変換部41により生成された電荷と、第2の光電変換部42により生成された電荷とを加算して、撮像信号S3を出力させることができる。このため、撮像素子22に設けられる全ての画素10を、撮像信号を生成するための撮像用画素と、焦点検出信号を生成するための焦点検出用画素との両方に用いることができる。この結果、各画素10が撮像用画素としては欠陥画素となることを防ぐことができる。
(5)焦点検出装置は、撮像素子22と、第1の光電変換部41からの信号と第2の光電変換部42からの信号とに基づき結像光学系31の焦点検出を行う焦点検出部21cと、を備える。このようにしたので、第1の光束61及び第2の光束62による像の位相差情報を得ることができ、撮像光学系31の焦点検出を行うことができる。
(第2の実施の形態)
 図8を参照して、第2の実施の形態に係る撮像素子を説明する。図8は、第2の実施の形態に係る撮像素子22の画素の構成例を示す概念図である。第2の実施の形態と第1の実施の形態との主な相違は、以下の通りである。第1の実施の形態にあっては、図3に示したように、画素群402について、一つ置きに配置されたG画素10及びB画素10は、その反射部43が全て第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域に配置されている。第2の実施の形態では、画素群402のうちの一つ置きに配置されたG画素10は、その反射部43が第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域及びほぼ右半分の領域に交互に配置されている。画素群402のうちの一つ置きに配置されたB画素10も、同様に、その反射部43が第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域及びほぼ右半分の領域に交互に配置されている。その他の構成は、第1の実施の形態と同一である。以下に詳細に説明する。
 図8において、G画素10は、2種のG画素、即ち第1のG画素10Gと第2のG画素10gとからなり、第1のG画素10Gと第2のG画素10gとは、両者の間にB画素を挟んで、互いに交互に配置されている。第1のG画素10Gは、その反射部43が第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域に位置し、第2のG画素10gは、その反射部43が第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ右半分の領域に位置する。第1及び第2のG画素10G、10gは、それぞれの反射部43以外の他の構成は同一である。
 B画素10は、2種のB画素、即ち第1のB画素10Bと第2のB画素10bとからなり、第1のB画素10Bと第2のB画素10bとは、両者の間にG画素を挟んで、互いに交互に配置されている。第1のB画素10Bは、その反射部43が第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ左半分の領域に位置し、第2のB画素10bは、その反射部43が第1の光電変換部41および第2の光電変換部42のそれぞれのほぼ右半分の領域に位置する。第1及び第2のG画素10G、10gは、反射部43以外の他の構成は同一である。
 画素群401内のR画素10及びG画素10も、画素群402内の第1及び第2のB画素10B、10b及び第1及び第2のG画素10G、10gと同様の構成の第1のR画素と第2のR画素、及び第1のG画素と第2のG画素を有する。
 次に、図8に示した画素群402の第1及び第2のG画素10G、10gの第1及び第2の光電変換信号S1、S2と、第1及び第2の光束61、62による第1及び第2の像を光電変換した第1及び第2の焦点検出信号との関係を説明する。第1及び第2のB画素、R画素の第1及び第2の光電変換信号S1、S2と、第1及び第2の光束61、62による第1及び第2の像を光電変換した第1及び第2の焦点検出信号との関係も第1及び第2のG画素10G、10gの場合と同様である。
 第1のG画素10Gは、図3に示した第1の実施の形態のG画素10の場合と全く同様に、第1の光電変換部41が第1の光電変換信号S1Gを出力し、第2の光電変換部42が第2の光電変換信号S2Gを出力する。この第1のG画素10Gの第1の光電変換信号S1Gは、上記の式(1)で表され、第2の光電変換信号S2Gは、上記の式(2)で表される。即ち、第1及び第2の光電変換信号S1G、S2Gは、次式で表される。
 S1G=k(1-α)A+kαA+kαB ……式(1G)
 S2G=k(1-α)B         ……式(2G)
 他方、第2のG画素10gは、第1の光電変換部41が第1の光電変換信号S1gを出力し、第2の光電変換部42が第2の光電変換信号S2gを出力する。この第2のG画素10gの第1及び第2の光電変換信号S1g、S2gは、上記の式(1)及び式(2)でAとBとが入れ替わった以下の式(4)及び式(5)で表される。
 S1g=k(1-α)B+kαA+kαB ……式(4)
 S2g=k(1-α)A         ……式(5)
 ボディ制御部21は、図3に示した第1の実施の形態のG画素10の場合と全く同様に、式(1G)及び式(2G)から第1のG画素10Gに入射した第1及び第2の光束61、62の光強度A、Bを算出すると共に、算出した光強度A、Bに基づき第1のG画素10Gのノイズ成分(kαA+kαB)を算出する。
 また、ボディ制御部21は、式(4)及び式(5)から第2のG画素10gに入射した第1及び第2の光束61、62の光強度A、Bを算出すると共に、算出した光強度A、Bに基づき第2のG画素10gのノイズ成分(kαA+kαB)を算出する。
 補正部21bは、第1のG画素10Gの第1の光電変換信号S1Gから第1のG画素10Gのノイズ成分(kαA+kαB)を減算して、補正後の第1の光電変換信号S1G(=k(1-α)A)を算出する。同様に、補正部21bは、第2のG画素10gの第1の光電変換信号S1gから第2のG画素10gのノイズ成分(kαA+kαB)を減算して、補正後の第1の光電変換信号S1g(=k(1-α)B)を算出する。
 このように、第1のG画素10Gについて、補正後の第1の光電変換信号S1Gがk(1-α)Aであり、第2の光電変換信号S2Gがk(1-α)B である。他方、第2のG画素10gについて、補正後の第1の光電変換信号S1gがk(1-α)Bであり、第2の光電変換信号S2gがk(1-α)Aである。
 従って、第1の焦点検出信号は、第1のG画素10Gの補正後の第1の光電変換信号S1G(=k(1-α)A)と、第2のG画素10gの第2の光電変換信号S2g(=k(1-α)A)とから構成される。また、第2の焦点検出信号は、第1のG画素10Gの第2の光電変換信号S2G(=k(1-α)B)と、第2のG画素10gの補正後の第1の光電変換信号S1g(=k(1-α)B)とから構成される。
 図1に示した焦点検出部21cは、第1の焦点検出信号と第2の焦点検出信号とに基づき、撮像光学系31のデフォーカス量を算出する。即ち、焦点検出部21cは、第1のG画素10Gの補正後の第1の光電変換信号S1G及び第2のG画素10gの第2の光電変換信号S2gと、第1のG画素10Gの第2の光電変換信号S2G及び第2のG画素10gの補正後の第1の光電変換信号S1gとに基づき、デフォーカス量を算出する。
 第1のG画素10Gの撮像信号S3Gは、式(1G)の第1の光電変換信号S1Gと式(2G)の第2の光電変換信号S2Gとを加算することによって、k(A+B)となる。同様に、第2のG画素10gの撮像信号S3gは、式(4)の第1の光電変換信号S1gと式(5)の第2の光電変換信号S2gとを加算することによって、k(A+B)となる。
 図1に示した画像データ生成部21aは、第1及び第2のG画素、第1及び第2のB画素、及び第1及び第2のR画素の撮像信号S3に基づき、スルー画像用の画像データ、及び本撮影の記録用の画像データをそれぞれ生成する。
 第2の実施の形態の動作は、上述した第1の実施の形態の動作と実質的に同一であるので、説明を省略する。
 第2の実施の形態にあっては、第1のG画素10Gと第2のG画素10gとは、両者の間にB画素を挟んで、互いに交互に配置されているが、必ずしも交互に配置される必要は無い。第1及び第2のB画素の交互配置と第1及び第2のR画素の交互配置も、同様である。
 上述した実施の形態によれば、次の作用効果が得られる。
(1)複数の画素10は、第1の方向に配置された第1画素(例えば画素10G)及び第2画素(例えば画素10g)を含む。第1画素10Gは、マイクロレンズ44と、第1の光電変換部41と、第1の光電変換部41を透過した第1の光束61を第1の光電変換部41に向けて反射する反射部43と、第1の光電変換部41を透過した第2の光束62が入射する第2の光電変換部42とを有する。第2画素10gは、マイクロレンズ44と、第1の光電変換部41と、第1の光電変換部41を透過した第2の光束62を第1の光電変換部41に向けて反射する反射部43と、第1の光電変換部41を透過した第1の光束61が入射する第2の光電変換部42とを有する。このため、第1画素10Gの第1の光電変換部41の信号及び第2画素10gの第2の光電変換部42の信号と、第1画素10Gの第2の光電変換部42の信号及び第2画素10gの第1の光電変換部41の信号とを用いることで、第1の光束61及び第2の光束62による像の位相差情報を得ることができる。
(2)焦点検出装置は、撮像素子22と、第1画素10Gの第1の光電変換部41の信号及び第2画素10gの第2の光電変換部42の信号と、第1画素10Gの第2の光電変換部42の信号及び第2画素10gの第1の光電変換部41の信号とに基づき結像光学系31の焦点検出を行う焦点検出部21cと、を備える。このようにしたので、第1の光束61及び第2の光束62による像の位相差情報を得ることができ、撮像光学系31の焦点検出を行うことができる。
 次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
 図9は、変形例1に係る撮像素子22の断面構造の一例を示す図である。変形例1の撮像素子は、第1の実施の形態の撮像素子とは、第1基板111および第2基板112の積層構造が異なる。第1基板111には、配線層101および配線層103が積層されており、第2基板112には、配線層102および配線層104が積層されている。配線層103には、接続部51およびコンタクト53が設けられ、配線層104には、接続部52およびコンタクト54が設けられる。
 第1基板111には、n型の不純物を用いて形成される拡散層55が設けられ、第2基板112には、n型の不純物を用いて形成される拡散層56が設けられる。拡散層55および拡散層56は、それぞれ第1のFD15、第2のFD16に接続される。これにより、第1のFD15および第2のFD16は、拡散層55、56と、コンタクト53、54と、接続部51、52とを介して電気的に接続される。
 第1の実施の形態では、図6および図7で示したように、各画素10の信号は、第1基板111と第2の基板112との間の配線層101に読み出される。このため、第1の実施の形態では、各画素10の信号をボディ制御部21に読み出すために、複数の貫通電極201を設ける必要がある。変形例1では、各画素10の信号は、第1基板111の上方の配線層101に読み出される。このため、貫通電極201を設ける必要がなく、各画素10の信号を、電極PAD202を介してボディ制御部21に読み出すことができる。
(変形例2)
 上述の第1の実施の形態では、補正部21bが第1の光電変換信号S1からノイズ成分(kαA+kαB)を除去するために、ボディ制御部21は、第1の光電変換信号S1と第2の光電変換信号S2とに基づき、ノイズ成分(kαA+kαB)を算出した。変形例2では、撮像素子22の構成が異なるものである。変形例2の撮像素子にあっては、図3及び図4に示した画素群401、402の各々の周囲に、マイクロレンズ44及び色フィルタ45の下に一つの光電変換部が配置された撮像画素が散在されている。この場合には、ボディ制御部21は、撮像画素の光電変換信号に基づき式(1)の(kαA+kαB)を算出し、補正部21bは、式(1)の第1の光電変換信号S1から(kαA+kαB)を減算して、補正後の光電変換信号S1、即ちk(1-α)Aを算出する。
(変形例3)
  上述した実施の形態では、図5に示したように、排出部17および増幅部18を、第1の光電変換部41および第2の光電変換部42で共有する構成例について説明した。しかし、光電変換部毎に、排出部17および増幅部18を備える構成にしてもよい。
(変形例4)
 上述した実施の形態および変形例では、光電変換部としてフォトダイオードを用いる例について説明した。しかし、光電変換部として光電変換膜を用いるようにしてもよい。
(変形例5)
 一般に、撮像素子22に用いられるシリコン基板等の半導体基板では、入射する光の波長の長さによって透過率が異なる特性を有する。例えば、波長が長い光(赤色の光)は、波長が短い光(緑色の光、青色の光)に比べて光電変換部を透過しやすい。波長が短い光(緑色の光、青色の光)は、波長が長い光(赤色の光)に比べて光電変換部を透過しにくい。即ち、波長が短い光は、波長が長い光に比べて光電変換部において到達する深さが浅い。このため、波長が短い光は、光が入射する方向(図3ではZ軸方向)において、半導体基板の浅い領域、即ち光電変換部の浅い部分(図3では-Z方向側)で光電変換される。波長が長い光は、光が入射する方向において、半導体基板の深い領域、即ち光電変換部の深い部分(図3では+Z方向側)で光電変換される。このため、反射膜43の位置(Z軸方向における位置)をR、G、Bの画素毎に変えてもよい。例えば、B画素には、G画素及びR画素に比べて浅い位置(G画素及びR画素に比べて-Z方向側の位置)に反射膜を配置し、G画素には、B画素に比べて深く(B画素に比べて+Z方向側の位置)R画素に比べて浅い位置(R画素に比べて-Z方向側の位置)に反射膜を配置し、R画素には、G画素及びB画素に比べて深い位置(G画素及びB画素に比べて+Z方向側の位置)に反射膜を配置してもよい。
(変形例6)
 一般に、撮像素子22の撮像面の中央部には、撮像光学系31の射出瞳を通過した光がほぼ垂直に入射するのに対し、中央部より外側に位置する周辺部、即ち撮像面の中央から離れた領域には、光が斜めに入射する。このため、各画素の反射膜43の面積や位置を、撮像素子22における画素の位置(例えば像高)によって異なるように構成してもよい。また、撮像素子22の撮像面の中央部と周辺部とでは、撮像光学系31の射出瞳の位置や射出瞳距離が異なる。このため、各画素の反射膜43の面積や位置を射出瞳の位置や射出瞳距離によって異なるように構成してもよい。これにより、撮像光学系31を介して光電変換部に入射する光量を多くすることや、光が斜めに入射する場合でもその状態において瞳分割を適切に行うことができる。
(変形例7)
 上述の実施の形態および変形例で説明した撮像素子22は、カメラ、スマートフォン、タブレット、PCに内臓のカメラ、車載カメラ、無人航空機(ドローン、ラジコン機等)に搭載されるカメラ等に適用されてもよい。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2016年第192250号(2016年9月29日出願)
2…カメラボディ、3…交換レンズ、21…ボディ制御部、21a…画像データ生成部、21b…補正部、21c…焦点検出部、22…撮像素子、31…撮像光学系、41…第1の光電変換部、42…第2の光電変換部、43…反射部、44…マイクロレンズ

Claims (15)

  1.  結像光学系を通過した第1の光束及び第2の光束が入射するマイクロレンズと、
     前記マイクロレンズを透過した前記第1の光束及び第2の光束が入射する第1の光電変換部と、
     前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか一方を前記第1の光電変換部に向けて反射する反射部と、
     前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか他方が入射する第2の光電変換部とを有する複数の画素が配置され、
     前記画素は、前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とを焦点検出信号として出力する撮像素子。
  2.  請求項1に記載の撮像素子において、
     前記第1の光束及び前記第2の光束は、前記結像光学系の瞳の第1の領域及び第2の領域をそれぞれ通過した光束であり、
     前記反射部の位置と前記結像光学系の瞳の位置とは、前記マイクロレンズに関して共役な位置関係である撮像素子。
  3.  請求項1または請求項2に記載の撮像素子において、
     前記画素は、前記第1の光電変換部を透過した前記第1の光束及び前記第2の光束のいずれか他方を透過する透過部を有し、
     前記反射部と前記透過部とは、前記第1の光電変換部と前記第2の光電変換部との間において互いに異なる領域に設けられる撮像素子。
  4.  請求項1から請求項3までのいずれか一項に記載の撮像素子において、
     前記第1の光電変換部により変換された電荷を蓄積する第1の蓄積部と、
     前記第2の光電変換部により変換された電荷を蓄積する第2の蓄積部と、
     前記第1の蓄積部と前記第2の蓄積部とを接続する接続部と、を備える撮像素子。
  5.  請求項4に記載の撮像素子において、
     前記第1の光電変換部により変換された電荷を前記第1の蓄積部に転送する第1の転送部と、
     前記第2の光電変換部により変換された電荷を前記第2の蓄積部に転送する第2の転送部と、
     前記第1の転送部および前記第2の転送部を制御して、前記第1の光電変換部により変換された電荷に基づく信号と前記第2の光電変換部により変換された電荷に基づく信号とを順次出力させる第1の制御と、前記第1の光電変換部により変換された電荷と前記第2の光電変換部により変換された電荷とを加算した電荷に基づく信号を出力させる第2の制御とを行う制御部と、を備える撮像素子。
  6.  請求項1から請求項5までのいずれか一項に記載の撮像素子において、
     前記第1の光電変換部が設けられる第1の基板と、
     前記第1の基板に積層され、前記第2の光電変換部が設けられる第2の基板と、を備え、
     前記反射部は、前記第1の光電変換部と前記第2の光電変換部との間に設けられる撮像素子。
  7.  請求項2から請求項6までのいずれか一項に記載の撮像素子において、
     前記複数の画素は、前記マイクロレンズと、前記第1の光電変換部と、前記第1の光電変換部を透過した前記第1の光束を前記第1の光電変換部に向けて反射する反射部と、前記第1の光電変換部を透過した前記第2の光束が入射する第2の光電変換部とを有する撮像素子。
  8.  請求項2から請求項6までのいずれか一項に記載の撮像素子において、
     前記複数の画素は、第1の方向に配置された第1画素及び第2画素を含み、
     前記第1画素は、前記マイクロレンズと、前記第1の光電変換部と、前記第1の光電変換部を透過した前記第1の光束を前記第1の光電変換部に向けて反射する反射部と、前記第1の光電変換部を透過した前記第2の光束が入射する第2の光電変換部とを有し、
     前記第2画素は、前記マイクロレンズと、前記第1の光電変換部と、前記第1の光電変換部を透過した前記第2の光束を前記第1の光電変換部に向けて反射する反射部と、前記第1の光電変換部を透過した前記第1の光束が入射する第2の光電変換部とを有する、撮像素子。
  9.  請求項1から請求項7までのいずれか一項に記載の撮像素子と、
     前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とに基づき前記結像光学系の焦点検出を行う焦点検出部と、
    を備える焦点検出装置。
  10.  請求項9に記載の焦点検出装置において、
     前記焦点検出部は、前記複数の画素の第1の光電変換部の信号と前記複数の画素の第2の光電変換部の信号との位相差を検出する焦点検出装置。
  11.  請求項8に記載の撮像素子と、
     前記第1画素の第1の光電変換部の信号及び前記第2画素の第2の光電変換部の信号と、前記第1画素の第2の光電変換部の信号及び前記第2画素の第1の光電変換部の信号とに基づき前記結像光学系の焦点検出を行う焦点検出部と、
    を備える焦点検出装置。
  12.  請求項11に記載の焦点検出装置において、
     前記焦点検出部は、前記第1画素の第1の光電変換部の信号及び前記第2画素の第2の光電変換部の信号と、前記第1画素の第2の光電変換部の信号及び前記第2画素の第1の光電変換部の信号との位相差を検出する焦点検出装置。
  13.  請求項1から請求項8までのいずれか一項に記載の撮像素子と、
     前記第2の光電変換部からの信号に基づき前記第1の光電変換部からの信号を補正する補正部と、
    を備える電子カメラ。
  14.  請求項1から請求項8までのいずれか一項に記載の撮像素子と、
     前記撮像素子の前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とに基づき画像データを生成する画像生成部と、
    を備える電子カメラ。
  15.  請求項14に記載の電子カメラにおいて、
     前記画像生成部は、前記撮像素子の前記第1の光電変換部からの信号と前記第2の光電変換部からの信号とを加算した加算信号を生成する電子カメラ。
     
PCT/JP2017/035749 2016-09-29 2017-09-29 撮像素子、焦点検出装置、及び、電子カメラ WO2018062558A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17856505.7A EP3522224A4 (en) 2016-09-29 2017-09-29 IMAGING ELEMENT, FOCAL DETECTION DEVICE AND ELECTRONIC CAMERA
JP2018542058A JP6693567B2 (ja) 2016-09-29 2017-09-29 撮像素子、焦点検出装置、及び、電子カメラ
US16/335,886 US20190258025A1 (en) 2016-09-29 2017-09-29 Image sensor, focus detection apparatus, and electronic camera
CN201780068186.6A CN109923670A (zh) 2016-09-29 2017-09-29 摄像元件、焦点检测装置及电子相机

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-192250 2016-09-29
JP2016192250 2016-09-29

Publications (1)

Publication Number Publication Date
WO2018062558A1 true WO2018062558A1 (ja) 2018-04-05

Family

ID=61760478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/035749 WO2018062558A1 (ja) 2016-09-29 2017-09-29 撮像素子、焦点検出装置、及び、電子カメラ

Country Status (5)

Country Link
US (1) US20190258025A1 (ja)
EP (1) EP3522224A4 (ja)
JP (1) JP6693567B2 (ja)
CN (1) CN109923670A (ja)
WO (1) WO2018062558A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138350A1 (ja) * 2018-12-26 2020-07-02 株式会社ニコン 交換レンズ、焦点検出装置、及び、カメラボディ
WO2021157250A1 (ja) * 2020-02-06 2021-08-12 ソニーセミコンダクタソリューションズ株式会社 受光素子、固体撮像装置及び電子機器
WO2022059635A1 (ja) * 2020-09-17 2022-03-24 パナソニックIpマネジメント株式会社 撮像装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11825196B2 (en) * 2020-08-07 2023-11-21 Canon Kabushiki Kaisha Image sensor and image capturing apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130231A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置、その制御方法、および制御プログラム
JP2014183206A (ja) * 2013-03-19 2014-09-29 Sony Corp 固体撮像装置および固体撮像装置の駆動方法ならびに電子機器
JP2015194706A (ja) * 2014-03-26 2015-11-05 キヤノン株式会社 焦点検出装置及びその制御方法
JP2016062996A (ja) * 2014-09-16 2016-04-25 株式会社東芝 光検出器
WO2016103365A1 (ja) * 2014-12-24 2016-06-30 オリンパス株式会社 固体撮像装置および撮像装置
JP2016127043A (ja) * 2014-12-26 2016-07-11 ソニー株式会社 固体撮像素子及び電子機器

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797606B2 (ja) * 2005-12-01 2011-10-19 株式会社ニコン 撮像装置
JP5526980B2 (ja) * 2010-04-26 2014-06-18 株式会社ニコン 撮像装置および撮像素子
TWI620445B (zh) * 2013-03-25 2018-04-01 Sony Corp 攝像元件及電子機器
JP6458343B2 (ja) * 2014-02-27 2019-01-30 株式会社ニコン 撮像装置
JP2016082306A (ja) * 2014-10-10 2016-05-16 キヤノン株式会社 撮像装置、撮像システム及び撮像装置の駆動方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130231A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置、その制御方法、および制御プログラム
JP2014183206A (ja) * 2013-03-19 2014-09-29 Sony Corp 固体撮像装置および固体撮像装置の駆動方法ならびに電子機器
JP2015194706A (ja) * 2014-03-26 2015-11-05 キヤノン株式会社 焦点検出装置及びその制御方法
JP2016062996A (ja) * 2014-09-16 2016-04-25 株式会社東芝 光検出器
WO2016103365A1 (ja) * 2014-12-24 2016-06-30 オリンパス株式会社 固体撮像装置および撮像装置
JP2016127043A (ja) * 2014-12-26 2016-07-11 ソニー株式会社 固体撮像素子及び電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3522224A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138350A1 (ja) * 2018-12-26 2020-07-02 株式会社ニコン 交換レンズ、焦点検出装置、及び、カメラボディ
JPWO2020138350A1 (ja) * 2018-12-26 2021-11-11 株式会社ニコン 交換レンズ、焦点検出装置、及び、カメラボディ
WO2021157250A1 (ja) * 2020-02-06 2021-08-12 ソニーセミコンダクタソリューションズ株式会社 受光素子、固体撮像装置及び電子機器
JP7437957B2 (ja) 2020-02-06 2024-02-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、固体撮像装置及び電子機器
WO2022059635A1 (ja) * 2020-09-17 2022-03-24 パナソニックIpマネジメント株式会社 撮像装置

Also Published As

Publication number Publication date
EP3522224A1 (en) 2019-08-07
JP6693567B2 (ja) 2020-05-13
JPWO2018062558A1 (ja) 2019-07-11
US20190258025A1 (en) 2019-08-22
CN109923670A (zh) 2019-06-21
EP3522224A4 (en) 2020-05-06

Similar Documents

Publication Publication Date Title
JP6791243B2 (ja) 撮像素子、及び、撮像装置
US8063978B2 (en) Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
JP5076416B2 (ja) 撮像素子および撮像装置
JP6693567B2 (ja) 撮像素子、焦点検出装置、及び、電子カメラ
CN105684436B (zh) 摄像元件以及摄像装置
JP2013157442A (ja) 撮像素子および焦点検出装置
JP5034936B2 (ja) 固体撮像素子及びこれを用いた撮像装置
JP2009063952A (ja) 撮像素子、焦点検出装置および撮像装置
JP6693568B2 (ja) 撮像素子、焦点検出装置、及び、撮像装置
WO2018181590A1 (ja) 撮像素子および撮像装置
JP6368999B2 (ja) 撮像素子および撮像装置
WO2018181585A1 (ja) 撮像素子および撮像装置
WO2018061863A1 (ja) 撮像素子および焦点調節装置
JP6929511B2 (ja) 撮像素子、及び、撮像装置
JP6750635B2 (ja) 撮像素子および撮像装置
WO2018181591A1 (ja) 撮像素子および撮像装置
JP7419975B2 (ja) 撮像素子、及び、撮像装置
JP7383876B2 (ja) 撮像素子、及び、撮像装置
JP7272423B2 (ja) 撮像素子および撮像装置
JP7283078B2 (ja) 撮像素子、及び、撮像装置
JP2010039106A (ja) 撮像素子、焦点検出装置および撮像装置
JP6268782B2 (ja) 撮像素子および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17856505

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018542058

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017856505

Country of ref document: EP

Effective date: 20190429