WO2020017654A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2020017654A1
WO2020017654A1 PCT/JP2019/028559 JP2019028559W WO2020017654A1 WO 2020017654 A1 WO2020017654 A1 WO 2020017654A1 JP 2019028559 W JP2019028559 W JP 2019028559W WO 2020017654 A1 WO2020017654 A1 WO 2020017654A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus detection
pixel
unit
signal
image
Prior art date
Application number
PCT/JP2019/028559
Other languages
English (en)
French (fr)
Inventor
鉄人 河津
祐起 喜多
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2020531397A priority Critical patent/JP7147846B2/ja
Publication of WO2020017654A1 publication Critical patent/WO2020017654A1/ja
Priority to JP2022151583A priority patent/JP2022184997A/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to an imaging device.
  • the imaging device photoelectrically converts the first light flux that has passed through the first region of the optical system and outputs a first signal based on the accumulated charge
  • An imaging unit having a second pixel that outputs a second signal based on charges accumulated by photoelectrically converting the second light flux that has passed through the second region, and moving the imaging unit to determine a position of the imaging unit.
  • a movement control unit that outputs position information, focusing of the optical system based on the position information output by the movement control unit, and the first signal and the second signal output by the imaging unit
  • a detection unit for detecting a state A detection unit for detecting a state.
  • the imaging device has a focus detection pixel that outputs a signal obtained by photoelectrically converting light from the optical system and accumulating, and an imaging element that moves in a direction that intersects the optical axis of the optical system, The position of the image sensor in the direction intersecting with the optical axis of the optical system, detects a plurality of times during the accumulation, a position detection unit that outputs a plurality of position information, and the signal output from the focus detection pixel A focus state detection unit that detects a focus state between the optical system and the image sensor in a plurality of regions on the image sensor from the position information.
  • FIG. 1 is a diagram illustrating a configuration example of an imaging device according to a first embodiment.
  • FIG. 3 is a diagram illustrating a focus detection area on an imaging surface of the imaging device according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of an arrangement of pixels in a focus detection area of the image sensor according to the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration example of a pixel of the image sensor according to the first embodiment.
  • FIG. 4 is a diagram for describing image blur correction by the imaging device according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of a process in the imaging device according to the first embodiment.
  • FIG. 3 is a diagram illustrating a small area in the image sensor according to the first embodiment.
  • FIG. 9 is a diagram illustrating a configuration example of a focus detection pixel of an imaging element according to a modification.
  • FIG. 1 is a diagram illustrating a configuration example of a camera 1 that is an example of an imaging device according to the first embodiment.
  • the camera 1 includes a camera body 2 and an interchangeable lens 3.
  • the camera 1 having the camera body 2 and the interchangeable lens 3 is also called a camera system.
  • the camera body 2 is provided with a body-side mount portion 201 to which the interchangeable lens 3 is attached.
  • the interchangeable lens 3 is provided with a lens-side mount portion 301 attached to the camera body 2.
  • the interchangeable lens 3 is detachably attached to the camera body 2 by a lens-side mount 301 and a body-side mount 201.
  • the lens-side mount portion 301 and the body-side mount portion 201 are provided with a lens-side connection portion 302 and a body-side connection portion 202 provided with a communication terminal group, respectively.
  • the lens-side connection portion 302 and the body-side connection portion 202 are provided with a plurality of terminals such as a clock signal terminal, a data signal terminal, and a power supply terminal.
  • a plurality of terminals provided on the body-side connection portion 202 and a plurality of terminals provided on the corresponding lens-side connection portion 302 are electrically connected. You. This enables power supply from the camera body 2 to the interchangeable lens 3 and communication between the camera body 2 and the interchangeable lens 3.
  • the interchangeable lens 3 includes a photographing optical system (imaging optical system) 31, a lens control unit 32, and a lens memory 33.
  • the photographing optical system 31 includes a plurality of lenses including a zoom lens (magnification lens) 31 a and a focus lens (focus adjustment lens) 31 b for changing the focal length, and an aperture 31 c, and an imaging surface of the imaging element 22 of the camera body 2.
  • a subject image is formed on 22a.
  • the imaging surface 22a of the imaging element 22 is a surface on which a photoelectric conversion unit described later is arranged or a surface on which a microlens is arranged.
  • the lens control unit 32 includes a processor such as a CPU, an FPGA, and an ASIC, and a memory such as a ROM and a RAM, and controls each unit of the interchangeable lens 3 based on a control program.
  • the lens control unit 32 controls the driving of the zoom lens 31a, the focus lens 31b, and the diaphragm 31c based on a signal output from the body control unit 210 of the camera body 2.
  • the lens control unit 32 moves the focus lens 31b along the optical axis OA1 based on the signal, and Adjust the focus position of the.
  • the lens control unit 32 controls the position of the zoom lens 31a and the aperture diameter of the diaphragm 31c based on a signal output from the body control unit 210 of the camera body 2.
  • the lens memory 33 is constituted by a nonvolatile storage medium or the like. Information related to the interchangeable lens 3 is stored (recorded) in the lens memory 33 as lens information.
  • the lens information includes data relating to the optical characteristics (exit pupil distance and F value) of the photographing optical system 31.
  • the exit pupil distance is a distance between the exit pupil of the imaging optical system 31 and the imaging plane of the imaging optical system 31.
  • the lens information may be stored in a memory inside the lens control unit 32.
  • the lens control unit 32 After the interchangeable lens 3 is attached to the camera body 2, the lens control unit 32 transmits lens information to the body control unit 210 via the communication terminals of the lens-side connection unit 302 and the body-side connection unit 202. Further, the lens control unit 32 transmits information on the position of the zoom lens 31a, information on the position of the focus lens 31b, information on the aperture value (F value) of the aperture 31c, and the like to the body control unit 210.
  • the camera body 2 includes an image sensor 22, a body memory 23, a display unit 24, an operation unit 25, a shake detection unit 26, a position detection unit 27, an image stabilization control unit 28, and a body control unit 210. Prepare.
  • the camera body 2 further includes a power supply, a memory card, and the like, but the description is omitted.
  • the image sensor 22 is a solid-state image sensor such as a CMOS image sensor.
  • the image sensor 22 may be a CCD image sensor.
  • the image sensor 22 receives the light beam that has passed through the photographing optical system 31 and captures a subject image.
  • a plurality of pixels having a photoelectric conversion unit are arranged two-dimensionally (for example, in a row direction and a column direction, an X direction and a Y direction).
  • the photoelectric conversion unit includes, for example, a photodiode (PD).
  • PD photodiode
  • the imaging element 22 photoelectrically converts the received light to generate a signal, and outputs the generated signal to the body control unit 210.
  • the image sensor 22 includes a plurality of imaging pixels that output signals used for image generation (captured image signals) and a plurality of focus detections that output signals used for focus detection (focus detection signals). Pixel (AF pixel).
  • the imaging element 22 may include a plurality of photoelectric conversion units in a pixel, and a pixel that outputs a captured image signal and a focus detection signal.
  • the image sensor 22 is driven and moved by the image stabilization control unit 28 for shake correction (shake correction), and moves along a plane (XY plane) perpendicular to the optical axis OA1.
  • the body memory 23 is constituted by a non-volatile storage medium or the like.
  • the body memory 23 stores image data, control programs, and the like. Writing of data to the body memory 23 and reading of data from the body memory 23 are controlled by the body control unit 210.
  • the display unit 24 displays an image based on image data, an image indicating a focus detection area (AF area) such as an AF frame, information on photographing such as a shutter speed and an aperture value (F value), and a menu screen.
  • the operation unit 25 includes a release button, a power switch, various setting switches such as switches for switching various modes, and the like, and outputs an operation signal corresponding to each operation to the body control unit 210.
  • the shake detection unit 26 includes an angular velocity sensor (gyro sensor) or an acceleration sensor, and detects a shake (shake) applied to the camera 1 due to a hand shake of a user having the camera 1.
  • the shake detection unit 26 generates a signal (shake signal) corresponding to the shake amount of the camera 1 and outputs the generated shake signal to the image stabilization control unit 28.
  • the position detection unit 27 is configured by an optical sensor, a magnetic sensor, or the like, and detects the position of the imaging element 22 that moves along a plane (XY plane) perpendicular to the optical axis OA1.
  • the position detector 27 detects the position of the image sensor 22 at a predetermined cycle, and repeatedly generates information (position information) on the position of the image sensor 22.
  • the position detection unit 27 sequentially outputs the generated position information to the image stabilization control unit 28.
  • the position information includes information indicating the position of the image sensor 22 in the X-axis direction shown in FIG. 1, information indicating the position of the image sensor 22 in the Y-axis direction, and rotation of the image sensor 22 about the optical axis OA1. (Inclination).
  • the information indicating the inclination of the image sensor 22 is information indicating a rotation angle of the image sensor 22 on a plane (XY plane) perpendicular to the optical axis OA1 of the imaging optical system 31.
  • the image stabilization control unit 28 performs shake correction based on the shake signal output from the shake detection unit 26 so as to cancel the image shake of the subject image caused by the shake of the camera 1.
  • the image stabilization control unit 28 calculates the shake amount of the camera 1 using the shake signal, and calculates the movement amount of the image sensor 22 for canceling the image shake due to the shake amount based on the calculated shake amount of the camera 1. (decide.
  • the amount of movement of the image sensor 22 includes the amount of movement in the X-axis direction, the amount of movement in the Y-axis direction, and the optical axis OA1 for moving the image sensor 22 to cancel image blur from the current position of the image sensor 22. Includes the amount of rotational movement around the center.
  • the image stabilization control unit 28 controls the driving of the image sensor 22 according to the calculated movement amount, and adjusts the position of the image sensor 22.
  • the image stabilization control unit 28 moves (shifts) and rotates (rolls) the image sensor 22 in the vertical and horizontal directions on a plane perpendicular to the optical axis OA1 of the imaging optical system 31 according to the amount of shake of the camera 1.
  • the image blur of the subject image is corrected by adjusting the position of the image sensor 22 according to the shake amount of the camera 1.
  • the image stabilization control unit 28 stores the position information of the image sensor 22 output from the position detection unit 27 in a memory inside the image stabilization control unit 28. A plurality of pieces of position information detected periodically are stored in a memory inside the image stabilization control unit 28. The image stabilization control unit 28 reads out a plurality of pieces of position information stored in an internal memory at a predetermined cycle and outputs the information to the body control unit 210. As described above, the image stabilization control unit 28 determines the amount of movement of the image sensor 22 using both the shake signal from the shake detector 26 and the position information from the position detector 27, and The position of the image sensor 22 is controlled based on the amount of movement.
  • the body control unit 210 includes a processor such as a CPU, an FPGA, and an ASIC, and a memory such as a ROM and a RAM, and controls each unit of the camera 1 based on a control program.
  • the body control unit 210 includes an imaging control unit 211, an image data generation unit 212, an area selection unit 213, and a focus detection unit 214.
  • the imaging control unit 211 supplies a signal for controlling the accumulation operation (imaging) of the imaging element 22 to the imaging element 22, and controls the accumulation operation of the imaging element 22.
  • imaging an accumulation operation
  • the imaging control unit 211 causes the image sensor 22 to repeatedly capture a subject image at a predetermined frame interval.
  • a signal for picked-up image and a signal for focus detection are output.
  • the imaging control unit 211 performs a so-called rolling shutter-type read control in which pixels of the image sensor 22 are sequentially selected in the column direction on a row basis and signals are read from the selected pixels.
  • an operation of accumulating charges generated by photoelectrically converting light incident on a photoelectric conversion unit of each pixel accumulate operation
  • an operation of reading a signal based on the accumulated charges from the pixel read operation.
  • the image data generation unit 212 performs various types of image processing on the captured image signal output from the image sensor 22 to generate image data.
  • the image processing includes known image processing such as gradation conversion processing and color interpolation processing.
  • the generated image data is recorded on a memory card (not shown).
  • FIG. 2 is a diagram illustrating the focus detection area 100 set on the imaging surface 22a of the imaging element 22 according to the first embodiment.
  • the focus detection area 100 a plurality of focus detection pixels are arranged.
  • a plurality of focus detection areas 100 arranged in a matrix in a row direction (X direction) and a column direction (Y direction) are provided on an imaging surface 22a of the imaging element 22.
  • Each focus detection area 100 corresponds to a plurality of AF areas that can be selected by the camera 1 or the user.
  • the plurality of focus detection areas 100 are discretely arranged with a space therebetween, but it is not always necessary to arrange all the focus detection areas 100 discretely. May be continuous, or all the focus detection areas may be arranged without a space.
  • the area selection unit 213 selects (sets) at least one focus detection area 100 among the plurality of focus detection areas 100 set on the imaging surface 22a of the imaging element 22 illustrated in FIG. Each focus detection area 100 corresponds to an AF frame (range) displayed on the display unit 24.
  • the area selection unit 213 automatically selects the focus detection area 100 corresponding to the area in the AF frame selected by the user through the operation unit 25 or the camera 1 among the plurality of AF frames displayed on the display unit 24.
  • the determined focus detection area 100 is determined as a focus detection area for performing focus detection.
  • the defocus amount is calculated using the focus detection signals of a plurality of focus detection pixels in the focus detection area 100 selected by the area selection unit 213. The deviation between the position of the subject image formed by the photographing optical system 31 and the position of the imaging surface 22a of the imaging element 22 of the camera body 2 corresponds to the defocus amount.
  • the plurality of focus detection areas 100 are arranged in a two-dimensional distribution (row direction and column direction). The distance from the center is different. That is, when the center of the image sensor 22 is on the optical axis OA1, the plurality of focus detection areas 100 are provided at various image heights. Before the movement of the image sensor 22 (before image blur correction), the focus detection area 100a at the center position of the image sensor 22 is located on the optical axis OA1 of the imaging optical system 31, and the image height thereof is substantially zero.
  • the image height H of the focus detection area 100 increases (increases) as the distance from the optical axis OA1 of the imaging optical system 31 increases.
  • reference numerals 100b and 100c are assigned to focus detection areas located at the left end and the right end of the same row as the center focus detection area 100a.
  • the focus detection area 100 has a predetermined area, strictly speaking, the image height differs for each pixel position in one focus detection area 100, but in the present embodiment, the same focus is used.
  • the plurality of pixels arranged in the detection area 100 treat the image height H as being constant, and use the value of the image height H at the center position of the focus detection area 100 as the image height value of the entire focus detection area 100. I have.
  • the entire area has an image height of zero
  • the focus detection areas 100b and 100c the entire area has a predetermined image height H.
  • the pixels arranged in the focus detection area 100 of the image sensor 22 will be described with reference to FIGS.
  • FIG. 3 is a diagram showing an example of the arrangement of pixels in one focus detection area 100 in the image sensor 22 according to the first embodiment.
  • a plurality of imaging pixels 13, a first focus detection pixel 11, and a second focus detection pixel 12 are arranged.
  • Each imaging pixel 13 is provided with one of three color filters (color filters) 51 having different spectral characteristics of R (red), G (green), and B (blue).
  • the R color filter 51 mainly transmits light in the red wavelength region
  • the G color filter 51 transmits mainly light in the green wavelength region
  • the B color filter 51 mainly transmits light in the blue wavelength region.
  • the pixels have different spectral characteristics depending on the color filters 51 arranged.
  • the imaging pixels 13 include a pixel 13r having red (R) spectral characteristics (hereinafter, referred to as an R pixel) and a pixel 13g having green (G) spectral characteristics (hereinafter, referred to as a G pixel). And a pixel 13b having blue (B) spectral characteristics (hereinafter, referred to as a B pixel).
  • the R pixel, the G pixel, and the B pixel are arranged according to the Bayer arrangement.
  • the first focus detection pixel 11 and the second focus detection pixel 12 are arranged by replacing a part of the R, G, and B imaging pixels 13 arranged in the Bayer array as described above.
  • the first focus detection pixel 11 and the second focus detection pixel 12 are provided with a color filter 51 and a light shielding film (light shielding portion) 43.
  • a G color filter is disposed as the color filter 51 in the first focus detection pixel 11 and the second focus detection pixel 12.
  • the first focus detection pixel 11 and the second focus detection pixel 12 are different in the position of the light shielding portion 43. In the example shown in FIG.
  • the first focus detection pixel 11 has a light-shielding portion disposed on the left side of the pixel light receiving portion
  • the second focus detection pixel 12 has a light-shielding portion disposed on the right side of the pixel light receiving portion.
  • a color filter having white (W) spectral characteristics may be disposed as the color filter 51 in the first focus detection pixel 11 and the second focus detection pixel 12, and B (blue) may be used.
  • B (blue) blue
  • an R (red) color filter may be provided.
  • only the light-shielding film 43 may be provided in the first focus detection pixel 11 and the second focus detection pixel 12, and the color filter 51 may not be provided.
  • the image sensor 22 includes a first pixel group row 401 in which R pixels 13r and G pixels 13g are alternately arranged in a row direction (left-right direction), a G pixel 13g and a B pixel 13b. Has a second pixel group row 402 alternately arranged in the row direction. Further, the image sensor 22 has a third pixel group row 403 in which the G pixels 13g, the first focus detection pixels 11, and the second focus detection pixels 12 are arranged in the row direction. Note that the number and arrangement of the pixels arranged on the image sensor 22 are not limited to the illustrated example. As shown in FIG.
  • first pixel group row 401 in one focus detection area 100, four of a first pixel group row 401, a second pixel group row 402, a first pixel group row 401, and a third pixel group row 403 are provided.
  • the rows are arranged as a set in the column direction, and a four-row set of the first pixel group row 401 to the third pixel group row 403 is repeatedly arranged in the column direction.
  • the number of set rows repeated in the column direction is not limited to four. It is sufficient that the number of set rows includes at least one third pixel group row 403.
  • the row 401, the third pixel group row 402 of three rows, and the third pixel group row 403 of one row may be arranged as a set in the column direction.
  • a set of 12 rows of six first pixel group rows 401, five second pixel group rows 402, and one third pixel group row 403 may be arranged so as to be repeated in the column direction. Absent.
  • a G pixel 13g, a first focus detection pixel 11, and a second focus detection pixel row are arranged in one row, but the present invention is not limited to this.
  • the G pixel 13g and the first focus detection pixel 11 may be arranged in one row, and the G pixel 13g and the second focus detection pixel 12 may be arranged in a different row.
  • a set of 12 rows including 6 first pixel group rows 401, 5 second pixel group rows 402, 1 row of first focus detection pixels 11, and 6 rows
  • a total of 24 rows of a first pixel group row 401, a second pixel group row 402 of five rows, and a row in which one second focus detection pixel 12 is arranged are repeated in the column direction. It may be arranged as follows.
  • FIG. 4 is a diagram for explaining signals generated by the image sensor 22 according to the first embodiment.
  • FIG. 4 shows one of the pixels provided in the image sensor 22 as one first focus detection pixel 11 (FIG. 4A) and one second focus detection pixel 12 (FIG. 4B). ) And one imaging pixel 13 (FIG. 4C).
  • the imaging pixel 13 includes a micro lens 44, a color filter 51, and a photoelectric conversion unit (light receiving unit, PD) 42 that receives a light beam transmitted (passed) through the micro lens 44 and the color filter 51.
  • Each of the first and second focus detection pixels 11 and 12 includes a microlens 44, a color filter 51, a light shielding unit 43 for shielding a part of a light beam transmitted through the microlens 44 and the color filter 51, and a microlens.
  • a photoelectric conversion unit (light receiving unit, PD) 42 through which a light beam that has passed through the color filter 51 and is not blocked by the light blocking unit 43 is incident.
  • a light beam that has passed through one first pupil region obtained by substantially bisecting the exit pupil of the photographing optical system 31 is indicated by a solid line arrow as a first light beam 61, and a light beam that passed through the other second region substantially bisected. Is the second light flux 62 and is indicated by a dashed arrow.
  • the first focus detection pixel 11 is provided with a left-side light shielding portion 43L that shields the second light flux 62 of the first and second light fluxes 61 and 62.
  • the left light blocking portion 43L is located between the color filter 51 and the photoelectric conversion unit 42 and is provided on the photoelectric conversion unit 42. As shown in FIG.
  • the first focus detection pixel 11 since the first focus detection pixel 11 is provided with the left light-shielding portion 43 ⁇ / b> L, the first pupil of the exit pupils of the imaging optical system 31 is provided in the photoelectric conversion portion 42. Only the first light beam 61 that has passed through the region enters.
  • the photoelectric conversion unit 42 of the first focus detection pixel 11 receives the first light flux 61.
  • the first focus detection pixel 11 photoelectrically converts the first light flux 61 in the photoelectric conversion unit 42 and accumulates charges, and outputs a first focus detection signal Sig1 based on the accumulated charge amount.
  • the left light-shielding portion 43L may be provided not on the photoelectric conversion portion 42 but at an intermediate position between the color filter 51 and the photoelectric conversion portion 42.
  • the second focus detection pixel 12 is provided with a right light shielding portion 43R for shielding the first light flux 61.
  • the right light shielding portion 43R is located between the color filter 51 and the photoelectric conversion portion 42 and is provided on the photoelectric conversion portion 42.
  • the first focus detection pixel 11 is provided with the right light shielding portion 43R, the second pupil of the exit pupils of the imaging optical system 31 is provided in the photoelectric conversion portion 42. Only the second light flux 62 that has passed through the region enters.
  • the photoelectric conversion unit 42 of the second focus detection pixel 12 receives the second light flux 62.
  • the second focus detection pixel 12 accumulates charges by photoelectrically converting the second light flux 62 in the photoelectric conversion unit 42, and outputs a second focus detection signal Sig2 based on the accumulated charge amount.
  • the right light-shielding portion 43R may be provided at an intermediate position between the color filter 51 and the photoelectric conversion portion 42, not on the photoelectric conversion portion 42.
  • the photoelectric conversion unit 42 of the imaging pixel 13 having no light shielding unit receives the first and second light beams 61 and 62, respectively.
  • the color filter 51 of the imaging pixel 13 is provided with one of R (red), G (green), and B (blue).
  • the imaging pixel 13 photoelectrically converts the first and second luminous fluxes 61 and 62 to accumulate electric charges, and outputs a picked-up image signal based on the accumulated electric charge amount.
  • the focus detection unit 214 performs processing necessary for automatic focusing (AF) of the photographing optical system 31.
  • the focus detection unit 214 calculates the amount of defocus, and based on the amount of defocus, the amount of movement of the focus lens 31b in order to focus the subject luminous flux that has passed through the imaging optical system 31 on the imaging surface 22a ( (Amount of driving).
  • the focus detection unit 214 includes first and second focus detection signals Sig1 and Sig2 output from the first and second focus detection pixels 11 and 12 in the focus detection area 100 selected by the area selection unit 213. Is used to calculate the defocus amount by a pupil division type phase difference detection method.
  • the focus detection unit 214 calculates the amount of movement of the focus lens 31b based on the calculated defocus amount.
  • the focus detection unit 214 calculates the image shift amount ⁇ by performing a correlation operation between the first focus detection signal Sig1 and the second focus detection signal Sig2.
  • the focus detection unit 214 converts the image shift amount ⁇ into a defocus amount based on a predetermined conversion formula.
  • the image stabilization control unit 28 outputs the position information of the image sensor 22 detected by the position detection unit 27 to the body control unit 210.
  • the focus detection unit 214 of the body control unit 210 performs conversion based on the position information output from the image stabilization control unit 28 in consideration of the image height of the selected focus detection area 100 from the optical axis OA1. Determine the coefficient K.
  • the focus detection unit 214 converts the image shift amount ⁇ into the defocus amount Def based on the determined conversion coefficient K and the above equation (1).
  • the focus detection unit 214 determines whether the defocus amount is within a predetermined allowable value. If the defocus amount is within the allowable value, the focus detection unit 214 determines that focus has been achieved. On the other hand, when the defocus amount exceeds the allowable value, the focus detection unit 214 determines that the camera is not in focus, and, based on the calculated defocus amount Def, moves the focus lens 31b to the in-focus position. Is calculated. Then, the focus detection unit 214 transmits a movement amount of the focus lens 31b and a signal for instructing lens drive to the lens control unit 32 of the interchangeable lens 3. The focus control is automatically performed by the lens controller 32 receiving the instruction from the focus detector 214 moving the focus lens 31b according to the amount of movement.
  • FIG. 5 is a diagram for explaining image blur correction by the camera 1 according to the first embodiment.
  • FIG. 5A shows an example in which the position of the subject image changes due to a hand shake applied in the horizontal direction (X-axis direction).
  • a subject image 71a indicated by a dotted line indicates a subject image before a shake of the camera 1 occurs
  • an imaging surface 22a1 indicated by a dotted line indicates an imaging surface of the imaging element 22 before movement (before correction).
  • Position Before the camera 1 shakes, the subject image 71a is located at the center of the imaging surface 22a1.
  • the subject image 71b indicated by a solid line indicates the subject image when the camera 1 shakes, and is located on the right side (+ X direction) of the center of the imaging surface 22a1.
  • the image stabilization control unit 28 moves the image sensor 22 so as to cancel image shake.
  • the image stabilization control unit 28 moves along the plane (XY plane) perpendicular to the optical axis OA1 according to the shake amount of the camera 1 as described above.
  • the image sensor 22 is moved in the + X direction as indicated by the arrow 75.
  • the imaging surface 22a2 indicated by a solid line indicates the position of the imaging surface of the imaging device 22 after movement (after correction).
  • the image pickup device 22 (the image pickup surface thereof) is driven and controlled by the image stabilization control unit 28, and moves from the position indicated by the dotted line to the position indicated by the solid line.
  • the subject image 71b On the imaging surface 22a2 after the movement, the subject image 71b is located at the center of the imaging surface 22a2.
  • FIG. 5B shows another example of a change in the position of the subject image, and shows a case where the subject image is rotated around the Z axis due to camera shake.
  • a subject image 71a indicated by a dotted line indicates a subject image before the camera 1 shakes
  • an imaging surface 22a1 indicated by a dotted line indicates the imaging surface of the imaging element 22 before movement.
  • the subject image 71c indicated by a solid line indicates the subject image when the camera 1 shakes
  • the imaging surface 22a3 indicated by the solid line indicates the imaging surface of the image sensor 22 after the movement.
  • the image stabilization control unit 28 corrects the image shake by rotating the image sensor 22 as indicated by the arrow 76 so as to cancel the rotational shake of the camera 1 in the roll direction. I do.
  • the image stabilization control unit 28 moves the image sensor 22 so as to cancel the shake of the camera 1.
  • the center of the imaging surface 22a moves by the shift amount (x, y)
  • each of the focus detection areas 100 is moved by the shift amount (x, y). Moving.
  • Both the center focus detection area 100a and the focus detection areas 100b and 100c shown in FIG. 2 move by the shift amount (x, y).
  • the relative positional relationship between the optical axis OA1 of the imaging optical system 31 and the center of the image sensor 22 changes due to the movement of the image sensor 22, and the image height of each focus detection area 100 changes.
  • the angle of incidence of the light beam passing through the imaging optical system 31 on the first and second focus detection pixels of the focus detection area 100 changes.
  • the amount of charge stored in each of the first and second focus detection pixels changes.
  • the first and second focus detection pixels output the first and second focus detection signals based on the amount of charge accumulated during a period (charge accumulation period) in which the charge accumulation operation is performed. Generate. For this reason, the amount of charge accumulated in the first and second focus detection pixels changes according to the position of the image sensor 22 during the charge accumulation period, and is calculated using the first and second focus detection signals.
  • the magnitude of the image shift amount changes.
  • the central focus detection area 100a Taking the central focus detection area 100a as an example, a case where the focus detection area 100a is located on the optical axis OA1 when the imaging element 22 moves due to shake correction and the focus detection area 100a is not located on the optical axis OA1 is described. If the assumed value of the conversion coefficient K is used as it is in the conversion formula for converting the image shift amount ⁇ into the defocus amount Def, the accuracy of the calculated defocus amount decreases.
  • the focus detection unit 214 changes the value of the conversion coefficient K used for calculating the defocus amount according to the position of the imaging element 22 during the charge accumulation period in which charge is accumulated.
  • the focus detection unit 214 performs setting (correction) such that the value of the conversion coefficient K increases as the position of the focus detection area 100 used for focus detection during the charge accumulation period moves away from the optical axis OA1.
  • the value of the conversion coefficient K is set to increase as the image height of the focus detection area 100 during the charge accumulation period increases with the movement of the imaging element 22.
  • the focus detection unit 214 is detected by the position detection unit 27 during the charge accumulation period of the focus detection area 100 selected by the area selection unit 213 among the position information of the image sensor 22 obtained via the image stabilization control unit 28. Selected location information.
  • the operation of accumulating charges in the pixels is performed while scanning from the top row to the bottom row for each row.
  • the charge accumulation period of the focus detection area 100 is a period in which charge accumulation operation is performed in a pixel row including pixels arranged in the focus detection area 100.
  • the focus detection unit 214 determines the position indicating the position of the imaging element 22 in the charge accumulation period of the focus detection area 100 selected by the area selection unit 213 among the plurality of pieces of position information detected by the position detection unit 27. Select information.
  • the focus detection unit 214 calculates the conversion coefficient K used for calculating the defocus amount based on the position information of the selected image sensor 22. For each focus detection area 100, the correspondence between the angle of incidence of the light beam passing through the imaging optical system 31 to the focus detection pixel and the conversion coefficient K is determined in advance by simulation, experiment, or the like. It is stored in a memory inside the unit 210.
  • the focus detection unit 214 calculates the image height H of the focus detection area 100 selected by the area selection unit 213 based on the position information of the selected image sensor 22, and uses the calculated image height H to calculate the focus detection area. The angle of incidence of the light beam on the 100 focus detection pixels is calculated.
  • the focus detection unit 214 determines the conversion coefficient K used for calculating the defocus amount by referring to the above-described correspondence relationship of the focus detection area 100 selected by the area selection unit 213 based on the calculated incident angle. I do.
  • the value of the conversion coefficient K used for calculating the defocus amount is changed based on the position information regarding the position of the image sensor 22 during the charge accumulation period. For this reason, it is possible to suppress a decrease in accuracy of focus detection when image blur correction is performed.
  • the method of determining the conversion coefficient K is not limited to the above method.
  • the focus detection unit 214 may determine the conversion coefficient K with reference to the correspondence between the position of the imaging element 22 and the conversion coefficient K. In this case, the correspondence between the position of the image sensor 22 and the conversion coefficient K is obtained in advance by experiment or the like for each focus detection area 100, and is stored in a memory inside the body control unit 210 as a data table or the like.
  • the focus detection unit 214 grasps the position of the image sensor 22 from the position information of the selected image sensor 22, refers to the above-described correspondence relationship of the focus detection area 100 selected by the area selection unit 213, and sets the defocus amount.
  • the conversion coefficient K used for the calculation of is determined.
  • FIG. 6 is a diagram illustrating an example of processing in the camera 1 according to the first embodiment.
  • a plurality of horizontal axes are a common time axis.
  • a V signal also referred to as a vertical synchronization signal
  • FIG. 6A a V signal (also referred to as a vertical synchronization signal) of the image sensor 22 (FIG. 6A)
  • a process of detecting the position of the image sensor 22 (FIG. 6B)
  • the charge accumulation process by the element 22 FIG. 6C
  • the communication process of the position information FIG. 6D
  • the AF process FIGS. 6E and 6F
  • the lens control FIG. 6 (g)
  • the position of the focus lens 31b FIG. 6 (h)
  • the V signal (vertical synchronization signal) is generated by a pulse generation circuit or the like in the image sensor 22 based on the frame rate of photographing.
  • the V signal is a signal generated for each frame, and is generated at time intervals according to the frame rate.
  • the position detection processing, the charge accumulation processing, the communication processing of the position information, the AF processing, and the lens control are each performed in synchronization with the V signal.
  • the solid arrows A1 to A15 in FIG. 6B indicate that the position detector 27 detects the position of the image sensor 22 during the processing of the Nth frame to the (N + 3) th frame.
  • the timing at which the position information No. 22 is generated is shown.
  • the position detection unit 27 performs position detection at a fixed interval ( ⁇ t) shorter than one frame and acquires a plurality of pieces of position information during one frame.
  • FIG. 6C shows the charge storage process of the image sensor 22.
  • the example shown in FIG. 6C shows a case where charge accumulation is sequentially performed in the first, second, and third small regions 81, 82, and 83 in the image sensor 22 shown in FIG.
  • the first to third small areas 81 to 83 are obtained by dividing the imaging surface 22a into three in the vertical direction, and include an upper area (small area 81), a middle area (small area 82), and a lower area (small area 83). Divided.
  • Each of the first to third small areas 81 to 83 includes a plurality of focus detection areas 100, as shown in FIG.
  • FIG. 6C shows the processing from the start of charge accumulation in the pixels in the uppermost row to the end of charge accumulation in the pixels in the lowermost row in each of the first to third small regions 81 to 83 for each frame.
  • charge accumulation of each frame is performed. That is, the first row (the top line of the first small area 81) stores the charge and the last row (the bottom line of the third small area 83) stores the charge. The times are staggered (also called rolling shutters).
  • the imaging device 22 accumulates charges in the imaging device 22 based on the V signal and repeatedly captures an image of a subject for each frame, and outputs a captured image signal of an imaging pixel in the first to third small regions 81 to 83. And a focus detection signal (first and second focus detection signals) of the focus detection pixel.
  • the focus output from the focus detection area 100d located in the upper and lower central rows of the first small area 81.
  • FIGS. 6E and 6F An example in which AF processing is performed using a detection signal will be described.
  • the AF process is shown in FIGS. 6E and 6F.
  • the periods from the time t1 to the time t6, from the time t6 to the time t12, and from the time t12 to the time t18 are the uppermost of the first small area 81 in the Nth frame, the (N + 1) th frame and the (N + 2) th frame, respectively.
  • the image stabilization control unit 28 determines the position information (arrow indicated by the arrow) of the image sensor 22 generated at intervals of ⁇ t from time t0 to time t3. A1 to A4) are output to the body control unit 210.
  • the body control unit 210 stores the four pieces of position information output by the image stabilization control unit 28 in an internal memory.
  • the focus detection unit 214 outputs a pair of focus detection signals output from the focus detection area 100d in the Nth frame subjected to the charge accumulation processing. That is, the correlation calculation process is performed on a pair of signal trains based on the charges accumulated in the first and second focus detection pixels in the focus detection area 100d during the period from time t2 to time t5.
  • the image stabilization control unit 28 outputs the position information (four arrows A5 to A8) of the image sensor 22 generated at intervals of ⁇ t from time t3 to time t8 to the body. Output to control section 210.
  • the body control unit 210 includes four pieces of position information (four arrows A5 to A8) output by the image stabilization control unit 28 in addition to the four pieces of position information (four arrows A1 to A4) already stored. Is stored in an internal memory.
  • the focus detection unit 214 performs the correlation operation result using the signal output from the focus detection area 100d by the charge accumulation process in the Nth frame.
  • the image shift amount ⁇ is calculated based on the (correlation calculation result in the N-th frame from time t5 to time t8 in FIG. 6E).
  • the focus detection unit 214 performs the charge accumulation in the focus detection area 100d in the Nth frame among the plurality of pieces of position information (eight arrows A1 to A8) of the image sensor 22 stored in the internal memory. Select the detected position information. Since the focus detection area 100d to be explained is located at the center of the center row (see FIG.
  • the focus detection unit 214 selects the position information detected at the timing A3 closest to the center time of the period from the time t2 to the time t5. Thereby, the focus detection unit 214 calculates the distance (image height) from the optical axis OA1 when the Nth frame is accumulated in the focus detection area 100d.
  • the focus detection unit 214 determines the position information (distance from the center of the imaging surface 22a) of the focus detection region 100d on the imaging surface 22a and the position of the image sensor 22 at the time when charge accumulation is performed in the focus detection region 100d.
  • the distance (image height) from the optical axis OA1 at the time of accumulation of the N-th frame in the focus detection area 100d is obtained from the position information.
  • the focus detection unit 214 converts the image shift amount ⁇ calculated using the signal output from the focus detection area 100d in the N-th frame into a defocus amount during a period from time t11 to time t14.
  • the conversion coefficient K is determined based on the distance (image height H) from the optical axis OA1 at the time of accumulation of the Nth frame in the focus detection area 100d.
  • the focus detection unit 214 converts the image shift amount into a defocus amount based on the determined conversion coefficient K using the above-described conversion formula.
  • the body control unit 210 calculates the movement amount of the focus lens 31b based on the calculated defocus amount.
  • the focus detection unit 214 transmits to the lens control unit 32 a signal instructing driving of the focus lens 31b and information on the calculated movement amount of the focus lens 31b.
  • the process of determining the conversion coefficient K and the process of calculating the moving amount of the focus lens 31b are included in the AF process of FIG.
  • the lens control unit 32 of the interchangeable lens 3 uses the focus lens 31b calculated by the focus detection unit 214 during the period from time t11 to time t14.
  • the focus adjustment is performed by starting the movement of the focus lens 31b based on the amount of movement of.
  • the processing of the (N + 1) th frame is performed following the processing of the Nth frame.
  • the accumulation of the (N + 1) th frame from time t6 is performed, and the charge accumulation process is performed in the focus detection area 100d in the center row of the first small area 81 in the (N + 1) th frame in the period from time t7 to time t11. .
  • the image stabilization control unit 28 outputs four pieces of position information (arrows A5 to A8, see FIG. 6B) to the body control unit 210.
  • the body control unit 210 stores the four pieces of position information output by the image stabilization control unit 28 in an internal memory. In the period from time t11 to time t16 (see FIG.
  • the focus detection unit 214 outputs a pair of focus detection signals output from the focus detection area 100d by the charge accumulation process in the (N + 1) th frame, that is, The correlation calculation process is performed on a pair of signal trains based on the electric charges accumulated in the first and second focus detection pixels in the focus detection area 100d during the period from time t7 to time t11.
  • the focus detection unit 214 converts the correlation calculation result using the signal output from the focus detection area 100d by the charge accumulation process in the (N + 1) th frame. Based on this, the image shift amount ⁇ is calculated. Further, the focus detection unit 214 selects the position information detected when the charge is accumulated in the focus detection area 100d in the (N + 1) th frame, from among the plurality of pieces of position information stored in the internal memory. Similarly to the N-th frame, the focus detection area 100d is located at the center of the center row of the first small area 81 (see FIG. 7), so that the charge detection in the focus detection area 100d is performed from time t7 to time t11.
  • the position information detected at the timing A7 closest to the center time of the period is selected. Accordingly, the focus detection unit 214 obtains the distance (image height) from the optical axis OA1 when the (N + 1) th frame is accumulated in the focus detection area 100d.
  • the focus detection unit 214 converts the image shift amount calculated using the signal output from the focus detection area 100d in the (N + 1) th frame into a defocus amount. Is determined based on the distance (image height) from the optical axis OA1 at the time of accumulating the (N + 1) th frame in the focus detection area 100d.
  • the focus detection unit 214 determines a conversion coefficient K based on the selected position information, and converts the image shift amount into a defocus amount based on the determined conversion coefficient K.
  • the body control unit 210 calculates the movement amount of the focus lens 31b based on the calculated defocus amount.
  • the focus detection unit 214 transmits to the lens control unit 32 a signal instructing driving of the focus lens 31b and information on the calculated movement amount of the focus lens 31b.
  • the lens control unit 32 calculates the amount of movement of the focus lens 31b calculated by the focus detection unit 214 in the period from time t17 to time t19.
  • the focus adjustment is performed by starting the movement of the focus lens 31b.
  • the camera 1 records the position information of the image sensor 22 at a predetermined time interval shorter than one frame interval (FIG. 6B), and performs the focus detection area for performing the focus detection.
  • the position information detected at the time closest to the time at which the charge accumulation in the focus detection area 100 for performing focus detection is performed is selected according to the position of the focus detection area 100 within the imaging surface 22a.
  • the focus detection unit 214 selects the position information detected at the timing A3 closest to the center time of the period from the time t2 to the time t5 in the processing of the N-th frame.
  • the focus detection unit 214 uses the position information of the selected imaging element 22 and information on the position of the focus detection area 100d for focus detection within the imaging plane 22a (the distance from the center of the imaging plane 22a to the focus detection area 100d). , The distance (image height H) from the optical axis OA1 when the Nth frame is accumulated in the focus detection area 100d is obtained. The conversion coefficient K is obtained based on the distance (image height H) from the optical axis OA1 when the target focus detection area 100d is accumulated. A correlation calculation process (FIG. 6E) is performed on the signal based on the accumulated charges to calculate an image shift amount, and the calculated image shift amount is calculated using a conversion coefficient K obtained based on the image height H at the time of charge accumulation. Is converted into a defocus amount (FIG. 6 (f)), and the focus lens 31b is driven (FIG. 6 (g)).
  • the camera 1 records the position information from the time t3 to the time t4 for the focus detection signal of the Nth frame based on the electric charge accumulated from the time t2 to the time t5, and correlates the signal from the time t5 to the time t8.
  • the arithmetic processing is performed, defocus conversion is performed from time t11 to time t14, and driving of the focus lens 31b is started from time t14 to time t15.
  • the camera 1 records the position information from the time t9 to the time t10 for the focus detection signal of the (N + 1) th frame based on the electric charge accumulated from the time t7 to the time t11, and performs the correlation operation from the time t11 to the time t16.
  • the defocus conversion is performed from time t17 to time t19, and the movement of the focus lens 31b is started from time t19 to time t20.
  • the AF processing is performed.
  • the AF processing can be performed in the same manner when the AF processing is performed using the focus detection signal output from another focus detection area 100.
  • the position information generated by the position detection of the arrow A4 in the Nth frame is selected, and the focus information at the time of charge accumulation in the focus detection area 100e is selected.
  • the conversion factor K is determined by obtaining the distance (image height H) from the optical axis OA1, and the defocus amount is calculated using the determined conversion factor K.
  • the conversion factor K is determined by selecting the position information generated by detecting the position of the arrow A8, The defocus amount is calculated using the determined conversion coefficient K.
  • the position information generated by the position detection of the arrow A5 is selected in the Nth frame, and the charge of the focus detection area 100e is selected.
  • the conversion coefficient K is determined by calculating the distance (image height) from the optical axis OA1 at the time of accumulation, and the defocus amount is calculated using the determined conversion coefficient K. Since the position information of the arrow A5 is received from the time t9 to the time t10 (FIG. 6D), the subsequent correlation calculation (FIG. 6E) is performed from the time t11 to t16 to calculate the defocus amount (FIG. 6E).
  • the lens control (FIG. 6 (g) is performed from time t19 to t20.
  • the conversion coefficient K is determined by selecting the position information generated by detecting the position of the arrow A9. The defocus amount is calculated using the determined conversion coefficient K.
  • the defocus amount may be calculated using a signal output from a focus detection area other than the center in the first to third small areas 81 to 83, for example, a focus detection area 100 at the upper left corner or the lower right corner.
  • the focus detection unit 214 selects the position information detected at the timing closest to the center time of the charge accumulation period in the focus detection area 100 other than the center.
  • the target focus is determined based on the position of the target focus detection area 100 in the imaging plane 22a (the distance from the center of the imaging plane 22a to the target focus detection area 100) and the position information of the selected imaging element 22.
  • the conversion coefficient K is determined by obtaining the distance (image height H) from the optical axis OA1 at the time of charge accumulation in the detection region 100. Then, the defocus amount is calculated based on the determined conversion coefficient K.
  • the focus detection unit 214 determines the charge of the target focus detection area 100 based on the position information of the image sensor 22 detected during the charge accumulation period of the focus detection area 100 used for focus detection.
  • the distance (image height H) from the optical axis OA1 at the time of accumulation is obtained, and the conversion coefficient K used for calculating the defocus amount is changed.
  • the focus detection unit 214 considers the position of the imaging element 22 during the charge accumulation period, and converts the conversion coefficient K suitable for calculating the defocus amount. Can be determined, and a decrease in focus detection accuracy can be suppressed.
  • An image pickup apparatus is a first pixel that outputs a first signal based on charges accumulated by photoelectrically converting a first light flux that has passed through a first region of an optical system (an imaging optical system 31).
  • An imaging optical system 31 an imaging optical system 31
  • a first focus detection pixel 11 and a second pixel (a second focus detection pixel) that outputs a second signal based on charges accumulated by photoelectrically converting the second light flux passing through the second region.
  • a movement control unit image stabilization control unit 28 that moves the imaging unit and outputs position information regarding the position of the imaging unit, and a position output by the movement control unit.
  • a detection unit (a body control unit 210) that detects a focus state of the optical system based on the information and the first signal and the second signal output by the imaging unit.
  • the camera 1 calculates the defocus amount using the position information of the image sensor 22 and the first and second focus detection signals. For this reason, the camera 1 can suppress a decrease in focus detection accuracy by changing the conversion coefficient K used for calculating the defocus amount according to the position of the image sensor 22.
  • the detection unit calculates an image shift amount between the image based on the first light beam and the image based on the second light beam based on the first signal and the second signal.
  • the detection unit obtains a distance (image height) from the optical axis OA1 at the time of charge accumulation of the target focus detection area based on the position information of the image sensor, and converts the image shift amount into a defocus amount. Is determined, and the image shift amount is converted into a defocus amount based on the determined conversion coefficient K.
  • the camera 1 can change the conversion coefficient used for calculating the defocus amount based on the position information of the image sensor 22. Thus, it is possible to suppress a decrease in the accuracy of the calculated defocus amount.
  • Modification 1 In the above-described embodiment, an example has been described in which one piece of position information detected at a time closest to the center time of a period in which charge accumulation is performed in the focus detection area 100 is selected and the conversion coefficient K is determined. However, a plurality of pieces of position information detected during a period in which charge accumulation is performed in the focus detection area 100 may be selected, and the conversion coefficient K may be determined using each piece of position information.
  • the conversion coefficient K may be determined. Further, the conversion coefficient K is determined by using the average position of the positions indicated by each of the four pieces of position information generated by detecting the positions of the arrows A2 to A5 as the position of the imaging element 22 during the charge accumulation of N frames. It may be.
  • a plurality of pieces of position information are interpolated to calculate the position of the image sensor 22 at the center time of the charge accumulation period of each frame, and the conversion coefficient K is determined based on the calculated position of the image sensor 22. Is also good.
  • a plurality of pieces of position information detected during the period in which charge accumulation is performed in the focus detection area 100 (for example, four pieces of position information generated by detecting the positions of arrows A2 to A5 in FIG.
  • the conversion coefficient K may be determined using position information acquired before and after the period (for example, two position information generated by detecting the positions of the arrows A1 and A6). If there is no position information detected during the period in which charge accumulation is performed in the focus detection area 100, the conversion coefficient K may be determined using position information acquired at a time close to this period. Good.
  • Modification 2 In the above-described embodiment, an example has been described in which the present invention is applied to the camera 1 that performs the reading control of the rolling shutter system. However, the present invention can be applied to the camera 1 that performs read control of the global shutter system. In this case, the conversion coefficient K may be determined using the same position information for all the focus detection areas of the image sensor.
  • the body control unit 210 may switch the cycle of detecting the position of the imaging element 22 by the position detection unit 27 according to the charge accumulation period (corresponding to the shutter speed) of the imaging element 22.
  • the body control unit 210 preferably shortens the interval of position detection by the position detection unit 27 as the charge accumulation period becomes shorter.
  • Modification 4 In the above-described embodiment and the modification, the example in which the position of the image sensor 22 is moved to perform the shake correction has been described. However, an image blur correction lens may be mounted on the photographing optical system 31, and the image blur correction may be performed by adjusting the position of the image blur correction lens.
  • the photographing optical system 31 of the interchangeable lens 3 has an image blur correction lens (also referred to as an anti-vibration lens) that moves along a plane orthogonal to the optical axis of the optical system.
  • an image blur correction lens also referred to as an anti-vibration lens
  • the position of the optical axis OA1 in the image sensor 22 changes.
  • the change in the position of the optical axis OA1 due to the movement of the image blur correction lens is equivalent to the change in the image height of the target focus detection area 100 due to the movement of the image sensor 22 described above. Therefore, the interchangeable lens 3 has a lens position detection unit that detects the position of the image blur correction lens.
  • the lens position detection unit is configured by an optical sensor, a magnetic sensor, or the like, detects the position of the image blur correction lens at a predetermined cycle, and repeatedly generates information on the position of the image blur correction lens (lens position information).
  • the lens position detector sequentially outputs the generated lens position information to the lens controller 32.
  • the lens control unit 32 stores the lens position information repeatedly output from the lens position detection unit in a memory inside the lens control unit 32.
  • the lens control unit 32 reads a plurality of pieces of lens position information stored in an internal memory at a predetermined cycle and outputs the information to the body control unit 210.
  • the body control unit 210 calculates the shake amount of the camera 1 using the shake signal, and controls the position of the image shake correction lens based on the shake amount of the camera 1. Specifically, the body control unit 210 determines the amount of movement of the image shake correction lens based on the amount of shake of the camera 1, and transmits the determined amount of movement of the image shake correction lens and a signal instructing lens driving to the lens control unit. To the unit 32. When the movement amount of the image blur correction lens and a signal instructing lens driving are input from the body control unit 210, the lens control unit 32 controls the image blur correction lens based on the signals.
  • the body control unit 210 performs control to move (shift) the image blur correction lens along a plane perpendicular to the optical axis OA1 of the imaging optical system 31 according to the amount of shake of the camera 1.
  • the image blur of the subject image is corrected by adjusting the position of the image blur correction lens according to the shake amount of the camera 1.
  • the focus detection unit 214 changes the conversion coefficient K used for calculating the defocus amount according to the position of the image blur correction lens.
  • processing performed by the focus detection unit 214 will be described.
  • the focus detection unit 214 of the body control unit 210 corrects image blur when charge is accumulated in the focus detection area 100 selected by the area selection unit 213 among the plurality of lens position information acquired from the lens control unit 32. Select the position information indicating the position of the lens.
  • the correspondence between the position of the image blur correction lens of the photographing optical system 31 and the conversion coefficient K is obtained in advance by simulation or experiment for each focus detection area 100, and is stored in a memory in the camera 1 as a data table or a calculation formula. Have been.
  • the focus detection unit 214 calculates the position of the image blur correction lens based on the selected position information.
  • the focus detection unit 214 refers to the above-described correspondence relationship stored in the memory and converts the conversion factor used for calculating the defocus amount. Determine K.
  • the focus detection unit 214 uses the lens position information of the image blur correction lens detected during the period in which charge accumulation is performed in the focus detection area 100 where focus detection is performed to calculate the defocus amount.
  • the coefficient K is determined, and the defocus amount is calculated using the determined conversion coefficient K. For this reason, when image blur correction is performed, it is possible to suppress a decrease in focus detection accuracy.
  • the body control unit 210 may control both the position of the image sensor 22 and the position of the image blur correction lens, or may control the position of the image sensor 22 and the position of the image blur correction lens. May be switchable. A mode in which the position of the image sensor 22 is adjusted in accordance with the shake of the camera 1 and a mode in which the position of the image shake correction lens is adjusted in accordance with the shake of the camera 1 are selectable by an operation of the operation unit 25 by a user or the like. Is also good.
  • Modification 6 In the above-described embodiment and modified examples, the example in which the conversion coefficient K used for calculating the defocus amount is changed according to the position of the image sensor 22 and the position of the image blur correction lens. However, the defocus amount may be corrected according to the position of the image sensor 22 or the position of the image blur correction lens. Further, the focus detection pixel pair used for focus detection may be switched according to the position of the image sensor 22 or the position of the image blur correction lens.
  • FIG. 8 is a diagram showing a configuration of a modified example of the focus detection pixels of the image sensor 22.
  • each focus detection area 100 of the image sensor 22 in addition to the imaging pixels, a plurality of types of focus detection pixel pairs having different positions of the light-shielding portions from each other.
  • FIG. 8 is a cross-sectional view of three types of focus detection pixel pairs arranged in a focus detection area 100c having a high image height and located rightward away from the center focus detection area 100a in FIG.
  • FIG. 8A shows an example of a cross section of the first and second focus detection pixels 11a and 12a constituting the first focus detection pixel pair, and FIG.
  • FIG. 8B shows the second focus detection.
  • 1 shows an example of a cross section of first and second focus detection pixels 11b and 12b forming a pixel pair for use in the present invention.
  • FIG. 8C shows an example of a cross section of the first and second focus detection pixels 11c and 12c that constitute the third focus detection pixel pair.
  • the same or corresponding parts as those of the above-described embodiment are denoted by the same reference numerals.
  • the right end of the light shielding portion 43L is shifted by a predetermined amount d1 to the right relative to the optical axis of the microlens 44.
  • the amount by which the light shielding portion 43 (the light shielding portions 43L and 43R) is displaced from the optical axis of the microlens 44 is referred to as a displacement amount.
  • the right end of the light shielding portion 43L is located on the right side by a shift amount d1 with respect to the optical axis OA2 of the microlens 44.
  • the left end of the light shielding portion 43R is shifted by the same amount d1 in the same direction as the shift direction of the first focus detection pixel 11a with respect to the optical axis of the microlens 44. That is, in the second focus detection pixel 12a, the left end of the light shielding portion 43R is located on the right side by the shift amount d1 with respect to the optical axis OA2 of the microlens 44.
  • the second and third focus detection pixel pairs differ from the first focus detection pixel pair in the above-described shift amounts.
  • the shift amount d2 between the first and second focus detection pixels 11b and 12b forming the second focus detection pixel pair is the first and second focus detection pixels 11a forming the first AF image pair. , 12a.
  • the amount of shift d3 between the first and second focus detection pixels 11c and 12c forming the third focus detection pixel pair is determined by the first and second focus detection pixels forming the second focus detection pixel pair. It is larger than the displacement d2 of the pixels 11b and 12b. That is, d1 ⁇ d2 ⁇ d3.
  • the first to third focus detection pixel pairs have different positions of the light-shielding portions, so that pupil division can be performed corresponding to mutually different incident angles.
  • the focus detection unit 214 compares the above-described shift amounts among the plurality of types of focus detection pixel pairs in the focus detection area 100. A pixel pair for focus detection that is relatively large is selected.
  • the focus detection unit 214 calculates the defocus amount using the first and second focus detection signals output from the selected focus detection pixel pair (first and second focus detection pixels). Thus, the amount of light received by each of the photoelectric conversion units 42 of the focus detection pixel pair can be ensured, and it is possible to prevent a decrease in focus detection accuracy when image blur correction is performed.
  • Modification 7 In the above-described embodiment, a case has been described in which a primary color (RGB) color filter is used for the image sensor 22, but a complementary color (CMY) color filter may be used.
  • RGB primary color
  • CMY complementary color
  • the imaging device described in the above-described embodiment and the modified examples may be applied to a camera, a smartphone, a tablet, a camera built in a PC, a vehicle-mounted camera, a camera mounted on an unmanned aerial vehicle (drone, radio control device, etc.), and the like. Good.
  • SYMBOLS 1 ... Camera (camera system), 2 ... Camera body, 3 ... Interchangeable lens, 11 ... Focus detection pixel, 12 ... Focus detection pixel, 13 ... Imaging pixel, 22 ... Image sensor, 23 ... Body memory, 26 ... Vibration detection unit, 27: Position detection unit, 31: Imaging optical system, 31a: Zoom lens, 31b: Focus lens, 31c: Aperture, 32: Lens control unit, 33: Lens memory, 210: Body control unit, 211: Imaging Control unit 212 image data generation unit 213 area selection unit 214 focus detection unit

Abstract

撮像装置は、光学系の第1の領域を通過した第1の光束を光電変換して蓄積した電荷に基づく第1信号を出力する第1画素と、前記光学系の第2の領域を通過した第2の光束を光電変換して蓄積した電荷に基づく第2信号を出力する第2画素とを有する撮像部と、前記撮像部を移動し、前記撮像部の位置に関する位置情報を出力する移動制御部と、前記移動制御部により出力された前記位置情報と、前記撮像部により出力される前記第1信号および前記第2信号とに基づいて、前記光学系の合焦状態を検出する検出部と、を備える。

Description

撮像装置
 本発明は、撮像装置に関する。
 撮像素子または防振用レンズを移動して手ブレを補正する防振部を有し、撮像素子または防振用レンズの移動量を用いて、焦点検出用画素からの信号に基づいて算出されたデフォーカス量を補正するカメラが知られている(特許文献1)。従来から焦点検出精度向上が求められている。
日本国特開2015-200847号公報
 第1の態様によると、撮像装置は、光学系の第1の領域を通過した第1の光束を光電変換して蓄積した電荷に基づく第1信号を出力する第1画素と、前記光学系の第2の領域を通過した第2の光束を光電変換して蓄積した電荷に基づく第2信号を出力する第2画素とを有する撮像部と、前記撮像部を移動し、前記撮像部の位置に関する位置情報を出力する移動制御部と、前記移動制御部により出力された前記位置情報と、前記撮像部により出力される前記第1信号および前記第2信号とに基づいて、前記光学系の合焦状態を検出する検出部と、を備える。
 第2の態様によると、撮像装置は、光学系からの光を光電変換して蓄積した信号を出力する焦点検出画素を有し、前記光学系の光軸と交わる方向に移動する撮像素子と、前記光学系の光軸と交わる方向における前記撮像素子の位置を、前記蓄積の間に複数回検出し、複数の位置情報を出力する位置検出部と、前記焦点検出画素から出力された前記信号と前記位置情報とから、前記撮像素子上の複数の領域において前記光学系と前記撮像素子との合焦状態を検出する合焦状態検出部と、を有する。
第1の実施の形態に係る撮像装置の構成例を示す図である。 第1の実施の形態に係る撮像素子の撮像面の焦点検出領域を示す図である。 第1の実施の形態に係る撮像素子の焦点検出領域内の画素の配置例を示す図である。 第1の実施の形態に係る撮像素子の画素の構成例を示す図である。 第1の実施の形態に係る撮像装置による像振れ補正を説明するための図である。 第1の実施の形態に係る撮像装置における処理の一例を示す図である。 第1の実施の形態に係る撮像素子内の小領域を示す図である。 変形例に係る撮像素子の焦点検出用画素の構成例を示す図である。
(第1の実施の形態)
 図1は、第1の実施の形態に係る撮像装置の一例であるカメラ1の構成例を示す図である。カメラ1は、カメラボディ2と交換レンズ3とから構成される。なお、本明細書では、カメラボディ2と交換レンズ3を有するカメラ1をカメラシステムとも呼ぶ。
 カメラボディ2には、交換レンズ3が取り付けられるボディ側マウント部201が設けられる。交換レンズ3には、カメラボディ2に取り付けられるレンズ側マウント部301が設けられる。交換レンズ3は、レンズ側マウント部301及びボディ側マウント部201により、カメラボディ2に着脱可能に装着される。レンズ側マウント部301及びボディ側マウント部201には、それぞれ通信端子群が備えられたレンズ側接続部302及びボディ側接続部202が設けられる。レンズ側接続部302及びボディ側接続部202には、それぞれクロック信号用の端子やデータ信号用の端子、電源供給用の端子等の複数の端子が設けられている。
 カメラボディ2に交換レンズ3が装着されると、ボディ側接続部202に設けられた複数の端子と、対応するレンズ側接続部302に設けられた複数の端子とが、それぞれ電気的に接続される。これにより、カメラボディ2から交換レンズ3への電力供給や、カメラボディ2と交換レンズ3の間の通信が可能となる。
 被写体からの光は、図1のZ軸プラス方向に向かって入射する。また、図1の座標軸に示すように、Z軸に直交する紙面手前方向をX軸プラス方向、Z軸及びX軸に直交する紙面下方向をY軸プラス方向とする。以降の図においては、図1の座標軸を基準として、それぞれの図の向きが分かるように座標軸を表示する場合もある。
 交換レンズ3は、撮影光学系(結像光学系)31と、レンズ制御部32と、レンズメモリ33とを備える。撮影光学系31は、焦点距離を変更するズームレンズ(変倍レンズ)31aやフォーカスレンズ(焦点調節レンズ)31bを含む複数のレンズと絞り31cとを含み、カメラボディ2の撮像素子22の撮像面22a上に被写体像を形成する。なお、撮像素子22の撮像面22aは、後述する光電変換部が配置される面、又はマイクロレンズが配置される面である。
 レンズ制御部32は、CPUやFPGA、ASIC等のプロセッサ、及びROMやRAM等のメモリによって構成され、制御プログラムに基づいて交換レンズ3の各部を制御する。レンズ制御部32は、カメラボディ2のボディ制御部210から出力される信号に基づき、ズームレンズ31a、フォーカスレンズ31b、及び絞り31cの駆動を制御する。レンズ制御部32は、ボディ制御部210からフォーカスレンズ31bの移動方向や移動量に関する信号が入力されると、その信号に基づいてフォーカスレンズ31bを光軸OA1に沿って移動させて撮影光学系31の焦点位置を調節する。また、レンズ制御部32は、カメラボディ2のボディ制御部210から出力される信号に基づき、ズームレンズ31aの位置や絞り31cの開口径を制御する。
 レンズメモリ33は、不揮発性の記憶媒体等により構成される。レンズメモリ33には、交換レンズ3に関連する情報がレンズ情報として記憶(記録)される。レンズ情報には、撮影光学系31の光学特性(射出瞳距離やF値)に関するデータが含まれる。射出瞳距離とは、撮影光学系31の射出瞳と撮影光学系31の結像面との間の距離である。なお、レンズ情報は、レンズ制御部32の内部のメモリに記憶するようにしてもよい。
 レンズメモリ33へのデータの書き込みや、レンズメモリ33からのデータの読み出しは、レンズ制御部32によって制御される。交換レンズ3がカメラボディ2に装着された後、レンズ制御部32は、レンズ側接続部302及びボディ側接続部202の通信端子を介して、レンズ情報をボディ制御部210に送信する。また、レンズ制御部32は、ズームレンズ31aの位置に関する情報や、フォーカスレンズ31bの位置に関する情報や、絞り31cの絞り値(F値)の情報などをボディ制御部210に送信する。
 次に、カメラボディ2の構成について、より詳しく説明する。カメラボディ2は、撮像素子22と、ボディメモリ23と、表示部24と、操作部25と、振れ検出部26と、位置検出部27と、防振制御部28と、ボディ制御部210とを備える。カメラボディ2は他に電源やメモリカード等を備えるが説明は省略する。
 撮像素子22は、CMOSイメージセンサ等の固体撮像素子である。撮像素子22は、CCDイメージセンサであってもよい。撮像素子22は、撮影光学系31を通過した光束を受光して、被写体像を撮像する。撮像素子22には、光電変換部を有する複数の画素が二次元状(例えば行方向及び列方向、X方向及びY方向)に配置される。光電変換部は、例えばフォトダイオード(PD)によって構成される。撮像素子22は、受光した光を光電変換して信号を生成し、生成した信号をボディ制御部210に出力する。
 撮像素子22は、後に説明するように、画像生成に用いる信号(撮像画像用信号)を出力する複数の撮像用画素と、焦点検出に用いる信号(焦点検出用信号)を出力する複数の焦点検出用画素(AF画素)とを有する。なお、撮像素子22は、画素内に複数の光電変換部を有し、撮像画像用信号と焦点検出用信号とを出力する画素を有しても構わない。
 また、撮像素子22は、振れ補正(ブレ補正)のために防振制御部28によって駆動移動され、光軸OA1と垂直な面(XY平面)に沿って移動する。
 ボディメモリ23は、不揮発性の記憶媒体等により構成される。ボディメモリ23には、画像データや制御プログラム等が記録される。ボディメモリ23へのデータの書き込みや、ボディメモリ23からのデータの読み出しは、ボディ制御部210によって制御される。表示部24は、画像データに基づく画像、AF枠などの焦点検出領域(AFエリア)を示す画像、シャッター速度や絞り値(F値)等の撮影に関する情報、及びメニュー画面等を表示する。操作部25は、レリーズボタン、電源スイッチ、各種モードを切り替えるためのスイッチなどの各種設定スイッチ等を含み、それぞれの操作に応じた操作信号をボディ制御部210へ出力する。
 振れ検出部26は、角速度センサ(ジャイロセンサ)あるいは加速度センサ等によって構成され、カメラ1を持つユーザの手振れによってカメラ1に加えられた振れ(ブレ)を検出する。振れ検出部26は、カメラ1の振れ量に応じた信号(振れ信号)を生成し、生成した振れ信号を防振制御部28に出力する。
 位置検出部27は、光センサあるいは磁気センサ等によって構成され、光軸OA1と垂直な面(XY平面)に沿って移動する撮像素子22の位置を検出する。位置検出部27は、撮像素子22の位置を所定の周期で検出し、撮像素子22の位置に関する情報(位置情報)を繰り返し生成する。位置検出部27は、生成した位置情報を防振制御部28に順次出力する。この位置情報には、図1に示すX軸方向における撮像素子22の位置を示す情報や、Y軸方向における撮像素子22の位置を示す情報や、撮像素子22の光軸OA1を中心とした回転(傾き)を示す情報が含まれる。撮像素子22の傾きを示す情報は、撮影光学系31の光軸OA1に垂直な面(XY平面)における撮像素子22の回転角度を示す情報である。
 防振制御部28は、振れ検出部26から出力された振れ信号に基づき、カメラ1の振れに起因する被写体像の像振れを打ち消すように振れ補正を行う。防振制御部28は、振れ信号を用いてカメラ1の振れ量を算出し、算出したカメラ1の振れ量に基づいて、この振れ量による像振れを打ち消すための撮像素子22の移動量を算出(決定)する。撮像素子22の移動量は、現在の撮像素子22の位置から像振れを打ち消すために撮像素子22を移動させるための、X軸方向の移動量、Y軸方向の移動量、および光軸OA1を中心とした回転移動量が含まれる。防振制御部28は、算出した移動量に従って撮像素子22の駆動制御を行い、撮像素子22の位置を調整する。防振制御部28は、カメラ1の振れ量に応じて、撮影光学系31の光軸OA1に垂直な面において、撮像素子22を上下左右方向への移動(シフト)および回転(ロール)させる。このように、カメラ1では、カメラ1の振れ量に応じて撮像素子22の位置が調整されることで、被写体像の像振れが補正される。
 また、防振制御部28は、位置検出部27から出力される撮像素子22の位置情報を、防振制御部28の内部のメモリに記憶させる。防振制御部28の内部のメモリには、周期的に検出された複数の位置情報が記憶される。防振制御部28は、内部のメモリに記憶された複数の位置情報を、所定の周期で読み出してボディ制御部210に出力する。
 以上のように、防振制御部28は、振れ検出部26からの振れ信号、及び位置検出部27からの位置情報を共に用いて撮像素子22の移動量を決定し、決定した撮像素子22の移動量に基づいて撮像素子22の位置を制御する。
 ボディ制御部210は、CPUやFPGA、ASIC等のプロセッサ、及びROMやRAM等のメモリによって構成され、制御プログラムに基づいてカメラ1の各部を制御する。ボディ制御部210は、撮像制御部211と、画像データ生成部212と、領域選択部213と、焦点検出部214とを有する。
 撮像制御部211は、撮像素子22の蓄積動作(撮像)を制御する信号を撮像素子22に供給して、撮像素子22の蓄積動作を制御する。撮像制御部211は、表示部24に被写体のスルー画像(ライブビュー画像)を表示する場合や、動画撮影を行う場合に、撮像素子22に所定周期のフレーム間隔で繰り返し被写体像を撮像させて、撮像画像用信号や焦点検出用信号を出力させる。撮像制御部211は、撮像素子22の画素を行単位で列方向に順次選択して、選択した画素から信号を読み出す、いわゆるローリングシャッタ方式の読み出し制御を行う。撮像素子22では、各画素の光電変換部に入射した光を光電変換して生成された電荷を蓄積する動作(蓄積動作)と蓄積した電荷に基づく信号を画素から読み出す動作(読み出し動作)とが、最上行から最下行に向かって1行または複数行毎に行われる。各行の蓄積動作の開始および終了時刻は、列方向では時間的にずれるがオーバーラップして行われる。蓄積動作に引き続いて行われる各行の読み出し動作の開始および終了時刻も、列方向では時間的にずれるがオーバーラップして行われる。
 画像データ生成部212は、撮像素子22から出力される撮像画像用信号に各種の画像処理を行って画像データを生成する。画像処理には、階調変換処理や色補間処理等の公知の画像処理が含まれる。生成された画像データは不図示のメモリカードに記録される。
 図2は、第1の実施の形態に係る撮像素子22の撮像面22aに設定された焦点検出領域100を示す図である。焦点検出領域100には複数の焦点検出用画素が配置されている。図2に示すように、撮像素子22の撮像面22aには、行方向(X方向)、列方向(Y方向)にマトリクス状に配置された複数の焦点検出領域100が設けられている。各焦点検出領域100は、カメラ1やユーザが選択可能な複数のAFエリアに対応する。図2では、複数の焦点検出領域100を間をあけて離散的に配置しているが、必ずしも全ての焦点検出領域100を離散的に配置する必要はなく、例えば行方向に配置する焦点検出領域は連続しても良いし、全ての焦点検出領域を間をあけることなく配置しても良い。
 領域選択部213は、図2に示した撮像素子22の撮像面22aに設定された複数の焦点検出領域100のうち、少なくとも一つの焦点検出領域100を選択(設定)する。各焦点検出領域100の領域は、表示部24に表示されたAF枠(範囲)に対応する。領域選択部213は、表示部24に表示された複数のAF枠のうちユーザが操作部25の操作によって選択したAF枠内の領域に対応する焦点検出領域100、又はカメラ1が自動的に選択した焦点検出領域100を、焦点検出を行う焦点検出領域として決定する。後述するが、領域選択部213により選択された焦点検出領域100内の複数の焦点検出用画素の焦点検出用信号を用いて、デフォーカス量の算出が行われる。
 撮影光学系31が形成する被写体像の位置と、カメラボディ2の撮像素子22の撮像面22aの位置とのズレがデフォーカス量に対応する。
 なお、図2に示すように、複数の焦点検出領域100は、2次元方向(行方向及び列方向)に分布して配置されており、各焦点検出領域100の撮像素子22の撮像面22aの中心からの距離は異なっている。すなわち、撮像素子22の中心が光軸OA1上にあるときに、複数の焦点検出領域100は、種々の像高の位置に設けられている。撮像素子22の移動前(像振れ補正前)において、撮像素子22の中央位置の焦点検出領域100aは、撮影光学系31の光軸OA1上に位置し、その像高が略ゼロである。焦点検出領域100は、撮影光学系31の光軸OA1からの距離が長くなるに従って、その像高Hが高く(大きく)なる。図2では、像高Hが高い焦点検出領域100の例として、中央の焦点検出領域100aと同じ行の左端及び右端に位置する焦点検出領域に、符号100b、100cを付している。
 また、焦点検出領域100は、所定の面積を有するので、厳密に言えば、一つの焦点検出領域100内の画素位置毎に像高は異なるが、本実施の形態にあっては、同一の焦点検出領域100に配置される複数の画素は、その像高Hが一定であるとして扱っており、焦点検出領域100の中心位置の像高Hの値を、その焦点検出領域100全体の像高値としている。中央の焦点検出領域100aでは、その領域全体が像高ゼロであり、上記の焦点検出領域100b、100cでは、その領域全体が所定の像高Hである。以下、図3及び図4を用いて、撮像素子22の焦点検出領域100に配置される画素について説明する。
 図3は、第1の実施の形態に係る撮像素子22のうちの、1つの焦点検出領域100内の画素の配置例を示す図である。撮像素子22の焦点検出領域100には、複数の撮像用画素13と第1の焦点検出用画素11と第2の焦点検出用画素12とが配置される。
 各撮像用画素13には、R(赤)、G(緑)、B(青)の異なる分光特性を有する3つのカラーフィルタ(色フィルタ)51のいずれか1つが設けられる。Rのカラーフィルタ51は主に赤色の波長域の光を透過し、Gのカラーフィルタ51は主に緑色の波長域の光を透過し、Bのカラーフィルタ51は主に青色の波長域の光を透過する。画素は、配置されたカラーフィルタ51によって異なる分光特性を有する。これにより、撮像用画素13には、赤(R)の分光特性を有する画素13r(以下、R画素と称する)と、緑(G)の分光特性を有する画素13g(以下、G画素と称する)と、青(B)の分光特性を有す画素13b(以下、B画素と称する)とがある。R画素とG画素とB画素とは、ベイヤー配列に従って配置されている。
 第1の焦点検出用画素11及び第2の焦点検出用画素12は、上述のようにベイヤー配列されたR、G、Bの撮像用画素13の一部を置換して配置される。第1の焦点検出用画素11及び第2の焦点検出用画素12には、カラーフィルタ51及び遮光膜(遮光部)43が設けられる。第1の焦点検出用画素11及び第2の焦点検出用画素12には、カラーフィルタ51として、Gのカラーフィルタが配置される。第1の焦点検出用画素11と第2の焦点検出用画素12とは、その遮光部43の位置が異なる。図3に示す例では、第1の焦点検出用画素11には画素受光部の左側に遮光部を配置し、第2の焦点検出用画素12には画素受光部の右側に遮光部を配置している。なお、第1の焦点検出用画素11及び第2の焦点検出用画素12には、カラーフィルタ51として、白(W)の分光特性を有するカラーフィルタを配置してもよいし、B(青)あるいはR(赤)のカラーフィルタを配置してもよい。あるいは、第1の焦点検出用画素11及び第2の焦点検出用画素12には、遮光膜43だけを設け、カラーフィルタ51を配置しなくてもよい。
 撮像素子22は、図3に示すように、R画素13rとG画素13gとが行方向(左右方向)に交互に配置される第1の画素群行401と、G画素13gとB画素13bとが行方向に交互に配置される第2の画素群行402とを有する。さらに、撮像素子22は、G画素13g、第1の焦点検出用画素11、及び第2の焦点検出用画素12が行方向に配置される第3の画素群行403を有する。なお、撮像素子22に配置される画素の数および配置は、図示した例に限られない。
 図3に示すように、1つの焦点検出領域100内には、第1の画素群行401、第2の画素群行402、第1の画素群行401、第3の画素群行403の4行が列方向にセットで配列され、この第1の画素群行401~第3の画素群行403の4行セットが列方向に繰り返し並んで配置される。
 なお、列方向に繰り返すセット行数は4行に限るものではない。セット行数に少なくとも1行の第3の画素群行403を含んでいればよく、例えば第1の画素群行401、第2の画素群行402、第1の画素群行401、第2の画素群行402、第1の画素群行401、第2の画素群行402、第1の画素群行401、および第3の画素群行403の8行、すなわち4行の第1の画素群行401と3行の第2の画素群行402と1行の第3の画素群行403とを列方向にセットで配列しても構わない。あるいは6行の第1の画素群行401と5行の第2の画素群行402と1行の第3の画素群行403との12行セットを列方向に繰り返すように配置しても構わない。
 また、図3に示す例では、2種類の焦点検出用画素を配置する焦点検出用画素行(第3の画素群行403)としてG画素13g、第1の焦点検出用画素11、及び第2の焦点検出用画素12を1行に配置しているが、これに限らない。例えばG画素13gと第1の焦点検出用画素11とを1行に配置し、G画素13gと第2の焦点検出用画素12とを異なる1行に配置しても構わない。つまり画素受光部の左側に遮光部を備える第1の焦点検出用画素11を配置する行と、画素受光部の右側に遮光部を備える第2の焦点検出用画素12を配置する行と、を異なる行としても良い。その場合、第1の焦点検出用画素11を配置する行を1行含む行セットと、第2の焦点検出用画素12を配置する行を1行含む行セットとを列方向に配列すると良い。具体的には、6行の第1の画素群行401と5行の第2の画素群行402と1行の第1の焦点検出用画素11を配置する行との12行セットおよび6行の第1の画素群行401と5行の第2の画素群行402と1行の第2の焦点検出用画素12を配置する行との12行セットの合計24行セットを列方向に繰り返すように配置しても構わない。
 図4は、第1の実施の形態に係る撮像素子22で生成される信号を説明するための図である。図4は、撮像素子22に設けられた画素のうち、1つの第1の焦点検出用画素11(図4(a))と、1つの第2の焦点検出用画素12(図4(b))と、1つの撮像用画素13(図4(c))とを示している。
 撮像用画素13は、マイクロレンズ44と、カラーフィルタ51と、マイクロレンズ44及びカラーフィルタ51を透過(通過)した光束を受光する光電変換部(受光部、PD)42とを有する。第1及び第2の焦点検出用画素11、12は共に、マイクロレンズ44と、カラーフィルタ51と、マイクロレンズ44及びカラーフィルタ51を透過した光束の一部を遮光する遮光部43と、マイクロレンズ44及びカラーフィルタ51を透過し、遮光部43で遮光されなかった光束が入射する光電変換部(受光部、PD)42とを有する。
 撮影光学系31の射出瞳を略2等分した一方の第1の瞳領域を通過した光束を第1の光束61とし実線矢印で示し、略2等分した他方の第2領域を通過した光束を第2の光束62とし、破線矢印で示す。
 図4(a)において、第1の焦点検出用画素11には、第1及び第2の光束61、62のうちの第2の光束62を遮光する左側遮光部43Lが設けられる。左側遮光部43Lは、カラーフィルタ51と光電変換部42との間に位置し、光電変換部42の上に設けられている。図4(a)に示すように、第1の焦点検出用画素11は左側遮光部43Lを設けているため、光電変換部42には、撮影光学系31の射出瞳のうちの第1の瞳領域を通過した第1の光束61のみが入射する。第1の焦点検出用画素11の光電変換部42は、第1の光束61を受光する。第1の焦点検出用画素11は、光電変換部42において第1の光束61を光電変換して電荷を蓄積し、蓄積した電荷量に基づく第1の焦点検出用信号Sig1を出力する。なお左側遮光部43Lは光電変換部42の上ではなく、カラーフィルタ51と光電変換部42の中間の位置に設けてもよい。
 図4(b)において、第2の焦点検出用画素12には、第1の光束61を遮光する右側遮光部43Rが設けられる。右側遮光部43Rは、カラーフィルタ51と光電変換部42との間に位置し、光電変換部42の上に設けられている。図4(b)に示すように、第1の焦点検出用画素11は右側遮光部43Rを設けているため、光電変換部42には、撮影光学系31の射出瞳のうちの第2の瞳領域を通過した第2の光束62のみが入射する。第2の焦点検出用画素12の光電変換部42は、第2の光束62を受光する。第2の焦点検出用画素12は、光電変換部42において第2の光束62を光電変換して電荷を蓄積し、蓄積した電荷量に基づく第2の焦点検出用信号Sig2を出力する。なお右側遮光部43Rは光電変換部42の上ではなく、カラーフィルタ51と光電変換部42の中間の位置に設けてもよい。
 図4(c)に示すように、遮光部を備えていない撮像用画素13の光電変換部42は、第1及び第2の光束61、62をそれぞれ受光する。上述したように、撮像用画素13のカラーフィルタ51は、R(赤)、G(緑)、B(青)いずれか1つが設けられる。撮像用画素13は、第1及び第2の光束61、62を光電変換して電荷を蓄積し、蓄積した電荷量に基づく撮像画像用信号を出力する。
 図1に戻り、焦点検出部214は、撮影光学系31の自動焦点調節(AF)に必要な処理を行う。焦点検出部214は、デフォーカス量を算出する処理と、デフォーカス量に基づいて、撮影光学系31を通過した被写体光束を撮像面22aに結像させるためにフォーカスレンズ31bを移動する移動量(駆動量)を計算する処理とを行う。焦点検出部214は、領域選択部213により選択された焦点検出領域100内の第1及び第2の焦点検出用画素11、12から出力される第1及び第2の焦点検出用信号Sig1、Sig2を用いて、瞳分割型の位相差検出方式によりデフォーカス量を算出する。また焦点検出部214は、算出したデフォーカス量に基づいてフォーカスレンズ31bの移動量を算出する。
 より詳しくデフォーカス量の算出処理を説明すると、焦点検出部214は、第1の焦点検出用信号Sig1と第2の焦点検出用信号Sig2とを相関演算して、像ずれ量Δを算出する。焦点検出部214は、この像ずれ量Δを所定の換算式に基づきデフォーカス量に換算する。像ずれ量Δをデフォーカス量Defに換算する換算式は、換算係数(変換係数)Kを用いて以下のように表すことができる。
    Def=K×Δ …(1)
 上述したように、防振制御部28は、位置検出部27により検出された撮像素子22の位置情報をボディ制御部210に出力する。ボディ制御部210の焦点検出部214は、後述するが、防振制御部28から出力された位置情報に基づいて、選択された焦点検出領域100の光軸OA1からの像高を加味して換算係数Kを決定する。焦点検出部214は、決定した換算係数Kと上記の式(1)とに基づき、像ずれ量Δをデフォーカス量Defに換算する。
 焦点検出部214は、デフォーカス量が所定の許容値以内か否かを判定する。焦点検出部214は、デフォーカス量が許容値以内であれば合焦していると判断する。一方、焦点検出部214は、デフォーカス量が許容値を超えている場合は合焦していないと判断し、算出したデフォーカス量Defに基づいて、合焦位置までのフォーカスレンズ31bの移動量を算出する。そして、焦点検出部214は、交換レンズ3のレンズ制御部32へフォーカスレンズ31bの移動量とレンズ駆動を指示する信号を送信する。焦点検出部214からの指示を受けたレンズ制御部32が、移動量に応じてフォーカスレンズ31bを移動することにより、焦点調節が自動で行われる。
  図5は、第1の実施の形態に係るカメラ1による像振れ補正を説明するための図である。図5(a)は、水平方向(X軸方向)に加わった手振れによって被写体像の位置が変化した例を示している。図5(a)において、点線で示す被写体像71aは、カメラ1の振れが生じる前の被写体像を示し、点線で示す撮像面22a1は、移動前(補正前)の撮像素子22の撮像面(の位置)を示している。カメラ1の振れが生じる前は、被写体像71aが撮像面22a1の中央に位置している。
 実線で示す被写体像71bは、カメラ1の振れが生じた場合の被写体像を示しており、撮像面22a1の中央よりも右側(+X方向)に位置している。防振制御部28は、手振れによってカメラ1に振れが与えられると、像振れを打ち消すように撮像素子22を移動させる。図5(a)に示すような像振れが生じた場合、防振制御部28は、上述したように、カメラ1の振れ量に応じて光軸OA1と垂直な面(XY平面)に沿って撮像素子22を矢印75で示すように+X方向に移動させる。実線で示す撮像面22a2は、移動後(補正後)の撮像素子22の撮像面の位置を示している。撮像素子22(の撮像面)は、防振制御部28によって駆動制御されて、点線で示す位置から実線で示す位置に移動する。移動後の撮像面22a2においては、被写体像71bは撮像面22a2の中央に位置している。
 図5(b)は、被写体像の位置の変化の別の例を示しており、手振れによって被写体像がZ軸回りに回転した場合を示している。図5(b)において、点線で示す被写体像71aは、カメラ1の振れが生じる前の被写体像を示し、点線で示す撮像面22a1は、移動前の撮像素子22の撮像面を示している。また、実線で示す被写体像71cは、カメラ1の振れが生じた場合の被写体像を示し、実線で示す撮像面22a3は、移動後の撮像素子22の撮像面を示している。図5(b)に示す例の場合、防振制御部28は、カメラ1のロール方向の回転振れを打ち消すように、矢印76で示すように撮像素子22を回転させることで、像振れを補正する。
 上述のように、防振制御部28は、カメラ1の振れを打ち消すように、撮像素子22を移動させる。撮像素子22がシフト量(x、y)だけ移動された場合、撮像面22aの中心はシフト量(x、y)だけ移動し、各焦点検出領域100はいずれもシフト量(x、y)だけ移動する。図2に示す中央の焦点検出領域100aも、焦点検出領域100b、100cも、シフト量(x、y)だけ移動する。このように、撮像素子22の移動によって、撮影光学系31の光軸OA1と撮像素子22の中心との相対位置関係が変化し、各焦点検出領域100の像高が変化する。
 撮像素子22の移動によって焦点検出領域100の像高が変わると、撮影光学系31を通過した光束のその焦点検出領域100の第1及び第2の焦点検出用画素への入射角が変わるため、第1及び第2の焦点検出用画素のそれぞれで蓄積される電荷量が変わる。また、第1及び第2の焦点検出用画素は、電荷の蓄積動作が行われる期間(電荷蓄積期間)の間に蓄積された電荷量に基づいて、第1及び第2の焦点検出用信号を生成する。このため、電荷蓄積期間における撮像素子22の位置に応じて、第1及び第2の焦点検出用画素において蓄積される電荷量が変わり、第1及び第2の焦点検出用信号を用いて算出される像ずれ量の大きさが変化する。
 中央の焦点検出領域100aを例にとって説明すると、振れ補正により撮像素子22が移動し焦点検出領域100aが光軸OA1上に位置しない場合に、焦点検出領域100aが光軸OA1上に位置する場合を想定した換算係数Kの値をそのまま上述した像ずれ量Δをデフォーカス量Defに換算する換算式に用いると、算出されるデフォーカス量の精度が低下することになる。
 そこで、本実施の形態に係る焦点検出部214は、電荷の蓄積が行われる電荷蓄積期間における撮像素子22の位置に応じて、デフォーカス量の算出に用いる換算係数Kの値を変更する。この場合、焦点検出部214は、焦点検出に用いる焦点検出領域100の電荷蓄積期間中の位置が光軸OA1から離れるほど、上述の換算係数Kの値が大きくなるように設定(補正)する。換言すると、焦点検出領域100の電荷蓄積期間中の像高が撮像素子22の移動に伴って大きくなる程、上述の換算係数Kの値が大きくなるように設定する。これにより、像振れ補正が行われて撮像素子22の中心と撮影光学系31の光軸OA1とがずれる場合に、焦点検出精度が低下することを抑制することができる。以下に、焦点検出部214が行う処理について説明する。
 焦点検出部214は、防振制御部28を介して取得した撮像素子22の位置情報のうち、領域選択部213により選択された焦点検出領域100の電荷蓄積期間に、位置検出部27により検出された位置情報を選択する。上述したように、撮像素子22では、画素における電荷の蓄積動作が、最上行から最下行に向かって行毎に走査しながら行われる。焦点検出領域100の電荷蓄積期間は、その焦点検出領域100に配置された画素が含まれる画素行において電荷の蓄積動作が行われる期間である。このように、焦点検出部214は、位置検出部27により検出された複数の位置情報のうち、領域選択部213により選択された焦点検出領域100の電荷蓄積期間における撮像素子22の位置を示す位置情報を選択する。
 焦点検出部214は、選択した撮像素子22の位置情報に基づいて、デフォーカス量の算出に用いる換算係数Kを算出する。焦点検出領域100毎に、撮影光学系31を通過した光束の焦点検出用画素への入射角と換算係数Kとの対応関係が予めシミュレーションや実験等により求められ、データテーブルや計算式としてボディ制御部210の内部のメモリに記憶されている。焦点検出部214は、選択した撮像素子22の位置情報に基づいて、領域選択部213により選択された焦点検出領域100の像高Hを算出し、算出した像高Hを用いてその焦点検出領域100の焦点検出用画素への光束の入射角を算出する。焦点検出部214は、算出した入射角に基づいて、領域選択部213により選択された焦点検出領域100についての上述の対応関係を参照することにより、デフォーカス量の算出に用いる換算係数Kを決定する。このように、本実施の形態では、電荷蓄積期間における撮像素子22の位置に関する位置情報に基づいて、デフォーカス量の算出に用いる換算係数Kの値を変更する。このため、像振れ補正が行われた場合に焦点検出の精度が低下することを抑えることができる。
 なお、換算係数Kを決定する方法は、上記の方法に限らない。焦点検出部214は、撮像素子22の位置と換算係数Kとの対応関係を参照して、換算係数Kを決定するようにしてもよい。この場合、撮像素子22の位置と換算係数Kとの対応関係が、焦点検出領域100毎に予め実験等により求められ、データテーブル等としてボディ制御部210の内部のメモリに記憶されている。焦点検出部214は、選択した撮像素子22の位置情報から撮像素子22の位置を把握して、領域選択部213により選択された焦点検出領域100についての上記の対応関係を参照し、デフォーカス量の算出に用いる換算係数Kを決定する。
 図6は、第1の実施の形態に係るカメラ1における処理の一例を示す図である。図6において、複数の横軸は共通の時間軸である。図6では、同一の時間軸に、撮像素子22のV信号(垂直同期信号とも称する)(図6(a))と、撮像素子22の位置の検出処理(図6(b))と、撮像素子22による電荷蓄積処理(図6(c))と、位置情報の通信処理(図6(d))と、AF処理(図6(e)、(f))と、レンズ制御部32によるレンズ制御(図6(g))と、フォーカスレンズ31bの位置(図6(h))とを示している。
 V信号(垂直同期信号)は、撮影のフレームレートに基づいて撮像素子22内のパルス発生回路等によって生成される。V信号は、1フレームごとに生成される信号であり、フレームレートに従った時間間隔で生成される。図6において、位置検出処理と、電荷蓄積処理と、位置情報の通信処理と、AF処理と、レンズ制御とは、それぞれV信号に同期して行われる。
 図6(b)の実線の矢印A1~A15は、第Nフレーム~第(N+3)フレームの処理を行っている間に位置検出部27により撮像素子22の位置の検出が行われて、撮像素子22の位置情報が生成されるタイミングを示している。位置検出部27は、1フレームよりも短く、かつ一定の間隔(△t)で位置検出を行い、1フレームの間に複数の位置情報を取得する。
 撮像素子22の電荷蓄積処理を、図6(c)に示す。図6(c)に示す例では、図7に示す撮像素子22内の第1、第2、及び第3の小領域81、82、83において順次に電荷蓄積が行われる場合を示している。第1~第3の小領域81~83は、撮像面22aを上下方向に3分割したもので、上領域(小領域81)、中領域(小領域82)、下領域(小領域83)と分けている。第1~第3の小領域81~83は、図7に示すように、それぞれ複数の焦点検出領域100を含む。
 図6(c)は、第1~第3の小領域81~83のそれぞれにおいて、最上行の画素における電荷蓄積が開始されて最下行の画素における電荷蓄積が終了するまでの処理を、フレーム毎に模式的に示している。図6(c)の平行四辺形の領域内で、各フレームの電荷蓄積が行われる。すなわち、最初の行(第1の小領域81の一番上のライン)が電荷の蓄積を行う時間と最後の行(第3の小領域83の一番下のライン)が電荷の蓄積を行う時間は、ずれている(ローリングシャッタとも呼ばれる)。撮像素子22は、V信号に基づいて撮像素子22の電荷蓄積を行ってフレーム毎に繰り返し被写体像を撮像し、第1~第3の小領域81~83内の撮像用画素の撮像画像用信号及び焦点検出用画素の焦点検出用信号(第1及び第2の焦点検出用信号)を出力する。
 以下では、第1の小領域81内の複数の焦点検出領域100のうち、その第1の小領域81の上下の中央の行に位置する焦点検出領域100d(図7参照)から出力された焦点検出用信号を用いてAF処理を行う例について説明する。AF処理は、図6(e)及び図6(f)に示されている。時刻t1から時刻t6、時刻t6から時刻t12、及び時刻t12から時刻t18までの期間は、それぞれ、第Nフレーム、第(N+1)フレーム、及び第(N+2)フレームにおいて第1の小領域81の最上行から最下行に向かって順次に走査(ローリングシャッタ)しながら電荷蓄積処理が行われる期間である。また、時刻t2から時刻t5、時刻t7から時刻t11、及び時刻t13から時刻t17までの期間は、それぞれ、第Nフレーム、第(N+1)フレーム、及び第(N+2)フレームにおいて第1の小領域81の中央行の焦点検出領域100dで電荷蓄積処理が行われる期間である。
 図6(d)に示すように、時刻t3から時刻t4までの期間において、防振制御部28は、時刻t0から時刻t3までの間に△t間隔で発生する撮像素子22の位置情報(矢印A1~A4の4つ)を、ボディ制御部210に出力する。ボディ制御部210は、防振制御部28により出力された4つの位置情報を、内部のメモリに記憶させる。
 図6(e)に示すように、時刻t5から時刻t8までの期間において、焦点検出部214は、電荷蓄積処理された第Nフレームにおける焦点検出領域100dから出力される一対の焦点検出用信号、即ち、時刻t2から時刻t5までの期間に焦点検出領域100dの第1及び第2の焦点検出用画素において蓄積された電荷に基づく一対の信号列に対して相関演算処理を行う。
 時刻t9から時刻t10までの期間において、防振制御部28は、時刻t3から時刻t8までの間に△t間隔で発生する撮像素子22の位置情報(矢印A5~A8の4つ)を、ボディ制御部210に出力する。ボディ制御部210は、すでに記憶されている4つの位置情報(矢印A1~A4の4つ)に加えて、防振制御部28により出力された4つの位置情報(矢印A5~A8の4つ)を、内部のメモリに記憶させる。
 図6(f)に示すように、時刻t11から時刻t14までの期間においては、焦点検出部214は、第Nフレームにおける電荷蓄積処理によって焦点検出領域100dから出力される信号を用いた相関演算結果(図6(e)の時刻t5~t8で示す第Nフレームにおける相関演算結果)に基づき、像ずれ量Δを算出する。また、焦点検出部214は、内部のメモリに記憶された撮像素子22の複数の位置情報(矢印A1~A8の8つ)のうち、第Nフレームにおいて焦点検出領域100dにおいて電荷蓄積が行われるときに検出された位置情報を選択する。説明対象の焦点検出領域100dは第1の小領域81の中央行の中央(図7参照)に位置するので、焦点検出領域100dにおいて電荷蓄積が行われる時刻t2から時刻t5までの期間の中心時刻に最も近い時刻に検出された位置情報を選択する。図6に示す例の場合、焦点検出部214は、時刻t2から時刻t5までの期間の中心時刻に最も近いタイミングA3で検出された位置情報を選択する。これにより、焦点検出部214は、焦点検出領域100dの第Nフレーム蓄積時における光軸OA1からの距離(像高)を求める。つまり、焦点検出部214は、撮像面22a上での焦点検出領域100dの位置の情報(撮像面22aの中心からの距離)及び焦点検出領域100dにおいて電荷蓄積が行われる時刻での撮像素子22の位置情報により、焦点検出領域100dの第Nフレーム蓄積時における光軸OA1からの距離(像高)を求める。
 また、焦点検出部214は、時刻t11から時刻t14までの期間中に、第Nフレームにおける焦点検出領域100dから出力された信号を用いて算出した像ずれ量Δをデフォーカス量に換算するための換算係数Kを、上述した焦点検出領域100dの第Nフレーム蓄積時における光軸OA1からの距離(像高H)に基づき決定する。焦点検出部214は、決定した換算係数Kに基づき、上述した換算式で像ずれ量をデフォーカス量に換算する。また、ボディ制御部210は、算出したデフォーカス量に基づき、フォーカスレンズ31bの移動量を算出する。焦点検出部214は、フォーカスレンズ31bの駆動を指示する信号と、算出したフォーカスレンズ31bの移動量に関する情報とを、レンズ制御部32に送信する。換算係数Kの決定処理、及びフォーカスレンズ31bの移動量の算出処理は、図6(f)のAF処理に含まれている。
 図6(g)に示すように、時刻t14から時刻t15までの期間において、交換レンズ3のレンズ制御部32は、時刻t11から時刻t14までの期間において焦点検出部214により算出されたフォーカスレンズ31bの移動量に基づき、フォーカスレンズ31bの移動を開始させて焦点調節を行う。
 以上第Nフレームの処理に引き続き、第(N+1)フレームの処理が行われる。時刻t6から第(N+1)フレームの蓄積が行われ、時刻t7から時刻t11までの期間で第(N+1)フレームにおける第1の小領域81の中央行の焦点検出領域100dで電荷蓄積処理が行われる。
 上述したように時刻t9から時刻t10までの期間において、防振制御部28は、4つの位置情報(矢印A5~A8、図6(b)参照))を、ボディ制御部210に出力する。ボディ制御部210は、防振制御部28により出力された4つの位置情報を、内部のメモリに記憶させる。
 時刻t11から時刻t16までの期間(図6(e)参照)において、焦点検出部214は、第(N+1)フレームにおける電荷蓄積処理によって焦点検出領域100dから出力される一対の焦点検出用信号、即ち、時刻t7から時刻t11までの期間に焦点検出領域100dの第1及び第2の焦点検出用画素において蓄積された電荷に基づく一対の信号列に対して相関演算処理を行う。
 時刻t17から時刻t19までの期間(図6(f)参照)において、焦点検出部214は、第(N+1)フレームにおける電荷蓄積処理によって焦点検出領域100dから出力される信号を用いた相関演算結果に基づき、像ずれ量Δを算出する。また、焦点検出部214は、内部のメモリに記憶された複数の位置情報のうち、第(N+1)フレームにおいて焦点検出領域100dにおいて電荷蓄積が行われるときに検出された位置情報を選択する。第Nフレームと同様に、焦点検出領域100dは第1の小領域81の中央行の中央(図7参照)に位置するので、焦点検出領域100dにおいて電荷蓄積が行われる時刻t7から時刻t11までの期間の中心時刻に最も近いタイミングA7で検出された位置情報を選択する。これにより、焦点検出部214は、焦点検出領域100dの第(N+1)フレーム蓄積時における光軸OA1からの距離(像高)を求める。
 そして、焦点検出部214は、時刻t17から時刻t19までの期間中に、第(N+1)フレームにおける焦点検出領域100dから出力された信号を用いて算出した像ずれ量をデフォーカス量に換算するための換算係数Kを、上述した焦点検出領域100dの第(N+1)フレーム蓄積時における光軸OA1からの距離(像高)に基づき決定する。焦点検出部214は、選択した位置情報に基づいて換算係数Kを決定し、決定した換算係数Kに基づいて像ずれ量をデフォーカス量に換算する。また、ボディ制御部210は、算出したデフォーカス量に基づき、フォーカスレンズ31bの移動量を算出する。焦点検出部214は、フォーカスレンズ31bの駆動を指示する信号と、算出したフォーカスレンズ31bの移動量に関する情報とを、レンズ制御部32に送信する。
 時刻t19から時刻t20までの期間(図6(g)参照)において、レンズ制御部32は、時刻t17から時刻t19までの期間において焦点検出部214により算出されたフォーカスレンズ31bの移動量に基づき、フォーカスレンズ31bの移動を開始させて焦点調節を行う。
 以上のように、本実施の形態に係るカメラ1は、撮像素子22の位置情報を1フレーム間隔より短い所定の時間間隔で記録して(図6(b))、焦点検出を行う焦点検出領域100の撮像面22a内の位置に応じて、焦点検出を行う焦点検出領域100の電荷蓄積が行われた時刻に最も近い時刻に検出された位置情報を選択する。図6に示す例の場合、焦点検出部214は、第Nフレームの処理において、時刻t2から時刻t5までの期間の中心時刻に最も近いタイミングA3で検出された位置情報を選択する。選択した撮像素子22の位置情報と、焦点検出を行う焦点検出領域100dの撮像面22a内の位置の情報(撮像面22aの中心から焦点検出領域100dまでの距離)とより、焦点検出部214は、焦点検出領域100dの第Nフレーム蓄積時における光軸OA1からの距離(像高H)を求める。対象とする焦点検出領域100dの蓄積時における光軸OA1からの距離(像高H)に基づいて換算係数Kを求める。蓄積された電荷に基づく信号について相関演算処理(図6(e))を行い像ずれ量を算出し、算出した像ずれ量を電荷蓄積時における像高Hに基づいて求めた変換係数Kを用いてデフォーカス量に換算して(図6(f))、フォーカスレンズ31bを駆動する(図6(g))。
 繰り返しになるが、カメラ1は、時刻t2から時刻t5で蓄積された電荷に基づく第Nフレームの焦点検出用信号について、時刻t3から時刻t4で位置情報を記録し、時刻t5から時刻t8で相関演算処理を行い、時刻t11から時刻t14でデフォーカス換算して、時刻t14から時刻t15でフォーカスレンズ31bの駆動を開始する。さらに、カメラ1は、時刻t7から時刻t11で蓄積された電荷に基づく第(N+1)フレームの焦点検出用信号について、時刻t9から時刻t10で位置情報を記録し、時刻t11から時刻t16で相関演算処理を行い、時刻t17から時刻t19でデフォーカス換算して、時刻t19から時刻t20でフォーカスレンズ31bの移動を開始する。
 図6を用いて、撮像面22aを上下方向に3分割したうちの上領域である第1の小領域81の中央の焦点検出領域100d(図7参照)から出力された焦点検出用信号を用いてAF処理を行う例について説明したが、同様にして中領域である第2の小領域82の中央の焦点検出領域100eや、下領域である第3の小領域83の中央の焦点検出領域100f等の他の焦点検出領域100から出力された焦点検出用信号を用いてAF処理を行う場合も同様にAF処理を行うことができる。第2の小領域82の中央の焦点検出領域100eでAF処理を行う場合は、第Nフレームにおいて矢印A4の位置検出により生成された位置情報を選択して、焦点検出領域100eの電荷蓄積時の光軸OA1からの距離(像高H)を求めて換算係数Kを決定し、決定した換算係数Kを用いてデフォーカス量の算出を行う。また、引き続く第(N+1)フレームにおいて焦点検出領域100eから出力される信号を用いたデフォーカス量の算出では、矢印A8の位置検出により生成された位置情報を選択して換算係数Kを決定し、決定した換算係数Kを用いてデフォーカス量の算出を行う。
 また、第3の小領域83の中央の焦点検出領域100fでAF処理を行う場合は、第Nフレームにおいて、矢印A5の位置検出により生成された位置情報を選択して、焦点検出領域100eの電荷蓄積時の光軸OA1からの距離(像高)を求めて換算係数Kを決定し、決定した換算係数Kを用いてデフォーカス量の算出を行う。なお、矢印A5の位置情報は時刻t9からt10の間で受信(図6(d))するので、その後の相関演算(図6(e))は時刻t11~t16で行い、デフォーカス量算出(図6(f))は時刻t17~t19で行い、レンズ制御(図6(g))は時刻t19~t20で行う。そして引き続く第(N+1)フレームにおいて焦点検出領域100fから出力される信号を用いてデフォーカス量の算出を行う場合、矢印A9の位置検出により生成された位置情報を選択して換算係数Kを決定し、決定した換算係数Kを用いてデフォーカス量の算出を行う。
 なお、第1~第3の小領域81~83内の中央以外の焦点検出領域、例えば左上隅あるいは右下隅の焦点検出領域100から出力される信号を用いてデフォーカス量の算出を行う場合も、焦点検出部214は、その中央以外の焦点検出領域100における電荷蓄積期間の中心時刻に最も近いタイミングで検出された位置情報を選択する。対象とする焦点検出領域100の撮像面22a内の位置(撮像面22aの中心から対象とする焦点検出領域100までの距離)と、選択された撮像素子22の位置情報とにより、対象とする焦点検出領域100の電荷蓄積時の光軸OA1からの距離(像高H)を求めて換算係数Kを決定する。そして、決定した換算係数Kに基づいてデフォーカス量の算出を行う。
 このように、本実施の形態に係る焦点検出部214は、焦点検出に用いる焦点検出領域100の電荷蓄積期間において検出された撮像素子22の位置情報に基づき、対象とする焦点検出領域100の電荷蓄積時の光軸OA1からの距離(像高H)を求めて、デフォーカス量の算出に用いる換算係数Kを変更する。このため、焦点検出部214は、像振れ補正のために撮像素子22が移動された場合に、電荷蓄積期間の撮像素子22の位置を考慮して、デフォーカス量の算出に適した換算係数Kを決定することができ、焦点検出精度が低下することを抑えることができる。
 上述した実施形態についてまとめると、以下のとおりである。
(1)撮像装置(カメラ1)は、光学系(撮影光学系31)の第1の領域を通過した第1の光束を光電変換して蓄積した電荷に基づく第1信号を出力する第1画素(第1の焦点検出用画素11)と、第2の領域を通過した第2の光束を光電変換して蓄積した電荷に基づく第2信号を出力する第2画素(第2の焦点検出用画素12)とを有する撮像部(撮像素子22)と、撮像部を移動し、撮像部の位置に関する位置情報を出力する移動制御部(防振制御部28)と、移動制御部により出力された位置情報と、撮像部により出力される第1信号および第2信号とに基づいて、光学系の合焦状態を検出する検出部(ボディ制御部210)と、を備える。本実施の形態では、カメラ1は、撮像素子22の位置情報と第1及び第2の焦点検出用信号を用いてデフォーカス量の算出を行う。このため、カメラ1は、撮像素子22の位置に応じてデフォーカス量の算出に用いる換算係数Kを変更して、焦点検出精度の低下を抑制することが可能となる。
(2)検出部(ボディ制御部210)は、第1信号と第2信号とに基づいて、第1の光束による像と第2の光束による像との像ずれ量を算出する。検出部は、撮像素子の位置情報に基づいて対象とする焦点検出領域の電荷蓄積時の光軸OA1からの距離(像高)を求めて、像ずれ量をデフォーカス量に変換する換算係数Kを決定し、決定した換算係数Kに基づいて像ずれ量をデフォーカス量に変換する。このようにしたので、カメラ1は、撮像素子22の位置情報に基づき、デフォーカス量の算出に用いる換算係数を変更することができる。これにより、算出されるデフォーカス量の精度が低下することを抑制することができる。
 次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
 上述した実施の形態では、焦点検出領域100において電荷蓄積が行われる期間の中心時刻に最も近い時刻に検出された1つの位置情報を選択して、換算係数Kを決定する例について説明した。しかし、焦点検出領域100において電荷蓄積が行われる期間内に検出された複数の位置情報を選択して、それぞれの位置情報を用いて換算係数Kを決定するようにしてもよい。
 図6(b)に示す矢印A2~A4の位置検出により生成された3つの位置情報の各々が示す位置の平均位置を、Nフレームの電荷蓄積時における撮像素子22の位置として用いて、換算係数Kを決定するようにしてもよい。また、矢印A2~A5の位置検出により生成された4つの位置情報の各々が示す位置の平均位置を、Nフレームの電荷蓄積時における撮像素子22の位置として用いて、換算係数Kを決定するようにしてもよい。
 更に、複数の位置情報を補間処理して、各フレームの電荷蓄積期間の中心時刻における撮像素子22の位置を算出し、算出した撮像素子22の位置に基づいて換算係数Kを決定するようにしてもよい。
 また、焦点検出領域100において電荷蓄積が行われる期間内に検出された複数の位置情報(例えば、図6(b)の矢印A2~A5の位置検出により生成された4つの位置情報)と、この期間の前後に取得された位置情報(例えば、矢印A1、A6の位置検出により生成された2つの位置情報)とを用いて、換算係数Kを決定するようにしてもよい。
 なお、焦点検出領域100において電荷蓄積が行われる期間内に検出された位置情報がない場合は、この期間に近い時刻に取得された位置情報を用いて、換算係数Kを決定するようにしてもよい。
(変形例2)
 上述した実施の形態では、本発明をローリングシャッタ方式の読み出し制御を行うカメラ1に適用する例について説明した。しかし、グローバルシャッタ方式の読み出し制御を行うカメラ1に適用できる。その場合には、撮像素子の全ての焦点検出領域について、同一の位置情報を用いて換算係数Kの決定を行うようにすればよい。
(変形例3)
 ボディ制御部210は、撮像素子22の電荷蓄積期間(シャッタースピードに相当する)に応じて、位置検出部27による撮像素子22の位置検出の周期を切り替えるようにしてもよい。ボディ制御部210は、電荷蓄積期間が短くなる程、位置検出部27による位置検出の間隔を短くすると良い。
(変形例4)
 上述した実施の形態および変形例では、撮像素子22の位置を移動することによって、振れ補正を行う例について説明した。しかし、撮影光学系31に像振れ補正レンズを搭載し、像振れ補正レンズの位置を調整することによって振れ補正を行うようにしてもよい。
 この場合、交換レンズ3の撮影光学系31は、光学系の光軸と直交する面に沿って移動する像振れ補正レンズ(防振用レンズとも称する)を有する。像振れ補正レンズを移動駆動した場合は撮像素子22における光軸OA1の位置が変化することになる。像振れ補正レンズを移動したことによる光軸OA1の位置の変化は、上述した撮像素子22を移動することで対象とする焦点検出領域100の像高が変化するのと同等である。そこで、交換レンズ3は、像振れ補正レンズの位置を検出するレンズ位置検出部を有する。レンズ位置検出部は、光センサあるいは磁気センサ等によって構成され、像振れ補正レンズの位置を所定の周期で検出し、像振れ補正レンズの位置に関する情報(レンズ位置情報)を繰り返し生成する。レンズ位置検出部は、生成したレンズ位置情報をレンズ制御部32に順次出力する。
 レンズ制御部32は、レンズ位置検出部から繰り返し出力されるレンズ位置情報を、レンズ制御部32の内部のメモリに記憶させる。レンズ制御部32は、内部のメモリに記憶された複数のレンズ位置情報を、所定の周期で読み出してボディ制御部210に出力する。
 ボディ制御部210は、振れ信号を用いてカメラ1の振れ量を算出し、カメラ1の振れ量に基づいて像振れ補正レンズの位置を制御する。具体的には、ボディ制御部210は、カメラ1の振れ量に基づいて像振れ補正レンズの移動量を決定し、決定した像振れ補正レンズの移動量とレンズ駆動を指示する信号を、レンズ制御部32に送信する。レンズ制御部32は、ボディ制御部210から像振れ補正レンズの移動量とレンズ駆動を指示する信号が入力されると、その信号に基づいて像振れ補正レンズを制御する。ボディ制御部210は、カメラ1の振れ量に応じて、撮影光学系31の光軸OA1に垂直な面に沿って、像振れ補正レンズを移動(シフト)させる制御を行う。このように、本変形例に係るカメラ1では、カメラ1の振れ量に応じて像振れ補正レンズの位置が調整されることで、被写体像の像振れが補正される。
 像振れ補正レンズの位置が変わると、被写体からの光の焦点検出領域100(の第1及び第2の焦点検出用画素11、12)への入射角が変わる。そこで、本変形例に係る焦点検出部214は、像振れ補正レンズの位置に応じて、デフォーカス量の算出に用いる換算係数Kを変更する。以下に、焦点検出部214が行う処理について説明する。
 ボディ制御部210の焦点検出部214は、レンズ制御部32から取得した複数のレンズ位置情報のうち、領域選択部213により選択された焦点検出領域100において電荷の蓄積が行われるときの像振れ補正レンズの位置を示す位置情報を選択する。撮影光学系31の像振れ補正レンズの位置と換算係数Kとの対応関係が、焦点検出領域100毎に予めシミュレーションや実験等により求められ、データテーブルや計算式として、カメラ1内のメモリに記憶されている。焦点検出部214は、選択した位置情報に基づいて、像振れ補正レンズの位置を算出する。そして、焦点検出部214は、焦点検出領域100の情報及び像振れ補正レンズの位置の情報に基づいて、メモリに記憶された上述の対応関係を参照して、デフォーカス量の算出に用いる換算係数Kを決定する。
 上述のように、焦点検出部214は、焦点検出を行う焦点検出領域100において電荷蓄積が行われる期間に検出された像振れ補正レンズのレンズ位置情報を用いて、デフォーカス量の算出に用いる換算係数Kを決定し、決定した換算係数Kを用いてデフォーカス量の算出を行う。このため、像振れ補正が行われた場合に、焦点検出の精度が低下することを抑えることができる。
(変形例5)
 ボディ制御部210は、撮像素子22の位置の制御および像振れ補正レンズの位置の制御の両方を行うようにしてもよいし、撮像素子22の位置の制御と像振れ補正レンズの位置の制御とを切り替え可能としてもよい。ユーザによる操作部25の操作等によって、カメラ1の振れに応じて撮像素子22の位置を調節するモードと、カメラ1の振れに応じて像振れ補正レンズの位置を調節するモードとを選択可能としてもよい。
(変形例6)
 上述した実施の形態および変形例では、撮像素子22の位置や像振れ補正レンズの位置に応じて、デフォーカス量の算出に用いる換算係数Kを変更する例について説明した。しかし、撮像素子22の位置や像振れ補正レンズの位置に応じて、デフォーカス量の補正を行うようにしてもよい。
 また、撮像素子22の位置や像振れ補正レンズの位置に応じて、焦点検出に用いる焦点検出用画素対を切り替えるようにしてもよい。
 図8は、撮像素子22の焦点検出用画素の変形例の構成を示す図である。本変形例に係る撮像素子22の各焦点検出領域100には、撮像用画素に加えて、遮光部の配置位置が互いに異なる複数種の焦点検出用画素対、図8に示す例では第1~第3の焦点検出用画素対が配置される。図8は、図2の中央の焦点検出領域100aから右方向に離れた像高が高い焦点検出領域100cに配置される3種類の焦点検出用画素対の断面図である。図8(a)は、第1の焦点検出用画素対を構成する第1及び第2の焦点検出用画素11a、12aの断面の一例を示し、図8(b)は、第2の焦点検出用画素対を構成する第1及び第2の焦点検出用画素11b、12bの断面の一例を示す。図8(c)は、第3の焦点検出用画素対を構成する第1及び第2の焦点検出用画素11c、12cの断面の一例を示す。なお、図中、上述の実施の形態と同一もしくは相当部分には、同一の参照番号を付す。
 図8(a)において、第1の焦点検出用画素11aは、遮光部43Lの右端が、マイクロレンズ44の光軸に対して相対的に右方向に所定量d1ずれている。以下、遮光部43(遮光部43L、43R)がマイクロレンズ44の光軸に対してずれている量を、ずれ量と称する。第1の焦点検出用画素11aは、遮光部43Lの右端が、マイクロレンズ44の光軸OA2よりもずれ量d1だけ右側に位置する。第2の焦点検出用画素12aは、遮光部43Rの左端が、マイクロレンズ44の光軸に対して第1の焦点検出用画素11aのずれ方向と同方向に同量d1、ずれている。即ち、第2の焦点検出用画素12aは、遮光部43Rの左端が、マイクロレンズ44の光軸OA2よりもずれ量d1だけ右側に位置する。
 第2及び第3の焦点検出用画素対と第1の焦点検出用画素対とは、上述のずれ量が相違する。第2の焦点検出用画素対を構成する第1及び第2の焦点検出用画素11b、12bのずれ量d2は、第1のAF画対を構成する第1及び第2の焦点検出用画素11a、12aのずれ量d1よりも大きい。第3の焦点検出用画素対を構成する第1及び第2の焦点検出用画素11c、12cのずれ量d3は、第2の焦点検出用画素対を構成する第1及び第2の焦点検出用画素11b、12bのずれ量d2よりも大きい。即ち、d1<d2<d3である。
 なお、中央の焦点検出領域100aから左方向に離れた像高が高い焦点検出領域100bに配置される第1~第3の焦点検出用画素対では、図8に示したずれ方向と反対方向に同様のずれ量d1~d3が付与される。また、各焦点検出領域100の第1~第3の焦点検出用画素対のずれ量は、像高が高い焦点検出領域ほど、大きくなる。
 このように、本変形例では、第1~第3の焦点検出用画素対は、遮光部の配置位置が相違するため、互いに異なる入射角に対応して瞳分割を行うことができる。像振れ補正が行われた場合に焦点検出に用いる焦点検出領域100の像高が大きくなると、その焦点検出領域100の焦点検出用画素への光束の入射角が大きくなる。そこで、焦点検出部214は、焦点検出に用いる焦点検出領域100の像高が大きくなった場合には、その焦点検出領域100の複数種の焦点検出用画素対のうち、上述したずれ量が比較的大きな焦点検出用画素対を選択する。焦点検出部214は、選択した焦点検出用画素対(第1及び第2の焦点検出用画素)から出力される第1及び第2の焦点検出用信号を用いてデフォーカス量の算出を行う。これにより、焦点検出用画素対の各々の光電変換部42の受光量を確保することができ、像振れ補正が行われた場合に焦点検出精度が低下することを防ぐことができる。
(変形例7)
 上述した実施の形態では、撮像素子22に、原色系(RGB)のカラーフィルタを用いる場合について説明したが、補色系(CMY)のカラーフィルタを用いるようにしてもよい。
(変形例8)
 上述した実施の形態では、手振れに起因する像振れの補正が行われる場合について説明したが、像振れ補正および焦点検出に関する説明は、カメラ1に取り付けられた三脚に生じる振れに起因する像振れの補正が行われる場合にも当てはまるものである。
(変形例9)
 上述の実施の形態及び変形例で説明した撮像装置は、カメラ、スマートフォン、タブレット、PCに内蔵のカメラ、車載カメラ、無人航空機(ドローン、ラジコン機等)に搭載されるカメラ等に適用してもよい。
 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特願2018-137266号(2018年7月20日出願)
1…カメラ(カメラシステム)、2…カメラボディ、3…交換レンズ、11…焦点検出用画素、12…焦点検出用画素、13…撮像用画素、22…撮像素子、23…ボディメモリ、26…振れ検出部、27…位置検出部、31…撮影光学系、31a…ズームレンズ、31b…フォーカスレンズ、31c…絞り、32…レンズ制御部、33…レンズメモリ、210…ボディ制御部、211…撮像制御部、212…画像データ生成部、213…領域選択部、214…焦点検出部
 

Claims (17)

  1.  光学系の第1の領域を通過した第1の光束を光電変換して蓄積した電荷に基づく第1信号を出力する第1画素と、前記光学系の第2の領域を通過した第2の光束を光電変換して蓄積した電荷に基づく第2信号を出力する第2画素とを有する撮像部と、
     前記撮像部を移動し、前記撮像部の位置に関する位置情報を出力する移動制御部と、
     前記移動制御部により出力された前記位置情報と、前記撮像部により出力される前記第1信号および前記第2信号とに基づいて、前記光学系の合焦状態を検出する検出部と、
    を備える撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記検出部は、前記第1信号と前記第2信号とに基づいて、前記第1の光束による像と前記第2の光束による像との像ずれ量を算出し、
     前記位置情報に基づいて前記像ずれ量をデフォーカス量に変換する係数を決定し、前記決定した前記係数に基づいて前記像ずれ量をデフォーカス量に変換する撮像装置。
  3.  請求項2に記載の撮像装置において、
     前記検出部は、前記移動制御部より出力された前記位置情報に基づいて、前記電荷の蓄積中の前記第1画素および前記第2画素の前記光学系の光軸からの距離情報を求め、前記距離情報に基づいて前記係数を決定する撮像装置
  4.  請求項2または請求項3に記載の撮像装置において、
     前記撮像部の位置と前記係数との対応関係に関する情報を記憶する記憶部を有し、
     前記検出部は、前記位置情報と、前記記憶部に記憶された前記対応関係に関する情報とに基づいて、前記係数を決定する撮像装置。
  5.  請求項1から請求項4までのいずれか一項に記載の撮像装置において、
     前記撮像部は、前記第1画素および前記第2画素を第1の方向に複数有し、
     前記位置情報は、前記第1の方向の前記撮像部の位置に関する情報と、前記第1の方向とは異なる第2の方向の前記撮像部の位置に関する情報とを含む撮像装置。
  6.  請求項1から請求項5までのいずれか一項に記載の撮像装置において、
     前記位置情報は、前記光学系の光軸に交差する面における前記撮像部の回転角に関する情報を含む撮像装置。
  7.  請求項1から請求項6までのいずれか一項に記載の撮像装置において、
     前記撮像部は、第1の期間において前記第1画素および前記第2画素にそれぞれ入射した光を受光して電荷を蓄積し、
     前記検出部は、前記第1の期間に蓄積された電荷に基づく前記第1信号および前記第2信号と、前記第1の期間に取得された前記位置情報とに基づいて、前記光学系の合焦状態を検出する撮像装置。
  8.  請求項1から請求項7までのいずれか一項に記載の撮像装置において、
     前記撮像部は、前記第1画素および前記第2画素をそれぞれ有する第1領域および第2領域を有し、
     第1の期間において前記第1領域内の前記第1画素および前記第2画素にそれぞれ入射した光を光電変換して電荷を蓄積し、前記第1の期間とは異なる第2の期間において前記第2領域内の前記第1画素および前記第2画素にそれぞれ入射した光を光電変換して電荷を蓄積し、
     前記検出部は、前記第1領域の画素に蓄積された電荷に基づく前記第1信号および前記第2信号に基づいて合焦状態を検出する場合と、前記第2領域の画素に蓄積された電荷に基づく前記第1信号および前記第2信号に基づいて合焦状態を検出する場合とで、互いに異なる前記位置情報を選択して焦点検出を行う撮像装置。
  9.  請求項8に記載の撮像装置において、
     前記検出部は、前記第1領域の前記第1画素および前記第2画素の前記第1信号および前記第2信号に基づいて合焦状態を検出する場合は、前記第1の期間に蓄積された電荷に基づく前記第1領域の前記第1画素および前記第2画素の前記第1信号および前記第2信号と、前記第1の期間内に取得された前記位置情報とに基づいて、前記光学系の合焦状態を検出し、
     前記検出部は、前記第2領域の前記第1画素および前記第2画素の前記第1信号および前記第2信号に基づいて合焦状態を検出する場合は、前記第2の期間に蓄積された電荷に基づく前記第2領域の前記第1画素および前記第2画素の前記第1信号および前記第2信号と、前記第2の期間内に取得された前記位置情報とに基づいて、前記光学系の焦点検出を行う撮像装置。
  10.  請求項1から請求項8までのいずれか一項に記載の撮像装置において、
     前記撮像装置の振れに関する振れ検出信号を入力する振れ信号入力部を有し、
     前記移動制御部は、前記振れ信号入力部から入力された前記振れ検出信号に基づいて前記撮像部の位置を制御し、前記撮像装置の振れによる前記光学系による被写体像の像振れを補正する撮像装置。 
  11.  光学系からの光を光電変換して蓄積した信号を出力する焦点検出画素を有し、前記光学系の光軸と交わる方向に移動する撮像素子と、
     前記光学系の光軸と交わる方向における前記撮像素子の位置を、前記蓄積の間に複数回検出し、複数の位置情報を出力する位置検出部と、
     前記焦点検出画素から出力された前記信号と前記位置情報とから、前記撮像素子上の複数の領域において前記光学系と前記撮像素子との合焦状態を検出する合焦状態検出部と、を有する撮像装置。
  12.  請求項11に記載の撮像装置において、
     前記合焦状態検出部は、前記合焦状態を検出する前記領域の前記撮像素子上の位置に応じて、前記位置検出部から出力された前記複数の位置情報から選択した前記位置情報を用いて合焦状態を検出する撮像装置。
  13.  請求項12に記載の撮像装置において、
     前記合焦状態検出部は、前記撮像素子上の第1の領域で合焦状態を検出する場合、前記位置検出部から出力された前記撮像素子の前記複数の位置情報のうち第1の位置情報を用い、前記撮像素子上の第2の領域で合焦状態を検出する場合、前記位置検出部から出力された前記撮像素子の前記複数の位置情報のうち第2の位置情報を用いる、撮像装置。
  14.  請求項13に記載の撮像装置において、
     前記撮像素子上の前記第1の領域と前記第2の領域とは、前記撮像素子の短辺方向の位置が異なる、撮像装置。
  15.  請求項11から請求項14までのいずれか一項に記載の撮像装置において、
     前記焦点検出画素は、第1レンズと、前記第1レンズに対して第1の位置に配置され前記第1レンズを通過した光を受光する光電変換部とを有する第1焦点検出画素と、第2レンズと、前記第2レンズに対して第2の位置に配置された前記第2レンズを通過した光を受光する光電変換部とを有する第2焦点検出画素と、を有し、
     前記合焦状態検出部は、複数の前記第1焦点検出画素から出力された信号と複数の前記第2焦点検出画素から出力された信号とのずれ量から前記光学系の像の位置と前記撮像素子とのずれ量であるデフォーカス量を算出する、撮像装置。
  16.  請求項15に記載の撮像装置において、
     前記合焦状態検出部は、前記ずれ量から前記デフォーカス量を算出するのに用いる係数を、前記位置情報により決定する撮像装置。 
  17.  請求項11から請求項16までのいずれか一項に記載の撮像装置において、
     振れを検出する振れ検出部と、
     前記振れ検出部で検出した振れにより前記撮像素子を移動させる駆動部と、
    を有する撮像装置。
PCT/JP2019/028559 2018-07-20 2019-07-19 撮像装置 WO2020017654A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020531397A JP7147846B2 (ja) 2018-07-20 2019-07-19 撮像装置
JP2022151583A JP2022184997A (ja) 2018-07-20 2022-09-22 撮像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018137266 2018-07-20
JP2018-137266 2018-07-20

Publications (1)

Publication Number Publication Date
WO2020017654A1 true WO2020017654A1 (ja) 2020-01-23

Family

ID=69163749

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028559 WO2020017654A1 (ja) 2018-07-20 2019-07-19 撮像装置

Country Status (2)

Country Link
JP (2) JP7147846B2 (ja)
WO (1) WO2020017654A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226213A (ja) * 2011-04-21 2012-11-15 Canon Inc 撮像装置及びその制御方法
JP2015200847A (ja) * 2014-04-10 2015-11-12 オリンパス株式会社 焦点調節装置、カメラシステム、および撮像装置の焦点調節方法
JP2017194591A (ja) * 2016-04-21 2017-10-26 キヤノン株式会社 距離測定装置、撮像装置、および距離測定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130473B2 (ja) 2018-07-09 2022-09-05 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012226213A (ja) * 2011-04-21 2012-11-15 Canon Inc 撮像装置及びその制御方法
JP2015200847A (ja) * 2014-04-10 2015-11-12 オリンパス株式会社 焦点調節装置、カメラシステム、および撮像装置の焦点調節方法
JP2017194591A (ja) * 2016-04-21 2017-10-26 キヤノン株式会社 距離測定装置、撮像装置、および距離測定方法

Also Published As

Publication number Publication date
JP7147846B2 (ja) 2022-10-05
JPWO2020017654A1 (ja) 2021-08-02
JP2022184997A (ja) 2022-12-13

Similar Documents

Publication Publication Date Title
JP6536642B2 (ja) 撮像素子
JP5424679B2 (ja) 撮像装置及び信号処理装置
JP5791349B2 (ja) 撮像装置及びその制御方法
JP5942757B2 (ja) 焦点検出装置および撮像装置
JP5092685B2 (ja) 撮像素子および撮像装置
JP5243666B2 (ja) 撮像装置、撮像装置本体およびシェーディング補正方法
US9344617B2 (en) Image capture apparatus and method of controlling that performs focus detection
JP5167783B2 (ja) 焦点検出装置および撮像装置
JP2009128892A (ja) 撮像素子および撮像装置
JP6504969B2 (ja) 撮像システム、撮像装置、レンズ装置、撮像システムの制御方法
US20140218594A1 (en) Image capturing apparatus and control method thereof
JP2016161884A (ja) 撮像装置及びその制御方法
JP2022106735A (ja) 撮像素子及び撮像装置
JP6849325B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
WO2020017654A1 (ja) 撮像装置
JP2015115865A (ja) カメラモジュール
WO2013042606A1 (ja) デジタルカメラ及び固体撮像装置
JP5949893B2 (ja) 撮像装置
JP2018028677A (ja) 焦点検出装置および撮像装置
JP7206668B2 (ja) カメラボディおよび交換レンズ
JP7419975B2 (ja) 撮像素子、及び、撮像装置
JP7378935B2 (ja) 画像処理装置
JP7397626B2 (ja) 撮像装置及びその制御方法
JP5691440B2 (ja) 撮像装置
JP6548626B2 (ja) 撮像装置、撮像装置の制御方法およびフォーカス制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19837342

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020531397

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19837342

Country of ref document: EP

Kind code of ref document: A1