WO2016167142A1 - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
WO2016167142A1
WO2016167142A1 PCT/JP2016/060899 JP2016060899W WO2016167142A1 WO 2016167142 A1 WO2016167142 A1 WO 2016167142A1 JP 2016060899 W JP2016060899 W JP 2016060899W WO 2016167142 A1 WO2016167142 A1 WO 2016167142A1
Authority
WO
WIPO (PCT)
Prior art keywords
reliability
phase difference
image
focus
focus position
Prior art date
Application number
PCT/JP2016/060899
Other languages
English (en)
French (fr)
Inventor
高橋 圭一郎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2016167142A1 publication Critical patent/WO2016167142A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Definitions

  • the present technology relates to an imaging apparatus and a control method thereof, and more particularly, to an imaging apparatus and a control method thereof capable of improving the focus detection accuracy of a hybrid AF method.
  • AF Autofocus
  • AF contrast AF
  • Patent Document 1 since the influence of vignetting reduces the reliability at a position where the image height is high, a technique for improving the focus detection accuracy even at a position where the image height is high by correcting the vignetting component is proposed. .
  • the present technology has been made in view of such a situation, and is intended to improve the focus detection accuracy of the hybrid AF method.
  • the imaging device detects the first in-focus position based on an imaging element in which a plurality of pixels are arranged in a matrix and a phase difference obtained from a pixel pair of the imaging element. Based on the contrast of the one focus detection unit, the image captured by the image sensor, the second focus detection unit that detects the second focus position, and the amount of noise included in the image captured by the image sensor The reliability of the first focus position is calculated, the start position of the second focus detection unit when the reliability of the first focus position is high, and the reliability of the first focus position is calculated. And a setting unit that is set closer to the first in-focus position than the start position of the second focus detection unit in the case where is not high.
  • a method for controlling an imaging apparatus detects a first in-focus position based on an imaging element in which a plurality of pixels are arranged in a matrix and a phase difference obtained from a pixel pair of the imaging element.
  • the reliability of the first focus position based on the amount of noise included in the first focus position is calculated, and the start position of the second focus detection unit when the reliability of the first focus position is high is determined as the first focus position.
  • the focus position is set closer to the first focus position than the start position of the second focus detection unit when the reliability of the focus position is not high.
  • an image sensor in which a plurality of pixels are arranged in a matrix, and a first focus detection unit that detects a first focus position based on a phase difference obtained from a pixel pair of the image sensor And a second focus detection unit that detects a second in-focus position based on the contrast of the image captured by the image sensor, and the amount of noise included in the image captured by the image sensor
  • the reliability of the first focus position based on the first focus position is calculated, and the start position of the second focus detection unit when the reliability of the first focus position is high is the reliability of the first focus position. It is set closer to the first focus position than the start position of the second focus detection unit when the degree is not high.
  • the imaging device may be an independent device or a module incorporated in another device.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of an imaging apparatus to which the present technology is applied.
  • the imaging apparatus 11 in FIG. 1 is configured by, for example, a digital still camera or a digital video camera having an imaging function.
  • the imaging device 11 includes an imaging lens 21, an imaging element 22, an AFE (Analog Front End) unit 23, a signal processing unit 24, an operation unit 25, a main control unit 26, a recording unit 27, a display unit 28, an image output unit 29, and AF.
  • a control unit 30 and a lens driver 31 are included.
  • the imaging apparatus 11 is a hybrid AF equipped with both phase difference detection AF (phase difference AF) and contrast AF (contrast AF) as autofocus (hereinafter also simply referred to as AF (Autofocus)) functions. It has a function.
  • the imaging lens 21 is composed of a plurality of lenses and the like, condenses the light incident from the subject and guides it to the imaging surface of the imaging element 22.
  • the imaging lens 21 includes a lens 51, a diaphragm 52, a focus lens 53, a zoom lens 54, a shutter 55, and a focus lens drive motor 56.
  • the lens 51, the focus lens 53, and the zoom lens 54 constitute an imaging optical system of the imaging lens 21.
  • the focus lens 53 may be composed of a single lens or a plurality of lenses.
  • the light incident from the subject enters the image sensor 22 through the lens 51, the diaphragm 52, the focus lens 53, the zoom lens 54, and the shutter 55.
  • the shutter 55 opens and closes according to the control of the main control unit 26, for example, and exposes the image sensor 22.
  • the focus lens driving motor 56 is driven by the lens driver 31 and moves the focus lens 53 in the optical axis direction of the imaging optical system, thereby focusing on the subject. That is, focus adjustment is performed.
  • the image sensor 22 is composed of a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a CCD (Charge Coupled Device), or the like having an imaging surface in which a plurality of pixels are arranged in a matrix, and light incident from a subject via the imaging lens 21. Is received by the imaging surface.
  • the imaging element 22 supplies an image obtained by photoelectrically converting light from the subject to the AFE unit 23.
  • the imaging surface of the imaging element 22 is used for imaging pixels for imaging an image of a subject to be viewed and an auto-focusing of an image plane phase difference method, and detects a phase difference of an optical image of the subject. And a phase difference detection pixel.
  • the phase difference detection pixels are discretely arranged between the plurality of imaging pixels on the imaging surface.
  • the phase difference detection pixel includes a phase difference detection pixel (type A) that receives a light beam incident from the left divided region, A phase difference detection pixel (type B) that receives a light beam incident from the divided region is provided.
  • phase difference detection pixel pairs Subject image (image) for each divided region obtained from type A and type B phase difference detection pixels (hereinafter also referred to as phase difference detection pixel pairs), that is, the phase difference of pupil-divided images (distance between images) )
  • the phase difference AF performs autofocus control based on this defocus amount.
  • the contrast AF calculates the contrast evaluation value for each image from the luminance values of a plurality of images captured while moving the focus lens 53, and determines the lens position where the image having the maximum contrast evaluation value is captured. This is a method for determining the focus position.
  • the image sensor 22 supplies an image signal obtained by imaging to the AFE unit 23.
  • the AFE unit 23 performs A / D (Analog / Digital) conversion or the like on the image signal supplied from the image sensor 22 and supplies the signal to the signal processing unit 24.
  • a / D Analog / Digital
  • the signal processing unit 24 performs various signal processing such as demosaicing and gamma correction on the image signal supplied from the AFE unit 23 and supplies the processed signal to the main control unit 26.
  • the signal processing unit 24 also performs an interpolation process for interpolating the pixel signal of the phase difference detection pixel with the pixel signals of the surrounding pixels.
  • the signal processing unit 24 supplies the main control unit 26 with the image signal after various signal processing is performed as necessary.
  • the operation unit 25 includes, for example, buttons and a touch panel, and supplies a signal corresponding to a user operation to the main control unit 26.
  • the operation unit 25 supplies the main control unit 26 with focus window position information designated by the user via the touch panel.
  • the main control unit 26 controls the operation of the entire imaging apparatus 11 in accordance with a signal supplied from the operation unit 25. For example, the main control unit 26 supplies the image signal supplied from the signal processing unit 24 to the AF control unit 30 or supplies it to the recording unit 27 and the display unit 28. Further, the main control unit 26 reads a predetermined image signal from the recording unit 27 and supplies it to the image output unit 29.
  • the recording unit 27 includes, for example, a removable medium that can be attached to and detached from the imaging apparatus 11 such as a semiconductor memory.
  • the recording unit 27 records the image signal supplied from the main control unit 26 and the recorded image signal as the main control unit. 26.
  • the display unit 28 includes, for example, a liquid crystal display panel, and displays an image based on the image signal supplied from the main control unit 26.
  • the image output unit 29 outputs the image signal supplied from the main control unit 26 to an external device by wireless or wired.
  • the AF control unit 30 performs focus control on the basis of an image (signal) obtained by imaging with the imaging element 22 supplied from the main control unit 26.
  • the AF control unit 30 includes a gain value gain1 (hereinafter referred to as an imaging gain gain1) set by the imaging device 22 when the image is captured together with an image (signal thereof) obtained by imaging by the imaging device 22. Is supplied.
  • the AF control unit 30 is also supplied with ROI information representing a region of interest ROI ((Region Of Interest)) when focusing.
  • ROI information is, for example, position information of a focus window designated by the user on the touch panel, information indicating a face area in the captured image detected by the face detection algorithm, or the like.
  • the AF control unit 30 sends an AF control signal representing the movement position, movement amount, movement direction, and the like of the focus lens 53 based on the image signal, the imaging gain gain1, and the ROI information supplied from the main control unit 26 to the lens driver 31. To supply.
  • the AF control unit 30 also supplies the lens driver 31 with a zoom control signal indicating the movement position, movement amount, movement direction, and the like of the zoom lens 54.
  • the lens driver 31 controls the focus lens drive motor 56 based on the AF control signal supplied from the AF control unit 30 to move the focus lens 53. Further, the lens driver 31 controls the focus lens drive motor 56 based on the zoom control signal supplied from the AF control unit 30 and moves the zoom lens 54.
  • the imaging device 11 is configured as described above.
  • the AF control unit 30 of the imaging device 11 calculates the defocus amount from the phase difference of the phase difference detection pixels included in the image signal obtained by the imaging element 22. Then, the AF control unit 30 calculates the target position Xt of the focus lens 53 based on the calculated defocus amount.
  • the target position Xt is the focus position (focus position) of the subject based on the detected phase difference.
  • the AF control unit 30 sets a predetermined range centered on the target position Xt as the contrast AF scan range RG.
  • step S1 the imaging device 11 moves the focus lens 53 to one end of the scan range RG, for example, the position X1 closer to the current position Xc.
  • step S2 the imaging device 11, from the position X 1 to position X 2 which is the other end portion, it captures a plurality of images at predetermined time intervals (moving distance), for each image captured A contrast evaluation value is calculated.
  • the imaging apparatus 11 determines the lens position of the image from which the highest evaluation value is obtained among the calculated contrast evaluation values of each image, and sets the focus lens to the determined focus position. 53 is moved.
  • the imaging device 11 can focus on the subject using both phase difference AF and contrast AF as described above.
  • the imaging device 11 calculates the reliability (detection accuracy) of the phase difference detection result based on the sensor noise of the imaging device 22 included in the image signal obtained by the imaging device 22, and according to the reliability. It is configured to adjust the contrast AF scan range RG.
  • FIG. 3 is a block diagram illustrating a detailed configuration of the AF control unit 30.
  • the AF control unit 30 includes a reliability detection unit 41, a phase difference detection unit 42, a phase difference number gain calculation unit 43, an ROI luminance gain calculation unit 44, a contrast detection unit 45, and a scan setting unit 46.
  • the image signal and ROI information supplied from the main control unit 26 are a reliability detection unit 41, a phase difference detection unit 42, a phase difference number gain calculation unit 43, an ROI luminance gain calculation unit 44, a contrast detection unit 45, and a scan setting. Supplied to the unit 46.
  • the imaging gain gain1 supplied from the main control unit 26 is supplied to the scan setting unit 46.
  • the reliability detection unit 41 determines whether or not focus control by phase difference AF can be performed from the contrast (luminance value) of the attention area ROI of the captured image supplied from the main control unit 26. Re is detected (calculated).
  • the reliability detection unit 41 holds a table (reliability function table) of the reliability function R (x) for calculating the reliability Re as shown in FIG. 4, for example.
  • the reliability function R (x) has a relationship that the reliability Re becomes smaller as the contrast of the captured image is lower.
  • the reliability detection unit 41 calculates a reliability Re corresponding to the contrast of the attention area ROI of the captured image supplied from the main control unit 26 based on the reliability function R (x).
  • the calculated reliability Re is supplied to the scan setting unit 46.
  • the scan setting unit 46 determines the first scan range RG1 based on the reliability Re calculated by the reliability detection unit 41.
  • the phase difference detection unit 42 detects the phase difference based on the pixel signal of the phase difference detection pixel in the region of interest ROI and supplies the detection result to the scan setting unit 46. Further, the scan setting unit 46 calculates the defocus amount based on the detected phase difference, and calculates (detects) the target position Xt from the defocus amount.
  • the phase difference number gain calculation unit 43 calculates a phase difference number gain gain2, which is a parameter for adjusting the first scan range RG1 determined based on the reliability Re.
  • the pixel values of the type A and type B phase difference detection pixels need to have a pixel difference equal to or greater than a predetermined threshold. Also, the greater the number of phase difference detection pixel pairs having a pixel difference equal to or greater than a predetermined threshold, the higher the reliability of the detected phase difference.
  • phase difference number gain calculation unit 43 detects the number of pixels (hereinafter also referred to as effective phase difference pixels) having a pixel difference equal to or greater than a predetermined threshold among the phase difference pixels in the region of interest ROI.
  • a phase difference number gain gain2 based on the number of effective phase difference pixels in the region of interest ROI is calculated by the following equation (1).
  • Phase difference number gain gain2 ⁇ 20 ⁇ log (detection effective phase difference pixel number / reference effective phase difference pixel number) (1)
  • the number of reference effective phase difference pixels in Expression (1) is the number of reference effective phase difference pixels (fixed value).
  • the ROI luminance gain calculation unit 44 calculates an ROI luminance gain gain3 that is a parameter for adjusting the first scan range RG1 determined based on the reliability Re.
  • the lower the luminance value in the attention area ROI the larger the noise component included in the image signal (the S / N ratio is lower).
  • the higher the luminance value in the attention area ROI the smaller the noise component and the higher the reliability of the detected phase difference.
  • the ROI luminance gain calculation unit 44 calculates the average luminance (hereinafter also referred to as ROI luminance) in the attention area ROI, and calculates the ROI luminance gain gain3 based on the ROI luminance by the following equation (2).
  • ROI brightness gain gain3 ⁇ 20 ⁇ log (ROI brightness / reference brightness) (2)
  • the reference luminance in equation (2) is a reference luminance (fixed value).
  • the contrast detection unit 45 calculates a contrast evaluation value from the luminance value of the pixel in the attention area ROI based on the image signal and the ROI information supplied from the main control unit 26, and detects the focus position.
  • the scan setting unit 46 holds a table (scan range definition function table) of the scan range definition function RG (y) indicating the relationship between the reliability Re and the first scan range RG1, as shown in FIG. 5, for example. ing.
  • the scan range definition function RG (y) has a relationship that the first scan range RG1 becomes wider as the reliability Re is smaller.
  • the scan setting unit 46 refers to the scan range definition function RG (y), and determines the first scan range RG1 based on the reliability Re supplied from the reliability detection unit 41.
  • the scan setting unit 46 adjusts the first scan range RG1 determined based on the phase difference detection in accordance with the amount of noise included in the captured image.
  • Noise included in a captured image has the following relationship with respect to (1) the imaging gain, (2) the number of phase difference detection pixels, and (3) the luminance value of the image. (1) The higher the imaging gain, the greater the noise. (2) The smaller the number of phase difference detection pixels, the smaller the noise. (3) The lower the luminance value of the image, the greater the noise.
  • the scan setting unit 46 calculates the noise gain gain according to the following equation (3) using the imaging gain gain1, the phase difference number gain gain2, and the ROI luminance gain gain3 supplied from the main control unit 26.
  • gain gain1 + gain2 + gain3 (3)
  • the phase difference number gain gain2 improves the S / N ratio corresponding to 12 dB when the number of effective phase difference pixels in the region of interest ROI is doubled. Therefore, the imaging gain gain1
  • the scan range RG can be made narrower than when only the above is considered.
  • the scan setting unit 46 adjusts the correction coefficient ⁇ for adjusting the first scan range RG1 corresponding to the noise gain gain calculated by the equation (3).
  • the correction coefficient ⁇ is determined based on the ⁇ (gain) table (adjustment function table).
  • the adjustment function ⁇ (gain) has a feature that the correction coefficient ⁇ decreases as the noise gain gain decreases.
  • the adjustment function ⁇ (gain) table is stored in the scan setting unit 46.
  • the scan setting unit 46 scans the contrast AF scan start position (position X 1 described in FIG. 2) and scan stop position (FIG. It calculates the position X 2) described in 2, and outputs an AF control signal for moving the focus lens 53 to the lens driver 31.
  • the lens positions (positions X 1 and X 2 described in FIG. 2) at both ends of the second scan range RG2 are calculated so that the target position Xt is at the center of the second scan range RG2.
  • AF control processing The AF control process by the AF control unit 30 will be described with reference to the flowchart of FIG. Assume that the image signal of the image captured by the image sensor 22 and the ROI information are supplied from the main control unit 26 at the time when the processing of FIG. 9 is started.
  • the reliability detection unit 41 detects the reliability Re for determining whether or not focus control by phase difference AF can be performed from the contrast of the attention area ROI of the captured image.
  • the reliability Re can be obtained from the reliability function R (x) shown in FIG. 4 based on the contrast (subject contrast) of the attention area ROI of the captured image.
  • step S22 the scan setting unit 46 determines whether or not the phase difference AF can be used by determining whether or not the reliability Re detected in step S21 is greater than or equal to a predetermined threshold value.
  • step S22 If it is determined in step S22 that the phase difference AF can be used, the process proceeds to step S23, and the scan setting unit 46 refers to the scan range definition function RG (y) in FIG. Based on the above, the first scan range RG1 is determined.
  • step S24 the phase difference detection unit 42 detects the phase difference based on the pixel signal of the phase difference detection pixel in the region of interest ROI.
  • step S25 the phase difference detector 42 calculates the defocus amount based on the detected phase difference, and calculates the target position Xt from the defocus amount.
  • step S26 the scan setting unit 46 acquires the imaging gain gain1 supplied from the main control unit 26.
  • the process of acquiring the imaging gain gain1 may be performed before the process of step S29 described later, and may be performed at the beginning of the AF control process, for example.
  • step S27 the phase difference number gain calculation unit 43 calculates the number of pixels having a pixel difference equal to or greater than a predetermined threshold (the number of effective phase difference pixels) among the phase difference pixels in the region of interest ROI.
  • the phase difference number gain gain2 based on the number of effective phase difference pixels in the region of interest ROI is calculated by Expression (1).
  • the ROI luminance gain calculation unit 44 calculates the average luminance (ROI luminance) in the attention area ROI, and calculates the ROI luminance gain gain3 based on the ROI luminance by the above-described equation (2).
  • the calculation of the phase difference number gain gain2 in step S27 and the calculation of the ROI luminance gain gain3 in step S28 may be executed in the reverse order or may be executed simultaneously.
  • step S29 the scan setting unit 46 determines the second scan range RG2 obtained by adjusting the first scan range RG1.
  • the scan setting unit 46 uses the imaging gain gain1, the phase difference number gain gain2, and the ROI luminance gain gain3 to calculate the noise gain gain according to Expression (3).
  • the second scan range RG2 is determined.
  • step S30 the scan setting unit 46 causes the contrast focus operation to be performed based on the target position Xt calculated in step S25 and the second scan range RG2. That is, the scan setting unit 46 calculates the contrast AF scan start position and scan stop position from the target position Xt and the second scan range RG2, and outputs an AF control signal for moving the focus lens 53 to the lens driver 31. To do. Thereafter, the contrast detection unit 45 sequentially calculates the contrast evaluation values of a plurality of images captured from the scan start position to the scan stop position, and the lens position of the image with the highest evaluation value is the focus position. To be determined. Then, the focus lens 53 moves to the determined focus position, and the process ends.
  • step S22 determines whether the phase difference AF cannot be used. If it is determined in step S22 that the phase difference AF cannot be used, the process proceeds to step S31, and the scan setting unit 46 sets the scan range that is set wider in advance so that the focus position is always included. Make RG3 perform the contrast focus operation. This scan range RG3 is larger than the scan ranges RG1 and RG2 set in the hybrid AF control.
  • the scan range RG can be optimally set according to the reliability of the phase difference detection result. it can.
  • the attention area ROI is set to the peripheral portion of the view angle that has become dark due to lens shading. Even in this case, the focus position can be detected by the optimally set scan range RG.
  • the reliability of the phase difference detection result is determined based on the luminance level (for example, average luminance) in the attention area ROI, for example, the luminance level darkened by lens shading, the bright luminance level at the center of the angle of view, etc.
  • the scan range RG is optimally set according to the luminance level, and the focus position can be detected.
  • the focus detection accuracy of the hybrid AF method can be improved by optimally setting the scan range RG according to the reliability of the phase difference detection result.
  • the scan range RG is controlled to be narrower than the first scan range RG1, so the focus speed ( The time required for focus detection can also be improved.
  • the reliability of the phase difference detection result uses two indexes: an index based on the number of effective phase difference pixels in the attention area ROI and an index based on the average luminance in the attention area ROI.
  • an index based on the number of effective phase difference pixels in the attention area ROI an index based on the average luminance in the attention area ROI.
  • only one of them may be adopted.
  • the optimum scan range RG can be set and the focus position can be detected by one effect adopted.
  • FIG. 10 is a block diagram showing a detailed configuration of the first modified example of the AF control unit 30.
  • an ROI size gain calculation unit 61 is provided instead of the phase difference number gain calculation unit 43 in the AF control unit 30 of FIG.
  • the ROI size gain calculating unit 61 uses the size (ROI size) of the region of interest ROI instead of the phase difference number gain gain2 based on the number of effective phase difference pixels in the region of interest ROI calculated by the phase difference number gain calculating unit 43. Calculate ROI size gain based on gain2 '.
  • the ROI size gain calculation unit 61 calculates the ROI size gain gain2 ′ by the following equation (4).
  • ROI size gain gain2 ' -20 x log (ROI size / reference ROI size) (4)
  • the reference ROI size in Expression (4) is a reference ROI size (fixed value).
  • the scan range RG can be narrowed.
  • FIG. 12 shows a flowchart of the AF control process in the first modification of the AF control unit 30.
  • steps S41 to S46 and S48 to S51 in FIG. 12 correspond to steps S21 to S26 and S28 to S31 in FIG.
  • step S27 of FIG. 9 described above the phase difference number gain calculation unit 43 calculates the phase difference number gain gain2 based on the number of effective phase difference pixels in the region of interest ROI according to the equation (1).
  • step S47 of the first modification the ROI size gain calculation unit 61 calculates the ROI size gain gain2 ′ according to the equation (4).
  • the reliability of the phase difference detection result is determined based on the size (ROI size) of the region of interest ROI as an alternative to the number of effective phase difference pixels in the region of interest ROI.
  • the focus detection accuracy of the hybrid AF method can be improved by optimally setting the scan range RG according to the reliability of the phase difference detection result.
  • FIG. 13 is a block diagram showing a detailed configuration of the second modification of the AF control unit 30. As shown in FIG. 13
  • FIG. 13 portions corresponding to those in FIG. 3 described above are denoted by the same reference numerals, and description thereof is omitted.
  • the shading gain calculation unit 71 instead of the ROI luminance gain gain3 based on the ROI luminance calculated by the ROI luminance gain calculation unit 44, the shading gain gain3 based on the ratio of the average luminance of the region of interest ROI to the average luminance at the center of the angle of view. 'Is calculated.
  • the shading gain calculation unit 71 calculates a shading gain gain3 ′ by the following equation (5).
  • Shading gain gain3 ′ ⁇ 20 ⁇ log (ROI luminance / average luminance at center of angle of view) (5)
  • the average luminance at the center of the angle of view in Expression (5) is the average luminance (fixed value) in a predetermined area near the center of the imaging area (view angle).
  • the brightness near the periphery of the angle of view may be about 25% near the center due to the influence of shading.
  • the attention area ROI is set at the center, it is possible to improve the performance by 12 dB compared to the case where the attention area ROI is set at the periphery.
  • FIG. 15 shows a flowchart of the AF control process in the second modification of the AF control unit 30.
  • steps S61 to S67 and S69 to S71 in FIG. 15 correspond to steps S21 to S27 and S29 to S31 in FIG.
  • the ROI luminance gain calculation unit 44 calculates the ROI luminance gain gain3 based on the ROI luminance by the equation (2), whereas in step S68 of the second modified example, The shading gain calculation unit 71 calculates a shading gain gain3 ′ according to Expression (5).
  • the scan setting unit 46 uses the shading gain gain3 ′ instead of the ROI luminance gain gain3.
  • gain gain1 + gain2 + gain3 ' To calculate the noise gain gain.
  • the reliability of the phase difference detection result is replaced with the average brightness (ROI brightness) in the attention area ROI, and the attention area ROI with respect to the average brightness at the center of the angle of view is changed.
  • the scan range RG can be set optimally and the focus position can be detected.
  • the focus detection accuracy of the hybrid AF method can be improved by optimally setting the scan range RG according to the reliability of the phase difference detection result.
  • an ROI size gain calculation unit 61 is provided instead of the phase difference number gain calculation unit 43, and the ROI luminance gain calculation unit 44 is replaced.
  • the shading gain calculation unit 71 is also possible.
  • phase difference detection pixels are discretely arranged between the plurality of imaging pixels. That is, the phase difference detection pixels are arranged separately from the imaging pixels, but all the pixels constituting the imaging element 22 are configured by imaging pixels, for example, a plurality of pixels (for example, 2 ⁇ 2 4).
  • One on-chip lens may be formed for each pixel, and the first pixel and the second pixel that receive light incident on the same on-chip lens may be used as a phase difference detection pixel pair.
  • the image pickup apparatus 11 in FIG. 1 detects a first in-focus position (target position Xt) based on the image sensor 22 in which a plurality of pixels are arranged in a matrix and the phase difference obtained from the phase difference detection pixel pair.
  • a first focus detection unit phase difference detection unit 42
  • a second focus detection unit that detects the second focus position based on the contrast of the image captured by the image sensor 22, and imaging
  • the reliability of the first focus position is calculated based on the amount of noise included in the image captured by the element 22, and the scan range of the second focus detection unit when the reliability of focus detection by the first focus detection unit is high
  • a setting unit that sets RG narrower than the scan range RG when the reliability is not high.
  • the imaging device 11 in FIG. 1 includes an imaging element 22 in which a plurality of pixels are arranged in a matrix, A first focus detection unit (phase difference detection unit 42) that detects a first in-focus position (target position Xt) based on the phase difference obtained from the phase difference detection pixel pair, and an image captured by the image sensor 22
  • the second focus detection unit (contrast detection unit 45) that detects the second focus position based on the contrast, and the reliability of the first focus position based on the amount of noise included in the image captured by the image sensor 22.
  • the start position of the second focus detection unit when the reliability of the first focus position is high is set to be greater than the start position of the second focus detection unit when the reliability is not high.
  • This technology is not limited to application to imaging devices. That is, the present invention can be applied to other electronic devices in general such as a portable terminal device having an imaging function.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can also take the following structures.
  • An image sensor in which a plurality of pixels are arranged in a matrix; A first focus detection unit that detects a first in-focus position based on a phase difference obtained from a pixel pair of the image sensor; A second focus detection unit that detects a second in-focus position based on a contrast of an image captured by the image sensor; The reliability of the first focus position is calculated based on the amount of noise included in the image captured by the image sensor, and the second focus detection unit in the case where the reliability of the first focus position is high
  • An imaging apparatus comprising: a setting unit that sets a start position closer to the first focus position than a start position of the second focus detection unit when the reliability of the first focus position is not high .
  • the setting unit calculates the reliability of the first in-focus position based on the amount of noise based on the number of pixels in which a phase difference is detected in a region of interest of an image captured by the image sensor (1 ).
  • the setting unit captures the reliability of the first in-focus position based on the noise amount, the number of pixels in which a phase difference is detected in a region of interest of an image captured by the image sensor, and the image sensor.
  • the imaging device wherein calculation is performed based on a luminance level in a region of interest of the captured image.
  • the setting unit calculates the reliability of the first in-focus position based on the amount of noise based on the size of a region of interest of an image captured by the image sensor.
  • Imaging device calculates the reliability of the first in-focus position based on the amount of noise based on a luminance ratio between an attention area and a center part of an image captured by the image sensor.
  • the imaging device according to 2.
  • An image pickup device in which a plurality of pixels are arranged in a matrix, a first focus detection unit that detects a first focus position based on a phase difference obtained from a pixel pair of the image pickup device, and an image picked up by the image pickup device
  • An imaging device including a second focus detection unit that detects a second in-focus position based on the contrast of the captured image; The reliability of the first focus position is calculated based on the amount of noise included in the image captured by the image sensor, and the second focus detection unit in the case where the reliability of the first focus position is high
  • a control method for an imaging apparatus wherein a start position is set closer to the first focus position than a start position of the second focus detection unit when the reliability of the first focus position is not high.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

本技術は、ハイブリッドAF方式の焦点検出精度を向上させることができるようにする撮像装置およびその制御方法に関する。 撮像装置は、複数の画素が行列状に配列された撮像素子と、撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部と、撮像素子で撮像された画像に含まれるノイズ量に基づく第1の合焦位置の信頼度を算出し、第1の合焦位置の信頼度が高い場合の第2焦点検出部の開始位置を、第1の合焦位置の信頼度が高くない場合の第2焦点検出部の開始位置よりも、第1の合焦位置の近くに設定する設定部とを備える。本技術は、例えば、撮像装置等に適用できる。

Description

撮像装置およびその制御方法
 本技術は、撮像装置およびその制御方法に関し、特に、ハイブリッドAF方式の焦点検出精度を向上させることができるようにする撮像装置およびその制御方法に関する。
 撮像装置のオートフォーカス(以下、単にAF(Autofocus)とも称する)方式として、位相差検出方式のAF(位相差AF)と、コントラスト方式のAF(コントラストAF)の両方を備えたハイブリッドAF方式を採用したものがある(例えば、特許文献1参照)。
 ハイブリッドAF方式では、像高の高い位置にフォーカスウィンドウが設定された場合、高いパフォーマンスが出せないことがあった。
 そこで、特許文献1では、像高の高い位置においてケラレの影響が信頼度を低下させることから、ケラレ成分を補正することで像高の高い位置でも焦点検出精度を向上させる技術が提案されている。
特開2010-256824号公報
 しかしながら、特許文献1の技術では、ケラレ成分のみで信頼性を判断しているため、低照度での性能劣化が考えられる。
 本技術は、このような状況に鑑みてなされたものであり、ハイブリッドAF方式の焦点検出精度を向上させることができるようにするものである。
 本技術の第1の側面の撮像装置は、複数の画素が行列状に配列された撮像素子と、前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部と、前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度を算出し、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置を、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定する設定部とを備える。
 本技術の一側面の撮像装置の制御方法は、複数の画素が行列状に配列された撮像素子と、前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部とを備える撮像装置が、前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度を算出し、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置を、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定する。
 本技術の一側面においては、複数の画素が行列状に配列された撮像素子と、前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部とを備える撮像装置において、前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度が算出され、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置が、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定される。
 撮像装置は、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
 本技術の一側面によれば、ハイブリッドAF方式の焦点検出精度を向上させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した撮像装置の一実施の形態の構成例を示す図である。 ハイブリッドAF制御を説明する図である。 AF制御部の詳細構成を示すブロック図である。 信頼度関数テーブルを説明する図である。 スキャン範囲定義関数テーブルを説明する図である。 位相差個数ゲインgain2の効果を説明する図である。 ROI輝度ゲインgain3の効果を説明する図である。 調整関数テーブルを説明する図である。 AF制御処理を説明するフローチャートである。 AF制御部の第1の変形例の詳細構成を示すブロック図である。 ROIサイズゲインgain2’の効果を説明する図である。 第1の変形例におけるAF制御処理を説明するフローチャートである。 AF制御部の第2の変形例の詳細構成を示すブロック図である。 シェーディングゲインgain3’の効果を説明する図である。 第2の変形例におけるAF制御処理を説明するフローチャートである。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。
<1.撮像装置のブロック図>
 図1は、本技術を適用した撮像装置の一実施の形態の構成例を示す図である。
 図1の撮像装置11は、例えば撮像機能を有するデジタルスチルカメラやデジタルビデオカメラなどで構成される。
 撮像装置11は、撮像レンズ21、撮像素子22、AFE(Analog Front End)部23、信号処理部24、操作部25、主要制御部26、記録部27、表示部28、画像出力部29、AF制御部30、およびレンズドライバ31を有している。
 撮像装置11は、オートフォーカス(以下、単にAF(Autofocus)とも称する)の機能として、位相差検出方式のAF(位相差AF)と、コントラスト方式のAF(コントラストAF)の両方を備えたハイブリッドAF機能を備える。
 撮像レンズ21は、複数のレンズなどからなり、被写体から入射した光を集光して撮像素子22の撮像面へと導く。具体的には、撮像レンズ21は、レンズ51、絞り52、フォーカスレンズ53、ズームレンズ54、シャッタ55、およびフォーカスレンズ駆動モータ56を有している。特に、レンズ51、フォーカスレンズ53、およびズームレンズ54は、撮像レンズ21の撮像光学系を構成している。また、フォーカスレンズ53は、1枚のレンズから構成されてもよいし、複数枚のレンズから構成されてもよい。
 被写体から入射した光は、レンズ51、絞り52、フォーカスレンズ53、ズームレンズ54、およびシャッタ55を介して撮像素子22に入射する。シャッタ55は、例えば主要制御部26の制御に従って開閉し、撮像素子22の露光を行う。
 また、フォーカスレンズ駆動モータ56は、レンズドライバ31により駆動され、フォーカスレンズ53を撮像光学系の光軸方向に移動させることで被写体にフォーカス(ピント)を合わせる。すなわち、ピント調節が行われる。
 撮像素子22は、複数の画素が行列状に配列された撮像面を有するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)等からなり、撮像レンズ21を介して被写体から入射した光を撮像面で受光する。撮像素子22は、被写体からの光を光電変換することで得られた画像をAFE部23に供給する。
 ここで、撮像素子22の撮像面には、鑑賞対象となる被写体の画像を撮像するための撮像画素と、像面位相差方式のオートフォーカスに用いられ、被写体の光像の位相差を検出するための位相差検出画素とが設けられている。位相差検出画素は、撮像面において複数の撮像画素の間に離散的に配置されている。
 位相差検出画素には、例えば撮像レンズ21の瞳領域を左右の2つの分割領域に分割したとすると、左の分割領域から入射する光束を受光する位相差検出画素(タイプA)と、右の分割領域から入射する光束を受光する位相差検出画素(タイプB)とが設けられている。
 タイプAとタイプBの位相差検出画素(以下、位相差検出画素対とも称する。)から得られる、分割領域ごとの被写体の像(画像)、つまり瞳分割した像の位相差(像間の距離)に基づいてデフォーカス量を算出することができる。位相差AFは、このデフォーカス量に基づいてオートフォーカス制御を行う。
 一方、コントラストAFは、フォーカスレンズ53を移動させながら撮像される複数枚の画像の輝度値から、画像毎にコントラスト評価値を算出して、コントラスト評価値が最大となる画像を撮像したレンズ位置をフォーカス位置と判断する方式である。
 撮像素子22は、撮像して得られた画像信号をAFE部23に供給する。
 AFE部23は、撮像素子22から供給された画像信号に対してA/D(Analog/Digital)変換等を行って、信号処理部24に供給する。
 信号処理部24は、AFE部23から供給された画像信号に対してデモザイクやガンマ補正などの各種の信号処理を施して主要制御部26に供給する。また、信号処理部24は、位相差検出画素の画素信号を、その周辺の画素の画素信号で補間する補間処理なども行う。信号処理部24は、必要に応じて各種の信号処理を施した後の画像信号を主要制御部26に供給する。
 操作部25は、例えばボタンやタッチパネルなどからなり、ユーザの操作に応じた信号を主要制御部26に供給する。例えば、操作部25は、タッチパネルによりユーザによって指定されたフォーカスウィンドウの位置情報を主要制御部26に供給する。
 主要制御部26は、操作部25から供給される信号に応じて撮像装置11全体の動作を制御する。例えば、主要制御部26は、信号処理部24から供給された画像信号をAF制御部30に供給したり、記録部27や表示部28に供給したりする。また、主要制御部26は、記録部27から所定の画像信号を読み出して画像出力部29に供給する。
 記録部27は、例えば、半導体メモリなどの、撮像装置11に着脱可能なリムーバブルメディアなどからなり、主要制御部26から供給された画像信号を記録したり、記録している画像信号を主要制御部26に供給する。
 表示部28は、例えば液晶表示パネルなどからなり、主要制御部26から供給された画像信号に基づいて画像を表示する。画像出力部29は、主要制御部26から供給された画像信号を無線または有線により、外部の装置に出力する。
 AF制御部30は、主要制御部26から供給される、撮像素子22で撮像して得られた画像(の信号)に基づいて、フォーカス制御を行う。AF制御部30には、撮像素子22で撮像して得られた画像(の信号)とともに、その画像を撮像したときに撮像素子22で設定されたゲイン値gain1(以下、撮像ゲインgain1という。)が供給される。
 また、AF制御部30には、フォーカスをする際の注目領域ROI((Region Of Interest))を表すROI情報も供給される。ROI情報は、例えば、タッチパネルによりユーザによって指定されたフォーカスウィンドウの位置情報や、顔検出アルゴリズムにより検出された撮像画像内の顔領域を示す情報などである。
 AF制御部30は、主要制御部26から供給された画像信号、撮像ゲインgain1、及びROI情報に基づいて、フォーカスレンズ53の移動位置や移動量、移動方向などを表すAF制御信号をレンズドライバ31に供給する。また、AF制御部30は、ズームレンズ54の移動位置や移動量、移動方向などを表すズーム制御信号もレンズドライバ31に供給する。
 レンズドライバ31は、AF制御部30から供給されたAF制御信号に基づいてフォーカスレンズ駆動モータ56を制御し、フォーカスレンズ53を移動させる。また、レンズドライバ31は、AF制御部30から供給されたズーム制御信号に基づいてフォーカスレンズ駆動モータ56を制御し、ズームレンズ54も移動させる。
 撮像装置11は、以上のように構成されている。
<2.ハイブリッドAF制御の説明>
 図2を参照して、ハイブリッドAF制御について簡単に説明する。
 撮像装置11のAF制御部30は、撮像素子22により得られた画像信号に含まれる位相差検出画素の位相差から、デフォーカス量を算出する。そして、AF制御部30は、算出したデフォーカス量に基づいて、フォーカスレンズ53の目標位置Xtを算出する。目標位置Xtは、検出された位相差に基づく被写体のピント位置(合焦位置)である。
 次に、AF制御部30は、目標位置Xtを中心とする所定の範囲をコントラストAFのスキャン範囲RGに設定する。
 そして、ステップS1として、撮像装置11は、スキャン範囲RGの一方の端部、例えば、現在位置Xcに近い側の位置X1まで、フォーカスレンズ53を移動させる。
 次に、ステップS2として、撮像装置11は、位置X1から他方の端部である位置X2まで、所定の時間間隔(移動間隔)で複数枚の画像を撮像し、撮像された各画像についてコントラスト評価値を算出する。
 ステップS3として、撮像装置11は、算出された各画像のコントラスト評価値のうち、最も高い評価値が得られた画像のレンズ位置を、ピント位置に決定し、決定されたピント位置へ、フォーカスレンズ53を移動させる。
 撮像装置11では、以上のように、位相差AFとコントラストAFの両方を用いて、被写体にピントを合わせることができる。
 このとき、撮像装置11は、撮像素子22により得られた画像信号に含まれる撮像素子22のセンサノイズに基づいて、位相差検出結果の信頼度(検出精度)を算出し、信頼度に応じて、コントラストAFのスキャン範囲RGを調整するように構成されている。
<3.AF制御部の詳細構成>
 図3は、AF制御部30の詳細構成を示すブロック図である。
 AF制御部30は、信頼度検出部41、位相差検出部42、位相差個数ゲイン算出部43、ROI輝度ゲイン算出部44、コントラスト検出部45、及び、スキャン設定部46を有する。
 主要制御部26から供給された画像信号とROI情報は、信頼度検出部41、位相差検出部42、位相差個数ゲイン算出部43、ROI輝度ゲイン算出部44、コントラスト検出部45、及びスキャン設定部46に供給される。主要制御部26から供給された撮像ゲインgain1は、スキャン設定部46に供給される。
 信頼度検出部41は、主要制御部26から供給された撮像画像の注目領域ROIのコントラスト(輝度値)から、位相差AFによるフォーカス制御を行うことができるか否かを判断するための信頼度Reを検出(算出)する。
 信頼度検出部41は、例えば図4に示されるような信頼度Reを算出するための信頼度関数R(x)のテーブル(信頼度関数テーブル)を保持している。信頼度関数R(x)は、撮像画像のコントラストが低いほど、信頼度Reが小さくなる関係を有する。
 信頼度検出部41は、信頼度関数R(x)に基づいて、主要制御部26から供給された撮像画像の注目領域ROIのコントラストに対応する信頼度Reを算出する。算出された信頼度Reは、スキャン設定部46に供給される。スキャン設定部46では、図5を参照して後述するように、信頼度検出部41で算出された信頼度Reに基づいて、第1のスキャン範囲RG1が決定される。
 位相差検出部42は、注目領域ROI内の位相差検出画素の画素信号に基づいて位相差を検出し、検出結果をスキャン設定部46に供給する。また、スキャン設定部46は、検出した位相差に基づいて、デフォーカス量を算出し、デフォーカス量から目標位置Xtを算出(検出)する。
 位相差個数ゲイン算出部43は、信頼度Reに基づいて決定された第1のスキャン範囲RG1を調整するためのパラメータである、位相差個数ゲインgain2を算出する。
 位相差を検出するためには、タイプAとタイプBの位相差検出画素の画素値が、所定の閾値以上の画素差分を有している必要がある。また、所定の閾値以上の画素差分を有している位相差検出画素対の個数は多いほど、検出した位相差の信頼度は高くなる。
 そこで、位相差個数ゲイン算出部43は、注目領域ROI内の位相差画素のなかで、所定の閾値以上の画素差分を有する画素(以下、有効位相差画素とも称する。)の個数を検出し、以下の式(1)により、注目領域ROI内の有効位相差画素の個数に基づく位相差個数ゲインgain2を算出する。
位相差個数ゲインgain2=-20×log(検出有効位相差画素個数/基準有効位相差画素個数)
                         ・・・・・・(1)
式(1)の基準有効位相差画素個数は、基準となる有効位相差画素の個数(固定値)である。
 ROI輝度ゲイン算出部44は、信頼度Reに基づいて決定された第1のスキャン範囲RG1を調整するためのパラメータである、ROI輝度ゲインgain3を算出する。注目領域ROI内の輝度値が低いほど画像信号に含まれるノイズ成分が大きくなる(S/N比が低い)。反対に、注目領域ROI内の輝度値が高いほどノイズ成分は小さくなり、検出した位相差の信頼度は高くなる。
 そこで、ROI輝度ゲイン算出部44は、注目領域ROI内の平均輝度(以下、ROI輝度ともいう。)を算出し、以下の式(2)により、ROI輝度に基づくROI輝度ゲインgain3を算出する。
  ROI輝度ゲインgain3=-20×log(ROI輝度/基準輝度)
                         ・・・・・・(2)
式(2)の基準輝度は、基準となる輝度(固定値)である。
 コントラスト検出部45は、主要制御部26から供給される画像信号とROI情報に基づいて、注目領域ROI内の画素の輝度値から、コントラスト評価値を算出し、ピント位置を検出する。
 スキャン設定部46は、例えば図5に示されるような、信頼度Reと第1のスキャン範囲RG1との関係を示すスキャン範囲定義関数RG(y)のテーブル(スキャン範囲定義関数テーブル)を保持している。スキャン範囲定義関数RG(y)は、信頼度Reが小さいほど、第1のスキャン範囲RG1が広くなる関係を有する。スキャン設定部46は、スキャン範囲定義関数RG(y)を参照して、信頼度検出部41から供給された信頼度Reに基づいて、第1のスキャン範囲RG1を決定する。
 また、スキャン設定部46は、撮像画像に含まれるノイズ量に応じて、位相差検出に基づいて決定された第1のスキャン範囲RG1を調整する。
 撮像画像に含まれるノイズは、(1)撮像ゲイン、(2)位相差検出画素個数、(3)画像の輝度値、のそれぞれに対して、次のような関係がある。
(1)撮像ゲインが高いほど、ノイズは大きい
(2)位相差検出画素個数が大きいほど、ノイズは小さい
(3)画像の輝度値が低いほど、ノイズは大きい
 そこで、スキャン設定部46は、主要制御部26から供給された撮像ゲインgain1、位相差個数ゲインgain2、及びROI輝度ゲインgain3を用いて、次式(3)により、ノイズゲインgainを計算する。
  gain=gain1+gain2+gain3           ・・・・・・(3)
 図6に示されるように、位相差個数ゲインgain2は、注目領域ROI内の有効な位相差画素の個数が2倍に増えると、12dB相当のS/N比の改善となるので、撮像ゲインgain1(=24dB)のみを考慮した場合よりも、スキャン範囲RGを狭めることができる。
 また、図7に示されるように、ROI輝度ゲインgain3は、注目領域ROI内の平均輝度が2倍に増えると、6dB相当のS/N比の改善となるので、撮像ゲインgain1(=24dB)のみを考慮した場合よりも、スキャン範囲RGを狭めることができる。
 スキャン設定部46は、例えば図8に示されるような、式(3)により算出されたノイズゲインgainに対応して、第1のスキャン範囲RG1を調整するための修正係数αを定義した調整関数α(gain)のテーブル(調整関数テーブル)に基づいて、修正係数αを決定する。
 調整関数α(gain)は、ノイズゲインgainが小さくなるほど、修正係数αが小さくなるような特徴を有する。この調整関数α(gain)のテーブルは、スキャン設定部46の内部に記憶されている。
 スキャン設定部46は、決定された修正係数αを第1のスキャン範囲RG1に乗算することにより、第2のスキャン範囲RG2を決定する。即ち、RG2=α*RG1により、第1のスキャン範囲RG1を調整した第2のスキャン範囲RG2が決定される。
 スキャン設定部46は、デフォーカス量に基づいて算出した目標位置Xtと、第2のスキャン範囲RG2とから、コントラストAFのスキャン開始位置(図2で説明した位置X1)とスキャン停止位置(図2で説明した位置X2)を算出し、レンズドライバ31にフォーカスレンズ53を移動させるAF制御信号を出力する。例えば、目標位置Xtが第2のスキャン範囲RG2の中心となるように、第2のスキャン範囲RG2の両端のレンズ位置(図2で説明した位置X1とX2)が算出される。
<AF制御処理>
 図9のフローチャートを参照して、AF制御部30によるAF制御処理について説明する。図9の処理が開始される時点では、撮像素子22で撮像された画像の画像信号とROI情報が、主要制御部26から供給されているものとする。
 初めに、ステップS21において、信頼度検出部41は、撮像画像の注目領域ROIのコントラストから、位相差AFによるフォーカス制御を行うことができるか否かを判断するための信頼度Reを検出する。例えば、信頼度Reは、撮像画像の注目領域ROIのコントラスト(被写体コントラスト)に基づいて、図4に示される信頼度関数R(x)から求めることができる。
 ステップS22において、スキャン設定部46は、ステップS21で検出された信頼度Reが所定の閾値以上であるか否かを判定することにより、位相差AFを使用することができるかを判定する。
 ステップS22で、位相差AFを使用することができると判定された場合、処理はステップS23に進み、スキャン設定部46は、図5のスキャン範囲定義関数RG(y)を参照し、信頼度Reに基づいて、第1のスキャン範囲RG1を決定する。
 ステップS24において、位相差検出部42は、注目領域ROI内の位相差検出画素の画素信号に基づいて位相差を検出する。
 ステップS25において、位相差検出部42は、検出した位相差に基づいて、デフォーカス量を算出し、デフォーカス量から目標位置Xtを算出する。
 ステップS26において、スキャン設定部46は、主要制御部26から供給された撮像ゲインgain1を取得する。なお、この撮像ゲインgain1を取得する処理は、後述するステップS29の処理より前に実行すればよく、例えば、AF制御処理の最初に行っても良い。
 ステップS27において、位相差個数ゲイン算出部43は、注目領域ROI内の位相差画素のなかで、所定の閾値以上の画素差分を有する画素の個数(有効位相差画素個数)を算出し、上述した式(1)により、注目領域ROI内の有効位相差画素個数に基づく位相差個数ゲインgain2を算出する。
 ステップS28において、ROI輝度ゲイン算出部44は、注目領域ROI内の平均輝度(ROI輝度)を算出し、上述した式(2)により、ROI輝度に基づくROI輝度ゲインgain3を算出する。
 ステップS27の位相差個数ゲインgain2の算出と、ステップS28のROI輝度ゲインgain3の算出は、逆の順番で実行しても良いし、同時に実行しても良い。
 ステップS29において、スキャン設定部46は、第1のスキャン範囲RG1を調整した第2のスキャン範囲RG2を決定する。
 具体的には、スキャン設定部46は、撮像ゲインgain1、位相差個数ゲインgain2、及びROI輝度ゲインgain3を用いて、式(3)によりノイズゲインgainを計算する。そして、スキャン設定部46は、図8に示したような調整関数α(gain)のテーブルに基づいて、ノイズゲインgainに対応する修正係数αを決定し、RG2=α*RG1を算出することにより、第2のスキャン範囲RG2を決定する。
 ステップS30において、スキャン設定部46は、ステップS25で算出した目標位置Xtと、第2のスキャン範囲RG2とに基づいて、コントラストフォーカス動作を行わせる。即ち、スキャン設定部46は、目標位置Xtと第2のスキャン範囲RG2とから、コントラストAFのスキャン開始位置とスキャン停止位置を算出し、レンズドライバ31にフォーカスレンズ53を移動させるAF制御信号を出力する。その後、コントラスト検出部45において、スキャン開始位置からスキャン停止位置までの間に撮像された複数枚の画像のコントラスト評価値が逐次算出され、最も高い評価値が得られた画像のレンズ位置がピント位置に決定される。そして、決定されたピント位置へ、フォーカスレンズ53が移動して終了する。
 一方、ステップS22で、位相差AFを使用することができないと判定された場合、処理はステップS31に進み、スキャン設定部46は、ピント位置が必ず含まれるように予め広めに設定されたスキャン範囲RG3に対して、コントラストフォーカス動作を行わせる。このスキャン範囲RG3は、ハイブリッドAF制御で設定されるスキャン範囲RG1及びRG2よりも大きな範囲となる。
 以上により、AF制御処理が終了する。
 本技術を適用した撮像装置11のAF制御処理によれば、位相差AFとコントラストAFを併用するハイブリッドAFにおいて、位相差検出結果の信頼度に応じて、スキャン範囲RGを最適に設定することができる。
 具体的には、位相差検出結果の信頼度を、注目領域ROI内の有効位相差個数に基づいて判断するので、例えば、注目領域ROIがレンズシェーディングにより暗くなった画角周辺部に設定された場合であっても、最適に設定されたスキャン範囲RGにより、ピント位置を検出することができる。
 また、位相差検出結果の信頼度を、注目領域ROI内の輝度レベル(例えば、平均輝度)に基づいて判断するので、例えば、レンズシェーディングにより暗くなった輝度レベル、画角中心の明るい輝度レベルなど、輝度レベルに応じて最適にスキャン範囲RGを設定し、ピント位置を検出することができる。
 位相差検出結果の信頼度に応じて、スキャン範囲RGを最適に設定することにより、ハイブリッドAF方式の焦点検出精度を向上させることができる。
 注目領域ROI内の有効位相差画素個数が多い場合や、注目領域ROI内の平均輝度が高い場合には、スキャン範囲RGは最初のスキャン範囲RG1よりも狭めるように制御されるため、フォーカス速度(ピント検出にかかる時間)も向上させることができる。
 なお、上述した実施の形態では、位相差検出結果の信頼度を、注目領域ROI内の有効な位相差画素の個数に基づく指標と、注目領域ROI内の平均輝度に基づく指標の2つを採用したが、どちらか一方のみを採用してもよい。その場合でも、採用した一方の効果により、最適なスキャン範囲RGを設定し、ピント位置を検出することができる。
<第1の変形例>
 次に、上述した実施の形態の変形例について説明する。
 図10は、AF制御部30の第1の変形例の詳細構成を示すブロック図である。
 図10において、上述した図3と対応する部分については同一の符号を付してあり、その説明は省略する。
 図10に示される第1の変形例のAF制御部30においては、図3のAF制御部30における位相差個数ゲイン算出部43に代えて、ROIサイズゲイン算出部61が設けられている。
 ROIサイズゲイン算出部61は、位相差個数ゲイン算出部43が算出する、注目領域ROI内の有効位相差画素個数に基づく位相差個数ゲインgain2の代わりに、注目領域ROIのサイズ(ROIサイズ)に基づくROIサイズゲインgain2’を算出する。
 具体的には、ROIサイズゲイン算出部61は、次式(4)により、ROIサイズゲインgain2’を算出する。
ROIサイズゲインgain2’=-20×log(ROIサイズ/基準ROIサイズ)
                         ・・・・・・(4)
式(4)の基準ROIサイズは、基準となるROIサイズ(固定値)である。
 図11に示されるように、例えば、ROIサイズが320x320の領域から、640x640の領域に変更された場合には、12dBのS/N比が改善されるので、位相差検出結果の信頼度が向上し、スキャン範囲RGを狭めることができる。
<第1の変形例におけるAF制御処理>
 図12は、AF制御部30の第1の変形例におけるAF制御処理のフローチャートを示している。
 図12のAF制御処理は、図9で説明したAF制御処理に対して、ステップS47の処理が異なる。換言すれば、図12のステップS41乃至S46及びS48乃至S51は、図9のステップS21乃至S26及びS28乃至S31と、それぞれ対応するので、その説明は省略する。
 上述した図9のステップS27では、位相差個数ゲイン算出部43が、式(1)により、注目領域ROI内の有効位相差画素個数に基づく位相差個数ゲインgain2を算出したのに対して、第1の変形例のステップS47においては、ROIサイズゲイン算出部61が、式(4)によるROIサイズゲインgain2’を算出する。
 ステップS49の第2のスキャン範囲RG2を決定する処理では、スキャン設定部46は、位相差個数ゲインgain2の代わりにROIサイズゲインgain2’を用いて、
gain=gain1+gain2’+gain3
により、ノイズゲインgainを計算する。
 第1の変形例のAF制御処理によれば、位相差検出結果の信頼度を、注目領域ROI内の有効位相差画素個数に代わるものとして、注目領域ROIのサイズ(ROIサイズ)に基づいて判断することにより、スキャン範囲RGを最適に設定し、ピント位置を検出することができる。
 従って、位相差検出結果の信頼度に応じて、スキャン範囲RGを最適に設定することにより、ハイブリッドAF方式の焦点検出精度を向上させることができる。
<第2の変形例>
 図13は、AF制御部30の第2の変形例の詳細構成を示すブロック図である。
 図13においても、上述した図3と対応する部分については同一の符号を付してあり、その説明は省略する。
 図13に示される第2の変形例のAF制御部30においては、図3のAF制御部30におけるROI輝度ゲイン算出部44に代えて、シェーディングゲイン算出部71が設けられている。
 シェーディングゲイン算出部71は、ROI輝度ゲイン算出部44が算出する、ROI輝度に基づくROI輝度ゲインgain3の代わりに、画角中央部の平均輝度に対する注目領域ROIの平均輝度の比に基づくシェーディングゲインgain3’を算出する。
 具体的には、シェーディングゲイン算出部71は、次式(5)により、シェーディングゲインgain3’を算出する。
シェーディングゲインgain3’=-20×log(ROI輝度/画角中央部平均輝度)
                         ・・・・・・(5)
式(5)の画角中央部平均輝度は、基準となる、撮像領域(画角)中央付近の所定領域内の平均輝度(固定値)である。
 図14に示されるように、シェーディングの影響により、画角の周辺付近の輝度が中央付近の25%程度になることもある。注目領域ROIが中央部に設定された場合には、周辺部に設定された場合と比較して12dBの性能改善が可能となる。
<第2の変形例におけるAF制御処理>
 図15は、AF制御部30の第2の変形例におけるAF制御処理のフローチャートを示している。
 図15のAF制御処理は、図9で説明したAF制御処理に対して、ステップS68の処理が異なる。換言すれば、図15のステップS61乃至S67及びS69乃至S71は、図9のステップS21乃至S27及びS29乃至S31と、それぞれ対応するので、その説明は省略する。
 上述した図9のステップS28では、ROI輝度ゲイン算出部44が、式(2)により、ROI輝度に基づくROI輝度ゲインgain3を算出したのに対して、第2の変形例のステップS68においては、シェーディングゲイン算出部71が、式(5)によるシェーディングゲインgain3’を算出する。
 ステップS69の第2のスキャン範囲RG2を決定する処理では、スキャン設定部46は、ROI輝度ゲインgain3の代わりにシェーディングゲインgain3’を用いて、
gain=gain1+gain2+gain3’
により、ノイズゲインgainを計算する。
 第2の変形例のAF制御処理によれば、位相差検出結果の信頼度を、注目領域ROI内の平均輝度(ROI輝度)に代わるものとして、画角中央部の平均輝度に対する注目領域ROIの平均輝度の比に基づいて判断することにより、スキャン範囲RGを最適に設定し、ピント位置を検出することができる。
 従って、位相差検出結果の信頼度に応じて、スキャン範囲RGを最適に設定することにより、ハイブリッドAF方式の焦点検出精度を向上させることができる。
 なお、図示は省略するが、AF制御部30の第3の変形例として、位相差個数ゲイン算出部43に代えて、ROIサイズゲイン算出部61を設け、かつ、ROI輝度ゲイン算出部44に代えて、シェーディングゲイン算出部71を設けた構成とすることも可能である。
 上述した実施の形態では、撮像素子22を構成する複数の画素として、撮像画素と位相差画素があり、位相差検出画素は複数の撮像画素の間に離散的に配置されているものとした。即ち、位相差検出画素は、撮像画素とは別個に配置される構成としたが、撮像素子22を構成する全ての画素を撮像画素で構成し、例えば、複数画素(例えば、2×2の4画素)に対して1つのオンチップレンズを形成するようにして、同一のオンチップレンズに入射された光を受光する第1の画素と第2の画素を、位相差検出画素対としてもよい。
 図1の撮像装置11は、複数の画素が行列状に配列された撮像素子22と、位相差検出画素対から得られる位相差に基づいて第1の合焦位置(目標位置Xt)を検出する第1焦点検出部(位相差検出部42)と、撮像素子22で撮像された画像のコントラストに基づいて第2の合焦位置を検出する第2焦点検出部(コントラスト検出部45)と、撮像素子22で撮像された画像に含まれるノイズ量に基づく第1の合焦位置の信頼度を算出し、第1焦点検出部による焦点検出の信頼度が高い場合の第2焦点検出部のスキャン範囲RGを、信頼度が高くない場合のスキャン範囲RGよりも狭く設定する設定部とを備える。
 スキャン範囲RGではなく、コントラストAFによるスキャンを開始する開始位置(例えば、位置X1)で表現すれば、図1の撮像装置11は、複数の画素が行列状に配列された撮像素子22と、位相差検出画素対から得られる位相差に基づいて第1の合焦位置(目標位置Xt)を検出する第1焦点検出部(位相差検出部42)と、撮像素子22で撮像された画像のコントラストに基づいて第2の合焦位置を検出する第2焦点検出部(コントラスト検出部45)と、撮像素子22で撮像された画像に含まれるノイズ量に基づく第1の合焦位置の信頼度を算出し、第1の合焦位置の信頼度が高い場合の第2焦点検出部の開始位置を、信頼度が高くない場合の第2焦点検出部の開始位置よりも、第1の合焦位置の近くに設定する設定部とを備える。
 本技術は、撮像装置への適用に限られるものではない。即ち、撮像機能を有する携帯端末装置など、その他の電子機器全般に対して適用可能である。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 複数の画素が行列状に配列された撮像素子と、
 前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、
 前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部と、
 前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度を算出し、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置を、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定する設定部と
 を備える撮像装置。
(2)
 前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域内において位相差を検出した画素数に基づいて算出する
 前記(1)に記載の撮像装置。
(3)
 前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域内の輝度レベルに基づいて算出する
 前記(1)に記載の撮像装置。
(4)
 前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域内において位相差を検出した画素数と、前記撮像素子で撮像された画像の注目領域内の輝度レベルに基づいて算出する
 前記(1)に記載の撮像装置。
(5)
 前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域のサイズに基づいて算出する
 前記(1)または(3)に記載の撮像装置。
(6)
 前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域と中央部の輝度比に基づいて算出する
 前記(1)または(2)に記載の撮像装置。
(7)
 複数の画素が行列状に配列された撮像素子と、前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部とを備える撮像装置が、
 前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度を算出し、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置を、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定する
 撮像装置の制御方法。
 11 撮像装置, 22 撮像素子, 30 AF制御部, 31 レンズドライバ部, 41 信頼度検出部, 42 位相差検出部, 43 位相差個数ゲイン算出部, 44 ROI輝度ゲイン算出部, 45 コントラスト検出部, 46 スキャン設定部, 61 ROIサイズゲイン算出部, 71 シェーディングゲイン算出部

Claims (7)

  1.  複数の画素が行列状に配列された撮像素子と、
     前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、
     前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部と、
     前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度を算出し、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置を、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定する設定部と
     を備える撮像装置。
  2.  前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域内において位相差を検出した画素数に基づいて算出する
     請求項1に記載の撮像装置。
  3.  前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域内の輝度レベルに基づいて算出する
     請求項1に記載の撮像装置。
  4.  前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域内において位相差を検出した画素数と、前記撮像素子で撮像された画像の注目領域内の輝度レベルに基づいて算出する
     請求項1に記載の撮像装置。
  5.  前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域のサイズに基づいて算出する
     請求項1に記載の撮像装置。
  6.  前記設定部は、前記ノイズ量に基づく前記第1の合焦位置の信頼度を、前記撮像素子で撮像された画像の注目領域と中央部の輝度比に基づいて算出する
     請求項1に記載の撮像装置。
  7.  複数の画素が行列状に配列された撮像素子と、前記撮像素子の画素対から得られる位相差に基づいて第1の合焦位置を検出する第1焦点検出部と、前記撮像素子で撮像された画像のコントラストに基づいて、第2の合焦位置を検出する第2焦点検出部とを備える撮像装置が、
     前記撮像素子で撮像された画像に含まれるノイズ量に基づく前記第1の合焦位置の信頼度を算出し、前記第1の合焦位置の信頼度が高い場合の前記第2焦点検出部の開始位置を、前記第1の合焦位置の信頼度が高くない場合の前記第2焦点検出部の開始位置よりも、前記第1の合焦位置の近くに設定する
     撮像装置の制御方法。
PCT/JP2016/060899 2015-04-17 2016-04-01 撮像装置およびその制御方法 WO2016167142A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015085357A JP2016206310A (ja) 2015-04-17 2015-04-17 撮像装置およびその制御方法
JP2015-085357 2015-04-17

Publications (1)

Publication Number Publication Date
WO2016167142A1 true WO2016167142A1 (ja) 2016-10-20

Family

ID=57126530

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/060899 WO2016167142A1 (ja) 2015-04-17 2016-04-01 撮像装置およびその制御方法

Country Status (2)

Country Link
JP (1) JP2016206310A (ja)
WO (1) WO2016167142A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112640428A (zh) * 2018-12-05 2021-04-09 索尼半导体解决方案公司 固态成像装置、信号处理芯片和电子设备
EP3993435A4 (en) * 2019-06-28 2022-08-31 Sony Semiconductor Solutions Corporation SENDING DEVICE, RECEIVING DEVICE, AND TRANSMISSION SYSTEM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277724A (ja) * 2001-03-14 2002-09-25 Olympus Optical Co Ltd オートフォーカス装置
JP2004309866A (ja) * 2003-04-08 2004-11-04 Pentax Corp カメラの自動焦点調節装置
JP2010256824A (ja) * 2009-04-28 2010-11-11 Canon Inc 撮像装置
WO2012132117A1 (ja) * 2011-03-31 2012-10-04 富士フイルム株式会社 撮像装置及びその駆動方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277724A (ja) * 2001-03-14 2002-09-25 Olympus Optical Co Ltd オートフォーカス装置
JP2004309866A (ja) * 2003-04-08 2004-11-04 Pentax Corp カメラの自動焦点調節装置
JP2010256824A (ja) * 2009-04-28 2010-11-11 Canon Inc 撮像装置
WO2012132117A1 (ja) * 2011-03-31 2012-10-04 富士フイルム株式会社 撮像装置及びその駆動方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112640428A (zh) * 2018-12-05 2021-04-09 索尼半导体解决方案公司 固态成像装置、信号处理芯片和电子设备
CN112640428B (zh) * 2018-12-05 2023-10-17 索尼半导体解决方案公司 固态成像装置、信号处理芯片和电子设备
EP3993435A4 (en) * 2019-06-28 2022-08-31 Sony Semiconductor Solutions Corporation SENDING DEVICE, RECEIVING DEVICE, AND TRANSMISSION SYSTEM
US11871008B2 (en) 2019-06-28 2024-01-09 Sony Semiconductor Solutions Corporation Transmitting apparatus, receiving apparatus, and transmission system

Also Published As

Publication number Publication date
JP2016206310A (ja) 2016-12-08

Similar Documents

Publication Publication Date Title
US9800772B2 (en) Focus adjustment device and focus adjustment method that detects spatial frequency of a captured image
JP5493011B2 (ja) 撮像装置及びその合焦位置検出方法
JP6506517B2 (ja) 画像処理装置及びその制御方法、及び撮像装置
US9137436B2 (en) Imaging apparatus and method with focus detection and adjustment
JP6298362B2 (ja) 撮像装置及びその制御方法、及び撮像システム
JP5572700B2 (ja) 撮像装置及び撮像方法
US9485409B2 (en) Image capturing apparatus and control method therefor
WO2016080153A1 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
JP2016197202A (ja) 焦点調節装置、その制御方法、および制御プログラム、並びに撮像装置
JP2009044637A (ja) 撮像装置
JP2007052061A (ja) 撮像装置、合焦動作制御方法および電子情報機器
WO2016080157A1 (ja) 合焦制御装置、合焦制御方法、合焦制御プログラム、レンズ装置、撮像装置
WO2016167142A1 (ja) 撮像装置およびその制御方法
US20200092489A1 (en) Optical apparatus, control method, and non-transitory computer-readable storage medium
US11653107B2 (en) Image pick up apparatus, image pick up method, and storage medium
US20190297269A1 (en) Control apparatus, imaging apparatus, and control method
CN102833484A (zh) 摄像设备及其控制方法
US20150168739A1 (en) Image stabilizer, camera system, and imaging method
US20150294442A1 (en) Camera system and imaging method
JP6017641B1 (ja) 撮像装置,信号処理方法,信号処理プログラム
US10827111B2 (en) Imaging apparatus having settable focus detection areas and method for controlling the same
CN106464783B (zh) 图像拾取控制设备、图像拾取设备和图像拾取控制方法
JP2013210563A (ja) 撮像装置及び自動焦点調節方法
US20210195099A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
JP2009094662A (ja) 固体撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16779933

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16779933

Country of ref document: EP

Kind code of ref document: A1