WO2007058100A1 - 合焦検出装置 - Google Patents

合焦検出装置 Download PDF

Info

Publication number
WO2007058100A1
WO2007058100A1 PCT/JP2006/322265 JP2006322265W WO2007058100A1 WO 2007058100 A1 WO2007058100 A1 WO 2007058100A1 JP 2006322265 W JP2006322265 W JP 2006322265W WO 2007058100 A1 WO2007058100 A1 WO 2007058100A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
distance
luminance information
focus detection
optical system
Prior art date
Application number
PCT/JP2006/322265
Other languages
English (en)
French (fr)
Inventor
Satoko Furuki
Akikazu Yachi
Toru Matsuzawa
Nobuyuki Watanabe
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Publication of WO2007058100A1 publication Critical patent/WO2007058100A1/ja
Priority to US12/120,513 priority Critical patent/US20080297648A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/04Focusing arrangements of general interest for cameras, projectors or printers adjusting position of image plane without moving lens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/002Details of arrangement of components in or on camera body

Definitions

  • the present invention relates to a focus detection device that determines a focus position using a light beam that has passed through an optical system that forms an image of light from a subject at a predetermined position.
  • the focus detection method while driving the focus lens in the optical axis direction, a plurality of images are photographed during that time, and an evaluation value of blur for the plurality of photographed images is calculated.
  • the evaluation value uses the contrast of the image and the sum of the high frequency components, and the larger the value, the better the focus.
  • the size of blur itself may be valued. For example, if the integrated value of the low frequency component of the spatial frequency of the image is used as the evaluation value, the smaller the value is, the more the focus is achieved.
  • the focus lens is driven a minute distance in either the near point or far point direction.
  • the peak of the evaluation value appears in the direction opposite to the driving direction (near point side). Will exist. Therefore, in this case, the focus lens is driven in the reverse direction.
  • the evaluation value in the driving direction first increases. Therefore, in this case, since there is a peak in the driving direction, the driving is continued in the same direction.
  • the focus detection method estimates the focus information or distance information of the subject based on the estimated value of the focus position, so this focus detection method is called “Depth From Focus (hereinafter abbreviated as DFF)” method. Called. It is also called the “hill-climbing method” because control is performed so that the evaluation value becomes high and the peak of the evaluation value is estimated.
  • DFF Depth From Focus
  • DFD Depth From Defocus
  • luminance information is acquired at two locations with different optical path lengths.
  • a blur parameter is calculated by performing arithmetic processing on a plurality of images having different blurs, and in-focus determination is performed.
  • the blur parameter is a representative value indicating a blur state of luminance information, and indicates a value correlated with the dispersion value of the point spread function (PSF) of the optical system.
  • PSF is a function that expresses how light rays spread when an ideal point image passes through the optical system.
  • the DFD method at least two focus determination brightness information from the same subject, the same part, and the same line-of-sight direction are changed, and at least one shooting parameter that affects the blurred state of the captured image is changed.
  • the shooting parameters include focus lens position, aperture amount, focal length, and the like. In this description, the description is limited to the case where only the position of the focus lens is changed.
  • the focus lens is moved to the predetermined first position and second position.
  • the first luminance information is acquired at the first position
  • the second luminance information is acquired at the second position.
  • the acquired luminance information is subjected to low-pass filter processing to remove electrical noise, image magnification correction processing to correct different magnifications between the first and second images, and normal correction processing such as luminance distribution. Is done. If necessary, select the area to be focused in the acquired luminance information.
  • the selection is performed on one of the luminance information, and the corresponding area is selected on the other luminance information. Then, the difference between the first luminance information and the second luminance information is calculated from the two normal tig processing results in the region where the focus determination is to be performed. In addition, the second derivative of each of the first luminance information and the second luminance information is calculated, and the average value thereof is calculated. Then, by dividing the difference between the first luminance information and the second luminance information by the average value of the second derivative of the luminance information, the variance of the PSF corresponding to the first or second luminance information can be obtained. A correlated blur parameter is calculated.
  • the subject distance is obtained based on the relational expression between the dispersion of the PSF and the subject distance described in US Pat. No. 4,965,840.
  • the relationship between the blur parameter and subject distance differs depending on the lens configuration and state (zoom, aperture). Further, the relationship between a certain subject distance and a focus lens position for focusing on the subject distance, that is, a focusing lens position is given in advance by data of the lens system. Therefore, the relationship between the blur parameter and the focus lens position to be controlled can be obtained by an individual relational expression or a calculation table depending on the lens system and the lens state.
  • the present invention has been made in view of the above points, and an object of the present invention is to provide a focus detection apparatus capable of performing focus detection without requiring correction of a characteristic table for each solid.
  • One aspect of the focus detection apparatus of the present invention is a focus detection apparatus that determines a focus position using a light beam that has passed through an optical system that forms an image of light from a subject at a predetermined position.
  • Luminance information acquisition means for acquiring the luminance information of the light imaged by the optical system, and the optical system force up to the subject based on two pieces of luminance information obtained by using the luminance information acquisition means.
  • a blur parameter calculating means for calculating a blur parameter corresponding to the distance of
  • Distance estimation means for estimating distance information corresponding to the distance from the optical system to the subject based on the blur parameter calculated using the blur parameter calculation means
  • a focus detection means for calculating an evaluation value and determining a focus position based on the evaluation value
  • FIG. 1 is a diagram showing a configuration of a compact camera to which an in-focus detection device according to a first embodiment of the present invention is applied.
  • FIG. 2 is a block diagram of the focus detection apparatus according to the first embodiment.
  • FIG. 3 is a flowchart for explaining the processing of the focus detection apparatus according to the first embodiment.
  • FIG. 4 is a diagram showing a relationship between a blur parameter and a focus lens position.
  • FIG. 5 is a diagram showing the relationship between the focus evaluation value and the lens position for explaining the hill-climbing method from the DFD estimation result.
  • FIG. 6 is a diagram showing a configuration of a single-lens reflex camera to which a focus detection apparatus according to a modification of the first embodiment of the present invention is applied.
  • FIG. 7 is a block configuration diagram of a focus detection apparatus according to a second embodiment of the present invention.
  • FIG. 8 is a flowchart for explaining the process of the focus detection apparatus according to the second embodiment.
  • FIG. 9 is a diagram showing an example of a distance image.
  • FIG. 10 is a diagram showing an example of a mask used for mask processing in the DFF region extraction means.
  • FIG. 11 is a diagram showing another example of a mask used for mask processing in the DFF region extraction means.
  • FIG. 12 is a block configuration diagram of a focus detection apparatus according to a second modification of the second embodiment.
  • FIG. 13 is a diagram showing an example of a calculation result of a second order differential calculation unit.
  • FIG. 14 is a flowchart for explaining the process of the focus detection apparatus according to the second modification of the second embodiment.
  • FIG. 15 is a block diagram of a focus detection apparatus according to a third modification of the second embodiment.
  • FIG. 16 is a block configuration diagram of a focus detection apparatus according to a third embodiment of the present invention.
  • FIG. 17 is a diagram showing a configuration of a compact camera to which a focus detection apparatus according to a fourth embodiment of the present invention is applied.
  • the focus detection apparatus is applied to a compact camera 10 as shown in FIG.
  • the focus detection apparatus includes an optical system 12, an image sensor 14 and a luminance signal control unit 16, a DFFZDFD switching unit 18, a distance estimation unit 20, and a hill-climbing method that function as luminance information acquisition means.
  • the calculation unit 22 and the optical system control unit 24 are included.
  • the optical system 12 is composed of a plurality of lens groups (taking lenses) for taking an image, and some of the lens groups are arranged in the optical axis direction to adjust the focus. It can be driven.
  • This lens group is called a focus lens.
  • the subject image formed by the optical system 12 is converted into an electric signal by the photoelectric conversion element of the imaging element 14.
  • the converted electrical signal is converted into a digital signal by the luminance signal control unit 16.
  • This converted digital signal is called luminance information. This luminance information is used to estimate distance Input to part 20 and hill-climbing calculation part 22.
  • the distance estimating unit 20 estimates the subject distance indicating the distance from the optical system 12 to the subject that is the object to be photographed, and then the hill-climbing method computing unit 22 that functions as a focus detection unit. Processing is performed to obtain a focusing result with higher accuracy. Switching between the hill-climbing calculation unit 22 and the distance estimation unit 20 is performed by the DFFZDFD switching unit 18.
  • the optical system control unit 24 functions as an arrangement control means for controlling the optical system 12 to an arbitrary position. Although not specifically illustrated, the optical system and a drive circuit for driving the computer are provided. It consists of and.
  • the drive circuit gives a signal to the actuator to place the focus lens of the optical system 12 at the lens position. And the signal is input to the actuator to place the focus lens at a desired position.
  • the distance estimation unit 20 estimates the subject distance by the DFD method.
  • the distance estimation unit 20 includes a blur parameter calculation unit 26, a control parameter calculation unit 28, and an LUT storage unit 30.
  • the blur parameter calculation unit 26 includes a difference calculation unit 32, a second order differential calculation unit 34, a blur parameter calculation unit 36, and a buffer 38.
  • the difference calculation unit 32 calculates the difference between images necessary for calculating the blur parameter.
  • the second-order derivative calculation unit 34 calculates the second-order subtraction of the image, and calculates the average of the second-order derivative results obtained from the two luminance information powers with different blurs.
  • the blur parameter calculation unit 36 calculates the blur parameter by dividing the average of the image difference calculated by the difference calculation unit 32 and the second derivative calculated by the second derivative calculation unit 34.
  • Nota 38 obtains multiple pieces of luminance information at different times by placing the focus lens at different positions, so it holds the luminance information taken on the first image and the result of its second derivative. It is.
  • the LUT storage unit 30 stores the relationship between the blur parameter and the focusing lens position in the form of a look-up table (LUT) as the relationship between the blur parameter and the light focus position of the subject force. is doing.
  • the arrangement of the optical system 12 is determined according to the focus lens position.
  • the control parameter calculation unit 28 refers to the LUT in the LUT storage unit 30 to obtain a focus lens position corresponding to the blur parameter calculated by the blur parameter calculation unit 36.
  • the hill climbing method computing unit 22 includes a high-pass filter (HPF) 40, a DFF control parameter calculation unit 42, and an evaluation value storage unit 44.
  • HPF 40 extracts high frequency components of luminance information.
  • the DFF control parameter calculation unit 42 adds the results of HPF40 and calculates the evaluation value h (t).
  • the evaluation value storage unit 44 stores the lens position when the luminance information is acquired and the evaluation value calculated by the DFF control parameter calculation unit 42.
  • the optical system control unit 24 drives the focus lens of the optical system 12 to the predetermined first lens position L1 to control the imaging element 14 and the luminance signal.
  • the luminance information of the first image of the subject is acquired by the unit 16 (step S10).
  • the acquired luminance information of the first sheet is supplied to the distance estimation unit 20 by the DFFZDFD switching unit 18 and stored in the buffer 38 in the blur parameter calculation unit 26 under the control of a controller (not shown).
  • the focus lens of the optical system 12 is driven to a predetermined second lens position L2 by the optical system control unit 24, and the imaging device 14 and the luminance signal control unit 16 Obtain the luminance information of the second image of the subject (step S12) o
  • the acquired luminance information of the second image is supplied to the distance estimation unit 20 by the DFF ZDFD switching unit 18 according to the control of the controller (not shown).
  • the blur parameter is calculated in the distance estimation unit 20 under the control of a controller (not shown) (step S14). That is, in the blur parameter calculation unit 26, the difference calculation unit 32 reads the first luminance information from the buffer 38 and calculates the difference from the second luminance information supplied from the DFFZDFD switching unit 18. . Further, the second derivative calculation unit 34 calculates the second derivative of the luminance information of the second sheet supplied from the DFFZDFD switching unit 18, and if it is calculated, the luminance information of the first sheet is further calculated. Is read from buffer 38 and its second derivative is calculated. . Then, the average value of the second derivative of the calculated first and second sheets is calculated. When the difference and the average value of the second derivative as the differential information are found in this way, the blur parameter calculation unit 36 calculates the blur parameter by calculating those divisions.
  • the blur parameter has a linear relationship with the reciprocal of the subject distance, and the relationship between the subject distance and the focusing lens position has a one-to-one correspondence, so the blur parameter and the focusing lens position are As shown in Fig. 4, the one-to-one correspondence is also saved.
  • This relationship is stored in the LUT storage unit 30 as a table (LUT).
  • the control parameter calculator 28 calculates a subject distance value corresponding to the blur parameter.
  • the distance information corresponding to the subject distance value is represented by the position of the focus lens. Therefore, the in-focus lens position DFD—LF corresponding to the blur parameter obtained by the blur parameter calculation unit 26 can be obtained by linear approximation with reference to the table stored in the LUT storage unit 30 (step S1 6).
  • the estimated error ⁇ of the focusing lens position DFD-LF obtained here is larger than the allowable error because the focusing lens position with respect to the subject differs slightly depending on the lens frame mounting error of each individual. Therefore, the control parameter calculation unit 28 sets the position DFD—LF + ⁇ , which is separated from the estimated focusing lens position by the estimation error ⁇ from the lens frame installation error, as the target lens position L (t 1), and uses this as the optical position. Input to system controller 24. The optical system control unit 24 drives the focus lens of the optical system 12 to the target lens position L (t ⁇ 1) (step S18).
  • the position of DFD—LF + ⁇ is in-focus with the lens position (L2) from which the luminance information of the second image obtained in the process of calculating the blur parameter is acquired.
  • Lens position This is the position between DFD and LF. By setting this position, the drive distance of the focus lens can be minimized.
  • the imaging element 14 and the luminance signal control unit 16 acquire luminance information of the object at the lens position L (t ⁇ 1) (step S 20).
  • the acquired luminance information is supplied to the hill-climbing method computing unit 22 by the DFFZDFD switching unit 18 under the control of a controller (not shown). Be paid.
  • the hill-climbing method computing unit 22 extracts high-frequency components of the supplied luminance information by HP F40, and the DFF control parameter calculation unit 42 adds the results of HPF40 to calculate the evaluation value h (t-1). Perform (Step S22).
  • the calculated evaluation value is stored in the evaluation value storage unit 44 together with the lens position when the luminance information from the optical system control unit 24 is acquired.
  • the DFF control parameter calculation unit 42 uses the optical system control unit 24 to focus the focus lens of the optical system 12 on the basis of the lens position stored in the evaluation value storage unit 44.
  • the lens is step-driven by a predetermined amount ⁇ in the direction of the lens position DFD—LF (step S 24).
  • the image sensor 14 and the luminance signal control unit 16 acquire the luminance information of the subject at the driven lens position L (t) (step S26), and the evaluation is performed again by the hill-climbing method calculation unit 22 as described above.
  • a value is calculated (step S28).
  • the calculated evaluation value is stored in the evaluation value storage unit 44 together with the lens position given from the optical system control unit 24.
  • step S30 it is determined whether or not the rate of change h (t) -h (t-1) of the evaluation value is increasing (step S30). If it is increasing, the current lens position L (t) is set to the previous lens position L (t ⁇ 1) (step S32), and the process is repeated by returning to step S24.
  • step S30 when it is determined in step S30 that the rate of change h (t) -h (t-1) of the evaluation value has decreased, the DFF control parameter calculation unit 42 determines the peak position DFF-LF. Is estimated (step S34). This approximates the evaluation value and the lens position stored in the evaluation value storage unit 44 to a quadratic function, and obtains the lens position DFF-LF at the peak of the mountain. Then, the DFF control parameter calculation unit 42 gives the calculated lens position DFF-LF to the optical system control unit 24, and drives the focus lens of the optical system 12 to that position (step S36). If the focus lens is driven to the lens position DFF—LF, the focus detection is completed (step S38).
  • the evaluation value of the hill-climbing method was obtained by adding the high-frequency components extracted by HPF40.
  • the luminance distribution force dispersion was obtained, and a value such that the dispersion increases as the focus is achieved. You may ask.
  • control of the actuator of the optical system control unit 24 is an open loop method. As described in a limited manner, an encoder may be attached to the actuator to perform feedback control.
  • the force in the first embodiment is applied to a compact camera.
  • the focus detection apparatus according to the present embodiment can be similarly applied to a single-lens reflex camera 46 as shown in FIG.
  • the optical system 12 includes the taking lens 12A, the reflex mirror 12B, and the AF optical system 12C for guiding the light beam to the AF imaging elements 14A and 14B for focus detection. Composed by 12D.
  • the taking lens 12A has a focus lens for adjusting the focus.
  • the image sensor has an image sensor 14C for shooting and two AF image sensors (14A, 14B), and one of the AF image sensors is optically equivalent to the image sensor 14C. Is arranged. In this modification, it is assumed that the AF image sensor 14A is in the arrangement.
  • the optical system control unit 24 is configured by an actuator driver circuit for driving the focus lens of the taking lens 12A.
  • the distance estimation unit 20 uses the AF imaging element 14A at one lens position L determined in advance. , 14B can obtain two luminance information. That is, the processing of step S10 and step S12 can be performed simultaneously. Then, the blur parameter is calculated using the two pieces of luminance information obtained at the same time (step S14). Thereafter, as in the first embodiment, the LUT storage unit 30 is referred to, and the focus lens position DFD-LF corresponding to the blur parameter is estimated by the control parameter calculation unit 28 (step S16).
  • a position away from the estimated focusing lens position DFD-LF by the estimated error ⁇ from the lens frame mounting error is set as the target lens position DFD_LF + ⁇ and is input to the optical system control unit 24 (step S18).
  • the optical system control unit 24 arranges the focus lens at the target lens position.
  • the hill climbing method is then started.
  • the hill-climbing method is performed using luminance information obtained from the AF image sensor 14A located at the same position as the image sensor 14C for photographing out of the two AF image sensors (14A, 14B). That is, the evaluation value h (t) is calculated by the same method as in the first embodiment (step S22), and the focus lens at which the evaluation value peaks The position 0-1 ⁇ is obtained (steps 324 to 3124). Then, the force lens is controlled to this lens position (step S36), and the focus detection is completed (step S38).
  • the focus detection apparatus is applied to a compact camera 10 as shown in FIG.
  • the optical system 12 the image sensor 14 and the luminance signal control unit 16, the DFFZDFD switching unit 18, the distance estimation unit 20, the hill-climbing method calculation unit that function as luminance information acquisition means 22 and optical system control unit 24
  • the DFF region extraction unit 48 and the extraction information storage unit 50 used in both the distance estimation unit 20 and the hill-climbing method calculation unit 22 are added.
  • the DFF region extraction unit 48 obtains the focusing lens position of the subject that is the closest distance.
  • the extracted information storage unit 50 selects a block in which the subject that is the closest distance exists, and stores the address of the selected block.
  • the focus lens of the optical system 12 is driven to the predetermined first lens position L1, and the luminance information of the first image of the subject is acquired. And supplied to the blur parameter calculation unit 26 of the distance estimation unit 20 (step S10). Thereafter, the focus lens of the optical system 12 is driven to a predetermined second lens position L2, and brightness information of the second image of the subject is acquired and supplied to the blur parameter calculation unit 26 of the distance estimation unit 20 (Step S12).
  • the blur parameter calculation unit 26 calculates a blur parameter by dividing the difference between two images taken at different focus lens positions and the average value of the respective second derivatives (step S14).
  • the blur parameter has a linear relationship with the reciprocal of the subject distance, and the relationship between the subject distance and the focusing lens position is 1: 1, so the relationship between the blur parameter and the focusing lens position is also 1: 1.
  • the relationship is saved. This relationship is stored in the LUT storage unit 30 as a LUT.
  • the control parameter calculation unit 28 uses the calculated blur parameter and LUT information to determine the focusing lens position with respect to the subject by linear interpolation. . This focusing lens position is calculated in pixel units with respect to the edge portion of the subject imaged on the image plane.
  • control parameter calculation unit 28 converts the value of the focusing lens position into a luminance value, thereby obtaining an image called a distance image as shown in FIG.
  • This distance image is passed to the DFF region extraction unit 48, and the in-focus lens position DFD — LF of the subject at the closest distance is obtained (step S16).
  • the DFF region extraction unit 48 selects a block in which the subject exists, and stores the address of the selected block (All, A15 in the example of FIG. 9) in the extraction information storage unit 50 (step S40). .
  • the estimated error ⁇ of the focusing lens position obtained here is larger than the allowable error because the focusing lens position with respect to the subject is slightly different depending on the lens frame mounting error of each individual. Therefore, the DFF region extraction unit 48 sets the position away from the estimated focusing lens position force by the estimation error ⁇ from the lens frame mounting error as the target lens position DFD—LF + ⁇ , and the optical system control unit 24 (Step S18).
  • the hill-climbing method is then started. That is, the luminance information from the image sensor 14 via the luminance signal control unit 16 is passed to the DFF region extraction unit 48 by the DFFZDFD switching unit 18 which is switched to the execution of the hill-climbing method calculation unit 22 by a controller not shown (step) S 20). Since the address of the block in which the subject of interest exists is stored in advance in the extraction information storage unit 50 based on the DFD result, the DFF region extraction unit 48 extracts the luminance information in that block by mask processing (step S42). As masks used for this masking process, those shown in Fig. 10 and Fig. 11 are used.
  • the DFF control parameter calculation unit 42 adds the results of the HPF 40 to calculate an evaluation value (step S22).
  • the calculated evaluation value is stored in the evaluation value storage unit 44 together with the lens position when the luminance information from the optical system control unit 24 is acquired.
  • the force lens is driven by a predetermined amount ⁇ in the direction of the estimated focus lens position (step S24), and brightness information is obtained. (Step S26), and the evaluation value is calculated again (Step S28).
  • the calculated evaluation value together with the lens position given from the optical system control unit 24, is an evaluation value storage unit. Memorized in 44. If the change rate h (t) ⁇ h (t ⁇ 1) of the evaluation value is increased (step S30), this process is repeated.
  • the DFF control parameter calculation unit 42 estimates a peak (step S34).
  • the evaluation value stored in the evaluation value storage unit 44 and the lens position are approximated to a quadratic function to obtain the lens position DFF-LF that is the peak of the mountain.
  • the DFF control parameter calculation unit 42 gives the calculated lens position DFF—LF to the optical system control unit 24, and drives the force lens of the optical system 12 to the position (step S36), thereby detecting focus. Is completed (step S38).
  • the subject of interest is extracted by DFD, and the hill-climbing method is performed only on the block corresponding to the result of DFD, thereby calculating the luminance information power other than the subject of interest.
  • the peak of the evaluation value can be calculated without being affected by the evaluation value, and as a result, the focusing accuracy can be improved.
  • the second embodiment has been described in the case where the region extraction is performed using the distance information obtained as a result of the DFD.
  • the region may be extracted using the result of the second derivative obtained in the blur parameter calculation process as shown in FIG.
  • step S10 the luminance information of the first image of the subject is acquired at the first lens position L1 (step S10), and then the luminance information of the second image of the subject is acquired at the second lens position L2. Obtain (step S12).
  • the second derivative calculation unit 34 performs different focus lens positions. Find the second derivative of each of the two images taken in the camera, and calculate the average value of them. The average value of the second derivative is supplied to the DFF region extraction unit 48 as derivative information.
  • the DFF region extraction unit 48 extracts a block in which the average value of the second derivative of the two supplied images exceeds the threshold as a region for calculating the blur parameter, and the position information of the block ( In the example of FIG. 13, All, A15) is stored in the extracted information storage unit 50 (step S44).
  • the blur parameter calculation unit 26 calculates a blur parameter by dividing the difference between two images taken at a focus lens position different from the average value of the second derivative of the two images (step S1). S14). Then, the control parameter calculation unit 28 uses the calculated blur meter and the LUT information stored in the LUT storage unit 30 to determine the focus lens position with respect to the subject by linear interpolation. This focus lens position is calculated in pixel units with respect to the edge portion of the subject imaged on the image plane, and the position that becomes the closest distance is defined as the focus lens position DFD-LF of the subject. Obtain (step S16).
  • the estimated error ⁇ of the focusing lens position obtained here is larger than the allowable error because the focusing lens position with respect to the subject differs slightly depending on the lens frame mounting error of each individual. Therefore, the estimated focus lens position force is also set to the target lens position DFD—LF + ⁇ , which is separated from the lens frame mounting error by the estimated error ⁇ , and is input to the optical system controller 24 to drive the focus lens. (Step S18).
  • the hill climbing method is performed on the extracted block.
  • the following processing is the same as the processing shown in the second embodiment, and will be omitted.
  • the second-order differentiation extracts the edge portion of the subject, so that the subject region existing on the image plane can be detected.
  • region extraction is determined based on edge strength, a main subject may be extracted from the edge structure.
  • the blur parameter calculation by the blur parameter calculation unit 36 in step S14 may be performed only for the block extracted by the DFF region extraction unit 48. good.
  • the second modification can also be applied to a single-lens reflex camera.
  • the same effect can be obtained by providing the distance information from Fig. 28 (Fig. 9) to the DFF region extraction unit 48 to extract the region.
  • the object region can be extracted from the result of the second derivative.
  • distance information that also obtains DFD force it is possible to prevent erroneous extraction of the subject as compared with the case of using only the second derivative result.
  • the third modification can also be applied to a single-lens reflex camera.
  • the focus detection apparatus is configured as shown in FIG.
  • solid arrows indicate the flow of signals and information for executing the DFD method
  • broken arrows indicate the flow of signals and information for executing the hill-climbing method
  • the alternate long and short dash line arrows indicate the flow of signals and information common to the DFD method and the hill-climbing method.
  • the output of the second-order differential calculation unit 34 is first used for distance estimation in the distance estimation unit 20 as shown by the solid line, and is the third modification of the second embodiment. It is used for region extraction by the DFF region extraction unit 48 as in the example. After the distance estimation is completed, as shown by the broken line in the figure, the second derivative calculation unit 34 secondarily differentiates the luminance signal of the block extracted by the DFF region extraction unit 48 to calculate the hill climbing method. It is supplied to the DFF control parameter calculation unit 42 of the unit 22.
  • the second-order differential calculation unit 34 of the blur parameter calculation unit 26 is shared so that it can be used also in the hill-climbing calculation calculation unit 22. That is, the frequency characteristic of the second-order differential calculation unit 34 of the blur parameter calculation unit 26 has an HPF characteristic that allows high-frequency components to pass. Therefore, when the hill-climbing method is performed, the use of the second-order differential calculation unit 34 of the blur parameter calculation unit 26 eliminates the need for the hill-climbing method calculation unit 22 as in the first or second embodiment. [0072] According to the third embodiment as described above, it is not necessary to have an HPF in the hill-climbing arithmetic operation unit 22, so that the circuit scale can be reduced.
  • the position of the optical system 12 is changed by driving the position of the focus lens and the diaphragm to acquire different brightness information of the two blurs, and the position of the focus lens is adjusted.
  • the configuration for obtaining a focused image has been described.
  • an image sensor control unit 52 that functions as an arrangement control unit that changes the arrangement of the luminance information acquisition unit by driving the image sensor 14 in the optical axis direction is provided. Then, instead of adjusting the arrangement of the focus lens, the image sensor 14 is driven in the direction of the optical axis to obtain brightness information with different blur.
  • the LUT storage unit 30 may store the relationship between the blur parameter and the position of the image sensor 14 as the relationship between the blur parameter and the focus position of the subject force light.
  • Each calculation unit and calculation unit may be configured by a single piece of hardware such as a DSP or CPU.

Abstract

 ぼけパラメータ演算部(26)は、例えば光学系(12)の配置設定を変更することで取得したぼけの異なる2つの輝度情報に基づいて、上記光学系から被写体までの距離に対応するぼけパラメータを算出し、制御パラメータ計算部(28)は、上記ぼけパラメータに基づいて、上記光学系から上記被写体までの距離を示す距離情報を推定し、山登り法演算部(22)は、上記距離情報に基づいて上記光学系の配置設定を変更した後に輝度情報を取得し、さらに上記光学系の配置設定を変更することでぼけの異なる輝度情報を取得し、ぼけの異なる各々の輝度情報から合焦の度合いを示す評価値を算出し、該評価値に基づいて合焦位置を定める。

Description

明 細 書
合焦検出装置
技術分野
[0001] 本発明は、被写体からの光を所定の位置に結像する光学系を通過した光線を用い て、合焦位置を定める合焦検出装置に関する。
背景技術
[0002] 撮像素子を用いて合焦検出を行う手法として、最も一般的な手法に、山登り法又は コントラスト法と呼ばれる技術がある。この合焦検出法は、デジタルカメラをはじめとす る電子撮像機器に広く用いられて ヽる。
[0003] この合焦検出法においては、フォーカスレンズを光軸方向に駆動しながら、その間 に複数枚の画像を撮影し、それら撮影された複数枚の画像に対するぼけの評価値を 算出する。この評価値は、画像のコントラストや高周波成分の和が用いられ、値が大 きいほどフォーカスが合っていることを示している。一方、ぼけの大きさそのものを評 価値とする場合もある。例えば像の空間周波数のうち低周波成分の積分値をもって その評価値とする場合、値が小さ!/、ほどフォーカスが合って 、ることを示す。
[0004] 前者の評価値による合焦検出法を、更に説明する。フォーカスレンズの現在位置 ( 以下、始点と称する。)から、フォーカスレンズを近点側もしくは遠点側どちらかの方 向に微小距離駆動する。例えば、まず遠点側に駆動し、その間に算出される評価値 が始点で算出した評価値に比べて減少すれば、その駆動方向とは逆の方向(近点 側)に評価値のピークが存在することになる。従って、その場合には、逆方向へフォ 一カスレンズを駆動する。なお、このような関係にある場合に、フォーカスレンズを始 点から、まず近点側に駆動したときには、はじめに駆動した方向における評価値が増 カロすることになる。従ってこの場合には、その駆動方向にピークが存在することになる ので、引き続き同方向に駆動する。
[0005] こうして駆動している間、画像の撮影を一定時間間隔で行い、そのときの撮影画像 における評価値を算出する。評価値が増加している間は、レンズの駆動と評価値の 算出を続ける。そして、評価値の変化が増カロから減少に変わったとき、フォーカスレ ンズは合焦位置を過ぎたと判断して、レンズの駆動を停止する。次に、今まで算出し た評価値の最大値と、その最大値を挟んで前後のフォーカスレンズ位置で算出した 評価値と、の 3つの評価値を使って、評価値の 2次関数近似曲線を算出する。そして 、その 2次関数近似曲線において評価値が最大となるフォーカスレンズ位置を求め、 その位置にレンズを駆動することにより、合焦検出が完了する。
[0006] このように、フォーカス位置の推定値をもって、被写体の合焦情報、または距離情 報を推定することから、この合焦検出法は、「Depth From Focus (以下、 DFFと略記 する)法」と呼ばれる。また、評価値が高くなるように制御を行い、評価値のピークを推 定することから、「山登り法」とも呼ばれている。
[0007] これに対して、例えば米国特許第 4, 965, 840号には、「Depth From Defocus (以 下、 DFDと略記する)法」と呼ばれる合焦検出法が開示されている。この方法では、 光路長の異なる 2箇所で輝度情報を取得する。そして、ぼけの異なる複数の画像を 演算処理することにより、ぼけパラメータを算出して、合焦判定する。ここで、ぼけパラ メータとは、輝度情報のぼけ状態を示す代表値であり、光学系のポイントスプレッドフ アンクシヨン(PSF)の分散値と相関のある値を示す。また、 PSFとは、理想的な点像 が光学系を通過した場合にどのように光線が広がるかを表した関数である。
[0008] 上記米国特許第 4, 965, 840号に記載されている DFD法の概略ステップを説明 する。なお、これら概略ステップで行われる演算処理の詳細は、上記米国特許に記 載されているので、ここでは説明を省略する。
[0009] DFD法では、同一被写体、同一部位、同一視線方向からの最低二つの合焦判定 用輝度情報を、撮像画像のぼけ状態に影響を与える撮影パラメータを最低 1つ変更 すること〖こよって、取得する。撮影パラメータとしては、フォーカスレンズ位置、絞り量 、焦点距離などがある。本説明では、フォーカスレンズの位置のみを変更する場合に 限定して説明を行う。
[0010] 本 DFD法では、例えば輝度情報取得手段である撮像部と対象物までの光路長を 変更するため、つまり、撮像部の像面上に結像される像のぼけの状態を変えるため に、フォーカスレンズを所定の第 1の位置と第 2の位置に移動する。そして、第 1の位 置において第 1の輝度情報を取得し、また、第 2の位置で第 2の輝度情報を取得する 。これら取得された輝度情報は、電気的なノイズを除去するためのローパスフィルタ 処理、第 1及び第 2の画像間で異なる倍率を補正する像倍率補正処理、輝度分布な どの正規ィヒ処理が施される。必要であれば取得した輝度情報中の合焦判定をすベ き領域を選択する。選択はどちらか一方の輝度情報に対して行い、もう一方の輝度 情報に対しては対応領域が選定される。そして、それら合焦判定をすべき領域にお ける 2つの正規ィヒ処理結果から、第 1の輝度情報と第 2の輝度情報との差分とを演算 する。また、第 1の輝度情報及び第 2の輝度情報それぞれの 2次微分を計算して、そ れらの平均値を計算する。そして、上記第 1の輝度情報と第 2の輝度情報との差分を 、上記輝度情報の 2次微分の平均値で除算することで、第 1または第 2の輝度情報に 対応した PSFの分散と相関のあるぼけパラメータが算出される。
[0011] この算出された PSFのぼけパラメータから、被写体距離は、上記米国特許第 4, 96 5, 840号に記載されている PSFの分散と被写体距離の関係式に基づいて求められ る。このような、ぼけパラメータと被写体距離の関係は、レンズの構成、状態 (ズーム、 絞り)によって異なる。また、ある被写体距離と被写体距離に合焦するフォーカスレン ズ位置即ち合焦レンズ位置の関係は、レンズシステムのデータにより予め与えられる 。従って、ぼけパラメータと制御対象の合焦レンズ位置との関係は、レンズシステム、 レンズの状態によってそれぞれ個別の関係式、または演算テーブルによって求めら れる。
発明の開示
[0012] ところで、カメラの各個体間には、レンズ個体の製造ばらつき、鏡枠の形状ブレによ り、レンズ駆動制御と像面位置の関係に個体差が生じてしまう。そのため、上記米国 特許第 4, 965, 840号に開示されているような DFD法を使った AF装置をカメラに組 み込む場合には、同じ設計のレンズシステムでも、個体毎に PSF分散とフォーカスレ ンズ位置の特性テーブルの修正を必要とする。
[0013] 本発明は、上記の点に鑑みてなされたもので、固体毎に特性テーブルの修正を必 要とすることなく合焦検出を行える合焦検出装置を提供することを目的とする。
[0014] 本発明の合焦検出装置の一態様は、被写体からの光を所定の位置に結像する光 学系を通過した光線を用いて合焦位置を定める合焦検出装置において、 上記光学系によって結像した光の輝度情報を取得する輝度情報取得手段と、 上記輝度情報取得手段を用いて取得したぼけの異なる 2つの輝度情報に基づ ヽ て、上記光学系力 上記被写体までの距離に対応するぼけパラメータを算出するぼ けパラメータ演算手段と、
上記ぼけパラメータ演算手段を用いて算出した上記ぼけパラメータに基づいて上 記光学系から上記被写体までの距離に対応する距離情報を推定する距離推定手段 と、
上記距離推定手段を用いて推定した距離情報に基づ!/、て上記光学系又は上記輝 度情報取得手段の配置設定を変更した後に上記輝度情報取得手段を用いて輝度 情報を取得し、さらに上記光学系又は上記輝度情報取得手段の配置設定を変更す ることで上記輝度情報取得手段を用いてぼけの異なる輝度情報を取得し、ぼけの異 なる各々の輝度情報力 合焦の度合いを示す評価値を算出し、該評価値に基づい て合焦位置を定める合焦検出手段と、
を具備することを特徴とする。
図面の簡単な説明
[図 1]図 1は、本発明の第 1実施例に係る合焦検出装置が適用されたコンパクトカメラ の構成を示す図である。
[図 2]図 2は、第 1実施例に係る合焦検出装置のブロック構成図である。
[図 3]図 3は、第 1実施例に係る合焦検出装置の処理を説明するためのフローチヤ一 トを示す図である。
[図 4]図 4は、ぼけパラメータと合焦レンズ位置との関係を示す図である。
[図 5]図 5は、 DFDの推定結果からの山登り法を説明するための、合焦評価値とレン ズ位置との関係を示す図である。
[図 6]図 6は、本発明の第 1実施例の変形例に係る合焦検出装置が適用された一眼 レフレックスカメラの構成を示す図である。
[図 7]図 7は、本発明の第 2実施例に係る合焦検出装置のブロック構成図である。
[図 8]図 8は、第 2実施例に係る合焦検出装置の処理を説明するためのフローチヤ一 トを示す図である。 [図 9]図 9は、距離画像の例を示す図である。
[図 10]図 10は、 DFF領域抽出手段でのマスク処理に使用するマスクの例を示す図 である。
[図 11]図 11は、 DFF領域抽出手段でのマスク処理に使用するマスクの別の例を示 す図である。
[図 12]図 12は、第 2実施例の第 2変形例に係る合焦検出装置のブロック構成図であ る。
[図 13]図 13は、 2次微分演算部の演算結果の例を示す図である。
[図 14]図 14は、第 2実施例の第 2変形例に係る合焦検出装置の処理を説明するため のフローチャートを示す図である。
[図 15]図 15は、第 2実施例の第 3変形例に係る合焦検出装置のブロック構成図であ る。
[図 16]図 16は、本発明の第 3実施例に係る合焦検出装置のブロック構成図である。
[図 17]図 17は、本発明の第 4実施例に係る合焦検出装置が適用されたコンパクトカメ ラの構成を示す図である。
発明を実施するための最良の形態
[0016] 以下、本発明を実施するための最良の形態を図面を参照して説明する。
[0017] [第 1実施例]
本実施例に係る合焦検出装置は、図 1に示すようなコンパクトカメラ 10に適用したも のである。この合焦検出装置は、図 2に示すように、光学系 12、輝度情報取得手段と して機能する撮像素子 14及び輝度信号制御部 16、 DFFZDFD切り替え部 18、距 離推定部 20、山登り法演算部 22、及び光学系制御部 24によって構成される。
[0018] ここで、光学系 12は、画像を撮影することを目的とした複数のレンズ群 (テーキング レンズ)で構成され、そのうちの一部のレンズ群はフォーカスを調整するために光軸 方向に駆動できる構成になっている。このレンズ群をフォーカスレンズと呼ぶ。光学系 12によって結像した被写体の像は、撮像素子 14の光電変換素子によって電気信号 に変換される。変換された電気信号は、輝度信号制御部 16でデジタル信号に変換 される。この変換されたデジタル信号を輝度情報と呼ぶ。この輝度情報は、距離推定 部 20と山登り法演算部 22に入力される。本実施例においては、距離推定部 20によ つて光学系 12から撮影の対象物である被写体までの距離を示す被写体距離を推定 した後、合焦検出手段として機能する山登り法演算部 22によって、より高い精度で合 焦結果を得るための処理が行われる。山登り法演算部 22と距離推定部 20の切り替 えは、 DFFZDFD切り替え部 18によって行われる。また、光学系制御部 24は、光学 系 12を任意の位置に制御するための配置制御手段として機能するもので、特に図 示はしていないが、ァクチユエータと該ァクチユエータを駆動するための駆動回路と によって構成されている。例えば、山登り法演算部 22で得られた合焦レンズ位置が 光学系制御部 24に入力されると、駆動回路は、光学系 12のフォーカスレンズをその レンズ位置に配置するためにァクチユエータへ与える信号を生成し、ァクチユエータ にその信号を入力して、フォーカスレンズを所望の位置に配置する。
[0019] なお、各部の動作制御は、当該コンパクトカメラ 10を制御する不図示のコントローラ により為される。
[0020] 上記距離推定部 20は、 DFD法により被写体距離を推定する。この距離推定部 20 は、ぼけパラメータ演算部 26、制御パラメータ計算部 28、及び LUT記憶部 30によつ て構成される。
[0021] 上記ぼけパラメータ演算部 26は、差分演算部 32、 2次微分演算部 34、ぼけパラメ ータ算出部 36、及びバッファ 38を備えている。差分演算部 32は、ぼけパラメータの 算出のために必要な画像の差分を計算する。 2次微分演算部 34は、画像の 2次微 分を計算し、ぼけの異なる 2つの輝度情報力 得られる 2次微分の結果の平均を計 算する。ぼけパラメータ算出部 36は、差分演算部 32で計算された画像の差分と 2次 微分演算部 34で計算された 2次微分との平均を除算して、ぼけパラメータを計算す る。ノ ッファ 38は、複数の輝度情報をフォーカスレンズを異なる位置に配置して異な る時刻で取得するので、 1枚目に撮影した輝度情報とその 2次微分の結果を保持し ておくためのものである。
[0022] また、上記 LUT記憶部 30は、ぼけパラメータと被写体力 の光の合焦位置との関 係として、ぼけパラメータと合焦レンズ位置との関係をルックアップテーブル (LUT) の形で記憶している。合焦レンズ位置に応じて、光学系 12の配置が定まる。 [0023] 上記制御パラメータ計算部 28は、上記 LUT記憶部 30の LUTを参照することにより 、上記ぼけパラメータ算出部 36で計算したぼけパラメータに対応した合焦レンズ位置 を求める。
[0024] 一方、上記山登り法演算部 22は、ハイパスフィルタ (HPF) 40、 DFF制御パラメ一 タ計算部 42、及び評価値記憶部 44を備えている。 HPF40は、輝度情報の高周波 成分を抽出する。 DFF制御パラメータ計算部 42は、 HPF40の結果を加算し、評価 値 h (t)の算出を行う。評価値記憶部 44は、輝度情報を取得したときのレンズ位置と、 DFF制御パラメータ計算部 42で算出した評価値とを記憶する。
[0025] 本実施例に係る合焦検出装置の処理を、図 3のフローチャートを参照して詳細に説 明する。
[0026] 即ち、まず、図示しないコントローラの制御に従って、光学系制御部 24によって光 学系 12のフォーカスレンズを予め決められた第 1のレンズ位置 L1に駆動し、撮像素 子 14及び輝度信号制御部 16によって被写体の 1枚目の輝度情報を取得する (ステ ップ S10)。この取得された 1枚目の輝度情報は、不図示コントローラの制御に従って 、 DFFZDFD切り替え部 18によって距離推定部 20に供給され、ぼけパラメータ演 算部 26内のバッファ 38に記憶される。
[0027] その後、不図示コントローラの制御に従って、光学系制御部 24によって光学系 12 のフォーカスレンズを予め決められた第 2のレンズ位置 L2に駆動し、撮像素子 14及 び輝度信号制御部 16によって被写体の 2枚目の輝度情報を取得する (ステップ S12 ) oこの取得された 2枚目の輝度情報は、不図示コントローラの制御に従って、 DFF ZDFD切り替え部 18によって距離推定部 20に供給される。
[0028] 上記 2枚目の輝度情報の取得が完了すると、不図示コントローラの制御に従って、 距離推定部 20において、ぼけパラメータの計算が行われる (ステップ S 14)。即ち、 ぼけパラメータ演算部 26において、差分演算部 32が、上記 1枚目の輝度情報をバッ ファ 38から読み出し、上記 DFFZDFD切り替え部 18から供給される 2枚目の輝度 情報との差分を計算する。また、 2次微分演算部 34が、上記 DFFZDFD切り替え部 18から供給される 2枚目の輝度情報の 2次微分を計算し、それが計算されたならば、 更に、上記 1枚目の輝度情報をバッファ 38から読み出して、その 2次微分を計算する 。そして、それら計算した 1枚目と 2枚目の 2次微分の平均値を計算する。こうして差 分と、微分情報としての 2次微分の平均値が求められたならば、ぼけパラメータ算出 部 36は、それらの除算を計算して、ぼけパラメータを得る。
[0029] ぼけパラメータは、被写体距離の逆数に対して線形な関係があり、更に、被写体距 離と合焦レンズ位置の関係は 1対 1対応であるので、ぼけパラメータと合焦レンズ位 置の関係も、図 4に示すように、 1対 1対応の関係が保存される。この関係は、 LUT記 憶部 30にテーブル (LUT)として記憶されている。制御パラメータ計算部 28は、ぼけ パラメータに対応する被写体距離の値を算出する。被写体距離の値に対応する距離 情報は、フォーカスレンズの位置で表される。よって、ぼけパラメータ演算部 26で求 められたぼけパラメータに対応する合焦レンズ位置 DFD—LFは、 LUT記憶部 30に 記憶されているテーブルを参照し、線形近似によって求めることができる (ステップ S1 6)。
[0030] ここで求められた合焦レンズ位置 DFD—LFの推定誤差 Δは、被写体に対する合 焦レンズ位置が各個体の鏡枠取り付け誤差によって微小に異なるため、許容誤差よ りも大きい。よって、制御パラメータ計算部 28は、推定した合焦レンズ位置から鏡枠 の取り付け誤差よりも推定誤差 Δの分だけ離れた位置 DFD— LF+ Δを目標レンズ 位置 L (t 1)とし、それを光学系制御部 24に入力する。光学系制御部 24は、光学 系 12のフォーカスレンズをその目標レンズ位置 L (t—1)に駆動する(ステップ S18)。
[0031] ここで、 DFD— LF+ Δの位置は、図 5に示すように、前述のぼけパラメータを算出 する過程で撮影した 2枚目の輝度情報を取得したレンズ位置 (L2)と、合焦レンズ位 置 DFD— LFと、の間の位置である。この位置にすることで、フォーカスレンズの駆動 距離を最短にすることができる。
[0032] 前述の目標レンズ位置 L (t 1)への駆動が完了すると、次に、不図示コントローラ の制御により、山登り法演算部 22での上述した山登り法による合焦検出動作が開始 される。
[0033] 即ち、撮像素子 14及び輝度信号制御部 16によってレンズ位置 L (t—1)での被写 体の輝度情報を取得する (ステップ S 20)。この取得された輝度情報は、不図示コント ローラの制御に従って、 DFFZDFD切り替え部 18によって山登り法演算部 22に供 給される。該山登り法演算部 22では、その供給された輝度情報の高周波成分を HP F40によって抽出し、 DFF制御パラメータ計算部 42で HPF40の結果を加算して、 評価値 h (t— 1)の算出を行う (ステップ S22)。この算出された評価値は、光学系制 御部 24からの輝度情報を取得したときのレンズ位置と共に、評価値記憶部 44に記 憶される。
[0034] 次に、 DFF制御パラメータ計算部 42は、上記評価値記憶部 44に記憶されたレン ズ位置に基づいて、光学系制御部 24により光学系 12のフォーカスレンズを前述の推 定合焦レンズ位置 DFD— LFの方向に、所定量 δだけステップ駆動する (ステップ S 24)。そして、撮像素子 14及び輝度信号制御部 16によって、その駆動されたレンズ 位置 L (t)での被写体の輝度情報を取得して (ステップ S26)、上述したように山登り 法演算部 22において再び評価値を算出する (ステップ S28)。この算出された評価 値は、光学系制御部 24から与えられるレンズ位置と共に、評価値記憶部 44に記憶さ れる。
[0035] その後、評価値の変化率 h (t) -h(t- 1)が増加している力否かを判別し (ステップ S30)、増加している場合には、現在のレンズ位置 L (t)を一つ前のレンズ位置 L (t— 1)として (ステップ S32)、上記ステップ S24に戻ることで、上記の処理を繰り返す。
[0036] 而して、上記ステップ S30において、評価値の変化率 h (t) -h (t- 1)が減少したと 判別されたときには、 DFF制御パラメータ計算部 42では、ピーク位置 DFF— LFの 推定を行う(ステップ S34)。これは、評価値記憶部 44に記憶された評価値とレンズ 位置を 2次関数に近似し、山のピークとなるレンズ位置 DFF—LFを求めるものである 。そして、 DFF制御パラメータ計算部 42は、その計算したレンズ位置 DFF— LFを光 学系制御部 24に与え、その位置に光学系 12のフォーカスレンズを駆動する (ステツ プ S36)。そのレンズ位置 DFF— LFにフォーカスレンズが駆動されたならば、合焦検 出が完了する (ステップ S38)。
[0037] なお、本実施例では、山登り法の評価値を、 HPF40で抽出した高周波成分の加算 によって求めたが、輝度の分布力 分散を求め、合焦するほど分散が大きくなるよう な値を求めても良い。
[0038] また、光学系制御部 24のァクチユエータの制御は、オープンループで行う手法に 限定して述べたが、ァクチユエータにエンコーダが取り付けられていて、フィードバッ ク制御を行う手法であっても良 、。
[0039] [第 1実施例の変形例]
上記第 1実施例は、コンパクトカメラに適用した場合である力 本実施例に係る合焦 検出装置は、図 6に示すような一眼レフレックスカメラ 46にも同様に適用可能である。
[0040] 即ち、この一眼レフレックスカメラ 46の場合、光学系 12は、テーキングレンズ 12A、 レフミラー 12B、及び合焦検出用の AF撮像素子 14A, 14Bに光線を導くための AF 光学系 12C, 12Dによって構成される。また、テーキングレンズ 12Aにはフォーカス を調整するためのフォーカスレンズがある。撮像素子は、撮影を目的とした撮影用撮 像素子 14Cと 2つの AF撮像素子(14A, 14B)とがあり、 AF撮像素子のうち一つは 撮影用撮像素子 14Cと光学的に同等の位置に配置されている。本変形例では、 AF 撮像素子 14Aがその配置であるとする。光学系制御部 24は、上記テーキングレンズ 12Aのフォーカスレンズを駆動するためのァクチユエータゃ駆動回路によって構成さ れている。
[0041] このような一眼レフレックスカメラ 46に上記第 1実施例の合焦検出装置を適用した 場合には、距離推定部 20では、予め決められた 1つのレンズ位置 Lで、 AF撮像素子 14A, 14Bにより 2つの輝度情報を得ることができる。即ち、上記ステップ S10とステツ プ S12の処理を同時に行える。そして、こうして同時に得られた 2つの輝度情報を用 いて、ぼけパラメータの算出を行う (ステップ S14)。その後は、上記第 1実施例と同様 に LUT記憶部 30を参照して、ぼけパラメータに対応する合焦レンズ位置 DFD—LF を制御パラメータ計算部 28で推定する (ステップ S16)。そして、推定した合焦レンズ 位置 DFD—LFから鏡枠の取り付け誤差よりも推定誤差 Δの分だけ離れた位置を目 標レンズ位置 DFD_LF+ Δとし、光学系制御部 24に入力する(ステップ S18)。光 学系制御部 24は、目標レンズ位置にフォーカスレンズを配置する。
[0042] フォーカスレンズの制御が完了すると、次に山登り法が開始される。山登り法は 2つ の AF撮像素子(14A, 14B)のうち、撮影用撮像素子 14Cと同等の位置にある AF 撮像素子 14Aから得られる輝度情報を用いて行う。即ち、上記第 1実施例と同様の 方法で評価値 h(t)を算出し (ステップ S22)、評価値のピークとなるフォーカスレンズ 位置0 —1^を求める(ステップ324〜3124)。そして、このレンズ位置にフォー力 スレンズを制御し (ステップ S36)、合焦検出を完了する (ステップ S38)。
[0043] [第 2実施例]
本第 2実施例に係る合焦検出装置は、図 1に示すようなコンパクトカメラ 10に適用し たものである。図 7に示すように、上記第 1実施例と同様、光学系 12、輝度情報取得 手段として機能する撮像素子 14及び輝度信号制御部 16、 DFFZDFD切り替え部 18、距離推定部 20、山登り法演算部 22、及び光学系制御部 24によって構成される
[0044] 但し、本実施例においては、上記距離推定部 20と山登り法演算部 22の両方で使 用される DFF領域抽出部 48と抽出情報記憶部 50とが追加された構成となっている 。ここで、 DFF領域抽出部 48は、最近距離となる被写体の合焦レンズ位置を求める 。抽出情報記憶部 50は、その最近距離となる被写体が存在するブロックを選択し、 選択したブロックのアドレスを記憶する。
[0045] 本実施例に係る合焦検出装置の処理を、図 8のフローチャートを参照して詳細に説 明する。
[0046] 即ち、まず、上記第 1実施例で説明したように、光学系 12のフォーカスレンズを予め 決められた第 1のレンズ位置 L1に駆動し、被写体の 1枚目の輝度情報を取得して、 距離推定部 20のぼけパラメータ演算部 26に供給する (ステップ S10)。その後、光学 系 12のフォーカスレンズを予め決められた第 2のレンズ位置 L2に駆動し、被写体の 2枚目の輝度情報を取得して、距離推定部 20のぼけパラメータ演算部 26に供給す る(ステップ S 12)。
[0047] ぼけパラメータ演算部 26は、異なるフォーカスレンズ位置で撮影した 2枚の画像の 差分とそれぞれの 2次微分の平均値の除算によって、ぼけパラメータを計算する (ス テツプ S14)。ぼけパラメータは被写体距離の逆数に対して線形な関係があり、更に 、被写体距離と合焦レンズ位置の関係は 1対 1対応であるので、ぼけパラメータと合 焦レンズ位置の関係も 1対 1対応の関係が保存される。この関係は LUT記憶部 30に LUTとして記憶されている。制御パラメータ計算部 28では、算出したぼけパラメータ と LUTの情報を使って、被写体に対する合焦レンズ位置を線形補間によって求める 。この合焦レンズ位置は、像面に結像した被写体のエッジの部分に対してピクセル単 位で算出される。制御パラメータ計算部 28は、更に、この合焦レンズ位置の値を輝度 値に変換することで、図 9に示すような距離画像と呼ばれる画像を得る。この距離画 像は、 DFF領域抽出部 48に渡され、最近距離となる被写体の合焦レンズ位置 DFD — LFを求める (ステップ S16)。また、 DFF領域抽出部 48は、その被写体が存在す るブロックを選択し、選択したブロックのアドレス(図 9の例では Al l, A15)を抽出情 報記憶部 50に記憶させる (ステップ S40)。
[0048] ここで求められた合焦レンズ位置の推定誤差 Δは、被写体に対する合焦レンズ位 置が各個体の鏡枠取り付け誤差によって微小に異なるため、許容誤差よりも大きい。 よって、 DFF領域抽出部 48は、推定した合焦レンズ位置力ゝら鏡枠の取り付け誤差よ りも推定誤差 Δの分だけ離れた位置を目標レンズ位置 DFD— LF+ Δとし、光学系 制御部 24に入力する (ステップ S18)。
[0049] 光学系制御部 24によって前述の目標レンズ位置 DFD— LF+ Δへの制御が完了 すると、次に山登り法が開始される。即ち、撮像素子 14から輝度信号制御部 16を経 て輝度情報は、図示しないコントローラにより山登り法演算部 22の実行に切り替えら れた DFFZDFD切り替え部 18によって、 DFF領域抽出部 48に渡される (ステップ S 20)。予め DFDの結果により注目被写体の存在するブロックのアドレスが抽出情報 記憶部 50に記憶されているので、 DFF領域抽出部 48は、そのブロックにおける輝度 情報をマスク処理によって抽出する (ステップ S42)。このマスク処理に使用するマス クとしては、図 10や図 11に示すようなものが使用される。
[0050] DFF領域抽出部 48によって抽出された輝度情報は、 HPF40によって高周波成分 が抽出され、 DFF制御パラメータ計算部 42は、この HPF40の結果を加算し評価値 の算出を行う(ステップ S22)。この算出された評価値は、光学系制御部 24からの輝 度情報を取得したときのレンズ位置と共に、評価値記憶部 44に記憶される。
[0051] その後、上記評価値記憶部 44に記憶された現在のレンズ位置に基づいてフォー力 スレンズを前述の推定合焦レンズ位置の方向に所定量 δ駆動し (ステップ S 24)、輝 度情報を取得して (ステップ S26)、再び評価値を算出する (ステップ S28)。この算出 された評価値は、光学系制御部 24から与えられるレンズ位置と共に、評価値記憶部 44に記憶される。そして、評価値の変化率 h(t)— h (t— 1)が増加している場合には (ステップ S30)、この処理を繰り返すことになる。
[0052] 而して、評価値の変化率 h (t)—h (t—l)が減少したときには (ステップ S30)、 DFF 制御パラメータ計算部 42では、ピークの推定を行う(ステップ S34)。即ち、評価値記 憶部 44に記憶された評価値とレンズ位置を 2次関数に近似し、山のピークとなるレン ズ位置 DFF— LFを求める。そして、 DFF制御パラメータ計算部 42は、その計算した レンズ位置 DFF— LFを光学系制御部 24に与え、その位置に光学系 12のフォー力 スレンズを駆動することで (ステップ S36)、合焦検出が完了する (ステップ S38)。
[0053] 以上のように、本第 2実施例では、注目被写体を DFDによって抽出し、 DFDの結 果に対応するブロックのみに山登り法を行うことにより、注目被写体以外の輝度情報 力も算出される評価値の影響を受けることがなく評価値のピークを算出することがで き、結果として、合焦精度を向上させることができる。
[0054] また、山登り法を輝度情報全体ではなぐ一部のブロックに対して行うことにより、演 算コストも削減できる効果が得られる。
[0055] [第 2実施例の第 1変形例]
なお、本実施例では、コンパクトカメラ 10に適用した場合を説明したが、上記第 1実 施例の変形例のような一眼レフレックスカメラにも同様に適用可能であり、同等の効 果が得られることは勿論である。
[0056] [第 2実施例の第 2変形例]
また、領域の抽出を DFDの結果得られる距離情報を用いて行った場合について、 本第 2実施例を説明したが、図 12に示すように、 2次微分演算部 34の演算結果を D FF領域抽出部 48に与えることで、図 13に示すようなぼけパラメータの算出過程で求 められる 2次微分の結果を用いて領域の抽出を行うようにしても良 、。
[0057] この場合の処理を、図 14のフローチャートを参照して詳細に説明する。本変形例に おいても、第 1のレンズ位置 L1で被写体の 1枚目の輝度情報を取得し (ステップ S 10 )、その後、第 2のレンズ位置 L2で被写体の 2枚目の輝度情報を取得する (ステップ S 12)。
[0058] ぼけパラメータ演算部 26では、 2次微分演算部 34にて、異なるフォーカスレンズ位 置で撮影した 2枚の画像それぞれの 2次微分を求め、それらの平均値を計算する。こ の 2次微分の平均値は、微分情報として DFF領域抽出部 48に供給される。 DFF領 域抽出部 48では、その供給された 2枚の画像の 2次微分の平均値が閾値を超える値 の存在するブロックを、ぼけパラメータを計算する領域として抽出し、そのブロックの 位置情報(図 13の例では Al l, A15)を抽出情報記憶部 50に記憶する (ステップ S4 4)。
[0059] また、ぼけパラメータ演算部 26は、上記 2枚の画像の 2次微分の平均値と異なるフ オーカスレンズ位置で撮影した 2枚の画像の差分の除算によって、ぼけパラメータを 計算する (ステップ S14)。そして、制御パラメータ計算部 28では、その算出したぼけ ノ メータと LUT記憶部 30に記憶された LUTの情報とを使って、被写体に対する合 焦レンズ位置を線形補間によって求める。この合焦レンズ位置は、像面に結像した被 写体のエッジの部分に対してピクセル単位で算出されるものであり、最近距離となる 位置を、被写体の合焦レンズ位置 DFD— LFとして求める(ステップ S16)。
[0060] ここで求められた合焦レンズ位置の推定誤差 Δは、被写体に対する合焦レンズ位 置が各個体の鏡枠取り付け誤差によって微小に異なるため、許容誤差よりも大きい。 よって、推定した合焦レンズ位置力も鏡枠の取り付け誤差よりも推定誤差 Δの分だけ 離れた位置を目標レンズ位置 DFD— LF+ Δとし、光学系制御部 24に入力して、フ オーカスレンズを駆動する(ステップ S 18)。
[0061] 次に、山登り法を、抽出したブロックに対して行う。以下の処理は、上記第 2実施例 で示した処理と同じであるので省略する。
[0062] このように、本第 2変形例では、 2次微分は被写体のエッジ部分を抽出するので、像 面上に存在する被写体領域を検出することができる。エッジの強度が最も高いブロッ クを DFF領域抽出部 48で抽出し、そのブロックのみの輝度情報を使って山登り法を 実行することにより、第 2実施例で得られる効果と等しい効果が得られる。
[0063] なお、領域の抽出をエッジの強度で判断したが、エッジの構造から主要被写体を抽 出しても良い。
[0064] また、ステップ S14におけるぼけパラメータ算出部 36でのぼけパラメータの計算に ぉ 、ても、上記 DFF領域抽出部 48で抽出したブロックにつ 、てのみ行うようにしても 良い。
[0065] なお、本第 2変形例も、一眼レフレックスカメラに適用可能なことは勿論である。
[0066] [第 2実施例の第 3変形例]
図 15に示すように、 2次微分演算部 34の演算結果(図 13)と制御パラメータ計算部
28からの距離情報(図 9)とを DFF領域抽出部 48に与えて、領域の抽出を行うように して、同等の効果を得ることができる。
[0067] 本第 3変形例にぉ 、ても、上記第 2変形例に示したように、 2次微分の結果から被 写体領域を抽出することができる。更に、 DFD力も得られる距離情報を用いることに よって、 2次微分の結果のみを利用する場合よりも被写体の誤抽出を防ぐことができ る。
[0068] なお、本第 3変形例も、一眼レフレックスカメラに適用可能なことは勿論である。
[0069] [第 3実施例]
本第 3実施例に係る合焦検出装置は、図 16に示すように構成されている。同図に おいて、実線の矢印は、 DFD法を実行するための信号や情報の流れを示しており、 破線の矢印は、山登り法を実行するための信号や情報の流れを示している。また、一 点鎖線の矢印は、 DFD法及び山登り法で共通の信号や情報の流れを示して 、る。
[0070] 本実施例においては、 2次微分演算部 34の出力は、まず、実線で示すように、距 離推定部 20での距離推定に用いられると共に、上記第 2実施例の第 3変形例のよう に DFF領域抽出部 48での領域抽出に用いられる。そして、距離推定の終了後は、 同図に破線で示すように、この 2次微分演算部 34は、 DFF領域抽出部 48で抽出し たブロックの輝度信号を 2次微分して、山登り法演算部 22の DFF制御パラメータ計 算部 42に供給するようになって 、る。
[0071] このように、本実施例は、ぼけパラメータ演算部 26の 2次微分演算部 34を山登り法 演算部 22でも利用するよう、共有ィ匕したものである。即ち、ぼけパラメータ演算部 26 の 2次微分演算部 34の周波数特性は、高周波成分を通過させる HPFの特性がある 。よって、山登り法を行うとき、ぼけパラメータ演算部 26の 2次微分演算部 34を用いる ことによって、上記第 1又は第 2実施例のような山登り法演算部 22で HPFを持つ必 要がなくなる。 [0072] このような第 3実施例によれば、山登り法演算部 22で HPFを持つ必要がなくなるの で、回路規模を削減できる効果がある。
[0073] [第 3実施例の変形例]
なお、本実施例では、コンパクトカメラ 10に適用した場合を説明したが、上記第 1実 施例の変形例のような一眼レフレックスカメラにも同様に適用可能であり、同等の効 果が得られることは勿論である。
[0074] [第 4実施例]
上記第 1乃至第 3実施例では、フォーカスレンズの位置や絞りを駆動することで光 学系 12の配置を変更して 2つのぼけの異なる輝度情報を取得し、フォーカスレンズ の配置を調整して合焦画像を得る構成で説明した。
[0075] 本実施例では、図 17に示すように、光軸方向に撮像素子 14を駆動することで輝度 情報取得手段の配置を変更する配置制御手段として機能する撮像素子制御部 52を 設ける。そして、フォーカスレンズの配置を調整する代わりに、撮像素子 14を光軸方 向に駆動することで、ぼけの異なる輝度情報を取得する。この場合、 LUT記憶部 30 には、ぼけパラメータと被写体力 の光の合焦位置との関係として、ぼけパラメータと 撮像素子 14の位置との関係を記憶しておけば良い。
[0076] このような構成であっても、上記第 1乃至第 3実施例と同様の効果が得られる。
[0077] [第 5実施例]
各演算部や計算部を、 DSPや CPU等の一つのハードウェアによって構成しても構 わない。
[0078] 以上実施例に基づいて本発明を説明したが、本発明は上述した実施例に限定され るものではなぐ本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論で ある。

Claims

請求の範囲
[1] 被写体からの光を所定の位置に結像する光学系(12)を通過した光線を用いて合 焦位置を定める合焦検出装置において、
上記光学系によって結像した光の輝度情報を取得する輝度情報取得手段(14, 1 6)と、
上記輝度情報取得手段を用いて取得したぼけの異なる 2つの輝度情報に基づ ヽ て、上記光学系力 上記被写体までの距離に対応するぼけパラメータを算出するぼ けパラメータ演算手段 (26)と、
上記ぼけパラメータ演算手段を用いて算出した上記ぼけパラメータに基づいて上 記光学系から上記被写体までの距離に対応する距離情報を推定する距離推定手段 (28, 30)と、
上記距離推定手段を用いて推定した距離情報に基づ!/、て上記光学系又は上記輝 度情報取得手段の配置設定を変更した後に上記輝度情報取得手段を用いて輝度 情報を取得し、さらに上記光学系又は上記輝度情報取得手段の配置設定を変更す ることで上記輝度情報取得手段を用いてぼけの異なる輝度情報を取得し、ぼけの異 なる各々の輝度情報力 合焦の度合いを示す評価値を算出し、該評価値に基づい て合焦位置を定める合焦検出手段 (22)と、
を具備することを特徴とする合焦検出装置。
[2] 上記距離推定手段によって推定した距離情報に基づいて上記光学系又は上記輝 度情報取得手段を配置する配置制御手段 (24; 52)を更に具備し、
上記配置制御手段によって配置される上記光学系又は上記輝度情報取得手段の 位置が、上記被写体の距離に合焦する光学系又は上記輝度情報取得手段の配置 よりも、無限遠または近点で合焦する向きで且つ一定距離光軸方向に離れた光学系 又は輝度情報取得手段の配置であることを特徴とする請求項 1に記載の合焦検出装 置。
[3] 上記光学系又は上記輝度情報取得手段の位置が上記距離推定手段によって撮 影された最後の画像を取得するレンズ位置と合焦位置の間であることを特徴とする請 求項 2に記載の合焦検出装置。
[4] 上記一定距離が焦点調節用光学系組み立ての許容誤差よりも大きいことを特徴と する請求項 2に記載の合焦検出装置。
[5] 上記距離推定手段と上記合焦検出手段とは、両者の間で情報の授受を行う情報 授受手段 (48, 50)を介して、情報の授受を行うことを特徴とする請求項 1に記載の 合焦検出装置。
[6] 上記情報には、上記距離推定手段によって得られた上記距離情報を含むことを特 徴とする請求項 5に記載の合焦検出装置。
[7] 上記ぼけパラメータ演算手段は、上記輝度情報取得手段を用いて取得した上記輝 度情報の微分情報を算出する微分情報演算手段 (34)を備え、
上記情報には、上記微分情報を含むことを特徴とする請求項 5に記載の合焦検出 装置。
[8] 上記情報授受手段は、
上記距離推定手段又はそれを構成する演算手段によって得られた情報に基づい て、上記合焦検出手段における評価値の算出対象となる像面上の領域を抽出する 領域抽出手段 (48)と、
上記領域抽出手段で抽出した上記像面上の領域の位置を記憶する抽出情報記 憶手段 (50)と、
を含むことを特徴とする請求項 5に記載の合焦検出装置。
[9] 上記領域抽出手段は、上記距離推定手段によって得られた上記距離情報によって 領域抽出を行うことを特徴とする請求項 8に記載の合焦検出装置。
[10] 上記ぼけパラメータ演算手段は、上記輝度情報取得手段を用いて取得した上記輝 度情報の微分情報を算出する微分演算手段 (34)を備え、
上記領域抽出手段は、上記微分演算手段によって得られた微分情報によって領域 抽出を行うことを特徴とする請求項 8に記載の合焦検出装置。
[11] 上記ぼけパラメータ演算手段は、上記輝度情報取得手段を用いて取得した上記輝 度情報の微分情報を算出する微分演算手段 (34)を備え、
上記領域抽出手段は、上記距離推定手段によって得られた上記距離情報と、上記 微分演算手段によって得られた微分情報とによって領域抽出を行うことを特徴とする 請求項 8に記載の合焦検出装置。
上記ぼけパラメータ演算手段は、上記輝度情報取得手段を用いて取得した上記輝 度情報の 2次微分を算出する微分演算手段 (34)を備え、
上記合焦検出手段は、上記評価値を算出する際、上記ぼけパラメータ演算手段に おける上記微分演算手段を使用することを特徴とする請求項 1に記載の合焦検出装 置。
PCT/JP2006/322265 2005-11-15 2006-11-08 合焦検出装置 WO2007058100A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/120,513 US20080297648A1 (en) 2005-11-15 2008-05-14 Focus detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005330460A JP2007139893A (ja) 2005-11-15 2005-11-15 合焦検出装置
JP2005-330460 2005-11-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/120,513 Continuation US20080297648A1 (en) 2005-11-15 2008-05-14 Focus detection apparatus

Publications (1)

Publication Number Publication Date
WO2007058100A1 true WO2007058100A1 (ja) 2007-05-24

Family

ID=38048487

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/322265 WO2007058100A1 (ja) 2005-11-15 2006-11-08 合焦検出装置

Country Status (3)

Country Link
US (1) US20080297648A1 (ja)
JP (1) JP2007139893A (ja)
WO (1) WO2007058100A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003152A (ja) * 2007-06-21 2009-01-08 Sharp Corp カメラモジュールのフォーカス調整装置及びフォーカス調整方法
JP2021108431A (ja) * 2019-12-27 2021-07-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、制御方法、及びプログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8218061B2 (en) * 2008-09-04 2012-07-10 Csr Technology Inc. Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
TW201101799A (en) * 2009-06-17 2011-01-01 Altek Corp Digital image sharpening treatment method and its system thereof
US8027582B2 (en) * 2009-12-21 2011-09-27 Sony Corporation Autofocus with confidence measure
US8542313B2 (en) * 2010-01-27 2013-09-24 Csr Technology Inc. Depth from defocus calibration
WO2011101036A1 (en) 2010-02-19 2011-08-25 Iplink Limited Processing multi-aperture image data
EP2537332A1 (en) * 2010-02-19 2012-12-26 Dual Aperture, Inc. Processing multi-aperture image data
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
US8644697B1 (en) 2010-08-13 2014-02-04 Csr Technology Inc. Method for progressively determining depth from defocused images
US8433187B2 (en) * 2011-01-18 2013-04-30 DigitalOptics Corporation MEMS Distance estimation systems and method based on a two-state auto-focus lens
US9501834B2 (en) 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
AU2011224051B2 (en) * 2011-09-14 2014-05-01 Canon Kabushiki Kaisha Determining a depth map from images of a scene
US8340456B1 (en) * 2011-10-13 2012-12-25 General Electric Company System and method for depth from defocus imaging
JP2013130761A (ja) * 2011-12-22 2013-07-04 Sony Corp 撮像装置、その制御方法およびプログラム
JP2013130762A (ja) * 2011-12-22 2013-07-04 Sony Corp 撮像装置、その制御方法およびプログラム
US9049364B2 (en) * 2012-02-13 2015-06-02 Htc Corporation Focus adjusting method and image capture device thereof
US8896747B2 (en) 2012-11-13 2014-11-25 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
WO2015016085A1 (ja) * 2013-08-01 2015-02-05 富士フイルム株式会社 撮影方法及び装置
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
JP5866493B2 (ja) * 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
JP5866570B2 (ja) * 2013-11-19 2016-02-17 パナソニックIpマネジメント株式会社 撮像装置
JP6432038B2 (ja) 2014-03-19 2018-12-05 パナソニックIpマネジメント株式会社 撮像装置
JP5895270B2 (ja) * 2014-03-28 2016-03-30 パナソニックIpマネジメント株式会社 撮像装置
JP6300670B2 (ja) * 2014-07-09 2018-03-28 キヤノン株式会社 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
US20160255323A1 (en) 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling
JP6429724B2 (ja) * 2015-05-19 2018-11-28 キヤノン株式会社 撮像装置およびその制御方法
JP6611576B2 (ja) * 2015-11-30 2019-11-27 キヤノン株式会社 画像処理装置および画像処理方法
TWI585394B (zh) * 2015-12-09 2017-06-01 由田新技股份有限公司 動態式自動追焦系統
KR102382865B1 (ko) 2017-06-28 2022-04-05 삼성전자주식회사 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
KR102382871B1 (ko) 2017-07-18 2022-04-05 삼성전자주식회사 렌즈의 포커스를 제어하기 위한 전자 장치 및 전자 장치 제어 방법
KR102593303B1 (ko) * 2018-01-16 2023-10-25 삼성전자 주식회사 전자 장치 및 전자 장치의 카메라 자동 초점 제어 방법
KR20200036264A (ko) 2018-09-28 2020-04-07 삼성전자주식회사 자동 초점 방법 및 이를 수행하는 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01167610A (ja) * 1987-11-27 1989-07-03 Univ New York State 3次元空間シーンの表面区画及びカメラ装置間の距離を決定するための方法及び装置
JPH03136580A (ja) * 1989-06-29 1991-06-11 Univ New York State 対象の距離を決定し、自動焦点合せをし、合焦像を得るための方法及び電子カメラ装置
JP2000199845A (ja) * 1999-01-05 2000-07-18 Ricoh Co Ltd 自動合焦装置及び自動合焦方法
JP2006003803A (ja) * 2004-06-21 2006-01-05 Olympus Corp 合焦情報取得装置及び合焦情報取得方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3175175B2 (ja) * 1991-03-01 2001-06-11 ミノルタ株式会社 合焦検出装置
JPH05181057A (ja) * 1992-01-06 1993-07-23 Olympus Optical Co Ltd 自動合焦装置
JP2919706B2 (ja) * 1993-06-17 1999-07-19 三洋電機株式会社 オートフォーカスカメラ
JP4265233B2 (ja) * 2003-02-13 2009-05-20 株式会社ニコン カメラ
JP2005094432A (ja) * 2003-09-18 2005-04-07 Matsushita Electric Ind Co Ltd 画像サーバ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01167610A (ja) * 1987-11-27 1989-07-03 Univ New York State 3次元空間シーンの表面区画及びカメラ装置間の距離を決定するための方法及び装置
JPH03136580A (ja) * 1989-06-29 1991-06-11 Univ New York State 対象の距離を決定し、自動焦点合せをし、合焦像を得るための方法及び電子カメラ装置
JP2000199845A (ja) * 1999-01-05 2000-07-18 Ricoh Co Ltd 自動合焦装置及び自動合焦方法
JP2006003803A (ja) * 2004-06-21 2006-01-05 Olympus Corp 合焦情報取得装置及び合焦情報取得方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003152A (ja) * 2007-06-21 2009-01-08 Sharp Corp カメラモジュールのフォーカス調整装置及びフォーカス調整方法
JP2021108431A (ja) * 2019-12-27 2021-07-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、制御方法、及びプログラム

Also Published As

Publication number Publication date
US20080297648A1 (en) 2008-12-04
JP2007139893A (ja) 2007-06-07

Similar Documents

Publication Publication Date Title
WO2007058100A1 (ja) 合焦検出装置
JP6600232B2 (ja) 像ブレ補正装置及び方法
JP6592335B2 (ja) 像ブレ補正装置及び方法
WO2007086378A1 (ja) 合焦検出装置
US10237486B2 (en) Image-capturing apparatus, lens apparatus and image-capturing system
US8315512B2 (en) Method and apparatus for auto-focus control of digital camera
JP2008170508A (ja) 撮像装置
JP6995561B2 (ja) 像ブレ補正装置およびその制御方法、撮像装置
US10599015B2 (en) Image-capturing apparatus, accessory apparatus and communication control method therefor
JP6154081B2 (ja) 撮影装置、撮影装置本体、及びレンズ鏡筒
US20070140677A1 (en) Automatic focusing methods and image capture devices utilizing the same
JP5393300B2 (ja) 撮像装置
WO2007058099A1 (ja) 撮像装置
JP2007139892A (ja) 合焦検出装置
JP2011013645A5 (ja)
JP6808340B2 (ja) レンズ制御装置、制御方法
JP2007024941A (ja) 焦点検出装置、焦点調節装置および撮像装置
JP6838894B2 (ja) 焦点調節装置、その制御方法及びプログラム
US20110273574A1 (en) Image pickup apparatus
JP6154080B2 (ja) 撮影装置、撮影装置本体、及びレンズ鏡筒
JP6320105B2 (ja) 撮像装置およびその制御方法
JP7271353B2 (ja) 撮像装置および波長取得方法
JP7087052B2 (ja) レンズ制御装置、制御方法
JP5355252B2 (ja) 撮像装置及びその制御方法
WO2021065065A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06823169

Country of ref document: EP

Kind code of ref document: A1