WO2007083633A1 - 合焦制御装置、及び撮像装置 - Google Patents

合焦制御装置、及び撮像装置 Download PDF

Info

Publication number
WO2007083633A1
WO2007083633A1 PCT/JP2007/050518 JP2007050518W WO2007083633A1 WO 2007083633 A1 WO2007083633 A1 WO 2007083633A1 JP 2007050518 W JP2007050518 W JP 2007050518W WO 2007083633 A1 WO2007083633 A1 WO 2007083633A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
evaluation value
lens
control
filters
Prior art date
Application number
PCT/JP2007/050518
Other languages
English (en)
French (fr)
Inventor
Shinichi Fujii
Norihiko Akamatsu
Jun Aoyama
Dai Shintani
Hidekazu Nakajima
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP07706845A priority Critical patent/EP1975662A1/en
Priority to US11/908,324 priority patent/US20090066830A1/en
Publication of WO2007083633A1 publication Critical patent/WO2007083633A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Definitions

  • the present invention relates to a focus control technique.
  • the peak characteristics of the MTF (Modulation Transfer Function) in each frequency band extracted from the subject image data are different, so that the peak position of the evaluation value in each frequency band is shifted.
  • MTF Modulation Transfer Function
  • three frequencies of 0.1 times (0.lfn), 0.3 times (0.3fn), and 0.4 times (0.4fn) of the Nyquist frequency fn are The image plane position where the MTF is maximum may be different. Therefore, when using a general high-pass filter that extracts components in a wide range of high-frequency bands, the peak of the evaluation value using high-frequency components is dispersed due to the MTF deviation in each frequency band, and peak detection is possible.
  • the focus position of the focus lens It may be difficult to detect the focus position of the focus lens.
  • the high-frequency component contained in an image having a relatively low contrast is relatively small.
  • the peak is detected with a low frequency component (0. lfn), and a shift occurs at a high frequency peak (more than 0.3 fn) that matches the visual characteristics, so that the subject is properly focused. Is difficult.
  • the distance (movement distance) to which the focus lens should move to the in-focus position is calculated based on evaluation values for a plurality of different high frequency bands, and a plurality of movement distances are calculated.
  • a technique for determining a moving distance of a focus lens by determining a plurality of fitnesses from a membership function having a plurality of high frequency bands as variables has been proposed (for example, Japanese Patent Laid-Open No. 05-308556).
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of realizing high-precision focusing control for various subjects.
  • the invention of claim 1 is a focus control device that performs focus control of an imaging device, and while driving an optical lens along an optical axis,
  • An image acquisition unit that sequentially acquires a plurality of image data based on light from a subject incident through the optical lens, and a plurality of filters having different frequency characteristics from each other.
  • the evaluation value acquisition means for acquiring the evaluation value group for each filter constituting the plurality of filters, and the predetermined filter of the plurality of filters is used for the evaluation value acquisition means.
  • the evaluation value group obtained by the processing that has been obtained is used in preference to the evaluation value group obtained by the processing using another filter different from the predetermined filter among the plurality of filters.
  • the invention of claim 2 is the focusing control apparatus according to claim 1, wherein the predetermined filter is higher than another filter different from the predetermined filter among the plurality of filters. It is characterized by having frequency characteristics that are extracted with emphasis on relatively high frequency band components.
  • the invention of claim 3 is the focus control apparatus according to claim 1, wherein the focus detection means force emphasizes a component of a relatively high frequency band among the plurality of filters.
  • the focus position is detected by preferentially using the evaluation value group acquired by the filter having the frequency characteristic to be extracted.
  • the invention of claim 4 is the in-focus control device of claim 1, wherein the predetermined filter is more than other filters different from the predetermined filter among the plurality of filters. It is characterized by having a frequency characteristic that extracts components with a relatively high priority on a predetermined frequency band.
  • the invention of claim 5 is the focus control device according to any one of claims 1 to 4, wherein the focus position of the optical lens is detected using a phase difference method.
  • the focus control using the detection means and the focus control using the focus detection means are executed in parallel.
  • the invention of claim 6 is the focus control device according to claim 5, wherein the focus detection means is relatively different from a focus plane according to the phase difference detection means.
  • the invention of claim 7 is characterized in that the focusing control device according to any one of claims 1 to 6 is mounted.
  • the in-focus position of the optical lens is detected, For example, a predetermined file that is extracted with an emphasis on the frequency that is increased when shooting a general subject. If the filter is set to be used preferentially, high-precision focusing control can be realized for various subjects.
  • a predetermined filter having a frequency characteristic for extracting a component with a relatively high frequency band among the plurality of filters as important is used.
  • the focus position of the optical lens is detected, for example, to improve the human visual characteristics that the subject image feels sharper as the higher frequency component increases. Since corresponding focus control is possible, high-precision focus control is possible.
  • the predetermined filter having the frequency characteristic for extracting the components in the predetermined frequency band with a higher priority than the other filters of the plurality of filters.
  • the light from the subject is divided into two optical paths, and the phase difference type focusing control and the contrast type focusing are performed using each of the divided lights.
  • the optical lens is driven to the vicinity of the in-focus position in a short time by phase difference type focus control, and the accuracy of focus control is improved by contrast type focus control. Since this can be ensured, high-speed and accurate focusing control is possible.
  • the optical position of the focal plane in the phase difference method and the contrast method for focus detection is made different from each other, and the phase difference method is controlled by focusing.
  • the focus control of the contrast method is started, so that two focus controls are performed at the same time, and before the in-focus state is realized by the focus control of the phase difference method, the focus control of the contrast method is performed. Since the focus position of the focus lens can be detected, high-speed and high-precision focus control can be realized. Further, for example, since focus control can be performed without moving the focus lens in the reverse direction, it is possible to prevent the occurrence of a backlash problem. Furthermore, for example, an object that is visually recognized through a viewfinder, etc. Since the focus control can be performed so that the body smoothly changes to a blurred state force in-focus state, the in-focus feeling can be improved.
  • FIG. 1 is a schematic cross-sectional view showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram schematically illustrating a configuration related to a focusing control unit.
  • FIG. 3 is a diagram for explaining the principle of phase difference focusing control.
  • FIG. 4 is a diagram for explaining the principle of phase difference focusing control.
  • FIG. 5 is a diagram for explaining the principle of phase difference focusing control.
  • FIG. 6 is a block diagram illustrating a functional configuration of the imaging apparatus.
  • FIG. 7 is a block diagram illustrating the main functional configuration of an AF circuit.
  • FIG. 8 is a diagram illustrating frequency characteristics of a filter.
  • FIG. 9 is a diagram illustrating frequency components of image data input to the AF circuit.
  • FIG. 10 is a flowchart illustrating a shooting operation flow in the imaging apparatus.
  • FIG. 11 is a flowchart illustrating a shooting operation flow in the imaging apparatus.
  • FIG. 12 is a flowchart illustrating a shooting operation flow in the imaging apparatus.
  • FIG. 13 is a flowchart illustrating a shooting operation flow in the imaging apparatus.
  • FIG. 14 is a diagram illustrating a timing chart of focusing control in the imaging apparatus.
  • FIG. 15 is a diagram illustrating a timing chart of focusing control in the imaging apparatus.
  • FIG. 16 is a diagram illustrating frequency characteristics of a filter according to a modification.
  • FIG. 17 is a flowchart showing a shooting operation flow according to a modification.
  • FIG. 18 is a diagram illustrating frequency characteristics of a filter according to a modification.
  • FIG. 19 is a diagram schematically illustrating the configuration of a focus control unit according to a modification.
  • FIG. 20 is a diagram for explaining the MTF shift due to frequency components.
  • FIG. 1 is a schematic cross-sectional view showing a schematic configuration of an imaging apparatus 1 according to an embodiment of the present invention.
  • the imaging device 1 is configured as a so-called single-lens reflex digital camera, and guides light with strong subject power to the imaging device main body 300 via the photographing lens unit 2 to the subject. Such captured image data (captured image) can be obtained.
  • the imaging apparatus main body 300 is equipped with a unit (hereinafter also referred to as “AF control unit” or “focus control apparatus”) 100 for performing autofocus (AF) control in the imaging apparatus 1.
  • the photographing lens unit 2 is provided with a lens group including a plurality of photographing lenses including a lens (focus lens) for realizing AF control on the optical axis L of the photographing lens unit 2.
  • FIG. 2 is a schematic diagram focusing on the configuration related to the AF control unit 100 in the configuration of the imaging apparatus 1.
  • the AF control unit 100 mainly includes a main mirror 10, a sub mirror 20, a shutter mechanism 4, a C MOS sensor (hereinafter abbreviated as "C MOSJ") 5 as an image sensor, and a phase difference AF module 3. Configured.
  • C MOSJ C MOS sensor
  • the main mirror 10 is constituted by a half mirror, and reflects reflected light (hereinafter also referred to as "first reflected light") by reflecting a part of light from the subject toward the upper part of the imaging apparatus main body 300. Guide to the fiber optic system. Specifically, the main mirror 10 projects a subject image on the finder focusing screen 6 by reflecting light with a strong subject power. This subject image is displayed as an erect image by the pentaprism 7, and the user can check the state of the subject image via the eyepiece 8. In addition, the main mirror 10 transmits a part of the light of the subject power toward the sub mirror 20.
  • the sub mirror 20 is formed of a half mirror, and reflects light that has passed through the main mirror 10 (hereinafter also referred to as “first transmitted light”) out of the light with strong subject power toward the lower portion of the imaging apparatus main body 300. To the phase difference AF module 3 by shooting. On the other hand, the sub-mirror 20 transmits a part of the first transmitted light toward the CM OS5. That is, the sub mirror 20 divides (branches) the light from the subject into two optical paths that guide the light to the phase difference AF module 3 and the C-MOS 5 respectively.
  • the phase difference AF module 3 is a unit that performs focus detection using a phase difference method.
  • the phase difference AF module 3 includes a condenser lens 3a, a mirror 3b, a separator lens 3c, and a phase difference detection element 3d.
  • the condenser lens 3 a guides the light reflected by the sub mirror 20 (hereinafter also referred to as “second reflected light”) into the phase difference AF module 3.
  • the mirror 3b bends the second reflected light toward the separator lens 3c.
  • the separator lens 3c is a pupil division lens for detecting the phase difference, and divides the second reflected light into the pupil and projects it onto the phase difference detection element 3d.
  • FIG. 3 to FIG. 5 are diagrams for explaining the principle of phase difference focusing control.
  • the phase difference type focusing control as shown in FIGS. 3 to 5, the surface of the subject to be focused (the surface of the subject) PP light FF emitted from the photographic lens unit 2, the condenser lens 3a, and the like. Then, the light is guided to the phase difference detecting element 3d through the separator lens 3c. At this time, the defocus amount is obtained by measuring the phase difference between the two subject images detected by the phase difference detecting element 3d, that is, the displacement amount of the image interval.
  • the defocus amount is determined so as to be focused on a surface equivalent to the imaging surface of CMOS5 set to the imaging home position described later (hereinafter also referred to as “imaging equivalent surface”) FP.
  • imaging equivalent surface FP is configured as a plane (hereinafter also referred to as “first focusing plane”) on which a focused subject image is formed by phase difference AF control (phase difference AF control). .
  • the force at which the image interval becomes a predetermined value determined when the phase difference AF module 3 is designed is shown in FIG. If it is the front pin, the image interval is narrowed. If it is the rear pin, as shown in Fig. 5, the image interval is widened.
  • the shutter mechanism 4 can open Z-block an optical path of light that has passed through the sub-mirror 20 (hereinafter also referred to as “second transmitted light”), and can release the second transmitted light by opening the optical path. Irradiate onto C MOS5 and project the subject image onto C-MOS5.
  • the CMOS 5 obtains an image signal by receiving the second transmitted light of the light from the subject.
  • the image signal obtained by C—MOS5 is used to generate the recorded image data for recording, while the so-called contrast AF is used before the recording image data acquisition operation (main shooting operation). Also used to perform control (contrast AF control).
  • the light-receiving surface (imaging surface) of C-MOS5 is configured as a surface on which a focused subject image is formed by contrast AF control (hereinafter also referred to as “second focusing surface”).
  • C-MOS 5 since C-MOS 5 is held so as to be movable with respect to the imaging apparatus main body 300, it can move back and forth along the optical axis L of the second transmitted light. By moving the CMOS 5 back and forth, the optical position of the second focusing surface is set to be different from the optical position of the first focusing surface.
  • optical positions are different from each other. This also indicates that when the subject image is in focus on the second focus surface, the subject image is not in focus on the first focus surface.
  • FIG. 6 is a block diagram illustrating a functional configuration of the imaging apparatus 1 according to the first embodiment of the invention.
  • the imaging device 1 includes a photographing lens unit 2, a phase difference AF module 3, C—MOS5, a mirror mechanism 10a, a sub-mirror mechanism 20a, a control unit 101, a lens position detection unit 201, and an operation.
  • a unit OP, a C MOS movement control unit 150, a focus control unit 130, a signal processing circuit 500, an AF circuit 600, and the like are provided.
  • the photographing lens unit 2 includes an optical lens (focus lens) 2a and the like for realizing a focused state in which an object is in a focused state in an image signal acquired by the CMOS 5.
  • the focus lens 2a is movable back and forth along the optical axis of the lens, and the lens position of the focus lens 2a is moved by driving the motor Ml in response to a control signal from the force control unit 130. Is done.
  • the focus control unit 130 generates a control signal based on the control signal input from the control unit 101. Further, the position of the focus lens 2a is detected by the lens position detection unit 201, and data indicating the position of the focus lens 2a. Is sent to the control unit 101.
  • the mirror mechanism 10a is a mechanism including the main mirror 10 that can be retracted from the light path (light path) of the subject power, and is driven by the motor M2 in response to a control signal from the mirror control unit 110.
  • the main mirror 10 is set to a state where the optical path force is also retracted (mirror up state) or a state where the optical path is blocked (mirror down state).
  • the mirror control unit 110 generates a control signal based on the signal input from the control unit 101.
  • the sub mirror mechanism 20a is a mechanism including the sub mirror 20 that can also retract the light path force of the subject.
  • the motor M5 is driven in response to a control signal from the sub mirror control unit 120, so that the sub mirror 20 The force is also set to the retracted state (mirror up state) or the optical path is blocked (mirror down state).
  • the sub mirror control unit 120 generates a control signal based on the signal input from the control unit 101.
  • the shutter mechanism 4 is a mechanism capable of blocking the light path of the subject force Z and opening, and the motor M3 is driven in response to a control signal from the shutter control unit 140, so that the shutter mechanism 4 is Open and close.
  • the shirter control unit 140 generates a control signal based on the signal input from the control unit 101.
  • the C-MOS 5 performs imaging (photoelectric conversion) and generates an image signal related to the captured image.
  • C — MOS5 performs exposure (charge accumulation by photoelectric conversion) of the subject image formed on the light receiving surface in response to the drive control signal (accumulation start signal-accumulation end signal) input from the timing control circuit 170. ⁇ Generate an image signal related to the subject image.
  • the C-MOS 5 outputs the image signal to the signal processing unit 51 in response to the read control signal input from the timing control circuit 170.
  • the timing control circuit 170 generates various control signals based on signals input from the control unit 101.
  • the timing signal (synchronization signal) from the timing control circuit 170 is input to the signal processing unit 51 and the AZD conversion circuit 52.
  • the C-MOS 5 is moved back and forth along the optical axis of the light from the subject by the C-MOS drive mechanism 5a.
  • the C-MOS drive mechanism 5a moves the CMOS5 back and forth along the optical axis of the light from the subject when the motor M4 is driven in response to the control signal from the CMOS movement control unit 150.
  • C—MOS movement controller 150 is input from controller 101. A control signal is generated based on the generated signal.
  • the signal processing unit 51 performs predetermined analog signal processing on the image signal supplied from the CMOS 5, and the processed image signal is converted into digital image data (image data) by the AZD conversion circuit 52. .
  • This image data is input to the signal processing circuit 500 and also given to the AF circuit 600 in a timely manner for contrast AF control.
  • the signal processing circuit 500 performs digital signal processing on the image data input from the AZD conversion circuit 52, and generates image data related to the captured image. Signal processing in the signal processing circuit 500 is performed for each pixel signal constituting the image signal.
  • the signal processing circuit 500 includes a black level correction circuit 53, a white balance (WB) circuit 54, a ⁇ correction circuit 55, and an image memory 56. Of these components, the black level correction circuit 53, the white balance (W ⁇ ) circuit 54, and the ⁇ correction circuit 55 perform digital signal processing.
  • the black level correction circuit 53 corrects the black level of each pixel data constituting the image data output from the AZD conversion circuit 52 to a reference black level.
  • the WB circuit 54 adjusts the white balance of the image.
  • the ⁇ correction circuit 55 performs gradation conversion of the captured image.
  • the image memory 56 is a high-speed accessible image memory for temporarily storing generated image data, and has a capacity capable of storing image data for a plurality of frames.
  • the AF circuit 600 acquires image data related to a partial area (AF area) of the image data from the AZD conversion circuit 52, and uses the predetermined frequency band from the image data. And the sum of the extracted components is calculated as a value (AF evaluation value) for evaluating the in-focus state of the subject.
  • the AF evaluation value calculated by the AF circuit 600 is output to the control unit 101.
  • FIG. 7 is a block diagram illustrating the main functional configuration of the AF circuit 600.
  • the AF circuit 600 has four filters 601 to 604 having different frequency characteristics from each other, and the frequency characteristics of the filters 601 to 604 are shown in FIG.
  • the horizontal axis indicates the frequency
  • the vertical axis indicates the gain
  • the curves F 1 to F 4 indicate the frequency characteristics of the filters 60 1 to 604, respectively.
  • Fn shown in Fig. 8 indicates the Nyquist frequency, that is, half the sampling frequency, and a frequency higher than fn is a limit frequency that cannot be reproduced in principle.
  • the sampling frequency with the pixel interval of the image obtained by all pixels of the image sensor as one cycle is adopted, the frequency with the interval of two pixels as one cycle is the Nyquist frequency fn.
  • the filter 601 is a general high-pass filter (hereinafter also referred to as “HPF”) that extracts (transmits) components in a wide high frequency band, as indicated by a curve F 1.
  • the filter 602 is a band-pass filter (hereinafter also referred to as “BPF (0.4 fn)”) that mainly extracts (transmits) a frequency band component in the vicinity of 0.4 fn, as indicated by a curve F2.
  • the filter 603 is a bandpass filter (hereinafter also referred to as “BPF (0.3fn)”) that mainly extracts (transmits) a frequency band component in the vicinity of 0.3 fn, as indicated by a curve F3.
  • the filter 604 is a band-pass filter (hereinafter also referred to as “BPF (0. lfn)”) that mainly extracts (transmits) a component in the frequency band near 0. lfn, as indicated by a curve F4.
  • BPF band-pass filter
  • FIG. 9 is a diagram illustrating a spatial frequency distribution (output distribution) of image data output from the AZD conversion circuit 52 to the AF circuit 600.
  • the horizontal axis indicates frequency
  • the vertical axis indicates output
  • the curves Cvl and Cv2 indicate the spatial frequency output distribution of the image data.
  • the output of high-frequency components near 0.2fn to 0.4fn increases as shown by the curves Cvl and Cv2, depending on the setting.
  • each evaluation value calculation unit 611 to 614 calculates an AF evaluation value based on the output from each of the filters 601 to 604. Therefore, in the AF circuit 600, one image data is processed by using four filters 601 to 604 having mutually different frequency characteristics, and the evaluation value calculation units 611 to 614 focus on four different frequency bands. Each evaluation value is acquired.
  • AF control In contrast AF control, a plurality of image data are acquired using CMOS 5 or the like while moving the focus lens 2a back and forth along the optical axis of the lens, and the AF circuit 600
  • Each filter 601 to 604 is obtained with a plurality of corresponding AF evaluation values (AF evaluation value group). That is, four AF evaluation value groups respectively corresponding to the four filters 601 to 604 are acquired substantially in parallel.
  • Multiple AF evaluation value groups obtained using the BPF (0.3fn) 603 and multiple AF evaluation value groups obtained by focusing on frequency band components near 0.3fn, and BPF ( 0.lfn) 604 is used, and a plurality of AF evaluation value groups obtained with emphasis on components in the frequency band near 0.Ifn can be acquired almost simultaneously.
  • the control unit 101 mainly includes a CPU, a memory, a ROM, and the like, and various functions and controls are realized by reading a program stored in the ROM and executing it by the CPU.
  • the control unit 101 has a contrast AF control unit 105 as a function for executing contrast AF control, and a phase difference AF control unit 106 as a function for executing phase difference AF control.
  • the overall AF control unit 107 is provided as a function for overall control of the entire AF control.
  • the contrast AF control unit 105 selects an AF evaluation value group that is prioritized according to a predetermined rule from among a plurality of AF evaluation value groups input from the AF circuit 600.
  • the lens position of the focus lens 2a that maximizes the AF evaluation value is obtained as the position where the in-focus state of the subject is realized (lens focus position). Also, contrast AF control unit 1
  • a control signal corresponding to the obtained lens focus position is output to the focus control unit 130, and the focus lens 2a is moved to the lens focus position.
  • the phase difference AF control unit 106 detects the focus position of the focus lens 2a based on the detection result in the phase difference AF module 3 when performing phase difference AF control. Then, the phase difference AF control unit 106 outputs a control signal corresponding to the lens focusing position obtained as appropriate to the focus control unit 130, and moves the focus lens 2a to the lens focusing position.
  • the overall AF control unit 107 appropriately executes contrast AF control and phase difference AF control.
  • the operation unit OP includes a shutter start button (shutter button), various buttons, switches, and the like, and the control unit 101 realizes various operations in response to user input operations on the operation unit OP.
  • the shutter button can be pressed halfway (S1 state) and fully pressed. This is a two-stage detection button that can detect two states (S2 state). In the imaging apparatus 1, when the S1 state is set, preparation operations for the main shooting operation including AF control are performed, and when the S2 state is set, the main shooting operation is performed.
  • Image data temporarily stored in the image memory 56 is appropriately stored in the VRAM 10 by the control unit 101.
  • the image data temporarily stored in the image memory 56 is appropriately subjected to image processing in the control unit 101 and stored in the memory card MC via the card IZF104.
  • FIG. 10 to 13 are flowcharts illustrating the shooting operation flow in the imaging apparatus 1. This operation flow is realized by the control of the control unit 101.
  • 14 and 15 are diagrams illustrating an AF control timing chart in the imaging apparatus 1.
  • FIG. 10 to 13 are flowcharts illustrating the shooting operation flow in the imaging apparatus 1. This operation flow is realized by the control of the control unit 101.
  • 14 and 15 are diagrams illustrating an AF control timing chart in the imaging apparatus 1.
  • the horizontal axis shows the time elapsed from the state S1.
  • the motor rotation speed of the motor Ml in order from the top, the motor rotation speed of the motor Ml, the pulse number (PI number) input to the motor Ml, the image plane movement speed corresponding to the movement speed of the focus lens 2a, the activation of the AF microcomputer, The timing of phase difference AF distance measurement and C MOS5 drive timing are shown.
  • the lower part of FIG. 14 shows the exposure timing in CMOS5 for obtaining the AF evaluation value in contrast AF control, and the relationship between the position of the focus lens 2a and the AF evaluation value.
  • FIG. 15 shows a broken line LL indicating the position (ie, movement) of the focus lens 2a, and a broken line LS indicating the position (ie, movement) of the imaging surface (ie, the second focusing surface) of CMOS5.
  • the numerical value corresponding to the position of the broken line LL may be omitted, but the numerical value corresponding to the position of the broken line LS (such as 500 ⁇ m) is attached.
  • a mark (short vertical line segment) indicating the lens position corresponding to the exposure timing for obtaining the AF evaluation value is attached to the broken line LL, and the processing step of FIG. The corresponding part is given a step number (eg, step S14).
  • the C-MOS 5 is set to a predetermined reference position (also referred to as “imaging home position”) at which the actual shooting operation is actually performed, and the first and second focusing planes are set.
  • the optical distance of is set to be the same.
  • step S1 C-MOS5 is activated (0 to: LOms in FIG. 14).
  • the C-MOS 5 is energized, and the timing control circuit 170 outputs a control signal in accordance with a signal from the control unit 101, so that the C-MOS 5 starts reading a charge signal of 200 fps.
  • the C-MOS5 is activated in the S1 state for power saving.
  • step S2 the shutter mechanism 4 is opened to perform contrast AF control.
  • shutter mechanism 4 is closed before entering the S1 state, that is, in the standby state.
  • the contrast AF control unit 105, phase difference AF control unit 106, and overall AF control unit 107 as functions of the AF microcomputer, that is, the control unit 101 are activated (0 in FIG. 14). ⁇ 50ms).
  • Step S3 the phase difference AF module 3 and the phase difference AF control unit 106 perform distance measurement by phase difference AF control (50 to 1 OOms in FIG. 14).
  • step S4 the overall AF control unit 107 determines the amount of deviation between the current position of the focus lens 2a and the lens in-focus position based on the distance measurement result in step S3.
  • a first predetermined value for example, 30 m
  • the process proceeds to step S18 in FIG. move on. In other words, it shifts to the actual shooting operation without performing AF control.
  • a second predetermined value for example, 1000 m
  • the absolute value of the deviation amount is not less than the first predetermined value and less than the second predetermined value, it is determined that the deviation amount is insufficient and the process proceeds to step S5.
  • step S5 the control from the focus control unit 130 under the control of the overall AF control unit 107.
  • the focus lens 2a is retracted when the motor Ml is driven based on the control signal.
  • a retract drive is performed to move the lens position of the focus lens 2a to ensure it. In this retracting drive, for example, the focus lens 2a is moved to one end of the movable range of the focus lens 2a.
  • step S 11 based on the result of distance measurement in step S 3, an operation for moving C-MOS 5 to the far side (feeding side) or the near side (feeding side) is started (90 ms in FIG. 14).
  • the distance value that is the detection result of the phase difference AF module 3 if the subject is farther than the current focus position (the place where the camera is in focus) based on the imaging device 1, C—Move MOS5 closer to the subject.
  • the C-MOS5 is moved away from the subject.
  • the movement of CMOS5 is performed at a speed of about 20 to 30 mmZsec, for example.
  • Step S12 it is determined whether or not the movement of C-MOS5 started in Step S11 is completed.
  • the determination in step S12 is repeated until C-MOS5 moves by a predetermined distance (for example, 500 i um).
  • C-MOS5 moves by a predetermined distance
  • the movement of C-MOS5 is terminated (Fig. 14 and Fig. 15 90-100 ms).
  • the predetermined distance is appropriately set depending on the optical design of the imaging apparatus 1. Also, the lens focal length of the taking lens unit 2 (the longer the lens focal length is, the longer the predetermined distance is) and the movement ratio of the focus lens 2a (the amount of movement of the focus lens 2a with respect to the rotation speed of the focus motor Ml). Is long, the predetermined distance is long).
  • steps S11 to S12 the optical position of the second focusing surface is moved to a position that is relatively different from the first focusing surface.
  • the AF position is adjusted while moving the position of the focus lens 2a from the state where the optical positions of the first and second focusing surfaces are set to be the same.
  • the state is changed to a state in which the focused state of the subject is realized on the second focused surface earlier than the first focused surface.
  • the contrast AF control is performed before the focal point is reached by the phase difference AF control.
  • the focus state of the subject is set to be detected.
  • step S13 the motor Ml is started up and the movement of the focus lens 2a is started (100 to 130 ms in FIG. 14). This movement of the focus lens 2a is in accordance with phase difference AF control.
  • step S14 contrast AF control is started under the control of the overall AF control unit 107, and an operation for acquiring an AF evaluation value at a timing of 200 fps is started (145 ms in FIGS. 14 and 15).
  • an operation for acquiring the AF evaluation value is performed. Note that this contrast AF control is executed, for example, with the aperture opened.
  • step S15 the lens in-focus position is detected. Specifically, when the process proceeds to step S15, the process proceeds to step S151 in FIG. 12, and the lens focus position detection operation shown in FIG. 12 is executed (145 to 200 ms in FIGS. 14 and 15).
  • the peak characteristics of the AF evaluation value in each frequency band may be shifted because the peak characteristics of the MTF in each frequency band in which the image data force is extracted are different. There is.
  • the peak AF evaluation value obtained using HPF601 is sharp due to the MTF shift in each frequency band. In other words, it becomes difficult to detect the focus position of the focus lens 2a.
  • the wide range is obliged. If the AF evaluation value obtained using the HPF601 that extracts components in the high frequency band can be detected and the peak of the AF evaluation value can be detected, the lens position corresponding to the peak of the AF evaluation value is focused on the lens. Detect as position. Also, if a peak cannot be detected for the AF evaluation value obtained using HPF601, if the higher frequency component increases, the object image will feel sharper and the The AF evaluation value peak obtained by adopting the BPF, which emphasizes the higher frequency components in order, is detected, and the lens position corresponding to this AF evaluation value peak is detected as the lens in-focus position.
  • the detection of the lens focus position corresponding to the peak detection of the AF evaluation value obtained using the HPF601 is given top priority, followed by the AF evaluation value obtained using the BPF (0.4fn) 602. Priority is given to the detection of the lens in-focus position corresponding to the peak detection, and then the detection of the lens in-focus position corresponding to the peak detection of the AF evaluation value obtained using BPF (0.3fn) 603 Prioritize. Finally, the peak detection is performed for the AF evaluation value obtained using the BPF (0.lfn) 604 that places importance on the relatively lowest frequency component, and if a peak can be detected, a lens corresponding to this peak is detected. The focus position is detected.
  • the imaging apparatus 1 employs a lens focusing position obtained by phase difference AF control.
  • step S 151 it is determined whether or not the vertical synchronization signal (VD pulse) at every 200 fps timing corresponding to the image data acquisition speed (frame rate) in CMOS5 has fallen.
  • VD pulse vertical synchronization signal
  • step S152 the AF evaluation value obtained using the contrast AF control unit 105 force HPF601 is acquired, that is, the AF evaluation value related to HPF601 is acquired.
  • the AF evaluation value related to HPF601 is acquired in synchronization with the fall of the VD pulse.
  • step S153 AF evaluation values related to HPF601 (that is, AF evaluation value groups)! It is determined whether or not the AF evaluation value peak has been observed. If an AF evaluation value peak is found, the process proceeds to step S164. If no AF evaluation value peak is found, the process proceeds to step S154. In FIGS. 14 and 15, as an example, the case where the peak of the AF evaluation value is found is shown.
  • step S154 the AF evaluation value obtained using the contrast AF control unit 105 force BPF (0.4fn) 602 is obtained, that is, the AF evaluation value related to BPF (0.4fn) 602 is obtained. .
  • step S155 it is determined whether or not a peak of the AF evaluation value has been found for the AF evaluation value (that is, AF evaluation value group) related to BPF (0.4fn) 602. If an AF evaluation value peak is found, the process proceeds to step S156. If no AF evaluation value peak is found, the process proceeds to step S157.
  • step S156 after detecting the peak of the AF evaluation value related to BPF (0.4fn) 602, it is determined whether image data for three frames has been acquired. That is, after detecting the AF evaluation value peak related to BPF (0.4fn) 602, the VD pulse falls three times, and it is determined whether or not three frames of image data have been acquired in C-MOS5.
  • the process proceeds to step S163, and the image data for 3 frames is acquired. If yes, go to Step S164.
  • the position of the focus lens 2a is moved, and an image is obtained by a predetermined distance.
  • a period for moving the surface position a period for acquiring image data for 3 frames is adopted, and if a peak is detected for the AF evaluation value obtained using the HPF601 focusing on a higher frequency band during that period, Control is performed to detect the lens in-focus position based on the AF evaluation value (ie, AF evaluation value group) obtained using the HPF601.
  • step S157 the AF evaluation value obtained using the contrast AF control unit 105 force BPF (0.3fn) 603 is obtained, that is, the AF evaluation value related to BPF (0.3fn) 603 is obtained.
  • step S 158 it is determined whether or not the AF evaluation value peak has been found for the AF evaluation value (that is, AF evaluation value group) related to BPF (0.3fn) 603. If an AF evaluation value peak is found, the process proceeds to step S159, and if no AF evaluation value peak is found, the process proceeds to step S160.
  • the AF evaluation value that is, AF evaluation value group
  • BPF 0.3fn
  • step S159 it is determined whether or not three frames of image data have been acquired since the peak of the AF evaluation value related to BPF (0.3fn) 603 has been detected.
  • the process proceeds to step S163, and image data for three frames is acquired. If yes, go to step S164.
  • step S156 whether or not three frames of image data have been acquired is determined more than BPF (0.3fn) 603 in consideration of the frequency dependence of MTF, as in step S156. This is because it waits for the power to detect a peak for the AF evaluation value obtained using HPF601 and BPF (0.4fn) 602, which emphasizes the high frequency band.
  • step S160 the AF evaluation value obtained using the contrast AF control unit 105 force BPF (0. lfn) 604 is obtained, that is, the AF evaluation value related to BPF (0. lfn) 604 is obtained. .
  • step S161 an AF evaluation value related to BPF (0. If n) 604 (that is, an AF evaluation value group) It is determined whether the peak of the AF evaluation value has been observed. If an AF evaluation value peak is found, the process proceeds to step S162. If no AF evaluation value peak is found, the process proceeds to step S163.
  • step S162 it is determined whether or not three frames of image data have been acquired after the peak of the AF evaluation value related to BPF (0.lfn) 604 has been detected.
  • the process proceeds to step S163, and the image data for 3 frames is acquired. If yes, go to step S164.
  • HPF601, BPF (0.4fn) 602, and BPF (0.3fn) 603 having frequency characteristics that place importance on a higher frequency band than BPF (0.lfn) 604 are used. If a peak is detected in the obtained AF evaluation value, control is performed so that the lens in-focus position is detected based on the AF evaluation value (that is, AF evaluation value group) in which the peak is detected.
  • step S163 it is determined whether or not the phase difference AF control has ended.
  • step S151 is returned, and if phase difference AF control has ended, C-MOS5 returns to the imaging home position (step S165), and step S18 in FIG. Proceed to Here, the movement of the focus lens 2a also stops with the end of the phase difference AF control.
  • step S164 the lens focus position is detected based on the AF evaluation value.
  • the lens in-focus position is detected based on the AF evaluation value (that is, AF evaluation value group) related to HPF601.
  • the lens focus position is detected based on the AF evaluation value (that is, AF evaluation value group) related to BPF (0.4fn) 602.
  • the lens in-focus position is detected based on the AF evaluation value (that is, the AF evaluation value group) related to BPF (0.3fn) 6003.
  • the AF evaluation value related to BPF (0.lfn) 604 In other words, the lens focus position is detected based on the AF evaluation value group.
  • the maximum AF evaluation value Yn and the AF evaluation values Yn-1 and ⁇ + 1 1 before and after that are 3
  • the timing at which the lens in-focus position P is calculated by such calculation is as follows.
  • the charge signal is read from C-MO S5, the AF evaluation value is calculated, the peak of the AF evaluation value is detected, and the above formula (1 ), A certain amount of time is required.
  • the exposure timing related to the maximum value Yn the exposure timing at which a charge signal is obtained in which the AF evaluation value decreases continuously four times.
  • the lens in-focus position P obtained as described above is the lens in-focus position with respect to the imaging surface obtained by shifting CMOS5 by a predetermined distance, that is, by a predetermined distance. For this reason, a value in consideration of an image plane difference of a predetermined distance (for example, 500 m) at the lens focusing position P is obtained as the lens focusing position Q with respect to the imaging home position where the actual shooting operation is actually performed.
  • a predetermined distance for example, 500 m
  • the lens in-focus position Q can be obtained before the movement of the focus lens 2a by the phase difference AF control is completed.
  • step S164 ends, the process proceeds to step S16 of FIG.
  • step S16 C-MOS5 moves so as to return to the imaging home position (210 to 220 ms in FIGS. 14 and 15).
  • step S17 the movement of the focus lens 2a is stopped at the lens focusing position Q (Fig. 1).
  • step S18 the shutter mechanism 4 is closed.
  • step S19 resetting is performed by discharging the charge accumulated in C-MOS5.
  • step S20 it is determined whether or not the force has been released from the S1 state.
  • the S1 state is canceled by the user operating the operation unit OP, this operation flow is terminated,
  • step S31 it is determined whether or not the S2 state has been reached. Here, it waits while repeating the determination of step S20 and step S31 until it becomes the S2 state. In the S2 state, it is assumed that an instruction for the main photographing operation has been issued, and the process proceeds to step S32.
  • step S32 the main mirror 10 and the sub mirror 20 are in the mirror-up state, and the shutter mechanism 4 is in the open state.
  • step S33 the C-MOS 5 performs imaging, that is, exposure for the main photographing operation.
  • step S34 the shutter mechanism 4 is closed.
  • step S35 the main mirror 10 and the sub mirror 20 are in the mirror-down state, and the charge signal is read from the C-MOS 5 and stored in the image data memory card MC. Charge operation is performed, and this operation flow is completed.
  • the image is acquired using the HPF 601 among the four (generally plural) filters 601 to 604 provided in the AF circuit 600.
  • the HPF601 which extracts high-frequency band components that increase in image data when shooting a general subject, is set to be used preferentially!
  • high-precision focusing control can be performed.
  • a predetermined filter (here, HPF6 01) having a frequency characteristic extracted from the four (generally plural) filters 601 to 604 with emphasis on relatively high frequency band components.
  • the lens focus position of the focus lens 2a is detected by preferentially using the AF evaluation value acquired using).
  • the light from the subject is divided into two optical paths, and the phase difference type focusing control and the contrast type focusing control are performed in parallel using each of the divided lights.
  • the focus lens 2a can be driven to the vicinity of the lens in-focus position in a short time by the phase difference type focus control, and the accuracy of the focus control is ensured by the contrast type focus control. Can do. As a result, high-speed and accurate focusing control is possible.
  • the optical position of the in-focus plane for phase difference method and contrast method focus detection is made different from each other, and after contrast control method focus control starts, contrast method focus control starts. Is done.
  • two types of focusing control are performed at the same time, and the focus position of the focus lens 2a is adjusted by the contrast focusing control before the focusing state by the phase difference focusing control is realized. Can be detected.
  • high-speed and high-precision focusing control can be realized.
  • focus control can be performed without moving the focus lens 2a in the reverse direction, the so-called backlash problem can be prevented.
  • focus control is performed so that a subject visually recognized through a viewfinder or the like smoothly changes to a blurred state force in-focus state. Therefore, the focus feeling can be improved.
  • band-pass filters having three different frequency characteristics of BPF (0.4fn) 602, BPF (0.3fn) 603, and BPF (0. Ifn) 604 are employed.
  • BPF 0.4fn
  • BPF 0.3fn
  • BPF 0.3fn
  • BPF 0.2 fn
  • a band pass filter or the like that mainly extracts (transmits) a frequency band component in the vicinity of 0.5 fn or 0.2 fn may be employed. That is, one or more band-pass filters that mainly extract (transmit) the frequency band components near n times fn (0 ⁇ ⁇ 1) may be employed.
  • a plurality of bandpass filters having different frequency characteristics are prepared, and When the photographic lens unit 2 is attached, the control unit 101 obtains information (lens information) specifying the lens characteristics from the ROM, etc. in the photographic lens unit 2, and contrasts one or more bandpass filters. It may be selectively employed as a bandpass filter used for AF control. For example, prepare five bandpass filters that mainly extract (transmit) the frequency band components near 0. Ifn ⁇ 0.2fn, 0.3fn, 0.4fn, and 0.5fn. Accordingly, three bandpass filters that mainly extract (transmit) the components in the frequency band near 0.lfn, 0.3fn, and 0.4fn are selectively adopted as bandpass filters used for contrast AF control. OK!
  • the HPF601, BPF (0.4fn) 602, BPF (0.3fn) 603, and BPF (0. Ifn) 604 shown in FIG. 8 have four different frequency characteristics. Although a filter was adopted, this is not restrictive.
  • a high-pass filter having two different frequency characteristics shown in FIG. 16 may be employed.
  • a curve F1 shown in FIG. 16 shows the frequency characteristics of the HPF 601 shown in FIG.
  • Curve F2 has a predetermined frequency band (for example, the frequency component of image data increases in response to an increase in the number of objects with clear outlines in general shooting compared to HPF601).
  • HPF having the frequency characteristic of curve F1 is called HPF1
  • HPF having the frequency characteristic of curve F11 is called HPF2.
  • HPF2 compared to HPF1, the gain for the high frequency band near 1. Ofn is smaller, so that extraction (transmission) of so-called noise components in image data can be prevented.
  • high-frequency components in the vicinity of a predetermined frequency band in which the frequency components of image data increase in accordance with the increase in the number of subjects with clear outlines in general photographing are more importantly extracted. For this reason, compared to HPF1, using the AF evaluation value acquired using HPF2 allows the subject to be focused more accurately while reducing the influence of the noise component.
  • a predetermined frequency band (here 0.2fn to 0.4fn) is relatively higher than HPF1 of the two HPFs. Focusing on the focus position of the focus lens 2a by preferentially using AF evaluation values (ie, AF evaluation value groups) acquired using a predetermined HPF2 with frequency characteristics that focus on components and extracting them Preferred to detect ,.
  • AF evaluation values ie, AF evaluation value groups
  • FIG. 17 shows a detection operation flow of the lens in-focus position when HPF 1 and 2 are used.
  • step ST151 it is determined whether or not a vertical synchronization signal (VD pulse) at every 200 fps timing corresponding to the image data acquisition speed (frame rate) in CMOS5 has fallen.
  • VD pulse vertical synchronization signal
  • step ST152 an AF evaluation value obtained using the contrast AF control unit 105 force HPF2 is acquired, that is, an AF evaluation value related to HPF2 is acquired.
  • the AF evaluation value related to HPF2 is acquired in synchronization with the fall of the VD pulse.
  • step ST153 it is determined whether or not the AF evaluation value peak (ie, AF evaluation value group) related to HPF2 has been found. If an AF evaluation value peak is found, the process proceeds to step ST158. If no AF evaluation value peak is found, the process proceeds to step ST154.
  • the AF evaluation value peak ie, AF evaluation value group
  • step ST154 an AF evaluation value obtained using the contrast AF control unit 105 force HPF1 is acquired, that is, an AF evaluation value related to HPF1 is acquired.
  • step ST155 AF evaluation values related to HPF1 (ie, AF evaluation value group)! /, A
  • step ST156 If an AF evaluation value peak is found, the process proceeds to step ST157.
  • step ST156 after detecting the peak of the AF evaluation value related to HPF1, it is determined whether or not the force has acquired image data for three frames.
  • the VD pulse falls three times, and C-MOS5 determines the force / force of force when 3 frames of image data have been acquired.
  • Step ST158 if image data for three frames has not been acquired since the peak of the AF evaluation value related to HPF1 has been detected, the process proceeds to step ST157, and if image data for three frames has been acquired, Step ST158
  • step ST157 processing similar to that in step S163 in Fig. 12 is performed.
  • step ST158 the lens in-focus position is detected based on the AF evaluation value (that is, AF evaluation value group).
  • the lens in-focus position is detected based on the AF evaluation value related to HPF2.
  • the lens focus position is detected based on the AF evaluation value related to HPF1. Then, when the process of step ST158 ends, the process proceeds to step S16 in FIG.
  • a predetermined frequency band here 0.2fn to 0
  • HPF1 two (generally plural) filters
  • the focus evaluation position of the focus lens 2a is detected by preferentially using the AF evaluation value acquired using HPF2, which has frequency characteristics extracted with emphasis on the component 4fn).
  • focusing control that emphasizes a component in a predetermined high frequency band that increases when an image capturing a general subject is in focus can be performed. Precision focus control is possible.
  • the frequency band of 0.2fn to 0.4fn is given as the predetermined frequency band in which the frequency component of the image data increases in accordance with the increase in subjects with clear outlines in general photographing.
  • the predetermined frequency band is appropriately set according to a combination of conditions such as the type of subject, the nature of the photographing lens unit 2, the photographing magnification, and the pixel pitch of the image sensor.
  • the power of adopting a filter is not limited to this.
  • the power of performing contrast AF control based on the image data obtained using C-MO S5 for obtaining image data for recording at the time of actual photographing is not limited to this.
  • a dedicated imaging sensor that acquires image data for contrast AF control may be provided.
  • contrast AF control for example, when an imaging sensor having a plurality of RGB three primary colors having a so-called Bayer array is employed, when acquiring an AF evaluation value, G
  • the AF evaluation value may be calculated using only the color pixel value, or the luminance value Y may be calculated from the RGB pixel value, and the AF evaluation value may be calculated using the luminance value Y. You may do it.
  • the filters 601 to 604 are configured as electric circuits.
  • the functions of the filters 601 to 604 and the AF evaluation values can be determined by executing a program in the control unit 101!
  • An arithmetic function can also be realized.
  • the calculation function generally constituted by an electric circuit has a higher calculation speed and is more practical.
  • the force using the AF control unit 100 as shown in Fig. 2 is not limited to this, and the configuration of another AF control unit may be adopted.
  • an AF control unit 100A will be described as an example of the configuration of another AF control unit.
  • FIG. 19 is a diagram schematically illustrating a configuration related to the AF control unit 100A included in the imaging apparatus 1A according to the modification.
  • the main mirror 10 is configured to include a half mirror.
  • a pellicle mirror is used as the half mirror.
  • the adopted main mirror 10A is used.
  • the pellicle mirror is characterized in that it is very thin (for example, about 100 m) compared to a general half mirror. Since this pellicle mirror is extremely thin, it is not suitable for mirror-up drive. Therefore, the imaging apparatus 1A is configured such that the main mirror 10A does not mirror up and the sub mirror 20A retracts below the force on the light path of the subject force light during the main photographing.
  • both the main mirror 10 and the sub mirror 20 are in the retracted state Z blocked state with respect to the optical path. Instead, only the sub mirror 20A is in the retracted state Z cut-off state with respect to the optical path, and the other functions and operations are almost the same. The description is omitted.
  • the focal position is shifted to the user side (right side in Fig. 2) by about 0.5 (a + b).
  • phase difference AF control and contrast AF control are used together, the focus lens 2a is moved while moving the position of the subject earlier than the first focusing surface.
  • the optical positions of the first and second focusing surfaces need to be different from each other so that the in-focus state of the subject is realized on the second focusing surface. Therefore, at this time, the CMOS5 must be moved along the optical axis L from the imaging home position in view of the focal position shift (about 0.5 (a + b)) due to the half mirror.
  • the imaging device of the type that performs the phase difference AF control has been described.
  • the imaging device is not limited thereto, and may be an imaging device that performs only contrast AF control, for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

 本撮影前のコントラストAF制御において、AF回路(600)に備えられた相互に周波数特性が異なるハイパスフィルタ(601)、及びバンドパスフィルタ(602)~(604)のうち、ハイパスフィルタ(601)を用いて取得されたAF評価値を最優先に使用して、フォーカスレンズ(2a)のレンズ合焦位置を検出する。このように、一般的な被写体を撮影する際に画像データにおいて増加する高周波帯域の成分を重視して抽出するHPF(601)を優先的に使用するように設定されているため、種々の被写体に対して高精度の合焦制御を行うことができる。

Description

明 細 書
合焦制御装置、及び撮像装置
技術分野
[0001] 本発明は、合焦制御技術に関する。
背景技術
[0002] 従来、銀塩カメラ等の撮像装置で実施されるオートフォーカス (AF)制御としては、 いわゆる位相差方式を採用したものが多力つた。しかし、この位相差方式の AF制御 は、特に小さな Fナンバーでの撮影においては、精度が良くないことが知られている
[0003] 一方、近年では、デジタルカメラの登場とともに、いわゆるコントラスト方式(山登り方 式)の AF制御が採用された撮像装置が広く普及している。そして、一般に、コントラス ト方式の AF制御の方力 位相差方式の AF制御よりも AF精度が高 、ことが知られて いる。
[0004] そこで、位相差方式とコントラスト方式の AF制御を併用することで、 AF精度の向上 を図ることが考免られる。
[0005] ところで、コントラスト方式の AF制御では、より高い周波数成分が多くなれば被写体 画像が鮮鋭であると感じる人間の視覚特性に基づ 、て、ハイパスフィルタ等を用いて 抽出された高周波成分を評価値として用いるのが一般的である。
[0006] しかし、撮影レンズによっては、被写体画像データから抽出される周波数帯域毎に おける MTF (Modulation Transfer Function)のピーク特性が異なるために、周波数 帯域毎における評価値のピーク位置がずれてしまうことがある。例えば、図 20に示す ように、ナイキスト周波数 fnの 0. 1倍(0. lfn)、 0. 3倍(0. 3fn)、及び 0. 4倍(0. 4f n)の 3つの周波数について、 MTFが最大となる像面位置がそれぞれ異なることがあ る。したがって、幅広い高周波帯域の成分を抽出する一般的なハイパスフィルタを用 いると、周波数帯域毎における MTFのずれに起因して、高周波成分を用いた評価 値のピークが分散して、ピーク検出ができなくなり、フォーカスレンズの合焦位置が検 出し難くなることがある。 [0007] また、被写体によっては、コントラストが比較的低ぐ画像に含まれる高周波成分が 比較的少ない場合もある。このような場合には、低周波成分 (0. lfn)でピーク検出し てしまい、視覚特性にマッチした高周波ピーク (0. 3fn以上)でズレが生じ、被写体に 対して適正に合焦させることが難しい。
[0008] 以上の問題点に対して、相互に周波数特性が異なる複数のフィルタを用いて、被 写体画像力 相互に異なる複数の周波数帯域の成分を抽出して AF制御を行うこと が考えられるが、どの周波数成分を用いて AF制御を行うの力決定することは難しい
[0009] このような問題に対し、相互に異なる複数の高周波帯域別の評価値に基づいて、 それぞれ合焦位置までのフォーカスレンズの移動すべき距離 (移動距離)を算出し、 複数の移動距離と複数の高周波帯域を変数とするメンバーシップ関数とから複数の 適合度を決定して、フォーカスレンズの移動距離を決定する技術が提案されている( 例えば、特開平 05— 308556号公報)。
発明の開示
[0010] し力しながら、特開平 05— 308556号公報で提案されている技術では、メンバーシ ップ関数を決定することが難しぐ精度の高い AF制御を行うことは困難である。
[0011] 本発明は、上記課題に鑑みてなされたものであり、種々の被写体に対して高精度 の合焦制御を実現することができる技術を提供することを目的とする。
[0012] 上記の課題を解決するために、請求項 1の発明は、撮像装置の合焦制御を行う合 焦制御装置であって、光学レンズを光軸に沿って駆動させている間に、当該光学レ ンズを介して入射される被写体からの光に基づいて複数の画像データを時間順次に 取得する画像取得手段と、前記複数の画像データを相互に周波数特性が異なる複 数のフィルタを用いてそれぞれ処理して、前記複数のフィルタを構成するフィルタ毎 に評価値群を取得する評価値取得手段と、前記評価値取得手段にお!、て前記複数 のフィルタのうちの所定のフィルタを用いた処理によって取得された評価値群を、前 記複数のフィルタのうちの前記所定のフィルタとは異なる他のフィルタを用いた処理 によって取得された評価値群よりも優先的に用いて、前記光学レンズの合焦位置を 検出する合焦検出手段とを備えることを特徴とする。 [0013] また、請求項 2の発明は、請求項 1に記載の合焦制御装置であって、前記所定のフ ィルタカ 前記複数のフィルタのうちの前記所定のフィルタとは異なる他のフィルタより も相対的に高い周波数帯域の成分を重視して抽出する周波数特性を有することを特 徴とする。
[0014] また、請求項 3の発明は、請求項 1に記載の合焦制御装置であって、前記合焦検 出手段力 前記複数のフィルタのうちの相対的に高い周波数帯域の成分を重視して 抽出する周波数特性を有するフィルタによって取得された評価値群を優先的に用い て、前記合焦位置を検出することを特徴とする。
[0015] また、請求項 4の発明は、請求項 1に記載の合焦制御装置であって、前記所定のフ ィルタカ 前記複数のフィルタのうちの前記所定のフィルタとは異なる他のフィルタより も相対的に所定の周波数帯域の成分を重視して抽出する周波数特性を有することを 特徴とする。
[0016] また、請求項 5の発明は、請求項 1から請求項 4のいずれかに記載の合焦制御装置 であって、位相差方式を用いて前記光学レンズの合焦位置を検出する位相差検出 手段と、前記被写体からの光を、前記合焦検出手段及び前記位相差検出手段に対 してそれぞれ導く第 1及び第 2の光路に分割する光分割手段とを更に備え、前記位 相差検出手段を用いた合焦制御と、前記合焦検出手段を用いた合焦制御とが並行 して実行されることを特徴とする。
[0017] また、請求項 6の発明は、請求項 5に記載の合焦制御装置であって、前記合焦検 出手段が、前記位相差検出手段に係る合焦面とは相対的に異なる光学的な位置に 合焦面を有し、前記合焦制御装置が、前記位相差検出手段を用いた合焦制御の開 始後に、前記合焦検出手段を用いた合焦制御を開始するタイミング制御手段を更に 備えることを特徴とする。
[0018] また、請求項 7の発明は、請求項 1から請求項 6のいずれかに記載の合焦制御装置 を搭載したことを特徴とする。
[0019] 請求項 1に記載の発明によれば、複数のフィルタのうちの所定のフィルタを用いて 取得された評価値を優先的に使用して光学レンズの合焦位置を検出することで、例 えば、一般的な被写体を撮影する際に高まる周波数を重視して抽出する所定のフィ ルタを優先的に使用するように設定すれば、種々の被写体に対して高精度の合焦制 御を実現することができる。
[0020] また、請求項 2及び請求項 3のいずれに記載の発明によっても、複数のフィルタのう ちの相対的に高い周波数帯域の成分を重視して抽出する周波数特性を有する所定 のフィルタを用いて取得された評価値を優先的に使用して、光学レンズの合焦位置 を検出することで、例えば、より高い周波数成分が多くなれば被写体画像が鮮鋭であ ると感じる人間の視覚特性に対応した合焦制御が可能となるため、高精度の合焦制 御ができる。
[0021] また、請求項 4に記載の発明によれば、複数のフィルタのうちの他のフィルタよりも 相対的に所定の周波数帯域の成分を重視して抽出する周波数特性を有する所定の フィルタを用いて取得された評価値を優先的に使用して、光学レンズの合焦位置を 検出することで、例えば、一般的な被写体を捉えた画像が合焦状態にある場合に増 加する所定の高周波帯域の成分を重視した合焦制御が可能となるため、高精度の 合焦制御ができる。
[0022] また、請求項 5に記載の発明によれば、被写体からの光を 2つの光路に分割して、 分割された各光を用いて位相差方式の合焦制御とコントラスト方式の合焦制御とを並 行して実施することで、例えば、位相差方式の合焦制御によって光学レンズを合焦 位置近傍まで短時間で駆動させるとともに、コントラスト方式の合焦制御によって合焦 制御の精度を確保することができるため、高速かつ精度の良い合焦制御が可能とな る。
[0023] また、請求項 6に記載の発明によれば、位相差方式及びコントラスト方式の合焦検 出に係る合焦面の光学的な位置を相互に異ならせ、位相差方式の合焦制御の開始 後に、コントラスト方式の合焦制御が開始される構成により、同時に 2つの合焦制御 が行われ、位相差方式の合焦制御による合焦状態の実現前に、コントラスト方式の合 焦制御によってフォーカスレンズのレンズ合焦位置を検出することができるため、高 速かつ高精度の合焦制御を実現することができる。また、例えば、フォーカスレンズを 逆向きに移動させることなく合焦制御を行うことができるため、バックラッシュの問題の 発生を防止することができる。更に、例えば、ファインダ一等を介して視認される被写 体が、ぼけた状態力 合焦状態へとスムーズに変化するような合焦制御を行うことが できるため、合焦フィーリングを向上させることができる。
[0024] また、請求項 7に記載の発明によれば、請求項 1から請求項 6に記載の発明と同様 な効果を得ることができる。
図面の簡単な説明
[0025] [図 1]図 1は、本発明の実施形態に係る撮像装置の概略構成を示す断面模式図であ る。
[図 2]図 2は、合焦制御ユニットに係る構成を模式的に例示する図である。
[図 3]図 3は、位相差方式の合焦制御の原理を説明するための図である。
[図 4]図 4は、位相差方式の合焦制御の原理を説明するための図である。
[図 5]図 5は、位相差方式の合焦制御の原理を説明するための図である。
[図 6]図 6は、撮像装置の機能構成を例示するブロック図である。
[図 7]図 7は、 AF回路の主な機能構成を例示するブロック図である。
[図 8]図 8は、フィルタの周波数特性を例示する図である。
[図 9]図 9は、 AF回路に入力される画像データの周波数成分を例示する図である。
[図 10]図 10は、撮像装置における撮影動作フローを例示するフローチャートである。
[図 11]図 11は、撮像装置における撮影動作フローを例示するフローチャートである。
[図 12]図 12は、撮像装置における撮影動作フローを例示するフローチャートである。
[図 13]図 13は、撮像装置における撮影動作フローを例示するフローチャートである。
[図 14]図 14は、撮像装置における合焦制御のタイミングチャートを例示する図である
[図 15]図 15は、撮像装置における合焦制御のタイミングチャートを例示する図である
[図 16]図 16は、変形例に係るフィルタの周波数特性を例示する図である。
[図 17]図 17は、変形例に係る撮影動作フローを示すフローチャートである。
[図 18]図 18は、変形例に係るフィルタの周波数特性を例示する図である。
[図 19]図 19は、変形例に係る合焦制御ユニットの構成を模式的に例示する図である [図 20]図 20は、周波数成分による MTFのずれを説明するための図である。
発明を実施するための最良の形態
[0026] 以下、本発明の実施形態を図面に基づいて説明する。
[0027] <撮像装置の概要 >
図 1は、本発明の実施形態に係る撮像装置 1の概略構成を示す断面模式図である
[0028] 図 1に示すように、撮像装置 1は、いわゆる一眼レフ方式のデジタルカメラとして構 成され、被写体力もの光を撮影レンズユニット 2を介して撮像装置本体 300に導くこと で、被写体に係る撮影画像データ (撮影画像)を得ることができる。撮像装置本体 30 0には、撮像装置 1においてオートフォーカス (AF)制御を行うためのユニット(以下「 AF制御ユニット」とも「合焦制御装置」とも称する) 100が搭載されている。また、撮影 レンズユニット 2には、撮影レンズユニット 2の光軸 L上において、 AF制御を実現する ためのレンズ (フォーカスレンズ)を含む複数の撮影レンズからなるレンズ群が配設さ れる。
[0029] 図 2は、撮像装置 1の構成うちの AF制御ユニット 100に係る構成に着目した模式図 である。
[0030] AF制御ユニット 100は、主に、主ミラー 10、サブミラー 20、シャッター機構 4、撮像 素子である C MOSセンサ(以下「C MOSJと略する) 5、及び位相差 AFモジユー ル 3を備えて構成される。
[0031] 主ミラー 10は、ハーフミラーにより構成され、被写体からの光の一部を撮像装置本 体 300の上部に向けて反射することで反射光 (以下「第 1反射光」とも称する)をフアイ ンダ一光学系に導く。具体的には、主ミラー 10は、被写体力もの光を反射することで 、ファインダー焦点板 6に被写体像を投影する。この被写体像はペンタプリズム 7によ つて正立像ィ匕され、接眼レンズ 8を介してユーザーが被写体像の状況を確認すること ができる。また、主ミラー 10は、サブミラー 20に向けて被写体力もの光の一部を透過 させる。
[0032] サブミラー 20は、ハーフミラーにより構成され、被写体力もの光のうち、主ミラー 10 を透過した光(以下「第 1透過光」とも称する)を撮像装置本体 300の下部に向けて反 射することで、位相差 AFモジュール 3に導く。その一方で、サブミラー 20は、 C-M OS5に向けて第 1透過光の一部を透過させる。つまり、サブミラー 20は、被写体から の光を位相差 AFモジュール 3と C - MOS5とにそれぞれ導く 2つの光路に分割する (分岐させる)。
[0033] 位相差 AFモジュール 3は、位相差方式を用いた合焦検出を行うユニットである。位 相差 AFモジュール 3は、コンデンサーレンズ 3a、ミラー 3b、セパレータレンズ 3c、及 び位相差検出用素子 3dを備える。
[0034] コンデンサーレンズ 3aは、サブミラー 20によって反射された光(以下「第 2反射光」 とも称する)を位相差 AFモジュール 3内部に導く。ミラー 3bは、第 2反射光をセパレ ータレンズ 3c側に向けて屈曲させる。セパレータレンズ 3cは、位相差の検出を行う為 の瞳分割用のレンズであり、第 2反射光を瞳分割して、位相差検出用素子 3dに投影 させる。
[0035] 図 3から図 5は、位相差方式の合焦制御の原理を説明するための図である。位相差 方式の合焦制御では、図 3から図 5に示すように、合焦させたい被写体の表面 (被写 体面) PPから発せられた光 FFを、撮影レンズユニット 2、コンデンサーレンズ 3a、及 びセパレータレンズ 3cを介して、位相差検出用素子 3dに導く。このとき位相差検出 用素子 3dで検出される 2つの被写体像の位相差、すなわち像間隔の変位量を測定 してデフォーカス量を求める。ここでは、後述する撮像ホーム位置に設定された C MOS5の撮像面と等価な面 (以下「撮像等価面」とも称する) FPで合焦するようにデ フォーカス量が求められる。つまり、撮像等価面 FPは、位相差方式の AF制御 (位相 差 AF制御)によって合焦状態の被写体像が結像される面 (以下「第 1合焦面」とも称 する)として構成される。
[0036] なお、例えば、図 3に示すように被写体に対して合焦している場合には、像間隔が 位相差 AFモジュール 3の設計時に決められた所定値となる力 図 4に示すように前 ピンなら像間隔が狭くなり、図 5に示すように後ピンであれば像間隔が広くなる。
[0037] シャッター機構 4は、サブミラー 20を透過した光(以下「第 2透過光」とも称する)の 光路を開放 Z遮断することが可能であり、光路を開放することで、第 2透過光を C MOS5上に照射させ、被写体像を C— MOS5上に投影させる。 [0038] C MOS5は、被写体からの光のうちの第 2透過光を受け付けることで画像信号を 得る。 C— MOS5によって得られる画像信号は、記録用の撮影画像データを生成す るために使用される一方、記録用の撮影画像データを取得する動作 (本撮影動作) 前に、いわゆるコントラスト方式の AF制御(コントラスト AF制御)を行うためにも使用さ れる。 C— MOS5の受光面 (撮像面)は、コントラスト AF制御によって合焦状態の被 写体像が結像される面 (以下「第 2合焦面」とも称する)として構成される。
[0039] また、 C— MOS5は、撮像装置本体 300に対して移動可能に保持されているため、 第 2透過光の光軸 Lに沿って前後に移動可能である。この C MOS 5の前後移動に より、第 1合焦面の光学的な位置に対して第 2合焦面の光学的な位置が相互に異な る位置へと設定される。
[0040] なお、ここで言う「光学的な位置が相互に異なる」とは、第 1合焦面において被写体 像が合焦状態となるときに、第 2合焦面において被写体像が合焦状態にはならない ことを示しており、更に、第 2合焦面において被写体像が合焦状態となるときに、第 1 合焦面において被写体像が合焦状態にはならないことを示している。
[0041] <撮像装置の機能構成 >
図 6は、本発明の第 1実施形態に係る撮像装置 1の機能構成を例示するブロック図 である。
[0042] 図 6に示すように、撮像装置 1は、撮影レンズユニット 2、位相差 AFモジュール 3、 C — MOS5、ミラー機構 10a、サブミラー機構 20a、制御部 101、レンズ位置検出部 20 1、操作部 OP、 C MOS移動制御部 150、フォーカス制御部 130、信号処理回路 5 00、及び AF回路 600等を備える。
[0043] 撮影レンズユニット 2は、 C MOS5で取得される画像信号において被写体が合焦 状態となるような合焦状態を実現するための光学レンズ (フォーカスレンズ) 2a等を備 える。フォーカスレンズ 2aは、レンズの光軸に沿って前後に移動可能であり、フォー力 ス制御部 130からの制御信号に応答してモータ Mlが駆動することで、フォーカスレ ンズ 2aのレンズ位置が移動される。フォーカス制御部 130は、制御部 101から入力さ れる制御信号に基づいて制御信号を生成する。また、フォーカスレンズ 2aの位置は 、レンズ位置検出部 201によって検出され、フォーカスレンズ 2aの位置を示すデータ が制御部 101に送られる。
[0044] ミラー機構 10aは、被写体力もの光の経路 (光路)から退避可能な主ミラー 10を含 む機構であり、ミラー制御部 110からの制御信号に応答してモータ M2が駆動するこ とで、主ミラー 10が光路力も退避した状態 (ミラーアップ状態)または光路を遮断した 状態 (ミラーダウン状態)に設定される。ミラー制御部 110は、制御部 101から入力さ れる信号に基づ!、て制御信号を生成する。
[0045] サブミラー機構 20aは、被写体力もの光の経路力も退避可能なサブミラー 20を含む 機構であり、サブミラー制御部 120からの制御信号に応答してモータ M5が駆動する ことで、サブミラー 20が光路力も退避した状態 (ミラーアップ状態)または光路を遮断 した状態 (ミラーダウン状態)に設定される。サブミラー制御部 120は、制御部 101か ら入力される信号に基づいて制御信号を生成する。
[0046] シャッター機構 4は、被写体力 の光の経路を遮断 Z開放可能な機構であり、シャ ッタ制御部 140からの制御信号に応答してモータ M3が駆動することで、シャッター 機構 4が開閉する。シャツタ制御部 140は、制御部 101から入力される信号に基づい て制御信号を生成する。
[0047] C— MOS5は、撮像 (光電変換)を行!ヽ、撮像画像に係る画像信号を生成する。 C — MOS5は、タイミング制御回路 170から入力される駆動制御信号 (蓄積開始信号- 蓄積終了信号)に応答して、受光面に結像された被写体像の露光 (光電変換による 電荷蓄積)を行 ヽ、当該被写体像に係る画像信号を生成する。
[0048] 更に、 C— MOS5は、タイミング制御回路 170から入力される読出制御信号に応答 して、当該画像信号を信号処理部 51へ出力する。タイミング制御回路 170は、制御 部 101から入力される信号に基づいて各種制御信号を生成する。また、タイミング制 御回路 170からのタイミング信号(同期信号)は、信号処理部 51及び AZD変換回路 52に入力される。
[0049] また、 C— MOS5は、 C— MOS駆動機構 5aによって被写体からの光の光軸に沿つ て前後に移動する。 C— MOS駆動機構 5aは、 C MOS移動制御部 150からの制 御信号に応答してモータ M4が駆動することで、 C MOS5を、被写体からの光の光 軸に沿って前後に移動する。 C— MOS移動制御部 150は、制御部 101から入力さ れる信号に基づ!、て制御信号を生成する。
[0050] 信号処理部 51は、 C MOS5から与えられる画像信号に所定のアナログ信号処 理を行 ヽ、処理後の画像信号は AZD変換回路 52によってデジタル画像データ (画 像データ)に変換される。この画像データは、信号処理回路 500に入力されるととも に、コントラスト AF制御のために AF回路 600に対しても適時与えられる。
[0051] 信号処理回路 500は、 AZD変換回路 52から入力される画像データに対してデジ タル信号処理を行い、撮像画像に係る画像データを生成する。信号処理回路 500に おける信号処理は、画像信号を構成する画素信号ごとに行われる。信号処理回路 5 00は、黒レベル補正回路 53、ホワイトバランス (WB)回路 54、 γ補正回路 55及び画 像メモリ 56を備える。これらの構成のうち、黒レベル補正回路 53、ホワイトバランス (W Β)回路 54および γ補正回路 55は、デジタル信号処理を行う。
[0052] 黒レベル補正回路 53は、 AZD変換回路 52が出力した画像データを構成する各 画素データの黒レベルを基準の黒レベルに補正する。 WB回路 54は、画像のホワイ トバランス調整を行う。 γ補正回路 55は、撮像画像の階調変換を行う。画像メモリ 56 は、生成された画像データを一時的に記憶するための、高速アクセス可能な画像メ モリであり、複数フレーム分の画像データを記憶可能な容量を有する。
[0053] AF回路 600は、コントラスト AF制御を行う際に、 AZD変換回路 52から、画像デー タの一部の領域 (AFエリア)に係る画像データを取得し、当該画像データから所定の 周波数帯域の成分を抽出して、当該抽出した成分の総和を被写体の合焦状態を評 価する値 (AF評価値)として算出する。 AF回路 600で算出された AF評価値は、制 御部 101に出力される。
[0054] 図 7は、 AF回路 600の主な機能構成を例示するブロック図である。
[0055] 図 7に示すように、 AF回路 600は、相互に周波数特性が異なる 4つのフィルタ 601 〜604を有しており、各フィルタ 601〜604の周波数特性を図 8に示している。
[0056] 図 8では、横軸が周波数、縦軸がゲインを示しており、曲線 F1〜F4が各フィルタ 60 1〜604の周波数特性をそれぞれ示している。図 8中に記載された fnは、ナイキスト 周波数 (Nyquist frequency)、すなわち、サンプリング周波数の半分の周波数を示し ており、 fn以上の高い周波数は原理的に再現不可能な限界周波数となる。なお、こ こでは、撮像素子の全画素によって得られる画像の画素間隔を 1周期としたサンプリ ング周波数を採用しているため、 2画素分の間隔を 1周期とする周波数をナイキスト 周波数 fnとしている。
[0057] フィルタ 601は、曲線 F1で示すように、幅広い高周波帯域の成分を抽出(透過)す る一般的なハイパスフィルタ(以下「HPF」とも称する)である。また、フィルタ 602は、 曲線 F2で示すように、 0. 4fn付近の周波数帯域の成分を主に抽出(透過)するバン ドパスフィルタ(以下「BPF (0. 4fn)」とも称する)である。また、フィルタ 603は、曲線 F3で示すように、 0. 3fn付近の周波数帯域の成分を主に抽出(透過)するバンドパ スフィルタ(以下「BPF (0. 3fn)」とも称する)である。更に、フィルタ 604は、曲線 F4 で示すように、 0. lfn付近の周波数帯域の成分を主に抽出(透過)するバンドパスフ ィルタ(以下「BPF (0. lfn)」とも称する)である。
[0058] 図 9は、 AZD変換回路 52から AF回路 600に出力される画像データの空間周波 数の分布(出力分布)を例示した図である。図 9では、横軸が周波数、縦軸が出力を 示しており、曲線 Cvl, Cv2が画像データの空間周波数の出力分布を示している。 なお、一般的な撮影では、輪郭が明確な被写体が増加すると、設定にもよるが、曲線 Cvl, Cv2に示すように、 0. 2fn〜0. 4fn付近の高周波成分の出力が増加する。
[0059] 各フィルタ 601〜604では、図 9で示すような画像データの空間周波数の出力に対 して図 8で示す周波数特性が各々乗ぜられて出力される。そして、各評価値演算部 6 11〜614において、各フィルタ 601〜604からの出力に基づき、それぞれ AF評価 値を算出する。よって、 AF回路 600では、 1つの画像データについて、相互に周波 数特性が異なる 4つのフィルタ 601〜604を用いて処理するとともに、評価値演算部 611〜614によって 4つの異なる周波数帯域に着目した AF評価値がそれぞれ取得 される。
[0060] また、コントラスト AF制御を行う際には、フォーカスレンズ 2aをレンズの光軸に沿つ て前後に移動させつつ、 C MOS5等を用いて複数の画像データが取得され、 AF 回路 600において、フィルタ 601〜604毎〖こ、対応する複数の AF評価値 (AF評価 値群)が取得される。つまり、 4つのフィルタ 601〜604にそれぞれ対応する 4つの A F評価値群がほぼ並行して取得される。 [0061] 換言すれば、 HPF601を用いて幅広い高周波帯域の成分を重視して求められた A F評価値群と、 BPF (0. 4fn) 602を用いて 0. 4fn付近の周波数帯域の成分を重視 して求められた複数の AF評価値群と、 BPF (0. 3fn) 603を用いて 0. 3fn付近の周 波数帯域の成分を重視して求められた複数の AF評価値群と、 BPF (0. lfn) 604を 用いて 0. Ifn付近の周波数帯域の成分を重視して求められた複数の AF評価値群と が略同時に取得可能に構成される。
[0062] 制御部 101は、主に CPU、メモリ、及び ROM等を備えて構成され、 ROM内に格 納されるプログラムを読み出して CPUで実行することで、各種機能や制御が実現さ れる。具体的には、制御部 101は、コントラスト AF制御を実行するための機能として、 コントラスト AF制御部 105を有し、位相差 AF制御を実行するための機能として、位 相差 AF制御部 106を有し、 AF制御全体を統括制御する機能として、 AF全体制御 部 107を有している。
[0063] コントラスト AF制御部 105は、コントラスト AF制御を行う際に、 AF回路 600から入 力される複数の AF評価値群のうち、所定のルールに従って優先される AF評価値群 につ 、て、 AF評価値が最大となるフォーカスレンズ 2aのレンズ位置を被写体の合焦 状態が実現される位置(レンズ合焦位置)として求める。また、コントラスト AF制御部 1
05は、求められたレンズ合焦位置に応じた制御信号をフォーカス制御部 130に対し て出力し、フォーカスレンズ 2aをレンズ合焦位置へ移動させる。
[0064] 位相差 AF制御部 106は、位相差 AF制御を行う際に、位相差 AFモジュール 3にお ける検出結果に基づいて、フォーカスレンズ 2aのレンズ合焦位置を検出する。そして 、位相差 AF制御部 106は、適宜求められたレンズ合焦位置に応じた制御信号をフ オーカス制御部 130に対して出力し、フォーカスレンズ 2aをレンズ合焦位置へ移動さ せる。
[0065] AF全体制御部 107は、コントラスト AF制御及び位相差 AF制御を適宜実行させる
[0066] 操作部 OPは、シャッタースタートボタン(シャッターボタン)や各種ボタンやスィッチ 等を備えて構成され、操作部 OPに対するユーザーの入力操作に応答して、制御部 101が各種動作を実現する。なお、シャッターボタンは、半押し状態 (S1状態)と全押 し状態 (S2状態)の 2つの状態を検出可能な 2段階検出ボタンである。なお、撮像装 置 1では、 S1状態となると、 AF制御を含む本撮影動作のための準備動作が行われ、 更に S2状態となると、本撮影動作が行われる。
[0067] 画像メモリ 56に一時記憶される画像データは、制御部 101によって適宜 VRAM 10
2に転送されることで、撮像装置本体 300の背面に配置される液晶表示部 (LCD) 10
3に画像データに基づく画像が表示される。
[0068] また、本撮影時には、画像メモリ 56に一時記憶される画像データは、制御部 101に おいて適宜画像処理が施され、カード IZF104を介してメモリカード MCに記憶され る。
[0069] <撮像装置の動作 >
図 10から図 13は、撮像装置 1における撮影動作フローを例示するフローチャートで ある。本動作フローは、制御部 101の制御によって実現される。また、図 14及び図 1 5は、撮像装置 1における AF制御のタイミングチャートを例示する図である。
[0070] 図 14及び図 15では、横軸が状態 S1となってからの時間経過を示している。そして 、図 14では、上から順に、モータ Mlのモータ回転数、モータ Mlに入力されるパル ス数 (PI数)、フォーカスレンズ 2aの移動速度に対応する像面移動速度、 AFマイコン の起動、位相差 AFの測距、及び C MOS5の駆動のタイミングが示されている。更 に、図 14の下方には、コントラスト AF制御において AF評価値を求めるための C M OS5における露光タイミング、及びフォーカスレンズ 2aの位置と AF評価値との関係 が示されている。
[0071] また、図 15では、フォーカスレンズ 2aの位置(すなわち移動)を示す折れ線 LL、及 び C MOS5の撮像面 (すなわち第 2合焦面)の位置 (すなわち移動)を示す折れ線 LSが示されている。なお、図 15の縦軸方向については、折れ線 LLの位置に対応し た数値は省略されて ヽるが、折れ線 LSの位置に対応した数値 (500 μ m等)が付さ れている。更に、図 15では、折れ線 LLに対して、 AF評価値を求めるための露光タイ ミングに対応するレンズ位置を示すマーク(短い縦長の線分)が付されているとともに 、図 11の処理ステップに対応する部分にステップ番号 (例えば、ステップ S14等)が 付されている。 [0072] 以下、図 14及び図 15を適宜参照しつつ、撮影動作フローについて説明する。なお 、この撮影動作フローが開始される際には、 C— MOS5が実際に本撮影動作を行う 所定の基準位置(「撮像ホーム位置」とも称する)に設定され、第 1及び第 2合焦面の 光学的な距離が同一に設定されている。
[0073] まず、シャッターボタンが半押しされて S1状態となると、撮影動作フローが開始され て、図 10のステップ S1に進む。
[0074] ステップ S1では、 C— MOS5が起動する(図 14の 0〜: LOms)。ここでは、 C— MO S 5に通電し、制御部 101からの信号に応じてタイミング制御回路 170が制御信号を 出力することで、 C— MOS5が 200fpsの電荷信号の読み出しを開始する。なお、撮 像装置 1では、光学ファインダーによって被写体を確認することができるため、省電力 化のために、 S1状態となると C— MOS5が起動する。
[0075] ステップ S2では、コントラスト AF制御を行うために、シャッター機構 4が開放される。
なお、 S1状態となる前、すなわち待機状態では、シャッター機構 4が閉じられた状態 にある。
[0076] このステップ S1〜S2の処理中に、 AFマイコンすなわち制御部 101の機能としての コントラスト AF制御部 105、位相差 AF制御部 106、及び AF全体制御部 107が起動 する(図 14の 0〜50ms)。
[0077] ステップ S3では、位相差 AFモジュール 3及び位相差 AF制御部 106によって位相 差 AF制御による測距を行う(図 14の 50〜1 OOms)。
[0078] ステップ S4では、 AF全体制御部 107により、ステップ S3における測距の結果に基 づ 、て、現在のフォーカスレンズ 2aの位置とレンズ合焦位置とのズレ量を判定する。 ここで、ズレ量の絶対値が第 1の所定値 (例えば、 30 m)未満である場合には、既 に被写体の合焦状態が実現されていると判断し、図 11のステップ S 18に進む。つま り、 AF制御を実施することなぐ本撮影動作に移行する。また、ズレ量の絶対値が第 2の所定値 (例えば、 1000 m)以上の場合には、ズレ量が十分であるとして、その まま図 11のステップ S 11に進む。更に、ズレ量の絶対値が第 1の所定値以上、第 2の 所定値未満である場合には、ズレ量が不十分であるとして、ステップ S5に進む。
[0079] ステップ S5では、 AF全体制御部 107の制御下で、フォーカス制御部 130からの制 御信号に基づいてモータ Mlが駆動することで、フォーカスレンズ 2aが退避駆動を行 う。ここでは、ズレ量が不十分であると、後述する第 2合焦面の移動によってコントラス ト AF制御における AF評価値のピークを過ぎてしまう、 t 、つた不具合を防ぐために、 十分なズレ量を確保するようにフォーカスレンズ 2aのレンズ位置を移動させる退避駆 動を行う。なお、この退避駆動では、例えば、フォーカスレンズ 2aの移動可能な範囲 の一端までフォーカスレンズ 2aを移動させる。
[0080] ステップ S 11では、ステップ S3における測距の結果に基づいて、 C— MOS5を遠 側 (繰り出し側)又は近側 (繰り入れ側)に移動させる動作を開始する(図 14の 90ms) 。ここでは、位相差 AFモジュール 3による検出結果である測距値に応じて、撮像装置 1を基準として、現在のフォーカス位置 (ピントが合って 、る場所)よりも被写体が遠側 にあれば、 C— MOS5を被写体に近づける方向に移動させる。一方、現在のフォー カス位置 (ピントが合っている場所)よりも被写体が近側にあれば、 C— MOS5を被写 体から遠ざける方向に移動させる。なお、 C MOS5の移動は、例えば、 20〜30m mZsec程度の速度で行われる。
[0081] ステップ S12では、ステップ S11において開始された C— MOS5の移動が終了した か否か判定する。ここでは、所定距離 (例えば、 500 iu m)だけC— MOS5が移動す るまでステップ S 12の判定を繰り返し、所定距離だけ C - MOS 5が移動すると C— M OS5の移動を終了させる(図 14及び図 15の 90〜100ms)。
[0082] なお、所定距離は、撮像装置 1の光学的な設計によって適宜設定される。また、撮 影レンズユニット 2のレンズ焦点距離 (レンズ焦点距離が長 ヽ方が所定距離は長 、) や、フォーカスレンズ 2aの移動比(フォーカスモーター Mlの回転数に対してフォー カスレンズ 2aの移動量が長い場合は、所定距離は長い)によって適宜設定される。
[0083] このように、ステップ S11〜S12においては、第 1合焦面に対して第 2合焦面の光学 的な位置が相対的に異なる位置に移動される。具体的には、位相差 AFモジュール 3 による検出結果に応じて、第 1及び第 2合焦面の光学的な位置が同一に設定されて いる状態から、フォーカスレンズ 2aの位置を移動させつつ AF制御を行う際に第 1合 焦面よりも早期に第 2合焦面において被写体の合焦状態が実現される状態に変更さ れる。つまり、位相差 AF制御による合焦点到達よりも先にコントラスト AF制御によつ て被写体の合焦状態が検出されるように設定される。
[0084] ステップ S13では、モータ Mlを立ち上げ、フォーカスレンズ 2aの移動を開始する( 図 14の 100〜130ms)。このフォーカスレンズ 2aの移動は、位相差 AF制御に従つ たものである。
[0085] ステップ S14では、 AF全体制御部 107の制御下で、コントラスト AF制御を開始し、 200fpsのタイミングで AF評価値を取得する動作を開始する(図 14及び図 15の 145 ms)。ここでは、像面移動速度が 110 mZlOmsとある程度遅くなつた時点で、 AF 評価値を取得する動作を行う。なお、このコントラスト AF制御は、例えば、絞りを開放 状態として実行される。
[0086] ステップ S15では、レンズ合焦位置を検出する。具体的には、ステップ S15に進む と、図 12のステップ S 151に進み、図 12に示すレンズ合焦位置の検出動作を実行す る(図 14及び図 15の 145〜200ms)。
[0087] ここで、図 12に示すレンズ合焦位置の検出動作について説明する。
[0088] 図 20で示したように、撮影レンズによっては、画像データ力 抽出される周波数帯 域毎における MTFのピーク特性が異なるために、周波数帯域毎における AF評価値 のピークがずれてしまうことがある。このような場合に、幅広い高周波帯域の成分を抽 出する HPF601を用いると、周波数帯域毎における MTFのずれに起因して、 HPF 601を用いて取得された AF評価値のピークが鮮鋭なものとならず、フォーカスレンズ 2aのレンズ合焦位置が検出し難くなる。
[0089] このような問題に対して、周波数帯域毎の MTFにずれがあつたとしても、狭い周波 数帯域の高周波成分を重視して AF評価値を求めると、 AF評価値が鮮鋭なピークを 示すようになる。よって、特定の周波数帯域の成分を抽出するバンドパスフィルタ(B PF)を用いて AF評価値を算出し、 AF評価値のピークに対応するレンズ合焦位置を 求めることが考えられる。
[0090] し力しながら、 BPFを用いて AF評価値を算出すると、 BPFが重視して抽出する特 定の周波数帯域と、画像データに多く含まれる高周波成分の帯域とが少しずれると、 AF評価値のピークを検出することができな 、。
[0091] そこで、撮像装置 1におけるレンズ合焦位置の検出動作では、まず、素直に、幅広 、高周波帯域の成分を抽出する HPF601を用いて求めた AF評価値にっ 、て、 AF 評価値のピークを検出することができれば、この AF評価値のピークに対応するレン ズ位置をレンズ合焦位置として検出する。また、 HPF601を用いて求めた AF評価値 についてピークを検出することができなければ、より高い周波数成分が多くなれば被 写体画像が鮮鋭であると感じる人間の視覚特性に合わせて、相対的に高い周波数 成分を重視した BPFから順に採用して得られた AF評価値のピーク検出を行 、、この AF評価値のピークに対応するレンズ位置をレンズ合焦位置として検出する。
[0092] つまり、撮像装置 1におけるレンズ合焦位置の検出動作では、 4つのフィルタ 601〜
604のうち、 HPF601を用 、て求めた AF評価値のピーク検出に対応したレンズ合焦 位置の検出を最優先とし、その次に、 BPF (0. 4fn) 602を用いて求めた AF評価値 のピーク検出に対応したレンズ合焦位置の検出を優先し、また、その次に、 BPF (0. 3fn) 603を用いて求めた AF評価値のピーク検出に対応したレンズ合焦位置の検出 を優先する。そして、最後に、相対的に最も低い周波数成分を重視した BPF (0. lfn ) 604を用いて求めた AF評価値についてピーク検出を行い、ピークを検出することが できれば、このピークに対応したレンズ合焦位置を検出する。
[0093] なお、被写体のコントラストが極めて低い場合には、上記 4つのフィルタ 601〜64を 用いたコントラスト AF制御では、レンズ合焦位置を検出することができな ヽ場合もあ る。このような場合には、撮像装置 1では、位相差 AF制御によって求まるレンズ合焦 位置を採用する。
[0094] 以下、図 12に示すレンズ合焦位置の検出動作について具体的に説明する。
[0095] ステップ S 151では、 C MOS5における画像データの取得速度(フレームレート) に相当する 200fpsのタイミング毎の垂直同期信号 (VDパルス)が立ち下がったか否 か判定する。ここでは、 VDパルスが立ち下がるまでステップ S151の判定を繰り返し 、 VDパルスが立ち下がればステップ S 152に進む。
[0096] ステップ S152では、コントラスト AF制御部 105力 HPF601を用いて求められた A F評価値を取得、すなわち HPF601に係る AF評価値を取得する。つまり、 VDパル スの立ち下がりに同期して HPF601に係る AF評価値を取得する。
[0097] ステップ S153では、 HPF601に係る AF評価値(すなわち AF評価値群)につ!/、て AF評価値のピークが見つかつたか否か判定する。ここで、 AF評価値のピークが見 つかればステップ S 164に進み、 AF評価値のピークが見つかっていなければステツ プ S154に進む。なお、図 14及び図 15では、一例として AF評価値のピークが見つ 力る場合にっ 、て示して 、る。
[0098] ステップ S154では、コントラスト AF制御部 105力 BPF (0. 4fn) 602を用いて求 められた AF評価値を取得、すなわち BPF (0. 4fn) 602に係る AF評価値を取得す る。
[0099] ステップ S155では、 BPF (0. 4fn) 602に係る AF評価値(すなわち AF評価値群) について AF評価値のピークが見つかつたか否か判定する。ここで、 AF評価値のピ ークが見つかればステップ S 156に進み、 AF評価値のピークが見つかっていなけれ ばステップ S 157に進む。
[0100] ステップ S156では、 BPF (0. 4fn) 602に係る AF評価値のピークを検出してから、 3フレーム分の画像データを取得したか否か判定する。つまり、 BPF (0. 4fn) 602に 係る AF評価値のピークを検出した後に、 VDパルスが 3回立ち下がって C— MOS5 において 3フレーム分の画像データが取得されたか否か判定する。ここでは、 BPF (0 . 4fn) 602に係る AF評価値のピークを検出してから、 3フレーム分の画像データが 取得されていなければ、ステップ S 163進み、 3フレーム分の画像データが取得され ていれば、ステップ S 164に進む。
[0101] ここで、 3フレーム分の画像データを取得したか否か判定するのは、図 20で示した MTFの周波数依存性に起因して、周波数帯域毎における AF評価値のピークがず れてしまうことがあるため、 BPF (0. 4fn) 602に係る AF評価値のピークを検出してか ら、フォーカスレンズ 2aの位置を若干移動させている間に、 BPF (0. 4fn) 602に係る AF評価値よりも優先的に使用される HPF601に係る AF評価値についてピークが検 出される可能性があるからである。つまり、 3フレーム分の画像データを取得した力否 か判定するのは、 MTFの周波数依存性を考慮して、 BPF (0. 4fn) 602よりも高い周 波数帯域を重視した HPF601に係る AF評価値にピークが検出されるカゝ否カゝ待機す るためである。
[0102] そして、撮像装置 1では、フォーカスレンズ 2aの位置を移動させて所定距離だけ像 面位置を移動させる期間として、 3フレーム分の画像データを取得する期間を採用し 、その期間、より高い周波数帯域まで重視した HPF601を用いて求められた AF評価 値についてピークが検出されれば、 HPF601を用いて求められた AF評価値(すな わち AF評価値群)に基づいてレンズ合焦位置を検出するように制御している。
[0103] ステップ S157では、コントラスト AF制御部 105力 BPF (0. 3fn) 603を用いて求 められた AF評価値を取得、すなわち BPF (0. 3fn) 603に係る AF評価値を取得す る。
[0104] ステップ S 158では、 BPF (0. 3fn) 603に係る AF評価値(すなわち AF評価値群) について AF評価値のピークが見つかつたか否か判定する。ここで、 AF評価値のピ ークが見つかればステップ S 159に進み、 AF評価値のピークが見つかっていなけれ ばステップ S 160に進む。
[0105] ステップ S159では、 BPF (0. 3fn) 603に係る AF評価値のピークを検出してから、 3フレーム分の画像データを取得したか否か判定する。ここでは、 BPF (0. 3fn) 603 に係る AF評価値のピークを検出してから、 3フレーム分の画像データが取得されて いなければ、ステップ S 163進み、 3フレーム分の画像データが取得されていれば、ス テツプ S 164に進む。
[0106] なお、ここで、 3フレーム分の画像データを取得したか否か判定するのは、ステップ S156と同様に、 MTFの周波数依存性を考慮して、 BPF (0. 3fn) 603よりも高い周 波数帯域を重視した HPF601及び BPF (0. 4fn) 602を用いて求められた AF評価 値についてピークが検出される力否か待機するためである。
[0107] そして、この待機中に、 BPF (0. 3fn) 603よりもより高い周波数帯域を重視した周 波数特性を有する HPF601、及び BPF (0. 4fn) 602の何れかを用いて求められた AF評価値にピークが検出されれば、当該ピークが検出された AF評価値 (すなわち AF評価値群)に基づ ヽてレンズ合焦位置を検出するように制御する。
[0108] ステップ S160では、コントラスト AF制御部 105力 BPF (0. lfn) 604を用いて求 められた AF評価値を取得、すなわち BPF (0. lfn) 604に係る AF評価値を取得す る。
[0109] ステップ S161では、 BPF (0. If n) 604に係る AF評価値(すなわち AF評価値群) について AF評価値のピークが見つかつたか否か判定する。ここで、 AF評価値のピ ークが見つかればステップ S162に進み、 AF評価値のピークが見つかっていなけれ ばステップ S 163に進む。
[0110] ステップ S162では、 BPF (0. lfn) 604に係る AF評価値のピークを検出してから、 3フレーム分の画像データを取得したか否か判定する。ここでは、 BPF (0. lfn) 604 に係る AF評価値のピークを検出してから、 3フレーム分の画像データが取得されて いなければ、ステップ S 163進み、 3フレーム分の画像データが取得されていれば、ス テツプ S 164に進む。
[0111] なお、ここで、 3フレーム分の画像データを取得したか否か判定するのは、ステップ S156, S159と同様に、 MTFの周波数依存性を考慮して、 BPF (0. lfn) 604よりも 高い周波数帯域を重視した HPF601、 BPF (0. 4fn) 602、及び BPF (0. 3fn) 603 を用いて求められた AF評価値にピークが検出される力否か待機するためである。
[0112] そして、この待機中に、 BPF (0. lfn) 604よりも高い周波数帯域を重視した周波数 特性を有する HPF601、 BPF (0. 4fn) 602、及び BPF (0. 3fn) 603を用いて求め られた AF評価値にピークが検出されれば、当該ピークが検出された AF評価値 (す なわち AF評価値群)に基づ ヽてレンズ合焦位置を検出するように制御する。
[0113] ステップ S163では、位相差 AF制御が終了したか否かを判定する。ここで、位相差 AF制御が終了していなければ、ステップ S151〖こ戻り、位相差 AF制御が終了してい れば、 C— MOS5が撮像ホーム位置へ戻り(ステップ S165)、図 11のステップ S18 に進む。なお、ここでは、位相差 AF制御の終了とともに、フォーカスレンズ 2aの移動 も停止する。
[0114] ステップ S164では、 AF評価値に基づいてレンズ合焦位置を検出する。ここでは、 ステップ S153から進んで来た場合には、 HPF601に係る AF評価値 (すなわち AF 評価値群)に基づいてレンズ合焦位置を検出する。ステップ S 156から進んで来た場 合には、 BPF (0. 4fn) 602に係る AF評価値 (すなわち AF評価値群)に基づいてレ ンズ合焦位置を検出する。ステップ S159から進んで来た場合には、 BPF (0. 3fn) 6 03に係る AF評価値 (すなわち AF評価値群)に基づ ヽてレンズ合焦位置を検出する 。ステップ S162から進んで来た場合には、 BPF (0. lfn) 604に係る AF評価値 (す なわち AF評価値群)に基づ ヽてレンズ合焦位置を検出する。
[0115] ここで、 AF評価値 (すなわち AF評価値群)に基づ ヽてレンズ合焦位置を検出する 手法について説明する。
[0116] ここでは、まず、図 14に示すように、 AF評価値が増加後、減少し始めたら、 AF評 価値の最大値 Ynとその前後の AF評価値 Yn— 1、 Υη+ 1の 3点のデータを用いて、 下式(1)に示す 2次補間近似計算により AF評価値がピークとなるフォーカスレンズ 2 aのレンズ合焦位置 Ρを算出する。
[0117] [数 1]
))i")}OJ)}(()OJ()}A +xAxxxx +A>xL>xUUu c Uuuu----Nflf ^ e ^こ n_ r, ,…
))〕)}({() p}))H)A{) (}Ax +xx2 〔Axxxx ++xx uU uUu Uuuu—,-——-—
なお、このような計算によってレンズ合焦位置 Pが算出されるタイミングは、 C— MO S5からの電荷信号の読み出し、 AF評価値の算出、 AF評価値のピークの検出、及 び上式(1)に沿った計算等にある程度時間を要するため、図 14に示すように、 AF評 価値の最大値 Ynに係る露光タイミングを過ぎて、 AF評価値が連続して 4回減少する 電荷信号が得られる露光タイミングとなる。
[0119] 上記のようにして求められたレンズ合焦位置 Pは、 C MOS5を所定距離だけずら した、すなわち所定距離だけずれた撮像面に対するレンズ合焦位置である。このた め、レンズ合焦位置 Pに所定距離 (例えば 500 m)の像面差を考慮した値を、実際 に本撮影動作を行う撮像ホーム位置に対するレンズ合焦位置 Qとして求める。
[0120] このようにして、位相差 AF制御によるフォーカスレンズ 2aの移動が終了する前に、 レンズ合焦位置 Qを求めることができる。
[0121] そして、ステップ S164の処理が終了すると、図 11のステップ S 16に進む。
[0122] ステップ S16では、 C— MOS5が撮像ホーム位置へ戻るように移動する(図 14及び 図 15の 210〜220ms;)。
[0123] ステップ S17では、レンズ合焦位置 Qでフォーカスレンズ 2aの移動を停止する(図 1
4及び図 15の 235ms)。
[0124] ステップ S18では、シャッター機構 4を閉じる。
[0125] ステップ S 19では、 C— MOS5に蓄積された電荷を排出することでリセットする。
[0126] ステップ S20では、 S1状態が解除された力否か判定する。ここでは、例えば、ユー ザ一が操作部 OPを操作することで S1状態が解除されると、本動作フローを終了し、
S 1状態が解除されなければ、図 13のステップ S31に進む。
[0127] ステップ S31では、 S2状態になったか否かを判定する。ここでは、 S2状態となるま で、ステップ S20及びステップ S31の判定を繰り返しつつ、待機する。そして、 S2状 態となると、本撮影動作の指示がなされたものとして、ステップ S32に進む。
[0128] ステップ S32では、主ミラー 10及びサブミラー 20がミラーアップ状態となるとともに、 シャッター機構 4が開かれた状態となる。
[0129] ステップ S33では、 C— MOS5において、撮像すなわち本撮影動作の露光が行わ れる。
[0130] ステップ S34では、シャッター機構 4が閉じられた状態となる。
[0131] ステップ S35では、主ミラー 10及びサブミラー 20がミラーダウン状態となるとともに、 C— MOS5から電荷信号が読み出されて、画像データカ モリカード MCに記憶され るチャージ駆動を行い、本動作フローを終了する。
[0132] 以上のように、本発明の実施形態に係る撮像装置 1では、 AF回路 600に備えられ た 4つ(一般的には複数)のフィルタ 601〜604のうちの HPF601を用いて取得され た AF評価値を最優先に使用して、フォーカスレンズ 2aのレンズ合焦位置を検出する 。このように、一般的な被写体を撮影する際に画像データにおいて増加する高周波 帯域の成分を重視して抽出する HPF601が優先的に使用されるように設定されて!ヽ るため、種々の被写体に対して高精度の合焦制御を行うことができる。
[0133] また、 4つ(一般的には複数)のフィルタ 601〜604のうちの相対的に高い周波数帯 域の成分を重視して抽出する周波数特性を有する所定のフィルタ (ここでは、 HPF6 01)を用いて取得された AF評価値を優先的に使用して、フォーカスレンズ 2aのレン ズ合焦位置を検出する。このような構成を採用することで、例えば、より高い周波数成 分が多くなれば被写体画像が鮮鋭であると感じる人間の視覚特性に対応した合焦制 御が可能となるため、高精度の合焦制御ができる。
[0134] また、被写体からの光を 2つの光路に分割して、分割された各光を用いて位相差方 式の合焦制御とコントラスト方式の合焦制御とを並行して実施する。このため、例えば 、位相差方式の合焦制御によってフォーカスレンズ 2aをレンズ合焦位置近傍まで短 時間で駆動させることができるとともに、コントラスト方式の合焦制御によって合焦制 御の精度を確保することができる。その結果、高速かつ精度の良い合焦制御が可能 となる。
[0135] また、位相差方式及びコントラスト方式の合焦検出に係る合焦面の光学的な位置を 相互に異ならせ、位相差方式の合焦制御の開始後に、コントラスト方式の合焦制御 が開始される。このような構成により、同時に 2つの方式の合焦制御が行われ、位相 差方式の合焦制御による合焦状態の実現前に、コントラスト方式の合焦制御によって フォーカスレンズ 2aのレンズ合焦位置を検出することができる。その結果、高速かつ 高精度の合焦制御を実現することができる。また、例えば、フォーカスレンズ 2aを逆 向きに移動させることなく合焦制御を行うことができるため、いわゆるバックラッシュの 問題の発生も防止することができる。更に、例えば、ファインダ一等を介して視認され る被写体が、ぼけた状態力 合焦状態へとスムーズに変化するような合焦制御を行う ことができるため、合焦フィーリングを向上させることもできる。
[0136] <変形例 >
以上、この発明の実施形態について説明したが、この発明は上記説明した内容の ものに限定されるものではない。
[0137] 例えば、上述した実施形態では、 BPF (0. 4fn) 602、 BPF (0. 3fn) 603、及び BP F (0. Ifn) 604の 3つの異なる周波数特性を有するバンドパスフィルタを採用したが 、これに限られない。例えば、 0. 5fnや 0. 2fn付近の周波数帯域の成分を主に抽出 (透過)するバンドパスフィルタ等を採用しても良い。すなわち、 fnの n倍 (0<η< 1) 付近の周波数帯域の成分を主に抽出(透過)する 1以上のバンドパスフィルタを採用 しても良い。
[0138] なお、撮影レンズユニット 2が撮像装置本体 300に対して着脱自在に構成される態 様では、複数の異なる周波数特性を有するバンドパスフィルタを準備しておき、撮像 装置本体 300に対して撮影レンズユニット 2が装着されると、制御部 101が撮影レン ズユニット 2内の ROM等カゝらレンズの特性を特定する情報(レンズ情報)を得て、 1以 上のバンドパスフィルタをコントラスト AF制御に用いるバンドパスフィルタとして選択 的に採用しても良い。例えば、 0. Ifnゝ 0. 2fn、 0. 3fn、 0. 4fn、及び 0. 5fn付近の 周波数帯域の成分を主に抽出(透過)する 5つのバンドパスフィルタを準備しておき、 レンズ情報に応じて、 0. lfn、 0. 3fn、及び 0. 4fn付近の周波数帯域の成分を主に 抽出(透過)する 3つのバンドパスフィルタをコントラスト AF制御に用いるバンドパスフ ィルタとして選択的に採用するようにしても良!、。
[0139] また、上記実施形態では、図 8で示した HPF601、 BPF (0. 4fn) 602、 BPF (0. 3 fn) 603、及び BPF (0. Ifn) 604の 4つの異なる周波数特性を有するフィルタを採用 したが、これに限られない。
[0140] 例えば、図 16で示す 2つの異なる周波数特性を有するハイパスフィルタを採用して も良い。図 16で示す曲線 F1は、図 8で示した HPF601の周波数特性を示している。 また、曲線 F2は、 HPF601と比較して、一般的な撮影において輪郭が明確な被写 体の増加に応じて画像データの周波数成分が増加する所定の周波数帯域 (例えば
、 0. 2fn〜0. 4fn)付近の高周波成分をより重視して抽出する HPFの周波数特性を 示している。なお、以下では、曲線 F1の周波数特性を有する HPFを HPF1、曲線 F 11の周波数特性を有する HPFを HPF2と称する。
[0141] HPF2では、 HPF1と比較して、 1. Ofn付近の高周波帯域に対するゲインが小さく なっているため、画像データにおける所謂ノイズ成分の抽出(透過)を防ぐことができ る。また、上述したように、一般的な撮影において輪郭が明確な被写体の増加に応じ て画像データの周波数成分が増加する所定の周波数帯域付近の高周波成分をより 重視して抽出する。このため、 HPF1と比較して、 HPF2を用いて取得される AF評価 値を用いた方が、ノイズ成分の影響を低減しつつ、被写体に対してより精度良く合焦 させることがでさる。
[0142] したがって、 HPF1, 2を用いる場合には、合焦精度の観点から、 2つの HPFのうち の HPF1よりも相対的に所定の周波数帯域 (ここでは、 0. 2fn〜0. 4fn)の成分を重 視して抽出する周波数特性を有する所定の HPF2を用いて取得された AF評価値( すなわち、 AF評価値群)を優先的に使用して、フォーカスレンズ 2aのレンズ合焦位 置を検出することが好まし 、。
[0143] 以下、撮像装置において HPF1, 2を用いたコントラスト AF制御を採用した場合に おける撮影動作フローについて説明する。なお、この撮影動作フローでは、図 10〜 図 13で示した撮影動作フローのうち、ステップ S15のレンズ合焦位置の検出動作に 係るフローが異なる力 他の動作については同様なものとなる。つまり、図 12で示し たレンズ合焦位置の検出動作フローが異なる。
[0144] 図 17は、 HPF1, 2を用いた場合におけるレンズ合焦位置の検出動作フローを示し ている。
[0145] ステップ ST151では、 C MOS5における画像データの取得速度(フレームレート )に相当する 200fpsのタイミング毎の垂直同期信号 (VDパルス)が立ち下がったか 否か判定する。ここでは、 VDパルスが立ち下がるまでステップ S151の判定を繰り返 し、 VDパルスが立ち下がればステップ ST152に進む。
[0146] ステップ ST152では、コントラスト AF制御部 105力 HPF2を用いて求められた AF 評価値を取得、すなわち HPF2に係る AF評価値を取得する。つまり、 VDパルスの 立ち下がりに同期して HPF2に係る AF評価値を取得する。 [0147] ステップ ST153では、 HPF2に係る AF評価値(すなわち AF評価値群)につ!/、て A F評価値のピークが見つかつたか否か判定する。ここで、 AF評価値のピークが見つ かればステップ ST158に進み、 AF評価値のピークが見つかっていなければステツ プ ST154に進む。
[0148] ステップ ST154では、コントラスト AF制御部 105力 HPF1を用いて求められた AF 評価値を取得、すなわち HPF1に係る AF評価値を取得する。
[0149] ステップ ST155では、 HPF1に係る AF評価値(すなわち AF評価値群)につ!/、て A
F評価値のピークが見つかつたか否か判定する。ここで、 AF評価値のピークが見つ かればステップ ST156に進み、 AF評価値のピークが見つかっていなければステツ プ ST157に進む。
[0150] ステップ ST156では、 HPF1に係る AF評価値のピークを検出してから、 3フレーム 分の画像データを取得した力否か判定する。つまり、 HPF1に係る AF評価値のピー クを検出した後に、 VDパルスが 3回立ち下がって C— MOS5において 3フレーム分 の画像データが取得された力否力判定する。ここでは、 HPF1に係る AF評価値のピ ークを検出してから、 3フレーム分の画像データが取得されていなければ、ステップ S T157進み、 3フレーム分の画像データが取得されていれば、ステップ ST158〖こ進む
[0151] ここで、 3フレーム分の画像データを取得したか否か判定するのは、図 20で示した MTFの周波数依存性も考慮して、 HPF1よりも HPF2を用いて取得された AF評価 値を優先させるためである。
[0152] ステップ ST157では、図 12のステップ S163と同様な処理を行う。
[0153] ステップ ST158では、 AF評価値 (すなわち AF評価値群)に基づ 、てレンズ合焦 位置を検出する。ここでは、ステップ ST153から進んで来た場合には、 HPF2に係る AF評価値に基づ 、てレンズ合焦位置を検出する。ステップ ST156から進んで来た 場合には、 HPF1に係る AF評価値に基づいてレンズ合焦位置を検出する。そして、 ステップ ST158の処理が終了すると、図 11のステップ S 16に進む。
[0154] 以上のような構成を採用した撮像装置では、 AF回路 600に備えられた 2つ(一般 的には複数)のフィルタ (HPF1, 2)のうち、一般的な被写体を撮影する際に高まる 周波数成分を重視して抽出する HPF2を用 ヽて取得された AF評価値を最優先に使 用して、フォーカスレンズ 2aのレンズ合焦位置を検出する。このような構成により、種 々の被写体に対して高精度の合焦制御を行うことができる。
[0155] また、別の観点力も言えば、 2つ(一般的には複数)のフィルタ(HPF1, 2)のうちの HPF1よりも相対的に所定の周波数帯域 (ここでは、 0. 2fn〜0. 4fn)の成分を重視 して抽出する周波数特性を有する HPF2を用いて取得された AF評価値を優先的に 使用して、フォーカスレンズ 2aのレンズ合焦位置を検出する。このような構成を採用 することで、例えば、一般的な被写体を捉えた画像が合焦状態にある場合に増加す る所定の高周波帯域の成分を重視した合焦制御が可能となるため、高精度の合焦 制御ができる。
[0156] なお、上記では、一般的な撮影において輪郭が明確な被写体の増加に応じて画像 データの周波数成分が増加する所定の周波数帯域として、 0. 2fn〜0. 4fnの周波 数帯域を挙げたが、この所定の周波数帯域は、被写体の種類、撮影レンズユニット 2 の性質、撮影倍率、及び撮像素子の画素ピッチ等の条件の組合せに応じて適宜設 定される。
[0157] また、上記実施形態では、図 8で示した BPF (0. 4fn) 602、 BPF (0. 3fn) 603、及 び BPF (0. Ifn) 604の 3つの異なる周波数特性を有するバンドパスフィルタを採用し た力 これに限られない。
[0158] 例えば、図 18の曲線 F12, F13で示すように、 BPFの代わりに、所謂カットオフ周 波数が fcol, fco2である周波数特性をそれぞれ有する 2つの HPFを採用し、より高 Vヽ周波数帯域の成分を重視して抽出する HPFを用いて得られる AF評価値から順に 優先的に使用してレンズ合焦位置を検出するようにしても良い。なお、曲線 Fl, F12 , F13で示される周波数特性をそれぞれ有する 3つの HPFをそれぞれ HPFa, HPF b、 HPFcとすると、 HPFaが、最も高い周波数帯域の成分を重視して抽出し、 HPFb 力 次に高い周波数帯域の成分を重視して抽出し、 HPFcが、最も低い周波数帯域 の成分を重視して抽出する。
[0159] また、上記実施形態では、本撮影時に記録用の画像データを得るための C— MO S5を用いて得られた画像データに基づきコントラスト AF制御を行った力 これに限ら れず、例えば、コントラスト AF制御のための画像データを取得する専用の撮像セン サを設けても良い。
[0160] また、コントラスト AF制御のために、例えば、所謂べィヤー配列を有する複数の RG Bの 3原色の画素を有する撮像センサが採用された場合、 AF評価値を取得する際 には、 G色の画素値のみを用いて AF評価値を算出するようにしても良いし、 RGBの 画素値から輝度値 Yを算出して、当該輝度値 Yを用いて AF評価値を算出するよう〖こ しても良い。
[0161] なお、上記実施形態では、フィルタ 601〜604を電気的な回路として構成したが、 制御部 101にお!/、てプログラムを実行することでフィルタ 601〜604の機能及び AF 評価値の演算機能を実現するようにすることもできる。但し、現状では、一般に電気 的な回路で構成した演算機能の方が演算速度が高速であり実用的である。
[0162] また、上記実施形態では、図 2に示すような AF制御ユニット 100を採用した力 これ に限られず、他の AF制御ユニットの構成を採用しても良い。以下に、他の AF制御ュ ニットの構成の一例として AF制御ユニット 100Aを挙げて説明する。
[0163] 図 19は、変形例に係る撮像装置 1Aに含まれた AF制御ユニット 100Aに関する構 成を模式的に例示する図である。
[0164] 上記実施形態に係る撮像装置 1では、主ミラー 10がハーフミラーを備えて構成され たが、図 19に示すように、変形例に係る撮像装置 1Aでは、当該ハーフミラーとして ペリクルミラーを採用した主ミラー 10Aを用いている。
[0165] ペリクルミラーは、厚みが一般的なハーフミラーと比べて非常に薄い(例えば 100 m程度)ことが特徴である。このペリクルミラーは、極薄であるため、ミラーアップ駆動 に適さない。よって、撮像装置 1Aでは、本撮影時に、主ミラー 10Aはミラーアップせ ず、サブミラー 20Aが被写体力 の光の光路上力 下方に退避するように構成され ている。
[0166] なお、その他の構成は、上記実施形態に係る撮像装置 1と同様であり、機能及び動 作等については、主ミラー 10及びサブミラー 20の双方が光路に対して退避状態 Z 遮断状態となる代わりに、サブミラー 20Aのみが光路に対して退避状態 Z遮断状態 となる点が異なるだけで、その他の機能及び動作等にっ 、てはほぼ同様であるため 、説明を省略する。
[0167] 以下、主ミラー 10Aのハーフミラーにペリクルミラーを採用する利点について説明 する。
[0168] 上記実施形態に係る撮像装置 1では、一般的なハーフミラーの屈折率 Ndが約 1. 5 であり、主ミラー 10とサブミラー 20の厚みをそれぞれ a、 bとすると、ミラーアップ状態と ミラーダウン状態とで約 0. 5 (a+b)だけ焦点位置がユーザー側(図 2では右側)にず れてしまう。
[0169] そして、位相差 AF制御とコントラスト AF制御とを併用する場合には、フォーカスレ ンズ 2aの位置を移動させつつ被写体の合焦状態を実現する際に第 1合焦面よりも早 期に第 2合焦面において被写体の合焦状態が実現されるように、第 1及び第 2合焦 面の光学的な位置を相互に異ならせる必要がある。よって、このとき、ハーフミラーに よる焦点位置のずれ (約 0. 5 (a+b) )を見込んで、 C MOS5を撮像ホーム位置か ら光軸 Lに沿って余計に移動させなければならない。
[0170] このような問題点に対して、極薄のペリクルミラーを用いることで、ハーフミラーによ る焦点位置のずれを約 0. 5bまで抑制することができる。つまり、主ミラー 10によって 生じる焦点位置のズレ量を抑制することができる。その結果、当該ズレ量を補正する ための C MOS5の移動量が少なくて済むため、 C MOS5を移動させるための構 成を簡素化することができる。
[0171] また、上記実施形態では、位相差 AF制御を行うタイプの撮像装置を挙げて説明し たが、これに限られず、例えば、コントラスト AF制御のみを行う撮像装置であっても良 い。

Claims

請求の範囲
[1] 撮像装置の合焦制御を行う合焦制御装置であって、
光学レンズを光軸に沿って駆動させている間に、当該光学レンズを介して入射され る被写体からの光に基づいて複数の画像データを時間順次に取得する画像取得手 段と、
前記複数の画像データを相互に周波数特性が異なる複数のフィルタを用いてそれ ぞれ処理して、前記複数のフィルタを構成するフィルタ毎に評価値群を取得する評 価値取得手段と、
前記評価値取得手段にぉ 、て前記複数のフィルタのうちの所定のフィルタを用い た処理によって取得された評価値群を、前記複数のフィルタのうちの前記所定のフィ ルタとは異なる他のフィルタを用いた処理によって取得された評価値群よりも優先的 に用いて、前記光学レンズの合焦位置を検出する合焦検出手段と、
を備えることを特徴とする合焦制御装置。
[2] 請求項 1に記載の合焦制御装置であって、
前記所定のフィルタが、
前記複数のフィルタのうちの前記所定のフィルタとは異なる他のフィルタよりも相対 的に高い周波数帯域の成分を重視して抽出する周波数特性を有することを特徴とす る合焦制御装置。
[3] 請求項 1に記載の合焦制御装置であって、
前記合焦検出手段が、
前記複数のフィルタのうちの相対的に高い周波数帯域の成分を重視して抽出する 周波数特性を有するフィルタによって取得された評価値群を優先的に用いて、前記 合焦位置を検出することを特徴とする合焦制御装置。
[4] 請求項 1に記載の合焦制御装置であって、
前記所定のフィルタが、
前記複数のフィルタのうちの前記所定のフィルタとは異なる他のフィルタよりも相対 的に所定の周波数帯域の成分を重視して抽出する周波数特性を有することを特徴と する合焦制御装置。
[5] 請求項 1から請求項 4の 、ずれかに記載の合焦制御装置であって、 位相差方式を用いて前記光学レンズの合焦位置を検出する位相差検出手段と、 前記被写体からの光を、前記合焦検出手段及び前記位相差検出手段に対してそ れぞれ導く第 1及び第 2の光路に分割する光分割手段と、
を更に備え、
前記位相差検出手段を用いた合焦制御と、前記合焦検出手段を用いた合焦制御 とが並行して実行されることを特徴とする合焦制御装置。
[6] 請求項 5に記載の合焦制御装置であって、
前記合焦検出手段が、
前記位相差検出手段に係る合焦面とは相対的に異なる光学的な位置に合焦面を 有し、
前記合焦制御装置が、
前記位相差検出手段を用いた合焦制御の開始後に、前記合焦検出手段を用いた 合焦制御を開始するタイミング制御手段、
を更に備えることを特徴とする合焦制御装置。
[7] 請求項 1から請求項 6のいずれかに記載の合焦制御装置を搭載したことを特徴とす る撮像装置。
PCT/JP2007/050518 2006-01-17 2007-01-16 合焦制御装置、及び撮像装置 WO2007083633A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP07706845A EP1975662A1 (en) 2006-01-17 2007-01-16 Focus control device and imaging device
US11/908,324 US20090066830A1 (en) 2006-01-17 2007-01-16 Focus control device and imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006008379A JP2007192859A (ja) 2006-01-17 2006-01-17 合焦制御装置、及び撮像装置
JP2006-008379 2006-01-17

Publications (1)

Publication Number Publication Date
WO2007083633A1 true WO2007083633A1 (ja) 2007-07-26

Family

ID=38287586

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/050518 WO2007083633A1 (ja) 2006-01-17 2007-01-16 合焦制御装置、及び撮像装置

Country Status (7)

Country Link
US (1) US20090066830A1 (ja)
EP (1) EP1975662A1 (ja)
JP (1) JP2007192859A (ja)
KR (1) KR20080084563A (ja)
CN (1) CN101310205A (ja)
TW (1) TW200739230A (ja)
WO (1) WO2007083633A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138103A (ja) * 2009-12-02 2011-07-14 Ricoh Co Ltd 撮像装置および撮像方法
KR101085925B1 (ko) * 2010-03-23 2011-11-23 삼성전자주식회사 복수개의 밴드패스필터를 이용하여 자동초점 조절 기능을 수행하는 촬영장치 및 이에 적용되는 자동초점 조절방법
US10250793B2 (en) * 2011-06-29 2019-04-02 Nikon Corporation Focus adjustment device having a control unit that drives a focus adjustment optical system to a focused position acquired first by either a contrast detection system or a phase difference detection system
EP4310569A1 (en) * 2011-11-11 2024-01-24 Nikon Corporation Focal point adjustment device, image capture device, and lens barrel
CN104823094B (zh) * 2012-11-29 2017-08-11 富士胶片株式会社 摄像装置及对焦控制方法
US9477138B2 (en) * 2013-06-10 2016-10-25 Apple Inc. Autofocus
JP6442824B2 (ja) * 2013-11-28 2018-12-26 株式会社ニコン 焦点検出装置
JP6478496B2 (ja) * 2014-07-03 2019-03-06 キヤノン株式会社 撮像装置およびその制御方法
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof
JP6429546B2 (ja) * 2014-09-11 2018-11-28 キヤノン株式会社 撮像装置、制御方法、プログラム、および、記憶媒体
JP6463053B2 (ja) * 2014-09-12 2019-01-30 キヤノン株式会社 自動合焦装置、および自動合焦方法
CN105430270B (zh) * 2015-12-10 2018-11-13 浙江宇视科技有限公司 一种自动聚焦的方法和装置
CN106506946B (zh) * 2016-10-26 2019-10-18 浙江宇视科技有限公司 一种摄像机自动聚焦方法及摄像机
JP6561370B1 (ja) * 2018-06-19 2019-08-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 決定装置、撮像装置、決定方法、及びプログラム
WO2021217427A1 (zh) * 2020-04-28 2021-11-04 深圳市大疆创新科技有限公司 图像处理方法、装置、拍摄设备、可移动平台和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59133783A (ja) * 1983-01-20 1984-08-01 Matsushita Electric Ind Co Ltd 自動焦点整合装置
JPS63215171A (ja) * 1987-03-03 1988-09-07 Victor Co Of Japan Ltd オ−トフオ−カス方式
JPH05308555A (ja) * 1992-04-28 1993-11-19 Fuji Photo Optical Co Ltd オートフォーカス方法及び装置
JP2004219581A (ja) * 2003-01-10 2004-08-05 Canon Inc 自動焦点調節装置
JP2004309866A (ja) * 2003-04-08 2004-11-04 Pentax Corp カメラの自動焦点調節装置
JP2005189876A (ja) * 2005-02-09 2005-07-14 Nikon Corp オートフォーカス装置及びカメラ
JP2005284155A (ja) * 2004-03-30 2005-10-13 Fuji Photo Film Co Ltd マニュアルフォーカス調整装置及び合焦アシスト・プログラム
JP2005351925A (ja) * 2004-06-08 2005-12-22 Fuji Photo Film Co Ltd 撮像装置及び合焦制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4484806A (en) * 1982-04-28 1984-11-27 Matsushita Electric Industrial Co., Ltd. Automatic focussing apparatus
JP4331314B2 (ja) * 1999-04-12 2009-09-16 オリンパス株式会社 一眼レフレックスタイプの電子的撮影装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59133783A (ja) * 1983-01-20 1984-08-01 Matsushita Electric Ind Co Ltd 自動焦点整合装置
JPS63215171A (ja) * 1987-03-03 1988-09-07 Victor Co Of Japan Ltd オ−トフオ−カス方式
JPH05308555A (ja) * 1992-04-28 1993-11-19 Fuji Photo Optical Co Ltd オートフォーカス方法及び装置
JP2004219581A (ja) * 2003-01-10 2004-08-05 Canon Inc 自動焦点調節装置
JP2004309866A (ja) * 2003-04-08 2004-11-04 Pentax Corp カメラの自動焦点調節装置
JP2005284155A (ja) * 2004-03-30 2005-10-13 Fuji Photo Film Co Ltd マニュアルフォーカス調整装置及び合焦アシスト・プログラム
JP2005351925A (ja) * 2004-06-08 2005-12-22 Fuji Photo Film Co Ltd 撮像装置及び合焦制御方法
JP2005189876A (ja) * 2005-02-09 2005-07-14 Nikon Corp オートフォーカス装置及びカメラ

Also Published As

Publication number Publication date
CN101310205A (zh) 2008-11-19
US20090066830A1 (en) 2009-03-12
EP1975662A1 (en) 2008-10-01
JP2007192859A (ja) 2007-08-02
KR20080084563A (ko) 2008-09-19
TW200739230A (en) 2007-10-16

Similar Documents

Publication Publication Date Title
WO2007083633A1 (ja) 合焦制御装置、及び撮像装置
US8300137B2 (en) Image sensing apparatus providing driving direction of focus lens for attaining in-focus state and control method therefor
EP2993506B1 (en) Interchangeable lens apparatus, image capturing apparatus and system
US9794473B2 (en) Imaging device, imaging device body, and lens barrel
JP4802742B2 (ja) 合焦制御装置、撮像装置、及び合焦制御方法
JP6851854B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP2008256826A (ja) カメラ
JP5403111B2 (ja) 画像追尾装置
JP2010109923A (ja) 撮像装置
US7970270B2 (en) Auto focusing apparatus and image pick-up apparatus having sub-mirror
JP4957435B2 (ja) 撮像装置
JP2012133172A (ja) カメラ
US20140293064A1 (en) Image pickup apparatus
JP7353868B2 (ja) レンズ制御装置、その制御方法
JPH0311884A (ja) 撮像装置
JP5439971B2 (ja) 測光装置および撮像装置
JP2010072559A (ja) 撮像装置および対象物領域抽出方法
JP2009109792A (ja) オートフォーカス装置及びこれを用いるカメラ
WO2018128098A1 (ja) 撮像装置および焦点調節方法
JP2005140851A (ja) オートフォーカスカメラ
JPH07311331A (ja) 視線検出装置を備えるカメラ
JP2007148242A (ja) 合焦制御装置、および撮像装置
JP7406889B2 (ja) レンズ制御装置、その制御方法
JP6005955B2 (ja) 測光装置及び撮像装置
JP2018197812A (ja) 撮像装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780000082.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2007706845

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077020651

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11908324

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE