WO2005085928A1 - オートフォーカス制御装置および方法、記録媒体、並びにプログラム - Google Patents

オートフォーカス制御装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
WO2005085928A1
WO2005085928A1 PCT/JP2005/001393 JP2005001393W WO2005085928A1 WO 2005085928 A1 WO2005085928 A1 WO 2005085928A1 JP 2005001393 W JP2005001393 W JP 2005001393W WO 2005085928 A1 WO2005085928 A1 WO 2005085928A1
Authority
WO
WIPO (PCT)
Prior art keywords
integer
cycle
imaging
focus
evaluation value
Prior art date
Application number
PCT/JP2005/001393
Other languages
English (en)
French (fr)
Inventor
Sakae Okazaki
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP05709539A priority Critical patent/EP1722260A1/en
Priority to US10/591,519 priority patent/US20070216795A1/en
Publication of WO2005085928A1 publication Critical patent/WO2005085928A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Definitions

  • the present invention relates to an autofocus control device and method, a recording medium, and a program, and in particular, to an autofocus control device and method capable of improving response characteristics of autofocus by performing high-speed exposure. , Recording media, and programs.
  • FIG. 1 is a block diagram showing a configuration example of a conventional video camera.
  • a lens block 1 including a zoom lens 2 and a focus lens 3 causes light (that is, an image of a subject) to enter an image sensor 4.
  • the imaging sensor 4 is a two-dimensionally arranged photoelectric conversion element that performs photoelectric conversion including a CCD (Charge Coupled Devices) imager and a MOS (implementary metal oxide semiconductor) imager.
  • a primary color filter (not shown) in which R, G, and B are arranged in a mosaic pattern is mounted.
  • the image sensor 4 photoelectrically converts the light image of the object incident through the lens block 1 and the primary color filter to generate an image signal (charge), and converts the generated image signal into a camera signal by a raster scan method. Output to processing unit 5.
  • the camera signal processing unit 5 performs sampling processing, YC separation processing, and the like on the imaging signal input from the imaging sensor 4, outputs a luminance signal Y to the gate unit 6, and outputs the luminance signal Y and the color signal.
  • the signal C (color difference signal, primary color signal, etc.) is output to the memory controller 13.
  • the gate unit 6 extracts only a signal corresponding to a preset focus detection area in the screen from the input video signals, and outputs the signal to the AF (autofocus) detection unit 7.
  • the AF detector 7 extracts the high-frequency component of the video signal corresponding to the input focus detection area, rectifies and detects it, generates the focus evaluation value required for autofocus, and provides the AF module of the camera controller 8 Output to 8a.
  • the camera controller 8 receives a manual focus instruction signal input from the input unit 14, The driving of the lens driver 9 and the imaging device driver 12 is controlled based on a camera direction signal, a manual Z autofocus switching signal, and the like.
  • the AF module 8a of the camera controller 8 controls the lens driver 9 to perform autofocus driving based on the focus evaluation value from which the video signal strength is also obtained.
  • the lens driver 9 controls the driving of the motor 10 that drives the zoom lens 2 and the motor 11 that drives the focus lens 3, respectively.
  • the motors 10 and 11 control the driving of the zoom lens 2 or the focus lens 3, respectively, under the control of the lens driver 9.
  • the image sensor driver 12 controls the image sensor 4 to photoelectrically convert a light image of a subject incident through the lens block 1 and a primary color filter (not shown) to generate an image signal, It controls the driving of the shirt (not shown).
  • the memory controller 13 temporarily stores the video signal input from the camera signal processing unit 5 in the memory 13a, sequentially reads out the video signal, outputs the video signal to a display (not shown), and displays it as a video. Alternatively, output to a removable medium (not shown) and record there.
  • the input unit 14 is operated by the user and inputs various instruction signals from the user to the camera controller 8.
  • FIG. 2 shows an example of a change in the focus evaluation value required for autofocus output from the AF detector 7 in FIG.
  • the horizontal axis (X-axis) represents the force position of the focus lens 3
  • the vertical axis (y-axis) represents the focus evaluation value.
  • the focus evaluation value at the predetermined position becomes the maximum value a. Take. Generally, this is called an “evaluation value peak”, and the focus position of the focus lens 3 at which the focus evaluation value takes the maximum value a is the focus position Q of the subject.
  • the AF module 8a captures the focus evaluation value input from the AF detector 7, “Mounting control”, such as moving the focus lens 3, is performed so that this evaluation value is maximized.
  • the AF module 8a slightly shakes the focus position of the focus lens 3 in order to check the direction of the current focus position force and the focus position, and obtains the differential component of the evaluation value obtained at that time.
  • the direction to the in-focus position is estimated based on the sign of dy / dx. Generally, this minute vibration of the focus position is referred to as wobbling.
  • step S1 the AF module 8a fetches the focus evaluation value from the AF detection unit 7, and in step S2, extracts the differential component dy / dx of the focus evaluation value to estimate the focus position direction.
  • step S3 based on the focus evaluation value, the AF module 8a moves the focus position closer to the focus position Q (FIG. 2), that is, the movement amount of the focus lens 3 for focusing (the focus movement amount). ) Is calculated.
  • step S4 the AF module 8a determines whether or not the field is a field in which the focus position related to wobbling is moved, and determines that the field is a field in which the focus position related to wobbling is moved. Then, the process proceeds to step S5 to calculate a moving amount (a moving amount of the coupling) of the focus lens 3 related to the coupling.
  • step S4 if it is determined that the field is not a field in which the focus position related to wobbling is to be moved, the process proceeds to step S6, and the AF module 8a sets the wobbling amount to 0.
  • step S7 the AF module 8a calculates the sum of the focus movement amount calculated in step S3 and the wobbling amount calculated in step S5 or step S6. , Which is the amount of movement of the focus lens 3.
  • the AF module 8a controls the lens driver 9 based on the calculated movement amount of the focus lens 3.
  • the lens driver 9 moves the focus lens 3 by a predetermined focus lens movement amount via the motor 11 under the control of the AF module 8a.
  • the AF module 8a checks the differential component dy / dx of the focus evaluation value obtained by wobbling the focus lens 3, and moves the focus position closer to the focus position. In this way, the focus lens 3 is moved to achieve smart focus.
  • the camera controller 8 performs a period from time tl to time t2, a period from time t2 to time t3, a period from time t3 to time t4, a period from time t4 to time t5, and a video vertical synchronization signal.
  • VP1 to VP4 are output to the image sensor driver 12, respectively (A in FIG. 4). Each period of this video vertical synchronizing signal represents a period of one field.
  • the focus position of the focus lens 3 is controlled in units of fields, and the focus position W due to wobbling alternately moves in the far direction and the near direction every other field during the stop period of one field. ( Figure 4B).
  • the image sensor driver 12 controls the image sensor 4 in synchronization with the input video vertical synchronizing signals VP1 to VP4, and performs a period from time tl2 to time t2, a period from time t23 to time t3, and a time. Exposure exl ex4 is performed during the period from t34 to time t4, and during the period from time t45 to time t5 (C in Fig. 4).
  • the camera signal processing unit 5 reads the video signal obtained by the exposure exl at a timing VR2 from time t2 to time t3 (D in FIG. 4). Similarly, the camera signal processing unit 5 reads the video signals obtained by the exposures ex2 to ex4 at respective timings VR3 to VR5 (timing VR5 is not shown). Thus, the camera signal processing unit 5 obtains the video signals VI to V4 read at each timing (E in FIG. 4). The video signals VI to V4 read by the camera signal processing unit 5 are output to the gate unit 6.
  • the power gate unit 6, which is not shown, corresponds to an AF detection gate frame which is a preset focus detection area in the screen of the video signal input from the camera signal processing unit 5. Only the video signal to be extracted is extracted and output to the AF detector 7.
  • the AF detection unit 7 extracts the high-frequency component of the input video signal VI at a timing when only the video signal corresponding to the AF detection gate frame is extracted (hereinafter, referred to as the timing of the AF detection gate frame). Rectification detection and generates the focus evaluation value required for autofocus immediately after the timing of the AF detection gate frame. Similarly, the AF detector 7 converts the input video signal V High-frequency components of 2 to V4 are extracted at the timing of the AF detection gate frame, rectified and detected, and the focus evaluation value required for autofocus is generated immediately after the AF detection gate frame timing.
  • the focus evaluation value generated by the AF detector 7 is output to the AF module 8a of the camera controller 8.
  • the AF module 8a captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the AF module AF2 (F in Fig. 4), and determines the focus position of the focus lens 3 as the focusing position. It generates an autofocus control signal LD3 that approximates the value and outputs it to the lens driver 9 (G in Fig. 4). Similarly, the AF module 8a captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the next video vertical synchronization signal VP3, which is the timing of the AF module AF3, and focuses on the focus lens 3. It generates an auto-focus control signal LD4 that brings the position closer to the in-focus position and outputs it to the lens driver 9.
  • the lens driver 9 controls the horse motion of the motor 11 on the basis of the input auto-focus control signals LD1 to LD4, and moves the focus lens 3 by a predetermined focus lens movement amount. In this way, auto focus is realized.
  • the camera controller 8 performs a period from time tl to time t2, a period from time t2 to time t3, a period from time t3 to time t4, a period from time t4 to time t5, and a video vertical synchronization signal.
  • VP1 to VP4 are output to the image sensor driver 12 (A in FIG. 5). Each period of this video vertical synchronizing signal represents a period of one field.
  • the focus position of the focus lens 3 is controlled on a field-by-field basis, and the focus position W due to wobbling is set in the far and near directions every 1Z2 field during a half-field stop period. It is controlled to move alternately (B in Fig. 5).
  • the image sensor driver 12 synchronizes with the input video vertical synchronization signals VPl to VP4,
  • the imaging sensor 4 is controlled, and the period from time tl2 to time t2, the period from time t23 to time t3, the period from time t34 to time t4, the period from time t45 to time t5, and the exposures exl to ex4 are controlled. (C in Figure 5).
  • the camera signal processing unit 5 reads the video signal obtained by the exposure exl at a timing VR2 from time t2 to time t3 (D in FIG. 5). Similarly, the camera signal processing unit 5 reads the video signals obtained by the exposures ex2 to ex4 at respective timings VR3 to VR5 (timing VR5 is not shown). Thereby, the camera signal processing unit 5 obtains the video signals VI to V4 read at each timing (E in FIG. 5). The video signals VI to V4 read by the camera signal processing unit 5 are output to the gate unit 6.
  • the video signal input from the camera signal processing unit 5 corresponds to an AF detection gate frame which is a preset focus detection area in the screen. Only the video signal to be extracted is extracted and output to the AF detector 7.
  • the AF detection unit 7 extracts the high-frequency component of the input video signal VI at the timing of the AF detection gate frame, performs rectification detection, and obtains the focus evaluation value required for autofocus by using the AF detection gate frame. Generated immediately after the timing of. Similarly, the AF detection unit 7 extracts the high-frequency components of the input video signals V2 to V4 at the timing of the AF detection gate frame, performs rectification detection, and calculates a focus evaluation value required for autofocus by the AF detection gate. Generated immediately after the frame timing.
  • the focus evaluation value generated by the AF detector 7 is output to the AF module 8a of the camera controller 8.
  • the AF module 8a captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the AF module AF2 (F in Fig. 5), and determines the focus position of the focus lens 3 as the focusing position. It generates an autofocus control signal LD3 that approximates to, and outputs it to the lens driver 9 (G in Fig. 5). Similarly, the AF module 8a captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the next video vertical synchronization signal VP3, which is the timing of the AF module AF3, and focuses on the focus lens 3. It generates an auto-focus control signal LD4 that brings the position closer to the in-focus position and outputs it to the lens driver 9. [0039] The lens driver 9 controls the horse motion of the motor 11 on the basis of the input autofocus control signals LD1 to LD4, and moves the focus lens 3 by a predetermined focus lens movement amount. In this way, auto focus is realized.
  • the conventional video camera extracts a high-frequency component of a video signal obtained from the image sensor 4, rectifies and detects the high-frequency component, and generates a focus evaluation value required for autofocus.
  • the focus lens 3 is driven so as to increase the size, and the distance between the focus lens 3 and the image sensor 4 is changed by driving the focus lens 3 so as to be inconspicuous on the captured image.
  • Information for example, information for determining the direction of climbing a mountain
  • Patent Document 1 JP-A-10-239579
  • the present invention has been made in view of such a situation, and aims to improve autofocus response characteristics.
  • the autofocus control device of the present invention includes an imaging unit that captures a subject in a cycle (1Z integer N) times the cycle of the image vertical synchronization signal in synchronization with the cycle of the image vertical synchronization signal; A calculating unit that calculates a focus evaluation value for performing autofocus based on the imaging signal captured by the unit, and a distance between the focus lens and the imaging sensor based on the focus evaluation value calculated by the calculating unit. A changing unit for changing the image signal; and a synthesizing unit for synthesizing a plurality of image signals picked up by the imaging unit. The calculating unit calculates an integer one time of the cycle of the image vertical synchronization signal and a focus evaluation value by the calculating unit.
  • the integer A of the image vertical synchronization signal period It is characterized in that the period and the period that is an integer B times the period for changing the distance by the change unit are synchronized.
  • the calculation unit may calculate a focus evaluation value based on a high-frequency component of a luminance signal of the imaging signal.
  • the combining unit may combine a predetermined image signal among a plurality of image signals captured by the image capturing unit.
  • the autofocus control method includes an imaging step of imaging a subject in a cycle (1Z integer N) times the cycle of the image vertical synchronization signal in synchronization with the cycle of the image vertical synchronization signal; Calculating a focus evaluation value for performing auto-focusing based on the image pickup signal obtained by the processing of step (a), and focusing lens and imaging based on the focus evaluation value calculated by the processing of the calculation step!
  • the method includes a changing step of changing a distance between sensors, and a synthesizing step of synthesizing a plurality of imaging signals imaged by the processing of the imaging step. If the integer A and the integer B satisfy the relationship of B> A, the integer N times the period for calculating the focus evaluation value according to Integer B multiple of the period of the periodic changing the distance by the treatment of the flop and wherein the synchronizing.
  • the program recorded on the recording medium of the present invention includes an imaging step of capturing an object at a period (1Z integer N) times the period of the image vertical synchronization signal in synchronization with the period of the image vertical synchronization signal.
  • the computer is made to perform a process including a changing step of changing a distance between the image sensors and a synthesizing step of synthesizing a plurality of imaging signals imaged by the processing of the imaging step, and an integer one time of the period of the image vertical synchronization signal.
  • the program according to the present invention is arranged such that the image vertical synchronization signal is synchronized with the period of the image vertical synchronization signal.
  • a subject is imaged at a period (1Z integer N) times the period of the image vertical synchronization signal in synchronization with the period of the image vertical synchronization signal, and an automatic image is generated based on the imaged image signal.
  • a focus evaluation value for performing focus is calculated, a distance between the focus lens and the image sensor is changed based on the focus evaluation value, and a plurality of captured image signals are combined.
  • autofocus can be realized.
  • the autofocus response characteristics can be improved.
  • FIG. 1 is a block diagram showing a configuration example of a conventional video camera.
  • FIG. 2 is a diagram illustrating an example of a change in a focus evaluation value required for autofocus.
  • FIG. 3 is a flowchart illustrating a focus lens movement control process.
  • FIG. 4 is a timing chart illustrating the operation of the video camera in FIG. 1.
  • FIG. 5 is a timing chart illustrating the operation of another example of the video camera in FIG. 1.
  • FIG. 6 is a block diagram showing a configuration example of a video camera to which the present invention has been applied.
  • FIG. 7 is a timing chart illustrating the operation of the video camera in FIG. 6.
  • FIG. 8 is a timing chart illustrating an operation of another example of the video camera in FIG. 6.
  • FIG. 9 is a block diagram illustrating a configuration example of a personal computer.
  • FIG. 6 is a block diagram showing a configuration example of a video camera to which the present invention is applied. Note that the same reference numerals are given to portions corresponding to the conventional ones, and the description thereof will be omitted as appropriate.
  • the AF detector 7 extracts the high-frequency components of the high-speed exposed video signal, rectifies and detects the high-frequency components, generates a focus evaluation value required for autofocus, and outputs the high-speed exposure and high-speed oscillating signal of the camera controller 8. Output to AF module 21 (hereinafter simply referred to as AF module 21).
  • the AF module 21 of the camera controller 8 controls the lens driver 9 to perform autofocus driving based on the focus evaluation value generated from the high-speed exposed video signal.
  • the AF module 21 controls the lens driver 9 so as to alternately drive the focus position W of the focus lens 3 in the far direction and the near direction at a high-speed wobbling focus every one field period. Control.
  • the high-speed exposure and high-speed averaging AF module 21 controls the image sensor driver 12 so that the image sensor 4 performs high-speed exposure with more than one image pickup every time the video vertical synchronization signal is output once (one field). Control. Note that, as will be described later with reference to the timing charts of FIGS. 7 and 8, the present invention is only an example of the high-speed exposure performed twice or four times per field, and is not limited thereto. Not something.
  • the synthesis Z selection memory controller 22 receives one field input from the camera signal processing unit 5.
  • the video signal obtained by multiple exposures is temporarily stored in the memory 22a, read out sequentially, and if necessary, combined into a one-field video signal, output to the display, and output as a video. Display it, or output it to removable media and record it there.
  • the synthesis Z selection memory controller 22 is not limited to synthesizing all video signals obtained by a plurality of exposures into a video signal of one field.For example, a predetermined video signal (for example, the first video signal and the Combining only the video signal obtained in the second exposure) or selecting one of the predetermined video signals (for example, the video signal obtained in the first exposure of the field) You may do it.
  • the camera controller 8 performs a period from time tl to time t2, a period from time t2 to time t3, a period from time t3 to time t4, a period from time t4 to time t5, and a video vertical synchronization signal.
  • VP1 to VP4 are output to the image sensor driver 12 (A in FIG. 7). Each period of this video vertical synchronizing signal represents a period of one field.
  • the focus position of the focus lens 3 is controlled on a field-by-field basis, and the focus position W due to wobbling alternates in the far direction and the near direction every 1Z4 field during the 1Z4 field stop period. It is controlled to move (B in FIG. 7).
  • the image sensor driver 12 controls the image sensor 4 in synchronization with the input video vertical synchronizing signal VP1, and performs a period from time tl1 to time tl2, a period from time tl3 to time t2, Exposure exl l and exl2 are performed (C in FIG. 7).
  • the image sensor driver 12 controls the image sensor 4 in synchronization with the input video vertical synchronization signals VP2 to VP4, and performs a period from time t21 to time t22 and a time t23 from time t3 to time t3.
  • Exposures ex21 and ex22 are performed, respectively, a period from time t31 to time t32, and a period from time t33 to time t4, exposures ex31 and ex32 are performed respectively, a period from time t41 to time t42, and The period from time t43 to time t5, Exposures ex41 and ex42 are performed.
  • the camera signal processing unit 5 reads the video signal obtained by the exposure exl 1 at the timing VR12 from the time tl2 to the time t2, and reads the video signal obtained by the exposure exl2 from the time t2 to the time t22. Read at timing VR21 (D in Fig. 7). Similarly, the camera signal processing unit 5 reads the video signals obtained by the exposures ex21 and ex22 at timings VR22 and VR31, respectively, and reads the video signals obtained by the exposures ex31 and ex32 at timings VR32 and VR41, respectively. , And the video signals obtained by the exposures ex41 and ex42 are read at timings VR42 and VR51 (timing VR51 is not shown). The video signal read by the camera signal processing unit 5 is temporarily stored in the memory 22a of the synthesis / selection memory controller 22.
  • the combining Z selection memory controller 22 has a power to combine two video signals read by the camera signal processing unit 5 and temporarily stored in the memory 22a into a one-field video signal, or By selecting one of them, video signals VI to V4 are obtained (E in FIG. 7). For example, the combining / selecting memory controller 22 selects the video signal read at the timing VR12 and the video signal read at the timing VR21, or selects one of the two. Get V2.
  • the video signal read by the camera signal processing unit 5 is also output to the gate unit 6.
  • the gate unit 6 corresponds to an AF detection gate frame which is a focus detection area in the screen set in advance in the image signal input from the camera signal processing unit 5. Only the video signal is extracted and output to the AF detector 7.
  • the AF detection unit 7 extracts the high-frequency components of the video signal read at the timing VR12 at the timing of the AF detection gate frame, performs rectification detection, and calculates the focus evaluation value required for autofocus by the AF detection gate. Generated immediately after the frame timing. Similarly, the AF detection unit 7 extracts the high-frequency components of the video signals read at the timings VR21, VR22, VR31, VR32, VR41, and VR42 at the timing of the AF detection gate frame, performs rectification detection, and performs autofocus. Generates the focus evaluation value required for AF immediately after the timing of the AF detection gate frame.
  • the focus evaluation value generated by the AF detector 7 is output to the AF module 21 of the camera controller 8.
  • the AF module 21 captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the AF module AF21 (F in Fig. 7), and sets the focus position of the focus lens 3 to the focus position. It generates an auto-focus control signal LD22 that makes it closer, and outputs it to the lens driver 9 (G in FIG. 7).
  • the AF module 21 captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the AF module AF22, and performs auto focus control such that the focus position of the focus lens 3 approaches the focus position. It generates a signal LD31 and outputs it to the lens driver 9.
  • the lens driver 9 controls the driving of the motor 11 based on the input auto focus control signals LD11, LD12, LD21, LD22, LD31, LD32, LD41, LD42, and moves the focus lens 3 to a predetermined focus. Move by the lens movement amount. In this way, autofocus is realized.
  • the camera controller 8 performs a period from time tl to time t2, a period from time t2 to time t3, a period from time t3 to time t4, a period from time t4 to time t5, and a video vertical synchronization signal.
  • VP1 to VP4 are output to the image sensor driver 12, respectively (A in FIG. 8). Each period of this video vertical synchronizing signal represents a period of one field.
  • the focus position of the focus lens 3 is controlled in units of fields, and the focus position W due to the wobbling is changed in the far direction and the near direction every 1Z8 field during the 1/8 field stop period. It is controlled to move alternately (B in Fig. 8).
  • the image sensor driver 12 controls the image sensor 4 in synchronization with the input video vertical synchronizing signal VP1, and performs a period from time 11 to time 12, a period from time 13 to time 14, and time 15 Exposures exl1 to exl4 are performed during the period from time t1 to time tl6 and during the period from time tl7 to time t2, respectively (C in FIG. 8).
  • the image sensor driver 12 controls the image sensor 4 in synchronization with the input video vertical synchronization signals VP2 to VP4, and performs a period from time t21 to time t22 and a time from time t23 to time t22. Exposure ex21 to ex24, the period from time t31 to time t32, the period from time t27 to time t26, the period from time t27 to time t3, the period from time t31 to time t32, and the period from time t33 to time t34.
  • the camera signal processing unit 5 reads the video signal obtained by the exposure exl 1 at the timing VR12 from time tl2 to time tl4, and reads the video signal obtained by the exposure exl2 from the timing tl4 to time tl6.
  • VR13 the video signal obtained by exposure exl 3 is read at timing VR14 from time tl6 to time t2, and the video signal obtained by exposure exl4 is read at timing VR21 from time t2 to time t22 (Fig. 8 D).
  • the camera signal processing unit 5 reads the video signals obtained by the exposures ex21 to ex24 at timings VR22 to VR24 and VR31, respectively, and reads the video signals obtained by the exposures ex31 to ex34 at timings VR32 to VR34 and VR41.
  • the video signals obtained by the reading and the exposures ex41 to ex44 are read at timings VR42 to VR44 and VR51 (timing VR51 is not shown).
  • the video signal read by the camera signal processing unit 5 is temporarily stored in the memory 22a of the synthesis / selection memory controller 22.
  • the composition Z selection memory controller 22 has a predetermined power to combine the four video signals read out by the camera signal processing unit 5 and temporarily stored in the memory 22a into a one-field video signal.
  • the ability to combine several video signals e.g., the video signals obtained from the first and second exposures of the field
  • the video signals VI to V4 are obtained by selecting the video signal obtained by the first exposure of the field (E in FIG. 8).
  • the combining Z selection memory controller 22 combines the four video signals read at the timings VR12 to VR14 and VR21, or any two video signals (for example, the timings VR12 and VR12).
  • the video signal V2 is obtained by synthesizing the video signals read by VR13).
  • An image signal for example, a video signal read at each of the timings VR12 to VR14
  • one of the four video signals read at each of the timings VR12 to VR14 and VR21 may become one of them.
  • One video signal may be selected.
  • the video signal read by the camera signal processing unit 5 is also output to the gate unit 6.
  • the gate unit 6 corresponds to an AF detection gate frame which is a focus detection area in the screen set in advance in the image signal input from the camera signal processing unit 5. Only the video signal is extracted and output to the AF detector 7.
  • the AF detection unit 7 extracts the high-frequency component of the video signal read at the timing VR12 at the timing of the AF detection gate frame, performs rectification detection, and obtains the focus evaluation value required for autofocus by the AF detection gate. Generated immediately after the frame timing. Similarly, the AF detection unit 7 obtains the high-frequency components of the video signals read at the timings VR13, VR14, VR21 to VR24, VR31 to VR34, and VR41 to VR44 at the timing of the AF detection gate frame. The rectified detection is performed, and the focus evaluation value required for autofocus is generated immediately after the timing of the AF detection gate frame.
  • the focus evaluation value generated by the AF detector 7 is output to the AF module 21 of the camera controller 8.
  • the AF module 21 captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the AF module AF13 (F in Fig. 8), and sets the focus position of the focus lens 3 to the focus position. It generates an auto-focus control signal LD14 that brings it closer, and outputs it to the lens driver 9 (G in FIG. 8). Similarly, the AF module 21 captures the focus evaluation value generated immediately after the timing of the AF detection gate frame at the timing of the AF module AF14, and sets the focus position of the focus lens 3 closer to the focus position. It generates a signal LD21 and outputs it to the lens driver 9.
  • the lens driver 9 controls the driving of the motor 11 based on the input auto-focus control signals LD11 to LD14, LD21 to LD24, LD31 to LD34, LD41 to LD44, and sets the focus lens 3 to a predetermined focus. Move by the lens movement amount. In this way, autofocus is realized.
  • two or four focus evaluation values are calculated based on one video vertical synchronization signal, or one or two minute focuses are calculated based on one video vertical synchronization signal.
  • the pulling focus drive is performed.
  • the present invention is not limited to this. For example, when the integer A and the integer B satisfy the relationship of B> A, one video vertical synchronization signal is set to an integer.
  • the force for driving the fine wobble focusing drive is not necessarily required.
  • the auto focus control can be performed a plurality of times in one field, and the timing of generating the focus evaluation value is advanced, so that the auto focus response characteristics can be improved.
  • the video camera includes a computer as shown in FIG.
  • a CPU (Central Processing Unit) 101 has a ROM (Read Only Memory) 1
  • the RAM 103 also appropriately stores data necessary for the CPU 101 to execute various processes.
  • the CPU 101, the ROM 102, and the RAM 103 are interconnected via a bus 104.
  • An input / output interface 105 is also connected to the bus 104.
  • the input / output interface 105 includes an input unit 106 including a keyboard, a mouse, and the like.
  • a display such as a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), an output unit 107 such as a speaker, a storage unit 108 such as a hard disk, and a communication unit 109 such as a modem are connected.
  • the communication unit 109 performs communication processing via a network including the Internet.
  • a drive 110 is connected to the input / output interface 105 as necessary, and a removable medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted.
  • the computer program is installed in the storage unit 108 as needed.
  • the program constituting the software is installed from a network or a recording medium.
  • this recording medium is a magnetic disk (floppy disk (registered trademark)) on which a program is recorded, which is distributed separately from the apparatus main body to distribute the program to users. ), Optical discs (CD-ROM (Compact Disk-Read Only)
  • ROM 102 in which a program is recorded and distributed to a user in a state where the program is incorporated in the main body in advance, a hard disk included in the storage unit 108, and the like.
  • the steps of describing a program recorded on a recording medium are not necessarily performed in chronological order according to the described order, but are necessarily performed in chronological order. At least, it includes processes executed in parallel or individually.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

 本発明はオートフォーカスの応答特性を向上させることができるようにする。撮像センサは、映像垂直同期信号VP1(図7のA)に同期して、露光ex11,ex12を行う(図7のC)。カメラ信号処理部は、露光ex11により得られた映像信号をタイミングVR12で読み出す(図7のD)。AF検波部は、AF検波縮小ゲート枠(以下、単にゲート枠と称する)に相当する映像信号の高周波成分を、ゲート枠のタイミングで取り出してそれを整流検波し、焦点評価値を、ゲート枠のタイミングの直後に生成する。AFモジュールは、生成された焦点評価値を、AFモジュール21のタイミングで取り込み(図7のF)、フォーカス位置を合焦位置に近づけるようなオートフォーカス制御信号LD22を生成し(図7のG)、それに基づいてフォーカスレンズを移動させる。本発明は、ビデオカメラに適用することができる。

Description

明 細 書
オートフォーカス制御装置および方法、記録媒体、並びにプログラム 技術分野
[0001] 本発明は、オートフォーカス制御装置および方法、記録媒体、並びにプログラムに 関し、特に、高速露光することにより、オートフォーカスの応答特性を向上させること ができるようにしたオートフォーカス制御装置および方法、記録媒体、並びにプロダラ ムに関する。
背景技術
[0002] 図 1は、従来のビデオカメラの構成例を示すブロック図である。
[0003] ズームレンズ 2およびフォーカスレンズ 3を含むレンズブロック 1は、光(すなわち、被 写体の映像)を、撮像センサ 4に入射させる。撮像センサ 4は、 CCD (Charge Coupled Devices) Ίメ ~~ンャやし— MOS (し omplementary Metal Oxide semiconductor)ィメ' ~~ ジャを含む光電変換を行う光電変換素子が 2次元に配置されたものであって、その 前面には、 R, Gおよび Bがモザイク状に配列された原色フィルタ(図示せず)が装着 されている。
すなわち、撮像素子 4は、レンズブロック 1および原色フィルタを介して入射された被 写体の光像を光電変換して撮像信号 (電荷)を生成し、生成した撮像信号をラスタス キャン方式でカメラ信号処理部 5に出力する。
[0004] カメラ信号処理部 5は、撮像センサ 4より入力された撮像信号に対し、サンプリング 処理や YC分離処理などを行い、輝度信号 Yをゲート部 6に出力し、輝度信号 Yおよ び色信号 C (色差信号や原色信号など)をメモリコントローラ 13に出力する。
[0005] ゲート部 6は、入力された映像信号のうち、予め設定された画面内の合焦検出領域 に相当する信号のみを抽出して AF (オートフォーカス)検波部 7に出力する。 AF検 波部 7は、入力された合焦検出領域に相当する映像信号の高周波成分を取り出し、 それを整流検波してオートフォーカスに必要な焦点評価値を生成し、カメラコントロー ラ 8の AFモジュール 8aに出力する。
[0006] カメラコントローラ 8は、入力部 14から入力されるマニュアルフォーカス指示信号、ズ ーム指示信号、およびマニュアル Zオートフォーカス切換え信号などに基づいて、レ ンズドライバ 9および撮像素子ドライバ 12の駆動を制御する。またカメラコントローラ 8 の AFモジュール 8aは、映像信号力も得られた焦点評価値に基づいて、オートフォー カス駆動させるようにレンズドライバ 9を制御する。
[0007] レンズドライバ 9は、カメラコントローラ 8の制御の下、ズームレンズ 2を駆動するモー タ 10およびフォーカスレンズ 3を駆動するモータ 11の駆動をそれぞれ制御する。モ ータ 10, 11は、レンズドライバ 9の制御の下、ズームレンズ 2またはフォーカスレンズ 3 の駆動をそれぞれ制御する。撮像素子ドライバ 12は、撮像センサ 4を制御し、レンズ ブロック 1および原色フィルタ(図示せず)を介して入射された被写体の光像を光電変 換して撮像信号を生成させるようにしたり、電子シャツタ(図示せず)の駆動を制御す る。
[0008] メモリコントローラ 13は、カメラ信号処理部 5から入力された映像信号をメモリ 13aに 一時記憶するとともに、逐次それを読み出し、ディスプレイ(図示せず)に出力し、映 像として表示させたり、あるいは、リムーバブルメディア(図示せず)に出力し、そこに 記録させる。入力部 14は、ユーザによって操作され、ユーザからの各種指示信号を カメラコントローラ 8に入力する。
[0009] 従来のビデオカメラでは、撮像センサ 4から得られる映像信号の高周波成分を焦点 評価値とし、この焦点評価値が大きくなるようにフォーカスレンズ 3を駆動させる、いわ ゆる山登りオートフォーカス方式を用いることで、オートフォーカスを実現して 、る。
[0010] ここで、オートフォーカスについて詳細に説明する。
[0011] 図 2は、図 1の AF検波部 7から出力されるオートフォーカスに必要な焦点評価値の 変化の例を示している。同図において、横軸(X軸)は、フォーカスレンズ 3のフォー力 ス位置を表わし、縦軸 (y軸)は、焦点評価値を表わしている。
[0012] 図 2に示されるように、フォーカスレンズ 3のフォーカス位置を far方向から near方向、 または near方向力 far方向へ移動させていくと、所定の位置で焦点評価値は、最大 値 aをとる。一般に、これを「評価値の山」と称し、焦点評価値が最大値 aをとるフォー カスレンズ 3のフォーカス位置が、その被写体での合焦位置 Qとなる。
[0013] 従って、 AFモジュール 8aは、 AF検波部 7から入力される焦点評価値を取り込み、 この評価値が最大になるように、フォーカスレンズ 3を移動させるような、「山登り制御」 を行わせる。またこのとき、 AFモジュール 8aは、現在のフォーカス位置力も合焦位置 がどの方向にあるかを調べるために、フォーカスレンズ 3のフォーカス位置を微少振 動させ、そのときに得られる評価値の微分成分 dy/dxの正負により、合焦位置への方 向を推測する。一般に、このフォーカス位置の微少振動を、ゥォブリングと称する。
[0014] 次に、図 3のフローチャートを参照して、 AFモジュール 8aによるフォーカスレンズ 3 の移動制御処理についてさらに説明する。なお、この移動制御処理は、 1フィールド 周期で繰り返し行われる。
[0015] ステップ S1において、 AFモジュール 8aは、 AF検波部 7から焦点評価値を取り込 み、ステップ S2において、焦点評価値の微分成分 dy/dxを抽出し、合焦位置方向を 推測する。ステップ S3において、 AFモジュール 8aは、焦点評価値に基づいて、フォ 一カス位置を合焦位置 Q (図 2)に近づけるため、すなわちピント合わせのためのフォ 一カスレンズ 3の移動量(フォーカス移動量)を算出する。
[0016] ステップ S4において、 AFモジュール 8aは、ゥォブリングに係るフォーカス位置の移 動が行われるフィールドであるか否かを判定し、ゥォブリングに係るフォーカス位置の 移動が行われるフィールドであると判定した場合、ステップ S5に進み、ゥォブリングに 係るフォーカスレンズ 3の移動量 (ゥォプリング移動量)を算出する。
[0017] ステップ S4において、ゥォブリングに係るフォーカス位置の移動が行われるフィール ドではないと判定された場合、ステップ S6に進み、 AFモジュール 8aは、ゥォブリング 量を 0に設定する。
[0018] ステップ S5またはステップ S6の処理の後、ステップ S7において、 AFモジュール 8a は、ステップ S3の処理で算出したフォーカス移動量とステップ S5またはステップ S6 の処理で算出したゥォブリング量の和を算出し、それをフォーカスレンズ 3の移動量と する。 AFモジュール 8aは、算出したフォーカスレンズ 3の移動量に基づいて、レンズ ドライバ 9を制御する。レンズドライバ 9は、 AFモジュール 8aの制御の下、モータ 11を 介してフォーカスレンズ 3を所定のフォーカスレンズ移動量だけ移動させる。
[0019] このように、 AFモジュール 8aは、フォーカスレンズ 3をゥォブリングさせることにより 得られる焦点評価値の微分成分 dy/dxを調べ、フォーカス位置を合焦位置に近づけ るように、フォーカスレンズ 3を移動させ、才ートフォーカスを実現している。
[0020] 次に、図 4のタイミングチャートを参照して、図 1のビデオカメラの動作について説明 する。この例では、 1フィールドに 1回ずつ撮像センサ 4による露光が行われ、 4フィー ルド周期でゥォブリング駆動が行われる場合の動作について説明する。
[0021] カメラコントローラ 8は、時刻 tlから時刻 t2までの期間、時刻 t2から時刻 t3までの期 間、時刻 t3から時刻 t4までの期間、および時刻 t4から時刻 t5までの期間、映像垂直 同期信号 VP1乃至 VP4を撮像素子ドライバ 12にそれぞれ出力する(図 4の A)。この 映像垂直同期信号の各期間は、 1フィールドの期間を表わしている。
[0022] フォーカスレンズ 3のフォーカス位置は、フィールド単位で制御されており、ゥォブリ ングによるフォーカス位置 Wは、 1フィールドの停止期間を間において、 1フィールド おきに far方向および near方向に交互に移動するように制御されている(図 4の B)。
[0023] 撮像素子ドライバ 12は、入力される映像垂直同期信号 VP1乃至 VP4に同期して、 撮像センサ 4を制御し、時刻 tl2から時刻 t2までの期間、時刻 t23から時刻 t3までの 期間、時刻 t34から時刻 t4までの期間、および時刻 t45から時刻 t5までの期間、露 光 exl乃 ex4をそれぞれ行わせる(図 4の C)。
[0024] カメラ信号処理部 5は、露光 exlにより得られた映像信号を時刻 t2から時刻 t3まで のタイミング VR2で読み出す(図 4の D)。同様に、カメラ信号処理部 5は、露光 ex2乃 至 ex4により得られた映像信号をそれぞれのタイミング VR3乃至 VR5 (タイミング VR 5は図示せず)で読み出す。これにより、カメラ信号処理部 5は、各タイミングで読み出 した映像信号 VI乃至 V4を得る(図 4の E)。カメラ信号処理部 5により読み出された 映像信号 VI乃至 V4は、ゲート部 6に出力される。
[0025] ここでは、図示は省略する力 ゲート部 6において、カメラ信号処理部 5から入力さ れた映像信号のうち、予め設定された画面内の合焦検出領域である AF検波ゲート 枠に相当する映像信号のみが抽出され、それが AF検波部 7に出力される。
[0026] AF検波部 7は、入力された映像信号 VIの高周波成分を、 AF検波ゲート枠に相当 する映像信号のみが抽出されるタイミング (以下、 AF検波ゲート枠のタイミングと称す る)で取り出して整流検波し、オートフォーカスに必要な焦点評価値を、 AF検波ゲー ト枠のタイミングの直後に生成する。同様に、 AF検波部 7は、入力された映像信号 V 2乃至 V4の高周波成分を、 AF検波ゲート枠のタイミングでそれぞれ取り出して整流 検波し、オートフォーカスに必要な焦点評価値を、 AF検波ゲート枠のタイミングの直 後に生成する。
[0027] AF検波部 7により生成された焦点評価値は、カメラコントローラ 8の AFモジュール 8 aに出力される。
[0028] AFモジュール 8aは、 AF検波ゲート枠のタイミングの直後に生成された焦点評価 値を、 AFモジュール AF2のタイミングで取り込み(図 4の F)、フォーカスレンズ 3のフ オーカス位置を合焦位置に近づけるようなオートフォーカス制御信号 LD3を生成し、 それをレンズドライバ 9に出力する(図 4の G)。同様に、 AFモジュール 8aは、 AF検 波ゲート枠のタイミングの直後に生成された焦点評価値を、次の映像垂直同期信号 VP3のタイミングである AFモジユーノレ AF3のタイミングで取り込み、フォーカスレンズ 3のフォーカス位置を合焦位置に近づけるようなオートフォーカス制御信号 LD4を生 成し、それをレンズドライバ 9に出力する。
[0029] レンズドライバ 9は、入力されたオートフォーカス制御信号 LD1乃至 LD4に基づい て、モータ 11の馬区動を ff¾御し、フォーカスレンズ 3を所定のフォーカスレンズ移動量 だけ移動させる。このようにして、オートフォーカスを実現する。
[0030] 次に、図 5のタイミングチャートを参照して、図 1のビデオカメラの他の例の動作につ いて説明する。この例では、 1フィールドに 1回ずつ撮像センサ 4による露光が行われ 、 2フィールド周期でゥォブリング駆動が行われる場合の動作について説明する。
[0031] カメラコントローラ 8は、時刻 tlから時刻 t2までの期間、時刻 t2から時刻 t3までの期 間、時刻 t3から時刻 t4までの期間、および時刻 t4から時刻 t5までの期間、映像垂直 同期信号 VP1乃至 VP4を撮像素子ドライバ 12にそれぞれ出力する(図 5の A)。この 映像垂直同期信号の各期間は、 1フィールドの期間を表わしている。
[0032] フォーカスレンズ 3のフォーカス位置は、フィールド単位で制御されており、ゥォブリ ングによるフォーカス位置 Wは、 1/2フィールドの停止期間を間において、 1Z2フィ 一ルドおきに far方向および near方向に交互に移動するように制御されている(図 5の B)。
[0033] 撮像素子ドライバ 12は、入力される映像垂直同期信号 VPl乃至 VP4に同期して、 撮像センサ 4を制御し、時刻 tl2から時刻 t2までの期間、時刻 t23から時刻 t3までの 期間、時刻 t34から時刻 t4までの期間、および時刻 t45から時刻 t5までの期間、露 光 exl乃至 ex4をそれぞれ行わせる(図 5の C)。
[0034] カメラ信号処理部 5は、露光 exlにより得られた映像信号を時刻 t2から時刻 t3まで のタイミング VR2で読み出す(図 5の D)。同様に、カメラ信号処理部 5は、露光 ex2乃 至 ex4により得られた映像信号をそれぞれのタイミング VR3乃至 VR5 (タイミング VR 5は図示せず)で読み出す。これにより、カメラ信号処理部 5は、各タイミングで読み出 した映像信号 VI乃至 V4を得る(図 5の E)。カメラ信号処理部 5により読み出された 映像信号 VI乃至 V4は、ゲート部 6に出力される。
[0035] ここでは、図示は省略する力 ゲート部 6において、カメラ信号処理部 5から入力さ れた映像信号のうち、予め設定された画面内の合焦検出領域である AF検波ゲート 枠に相当する映像信号のみが抽出され、それが AF検波部 7に出力される。
[0036] AF検波部 7は、入力された映像信号 VIの高周波成分を、 AF検波ゲート枠のタイ ミングで取り出して整流検波し、オートフォーカスに必要な焦点評価値を、 AF検波ゲ ート枠のタイミングの直後に生成する。同様に、 AF検波部 7は、入力された映像信号 V2乃至 V4の高周波成分を、 AF検波ゲート枠のタイミングでそれぞれ取り出して整 流検波し、オートフォーカスに必要な焦点評価値を、 AF検波ゲート枠のタイミングの 直後に生成する。
[0037] AF検波部 7により生成された焦点評価値は、カメラコントローラ 8の AFモジュール 8 aに出力される。
[0038] AFモジュール 8aは、 AF検波ゲート枠のタイミングの直後に生成された焦点評価 値を、 AFモジュール AF2のタイミングで取り込み(図 5の F)、フォーカスレンズ 3のフ オーカス位置を合焦位置に近づけるようなオートフォーカス制御信号 LD3を生成し、 それをレンズドライバ 9に出力する(図 5の G)。同様に、 AFモジュール 8aは、 AF検 波ゲート枠のタイミングの直後に生成された焦点評価値を、次の映像垂直同期信号 VP3のタイミングである AFモジユーノレ AF3のタイミングで取り込み、フォーカスレンズ 3のフォーカス位置を合焦位置に近づけるようなオートフォーカス制御信号 LD4を生 成し、それをレンズドライバ 9に出力する。 [0039] レンズドライバ 9は、入力されたオートフォーカス制御信号 LD1乃至 LD4に基づい て、モータ 11の馬区動を ff¾御し、フォーカスレンズ 3を所定のフォーカスレンズ移動量 だけ移動させる。このようにして、オートフォーカスを実現する。
[0040] 以上のように、従来のビデオカメラは、撮像センサ 4から得られる映像信号の高周波 成分を取り出し、それを整流検波してオートフォーカスに必要な焦点評価値を生成し 、この評価値が大きくなるようにフォーカスレンズ 3を駆動させるとともに、撮像画像上 、目立たない程度に微少ゥォブリング合焦駆動してフォーカスレンズ 3と撮像センサ 4 との距離を変え、焦点評価値の微少変化から山登り制御に関する情報 (例えば、山 登りの方向を判断するための情報など)を得るようにしている。
[0041] ところで昨今では、オートフォーカスに関する技術が、さまざま提案されており、例え ば、フォーカスレンズの移動時間を短くすることにより、消費電力を低減させるようにし ているものがある(例えば、特許文献 1参照)。
[0042] 特許文献 1:特開平 10— 239579号公報
発明の開示
発明が解決しょうとする課題
[0043] 上述したように、焦点評価値は、映像垂直同期信号が 1回出力される毎に 1回ずつ しか生成されな ヽため、オートフォーカス応答特性が悪!ヽ課題があった。
[0044] 本発明はこのような状況に鑑みてなされたものであり、オートフォーカス応答特性を 良くすることができるようにするものである。
課題を解決するための手段
[0045] 本発明のオートフォーカス制御装置は、画像垂直同期信号の周期に同期して、画 像垂直同期信号の周期の(1Z整数 N)倍の周期で被写体を撮像する撮像部と、撮 像部により撮像された撮像信号に基づいて、オートフォーカスを行うための焦点評価 値を算出する算出部と、算出部により算出された焦点評価値に基づいて、フォーカス レンズおよび撮像センサの間の距離を変更する変更部と、撮像部により撮像された 複数の撮像信号を合成する合成部とを備え、算出部は、画像垂直同期信号の周期 の整数 1倍と、算出部による焦点評価値を算出する周期の整数 N倍の周期が同期し 、整数 Aと整数 Bが B>Aの関係を満たす場合、画像垂直同期信号の周期の整数 A 倍と、変更部による距離を変更する周期の整数 B倍の周期が同期することを特徴とす る。
[0046] 前記算出部は、撮像信号の輝度信号の高周波成分に基づいて、焦点評価値を算 出するようにすることができる。
[0047] 前記合成部は、撮像部により撮像された複数の撮像信号のうち、予め決められた撮 像信号を合成するようにすることができる。
[0048] 本発明のオートフォーカス制御方法は、画像垂直同期信号の周期に同期して、画 像垂直同期信号の周期の(1Z整数 N)倍の周期で被写体を撮像する撮像ステップ と、撮像ステップの処理により撮像され撮像信号に基づいて、オートフォーカスを行う ための焦点評価値を算出する算出ステップと、算出ステップの処理により算出された 焦点評価値に基づ!/、て、フォーカスレンズおよび撮像センサの間の距離を変更する 変更ステップと、撮像ステップの処理により撮像された複数の撮像信号を合成する合 成ステップとを含み、画像垂直同期信号の周期の整数 1倍と、算出ステップの処理に よる焦点評価値を算出する周期の整数 N倍の周期が同期し、整数 Aと整数 Bが B> Aの関係を満たす場合、画像垂直同期信号の周期の整数 A倍と、変更ステップの処 理による距離を変更する周期の整数 B倍の周期が同期することを特徴とする。
[0049] 本発明の記録媒体に記録されているプログラムは、画像垂直同期信号の周期に同 期して、画像垂直同期信号の周期の(1Z整数 N)倍の周期で被写体を撮像する撮 像ステップと、撮像ステップの処理により撮像され撮像信号に基づいて、オートフォー カスを行うための焦点評価値を算出する算出ステップと、算出ステップの処理により 算出された焦点評価値に基づいて、フォーカスレンズおよび撮像センサの間の距離 を変更する変更ステップと、撮像ステップの処理により撮像された複数の撮像信号を 合成する合成ステップとを含む処理をコンピュータに行わせ、画像垂直同期信号の 周期の整数 1倍と、算出ステップの処理による焦点評価値を算出する周期の整数 N 倍の周期が同期し、整数 Aと整数 Bが B>Aの関係を満たす場合、画像垂直同期信 号の周期の整数 A倍と、変更ステップの処理による距離を変更する周期の整数 B倍 の周期が同期することを特徴とする。
[0050] 本発明のプログラムは、画像垂直同期信号の周期に同期して、画像垂直同期信号 の周期の(1Z整数 N)倍の周期で被写体を撮像する撮像ステップと、撮像ステップ の処理により撮像され撮像信号に基づいて、オートフォーカスを行うための焦点評価 値を算出する算出ステップと、算出ステップの処理により算出された焦点評価値に基 づ 、て、フォーカスレンズおよび撮像センサの間の距離を変更する変更ステップと、 撮像ステップの処理により撮像された複数の撮像信号を合成する合成ステップとを含 む処理をコンピュータに行わせ、画像垂直同期信号の周期の整数 1倍と、算出ステツ プの処理による焦点評価値を算出する周期の整数 N倍の周期が同期し、整数 Aと整 数 Bが B>Aの関係を満たす場合、画像垂直同期信号の周期の整数 A倍と、変更ス テツプの処理による距離を変更する周期の整数 B倍の周期が同期することを特徴と する。
[0051] 本発明においては、画像垂直同期信号の周期に同期して、画像垂直同期信号の 周期の(1Z整数 N)倍の周期で被写体が撮像され、撮像された撮像信号に基づい て、オートフォーカスを行うための焦点評価値が算出され、その焦点評価値に基づい て、フォーカスレンズおよび撮像センサの間の距離が変更され、撮像された複数の撮 像信号が合成される。このとき、画像垂直同期信号の周期の整数 1倍と、焦点評価値 を算出する周期の整数 N倍の周期が同期し、整数 Aと整数 Bが B>Aの関係を満た す場合、画像垂直同期信号の周期の整数 A倍と、距離を変更する周期の整数 B倍 の周期が同期する。
発明の効果
[0052] 本発明によれば、オートフォーカスを実現することができる。特に、オートフォーカス 応答特性を良くすることが可能となる。
図面の簡単な説明
[0053] [図 1]従来のビデオカメラの構成例を示すブロック図である。
[図 2]オートフォーカスに必要な焦点評価値の変化の例を示す図である。
[図 3]フォーカスレンズの移動制御処理を説明するフローチャートである。
[図 4]図 1のビデオカメラの動作を説明するタイミングチャートである。
[図 5]図 1のビデオカメラの他の例の動作を説明するタイミングチャートである。
[図 6]本発明を適用したビデオカメラの構成例を示すブロック図である。 [図 7]図 6のビデオカメラの動作を説明するタイミングチャートである。
[図 8]図 6のビデオカメラの他の例の動作を説明するタイミングチャートである。
[図 9]パーソナルコンピュータの構成例を示すブロック図である。
符号の説明
[0054] 1 レンズブロック, 2 ズームレンズ, 3 フォーカスレンズ, 4 撮像センサ, 5 カメラ信号処理部, 6 ゲート部, 7 AF検波部, 8 カメラコントローラ, 9 レン ズドライバ, 10, 11 モータ, 12 撮像素子ドライバ, 14 入力部, 13 メモリコ ントローラ, 21 高速露光'高速ゥォブリング AFモジュール
発明を実施するための最良の形態
[0055] 以下に、本発明の実施の形態について図面を参照して説明する。
[0056] 図 6は、本発明を適用したビデオカメラの構成例を示すブロック図である。なお、従 来と対応する部分には同一の符号を付してあり、その説明は、適宜省略する。
[0057] AF検波部 7は、高速露光された映像信号の高周波成分を取り出し、それを整流検 波してオートフォーカスに必要な焦点評価値を生成し、カメラコントローラ 8の高速露 光'高速ゥォブリング AFモジュール 21 (以下、単に AFモジュール 21と称する)に出 力する。
[0058] カメラコントローラ 8の AFモジュール 21は、高速露光された映像信号から生成され た焦点評価値に基づ 、て、オートフォーカス駆動させるようにレンズドライバ 9を制御 する。
[0059] 具体的には、 AFモジュール 21は、 1フィールドの期間毎に、フォーカスレンズ 3の フォーカス位置 Wを、 far方向および near方向に交互に高速ゥォブリング合焦駆動さ せるようにレンズドライバ 9を制御する。また、高速露光 ·高速ゥォブリング AFモジユー ル 21は、映像垂直同期信号が 1回出力される毎に(1フィールドにっき)、撮像センサ 4を 1より多い撮像回数で高速露光させるように撮像素子ドライバ 12を制御する。な お、図 7および図 8のタイミングチャートを用いて後述するように、本発明では、 1フィ 一ルドにつき、 2回または 4回ずつ高速露光されている力 あくまで一例であり、これ に限られるものではない。
[0060] 合成 Z選択メモリコントローラ 22は、カメラ信号処理部 5から入力された、 1フィール ドにっき複数回の露光で得られた映像信号をメモリ 22aに一時記憶するとともに、逐 次それを読み出し、必要に応じて、 1フィールドの映像信号に合成した後、ディスプレ ィに出力し、映像として表示させたり、あるいは、リムーバブルメディアに出力し、そこ に記録させる。また合成 Z選択メモリコントローラ 22は、複数回の露光により得られた 全ての映像信号を 1フィールドの映像信号に合成するだけでなぐ例えば、予め決め られた映像信号 (例えば、当該フィールドの 1回目および 2回目の露光で得られた映 像信号のみ)を合成したり、あるいは、予め決められたいずれか 1つの映像信号 (例 えば、当該フィールドの 1回目の露光で得られた映像信号)を選択するようにしてもよ い。
[0061] 次に、図 7のタイミングチャートを参照して、図 6のビデオカメラの動作について説明 する。この例では、 1フィールドに 2回ずつ撮像センサ 4による露光が行われ、 1フィー ルド周期でゥォブリング駆動が行われる場合の動作について説明する。
[0062] カメラコントローラ 8は、時刻 tlから時刻 t2までの期間、時刻 t2から時刻 t3までの期 間、時刻 t3から時刻 t4までの期間、および時刻 t4から時刻 t5までの期間、映像垂直 同期信号 VP1乃至 VP4を撮像素子ドライバ 12にそれぞれ出力する(図 7の A)。この 映像垂直同期信号の各期間は、 1フィールドの期間を表わしている。
[0063] フォーカスレンズ 3のフォーカス位置は、フィールド単位で制御されており、ゥォブリ ングによるフォーカス位置 Wは、 1Z4フィールドの停止期間を間において、 1Z4フィ 一ルドおきに far方向および near方向に交互に移動するように制御されて 、る(図 7の B)。
[0064] 撮像素子ドライバ 12は、入力される映像垂直同期信号 VP1に同期して、撮像セン サ 4を制御し、時刻 tl 1から時刻 tl2までの期間、および時刻 tl3から時刻 t2までの 期間、露光 exl l, exl2をそれぞれ行わせる(図 7の C)。
[0065] 同様に、撮像素子ドライバ 12は、入力される映像垂直同期信号 VP2乃至 VP4に 同期して、撮像センサ 4を制御し、時刻 t21から時刻 t22までの期間、および時刻 t23 力 時刻 t3までの期間、露光 ex21, ex22をそれぞれ行わせ、時刻 t31から時刻 t32 までの期間、および時刻 t33から時刻 t4までの期間、露光 ex31, ex32をそれぞれ 行わせ、時刻 t41から時刻 t42までの期間、および時刻 t43から時刻 t5までの期間、 露光 ex41, ex42をそれぞれ行わせる。
[0066] カメラ信号処理部 5は、露光 exl 1により得られた映像信号を時刻 tl 2から時刻 t2ま でのタイミング VR12で読み出し、露光 exl2により得られた映像信号を、時刻 t2から 時刻 t22までのタイミング VR21で読み出す(図 7の D)。同様に、カメラ信号処理部 5 は、露光 ex21, ex22により得られた映像信号を、タイミング VR22, VR31でそれぞ れ読み出し、露光 ex31, ex32により得られた映像信号をタイミング VR32, VR41で それぞれ読み出し、および露光 ex41, ex42により得られた映像信号を、タイミング V R42, VR51 (タイミング VR51は図示せず)でそれぞれ読み出す。カメラ信号処理部 5により読み出された映像信号は、合成/選択メモリコントローラ 22のメモリ 22aに一 時的に記憶される。
[0067] 合成 Z選択メモリコントローラ 22は、カメラ信号処理部 5により読み出されメモリ 22a に一時的に記憶された 2つの映像信号を、 1フィールドの映像信号に合成する力、あ るいは、いずれか一方を選択することにより、映像信号 VI乃至 V4を得る(図 7の E)。 例えば、合成/選択メモリコントローラ 22は、タイミング VR12で読み出された映像信 号とタイミング VR21で読み出された映像信号を合成するカゝ、あるいは、いずれか一 方を選択することにより、映像信号 V2を得る。
[0068] カメラ信号処理部 5により読み出された映像信号は、ゲート部 6にも出力される。ここ では、図示は省略するが、ゲート部 6において、カメラ信号処理部 5から入力された映 像信号のうち、予め設定された画面内の合焦検出領域である AF検波ゲート枠に相 当する映像信号のみが抽出され、それが AF検波部 7に出力される。
[0069] AF検波部 7は、タイミング VR12で読み出された映像信号の高周波成分を、 AF検 波ゲート枠のタイミングで取り出して整流検波し、オートフォーカスに必要な焦点評価 値を、 AF検波ゲート枠のタイミングの直後に生成する。同様に、 AF検波部 7は、タイ ミング VR21, VR22, VR31, VR32, VR41, VR42でそれぞれ読み出された映像 信号の高周波成分を、 AF検波ゲート枠のタイミングで取り出して整流検波し、オート フォーカスに必要な焦点評価値を、 AF検波ゲート枠のタイミングの直後に生成する。
[0070] AF検波部 7により生成された焦点評価値は、カメラコントローラ 8の AFモジュール 2 1に出力される。 [0071] AFモジュール 21は、 AF検波ゲート枠のタイミングの直後に生成された焦点評価 値を、 AFモジュール AF21のタイミングで取り込み(図 7の F)、フォーカスレンズ 3の フォーカス位置を合焦位置に近づけるようなオートフォーカス制御信号 LD22を生成 し、それをレンズドライバ 9に出力する(図 7の G)。同様に、 AFモジュール 21は、 AF 検波ゲート枠のタイミングの直後に生成された焦点評価値を、 AFモジュール AF22 のタイミングで取り込み、フォーカスレンズ 3のフォーカス位置を合焦位置に近づける ようなオートフォーカス制御信号 LD31を生成し、それをレンズドライバ 9に出力する。
[0072] レンズドライバ 9は、入力されたオートフォーカス制御信号 LD11, LD12, LD21, LD22, LD31, LD32, LD41, LD42に基づいて、モータ 11の駆動を制御し、フォ 一カスレンズ 3を所定のフォーカスレンズ移動量だけ移動させる。このようにして、ォ 一トフォーカスを実現する。
[0073] 次に、図 8のタイミングチャートを参照して、図 6のビデオカメラの他の例の動作につ いて説明する。この例では、 1フィールドに 4回ずつ撮像センサ 4による露光が行われ 、 1Z2フィールド周期でゥォブリング駆動が行われる場合の動作にっ 、て説明する。
[0074] カメラコントローラ 8は、時刻 tlから時刻 t2までの期間、時刻 t2から時刻 t3までの期 間、時刻 t3から時刻 t4までの期間、および時刻 t4から時刻 t5までの期間、映像垂直 同期信号 VP1乃至 VP4を撮像素子ドライバ 12にそれぞれ出力する(図 8の A)。この 映像垂直同期信号の各期間は、 1フィールドの期間を表わしている。
[0075] フォーカスレンズ 3のフォーカス位置は、フィールド単位で制御されており、ゥォブリ ングによるフォーカス位置 Wは、 1/8フィールドの停止期間を間において、 1Z8フィ 一ルドおきに far方向および near方向に交互に移動するように制御されている(図 8の B)。
[0076] 撮像素子ドライバ 12は、入力される映像垂直同期信号 VP1に同期して、撮像セン サ 4を制御し、時刻 11から時刻 12までの期間、時刻 13から時刻 14までの期間、 時刻 15から時刻 tl 6までの期間、および時刻 tl 7から時刻 t2までの期間、露光 exl 1乃至 exl4をそれぞれ行わせる(図 8の C)。
[0077] 同様に、撮像素子ドライバ 12は、入力される映像垂直同期信号 VP2乃至 VP4に 同期して、撮像センサ 4を制御し、時刻 t21から時刻 t22までの期間、時刻 t23から時 刻 t24までの期間、時刻 t25から時刻 t26までの期間、および時刻 t27から時刻 t3ま での期間、露光 ex21乃至 ex24をそれぞれ行わせ、時刻 t31から時刻 t32までの期 間、時刻 t33から時刻 t34までの期間、時刻 t35から時刻 t36までの期間、および時 刻 t37から時刻 t4までの期間、露光 ex31乃至 ex34をそれぞれ行わせ、時刻 t41力 ら時刻 t42までの期間、時刻 t43から時刻 t44までの期間、時刻 t45から時刻 t46ま での期間、および時刻 t47から時刻 t5までの期間、露光 ex41乃至 ex44をそれぞれ 行わせる。
[0078] カメラ信号処理部 5は、露光 exl 1により得られた映像信号を時刻 tl2から時刻 tl4 までのタイミング VR12で読み出し、露光 exl2により得られた映像信号を時刻 tl4か ら時刻 tl6までのタイミング VR13で読み出し、露光 exl 3により得られた映像信号を 時刻 tl6から時刻 t2までのタイミング VR14で読み出し、露光 exl4により得られた映 像信号を時刻 t2から時刻 t22までのタイミング VR21で読み出す(図 8の D)。同様に 、カメラ信号処理部 5は、露光 ex21乃至 ex24により得られた映像信号をタイミング V R22乃至 VR24, VR31でそれぞれ読み出し、露光 ex31乃至 ex34により得られた 映像信号をタイミング VR32乃至 VR34, VR41でそれぞれ読み出し、および露光 ex 41乃至 ex44により得られた映像信号をタイミング VR42乃至 VR44, VR51 (タイミン グ VR51は図示せず)でそれぞれ読み出す。カメラ信号処理部 5により読み出された 映像信号は、合成/選択メモリコントローラ 22のメモリ 22aに一時的に記憶される。
[0079] 合成 Z選択メモリコントローラ 22は、カメラ信号処理部 5により読み出されメモリ 22a に一時的に記憶された 4つの映像信号を、 1フィールドの映像信号に合成する力、予 め決められたいくつかの映像信号 (例えば、当該フィールドの 1回目および 2回目の 露光で得られた映像信号)を、 1フィールドの映像信号に合成する力、あるいは、いず れか 1つの映像信号 (例えば、当該フィールドの 1回目の露光で得られた映像信号) を選択することにより、映像信号 VI乃至 V4を得る(図 8の E)。
[0080] 例えば、合成 Z選択メモリコントローラ 22は、タイミング VR12乃至 VR14, VR21で それぞれ読み出された 4つの映像信号を合成するカゝ、あるいは、いずれか 2つの映 像信号 (例えば、タイミング VR12, VR13でそれぞれ読み出された映像信号)を合成 することにより、映像信号 V2を得る。勿論、これに限らず、例えば、いずれか 3つの映 像信号 (例えば、タイミング VR12乃至 VR14でそれぞれ読み出された映像信号)を 合成するようにしたり、または、タイミング VR12乃至 VR14, VR21でそれぞれ読み 出された 4つの映像信号のうち、いずれカゝ 1つの映像信号を選択するようにしてもよ い。
[0081] カメラ信号処理部 5により読み出された映像信号は、ゲート部 6にも出力される。ここ では、図示は省略するが、ゲート部 6において、カメラ信号処理部 5から入力された映 像信号のうち、予め設定された画面内の合焦検出領域である AF検波ゲート枠に相 当する映像信号のみが抽出され、それが AF検波部 7に出力される。
[0082] AF検波部 7は、タイミング VR12で読み出された映像信号の高周波成分を、 AF検 波ゲート枠のタイミングで取り出して整流検波し、オートフォーカスに必要な焦点評価 値を、 AF検波ゲート枠のタイミングの直後に生成する。同様に、 AF検波部 7は、タイ ミング VR13, VR14, VR21乃至 VR24, VR31乃至 VR34, VR41乃至 VR44でそ れぞれ読み出された映像信号の高周波成分を、 AF検波ゲート枠のタイミングで取り 出して整流検波し、オートフォーカスに必要な焦点評価値を、 AF検波ゲート枠のタイ ミングの直後に生成する。
[0083] AF検波部 7により生成された焦点評価値は、カメラコントローラ 8の AFモジュール 2 1に出力される。
[0084] AFモジュール 21は、 AF検波ゲート枠のタイミングの直後に生成された焦点評価 値を、 AFモジュール AF13のタイミングで取り込み(図 8の F)、フォーカスレンズ 3の フォーカス位置を合焦位置に近づけるようなオートフォーカス制御信号 LD14を生成 し、それをレンズドライバ 9に出力する(図 8の G)。同様に、 AFモジュール 21は、 AF 検波ゲート枠のタイミングの直後に生成された焦点評価値を、 AFモジュール AF14 のタイミングで取り込み、フォーカスレンズ 3のフォーカス位置を合焦位置に近づける ようなオートフォーカス制御信号 LD21を生成し、それをレンズドライバ 9に出力する。
[0085] レンズドライバ 9は、入力されたオートフォーカス制御信号 LD11乃至 LD14, LD2 1乃至 LD24, LD31乃至 LD34, LD41乃至 LD44に基づいて、モータ 11の駆動を 制御し、フォーカスレンズ 3を所定のフォーカスレンズ移動量だけ移動させる。このよう にして、オートフォーカスを実現する。 [0086] 以上においては、 1回の映像垂直同期信号にっき、 2回または 4回の焦点評価値を 算出させるようにしたり、 1回の映像垂直同期信号にっき、 1回または 2回の微小ゥォ プリング合焦駆動を行わせるようにしたが、本発明はこれに限られるものではなぐ例 えば、整数 Aと整数 Bが B>Aの関係を満たす場合、 1回の映像垂直同期信号にっき 、整数 N回の焦点評価値を算出させ、整数 A回の映像垂直同期信号にっき、整数 B 回の微小ゥォブリング合焦駆動を行わせるようにすることができる。より具体的には、 1 回の映像垂直同期信号にっき、 3回の焦点評価値を算出させ、 4回の映像垂直同期 信号につき、 6回の微小ゥォブリング合焦駆動を行わせることができる。
[0087] なお、以上においては、微小ゥォブリング合焦駆動させるようにした力 必ずしも微 小ゥォブリング合焦駆動させる必要はな 、。
[0088] 以上のように、 1フィールドの映像信号内で複数回の高速露光を行うことにより、 1フ ィールドにつき、複数回の焦点評価値を生成することができる。これにより、 1フィール ドにっき、複数回のオートフォーカス制御を行うことができるとともに、焦点評価値を 生成するタイミングが早くなるため、オートフォーカス応答特性を良くすることができる
[0089] なお、以上にぉ 、ては、ビデオカメラを例に挙げて説明した力 デジタルスチルカメ ラに適用することも勿論可能である。
[0090] 上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェア により実行させることもできる。この場合、例えば、ビデオカメラには、図 9に示されるよ うなコンピュータが含まれる。
[0091] 図 9において、 CPU (Central Processing Unit) 101は、 ROM (Read Only Memory) 1
02に記憶されているプログラム、または記憶部 108から RAM (Random Access
Memory) 103にロードされたプログラムに従って各種の処理を実行する。 RAM103に はまた、 CPU101が各種の処理を実行する上において必要なデータなども適宜記憶 される。
[0092] CPU101、 ROM102、および RAM103は、バス 104を介して相互に接続されている
。このバス 104にはまた、入出力インタフェース 105も接続されている。
[0093] 入出力インタフェース 105には、キーボード、マウスなどよりなる入力部 106、 CRT(Cathode Ray Tube), LCD(Liquid Crystal display)などよりなるディスプレイ、並 びにスピーカなどよりなる出力部 107、ハードディスクなどより構成される記憶部 108 、モデムなどより構成される通信部 109が接続されている。通信部 109は、インターネ ットを含むネットワークを介しての通信処理を行う。
[0094] 入出力インタフェース 105にはまた、必要に応じてドライブ 110が接続され、磁気デ イスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア 1 11が適宜装着され、それら力も読み出されたコンピュータプログラムが、必要に応じ て記憶部 108にインストールされる。
[0095] 上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを 構成するプログラム力 ネットワークや記録媒体からインストールされる。
[0096] この記録媒体は、図 9に示されるように、装置本体とは別に、ユーザにプログラムを 配信するために配布される、プログラムが記録されて ヽる磁気ディスク (フロッピデイス ク(登録商標)を含む)、光ディスク(CD- ROM(Compact Disk-Read Only
Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD (Min卜 Disk) (登 録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 111により構 成されるだけでなぐ装置本体に予め組み込まれた状態でユーザに配信される、プロ グラムが記録されている ROM102や、記憶部 108に含まれるハードディスクなどで構 成される。
[0097] なお、本明細書にぉ 、て、記録媒体に記録されるプログラムを記述するステップは 、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的 に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。

Claims

請求の範囲
[1] フォーカスレンズおよび撮像センサを有するオートフォーカス制御装置において、 画像垂直同期信号の周期に同期して、前記画像垂直同期信号の周期の(1Z整数
N)倍の周期で被写体を撮像する撮像部と、
前記撮像部により撮像された撮像信号に基づ ヽて、オートフォーカスを行うための 焦点評価値を算出する算出部と、
前記算出部により算出された前記焦点評価値に基づいて、前記フォーカスレンズ および撮像センサの間の距離を変更する変更部と、
前記撮像部により撮像された複数の前記撮像信号を合成する合成部と を備え、
前記画像垂直同期信号の周期の整数 1倍と、前記算出部による前記焦点評価値を 算出する周期の整数 N倍の周期が同期し、
整数 Aと整数 Bが B>Aの関係を満たす場合、前記画像垂直同期信号の周期の整 数 A倍と、前記変更部による前記距離を変更する周期の整数 B倍の周期が同期する ことを特徴とするオートフォーカス制御装置。
[2] 前記算出部は、前記撮像信号の輝度信号の高周波成分に基づいて、前記焦点評 価値を算出する
ことを特徴とする請求項 1に記載のオートフォーカス制御装置。
[3] 前記合成部は、前記撮像部により撮像された複数の前記撮像信号のうち、予め決 められた撮像信号を合成する
ことを特徴とする請求項 1に記載のオートフォーカス制御装置。
[4] フォーカスレンズおよび撮像センサを有するオートフォーカス制御装置のオートフォ 一カス制御方法において、
画像垂直同期信号の周期に同期して、前記画像垂直同期信号の周期の(1Z整数 N)倍の周期で被写体を撮像する撮像ステップと、
前記撮像ステップの処理により撮像され撮像信号に基づ ヽて、オートフォーカスを 行うための焦点評価値を算出する算出ステップと、
前記算出ステップの処理により算出された前記焦点評価値に基づいて、前記フォ 一カスレンズおよび撮像センサの間の距離を変更する変更ステップと、 前記撮像ステップの処理により撮像された複数の前記撮像信号を合成する合成ス テツプと
を含み、
前記画像垂直同期信号の周期の整数 1倍と、前記算出ステップの処理による前記 焦点評価値を算出する周期の整数 N倍の周期が同期し、
整数 Aと整数 Bが B>Aの関係を満たす場合、前記画像垂直同期信号の周期の整 数 A倍と、前記変更ステップの処理による前記距離を変更する周期の整数 B倍の周 期が同期する ことを特徴とするオートフォーカス制御方法。
[5] フォーカスレンズおよび撮像センサを有するオートフォーカス制御装置のオートフォ 一カス制御処理用のプログラムであって、
画像垂直同期信号の周期に同期して、前記画像垂直同期信号の周期の(1Z整数 N)倍の周期で被写体を撮像する撮像ステップと、
前記撮像ステップの処理により撮像され撮像信号に基づ ヽて、オートフォーカスを 行うための焦点評価値を算出する算出ステップと、
前記算出ステップの処理により算出された前記焦点評価値に基づいて、前記フォ 一カスレンズおよび撮像センサの間の距離を変更する変更ステップと、
前記撮像ステップの処理により撮像された複数の前記撮像信号を合成する合成ス テツプと
を含み、
前記画像垂直同期信号の周期の整数 1倍と、前記算出ステップの処理による前記 焦点評価値を算出する周期の整数 N倍の周期が同期し、
整数 Aと整数 Bが B>Aの関係を満たす場合、前記画像垂直同期信号の周期の整 数 A倍と、前記変更部による前記距離を変更する周期の整数 B倍の周期が同期する ことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒 体。
[6] フォーカスレンズおよび撮像センサを有するオートフォーカス制御装置のオートフォ 一カス制御処理を、コンピュータに行わせるプログラムであって、 画像垂直同期信号の周期に同期して、前記画像垂直同期信号の周期の(1Z整数
N)倍の周期で被写体を撮像する撮像ステップと、
前記撮像ステップの処理により撮像され撮像信号に基づ ヽて、オートフォーカスを 行うための焦点評価値を算出する算出ステップと、
前記算出ステップの処理により算出された前記焦点評価値に基づいて、前記フォ 一カスレンズおよび撮像センサの間の距離を変更する変更ステップと、
前記撮像ステップの処理により撮像された複数の前記撮像信号を合成する合成ス テツプと
をコンピュータに実行させ、
前記画像垂直同期信号の周期の整数 1倍と、前記算出ステップの処理による前記 焦点評価値を算出する周期の整数 N倍の周期が同期し、
整数 Aと整数 Bが B>Aの関係を満たす場合、前記画像垂直同期信号の周期の整 数 A倍と、前記変更部による前記距離を変更する周期の整数 B倍の周期が同期する ことを特徴とするプログラム。
PCT/JP2005/001393 2004-03-02 2005-02-01 オートフォーカス制御装置および方法、記録媒体、並びにプログラム WO2005085928A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05709539A EP1722260A1 (en) 2004-03-02 2005-02-01 Autofocus controlling apparatus and method, recording medium, and program
US10/591,519 US20070216795A1 (en) 2004-03-02 2005-02-01 Automatic Focus Control Apparatus and Method, Recording Medium and Program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-058086 2004-03-02
JP2004058086A JP4023457B2 (ja) 2004-03-02 2004-03-02 オートフォーカス制御装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2005085928A1 true WO2005085928A1 (ja) 2005-09-15

Family

ID=34917924

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001393 WO2005085928A1 (ja) 2004-03-02 2005-02-01 オートフォーカス制御装置および方法、記録媒体、並びにプログラム

Country Status (6)

Country Link
US (1) US20070216795A1 (ja)
EP (1) EP1722260A1 (ja)
JP (1) JP4023457B2 (ja)
KR (1) KR20060129422A (ja)
CN (1) CN100462768C (ja)
WO (1) WO2005085928A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007329527A (ja) * 2006-06-06 2007-12-20 Canon Inc 撮像装置
US8164682B2 (en) * 2008-10-14 2012-04-24 Omnivision Technologies, Inc. Dithered focus evaluation
US8243188B2 (en) * 2008-10-30 2012-08-14 Olympus Imaging Corp. Imaging apparatus
KR101590873B1 (ko) * 2009-11-18 2016-02-02 삼성전자주식회사 디지털 촬영장치 및 그 제어방법
JP2012008254A (ja) * 2010-06-23 2012-01-12 Shicoh Engineering Co Ltd 撮影装置及びマイクロスコープ
JP5959194B2 (ja) 2011-12-27 2016-08-02 オリンパス株式会社 撮像装置
JP5820720B2 (ja) 2011-12-27 2015-11-24 オリンパス株式会社 撮像装置
CN103345037A (zh) * 2013-07-04 2013-10-09 聚辰半导体(上海)有限公司 相机音圈马达执行器的整形信号控制方法
CN104320110B (zh) * 2014-10-29 2017-03-01 芯荣半导体有限公司 音圈马达的整形信号及驱动的控制方法、驱动芯片电路
CN105785820B (zh) * 2016-03-28 2018-07-13 聚辰半导体(上海)有限公司 相机音圈马达执行器的整形信号控制方法
CN113411560B (zh) * 2020-09-11 2023-12-05 梅卡曼德(北京)机器人科技有限公司 一种用于成像扫描信号同步的调制方法、装置及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6032482A (ja) * 1983-08-02 1985-02-19 Canon Inc 撮像装置
JPH05107451A (ja) * 1991-10-18 1993-04-30 Mitsubishi Electric Corp オートフオーカス装置
JPH06339059A (ja) * 1993-05-31 1994-12-06 Canon Inc 自動焦点調節装置
JPH07154676A (ja) * 1994-09-12 1995-06-16 Olympus Optical Co Ltd カメラ
JPH07170439A (ja) * 1994-11-07 1995-07-04 Olympus Optical Co Ltd カメラ
JPH08265619A (ja) * 1995-03-27 1996-10-11 Canon Inc ビデオカメラおよびレンズシステムのズーム方法
JPH11153748A (ja) * 1997-11-19 1999-06-08 Ricoh Co Ltd オートフォーカス装置
JP2000333072A (ja) * 1999-05-19 2000-11-30 Hitachi Ltd 制御信号処理装置及び撮像装置
JP2001004914A (ja) * 1999-06-24 2001-01-12 Canon Inc 合焦制御装置
JP2001086389A (ja) * 1999-09-09 2001-03-30 Victor Co Of Japan Ltd 画像データの信号処理装置及び画像データの信号処理方法
JP2002350716A (ja) * 2001-05-30 2002-12-04 Matsushita Electric Ind Co Ltd 自動焦点調節装置、並びにこの装置を搭載したビデオカメラ及びデジタルスチルカメラ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69331874T2 (de) * 1992-12-28 2002-11-14 Canon Kk One-chip integrated circuit for use in a controlling focusing means
US6236431B1 (en) * 1993-05-27 2001-05-22 Canon Kabushiki Kaisha Video camera apparatus with distance measurement area adjusted based on electronic magnification
US6222588B1 (en) * 1993-05-28 2001-04-24 Canon Kabushiki Kaisha Automatic focus adjusting device with driving direction control
KR100322183B1 (ko) * 1994-06-10 2002-06-20 이중구 멀티자동초점조절장치
US6373524B2 (en) * 1995-06-22 2002-04-16 Canon Kabushiki Kaisha Interchangeable lens video camera system
US6683652B1 (en) * 1995-08-29 2004-01-27 Canon Kabushiki Kaisha Interchangeable lens video camera system having improved focusing
KR19990049877A (ko) * 1997-12-15 1999-07-05 윤종용 카메라시스템의 자동 초점조정장치 및 그에 따른 초점조정방법
CN1178467C (zh) * 1998-04-16 2004-12-01 三星电子株式会社 自动跟踪运动目标的方法和装置
US6937277B1 (en) * 1998-04-24 2005-08-30 Canon Kabushiki Kaisha Image input apparatus employing read region size determination
US20020012063A1 (en) * 2000-03-10 2002-01-31 Olympus Optical Co., Ltd. Apparatus for automatically detecting focus and camera equipped with automatic focus detecting apparatus

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6032482A (ja) * 1983-08-02 1985-02-19 Canon Inc 撮像装置
JPH05107451A (ja) * 1991-10-18 1993-04-30 Mitsubishi Electric Corp オートフオーカス装置
JPH06339059A (ja) * 1993-05-31 1994-12-06 Canon Inc 自動焦点調節装置
JPH07154676A (ja) * 1994-09-12 1995-06-16 Olympus Optical Co Ltd カメラ
JPH07170439A (ja) * 1994-11-07 1995-07-04 Olympus Optical Co Ltd カメラ
JPH08265619A (ja) * 1995-03-27 1996-10-11 Canon Inc ビデオカメラおよびレンズシステムのズーム方法
JPH11153748A (ja) * 1997-11-19 1999-06-08 Ricoh Co Ltd オートフォーカス装置
JP2000333072A (ja) * 1999-05-19 2000-11-30 Hitachi Ltd 制御信号処理装置及び撮像装置
JP2001004914A (ja) * 1999-06-24 2001-01-12 Canon Inc 合焦制御装置
JP2001086389A (ja) * 1999-09-09 2001-03-30 Victor Co Of Japan Ltd 画像データの信号処理装置及び画像データの信号処理方法
JP2002350716A (ja) * 2001-05-30 2002-12-04 Matsushita Electric Ind Co Ltd 自動焦点調節装置、並びにこの装置を搭載したビデオカメラ及びデジタルスチルカメラ

Also Published As

Publication number Publication date
KR20060129422A (ko) 2006-12-15
CN1926459A (zh) 2007-03-07
JP4023457B2 (ja) 2007-12-19
EP1722260A1 (en) 2006-11-15
JP2005252484A (ja) 2005-09-15
CN100462768C (zh) 2009-02-18
US20070216795A1 (en) 2007-09-20

Similar Documents

Publication Publication Date Title
WO2005085928A1 (ja) オートフォーカス制御装置および方法、記録媒体、並びにプログラム
JP4742242B2 (ja) 撮像装置及びそのプログラム
WO2005085927A1 (ja) オートフォーカス制御装置および方法、記録媒体、並びにプログラム
JP4784678B2 (ja) 撮像装置、撮像方法及びプログラム
JP4576280B2 (ja) 自動焦点調節装置及び焦点調節方法
JP4862312B2 (ja) 撮像装置およびフォーカス制御装置
JP2008139683A (ja) 撮像装置及びオートフォーカス制御方法
JP4586707B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP5228942B2 (ja) レンズ駆動制御装置、撮像装置、レンズ駆動制御方法およびコンピュータプログラム
JP4059704B2 (ja) ビデオカメラ
JP2003241065A (ja) オートフォーカスシステム
JP2009302794A (ja) 撮像装置
JP6278729B2 (ja) 撮像装置、その制御方法及びプログラム
JP2002247443A (ja) ディジタルカメラ
JP4871664B2 (ja) 撮像装置及び撮像装置の制御方法
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
JP4581417B2 (ja) オートフォーカス制御装置および方法、記録媒体、並びにプログラム
JP2000299810A (ja) 撮像装置
JP2012129900A (ja) 撮像装置及び撮像方法
JP2009194469A (ja) 撮像装置
JP2023149478A (ja) 撮像素子、撮像装置、撮像装置の制御方法、およびプログラム
JP2004191892A (ja) 撮像装置
JP2004088703A (ja) デジタルスチルカメラ
JP2005326706A (ja) 撮像装置および方法、プログラム並びに記録媒体
JP2005347901A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005709539

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580006394.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020067017602

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10591519

Country of ref document: US

Ref document number: 2007216795

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2005709539

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067017602

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10591519

Country of ref document: US