WO2019064759A1 - 撮像装置、撮像方法、及びプログラム - Google Patents

撮像装置、撮像方法、及びプログラム Download PDF

Info

Publication number
WO2019064759A1
WO2019064759A1 PCT/JP2018/024239 JP2018024239W WO2019064759A1 WO 2019064759 A1 WO2019064759 A1 WO 2019064759A1 JP 2018024239 W JP2018024239 W JP 2018024239W WO 2019064759 A1 WO2019064759 A1 WO 2019064759A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
imaging
autofocus
focus lens
focal length
Prior art date
Application number
PCT/JP2018/024239
Other languages
English (en)
French (fr)
Inventor
内田 亮宏
田中 康一
林 健吉
伸一郎 藤木
誠一 伊澤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019544274A priority Critical patent/JP6653790B2/ja
Priority to CN201880062581.8A priority patent/CN111183383B/zh
Publication of WO2019064759A1 publication Critical patent/WO2019064759A1/ja
Priority to US16/830,059 priority patent/US11394868B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • the technology of the present disclosure relates to an imaging device, an imaging method, and a program.
  • an imaging apparatus provided with a zoom tracking unit that executes zoom tracking control for moving a focusing lens in accordance with driving of a zoom lens has been disclosed (see Japanese Patent Laid-Open No. 2012-255910).
  • the imaging device stops the drive of the focus adjustment lens, and the zoom tracking unit Execute the zoom tracking control.
  • an imaging apparatus includes a memory that holds data of an imaging range that guarantees imaging by focusing using a cam curve of a lens, and a control unit that moves a focus lens in conjunction with a zoom lens.
  • the imaging apparatus drives the focus lens by autofocus control using an evaluation value indicating the degree of focusing when the depth of focus detected by the position of the zoom lens is smaller than the imaging range at the position of the zoom lens. . Further, when the depth of focus detected by the position of the zoom lens is larger than the image pickup range at the position of the zoom lens, the image pickup apparatus drives the focus lens by the cam curve in the data of the image pickup range.
  • zoom tracking control is performed based on the position of the focus lens in the middle of autofocus, resulting in in-focus accuracy It may decrease.
  • zoom operation is performed during the execution of the autofocus, it is conceivable to interrupt the autofocus and perform the zoom tracking control after returning the focus lens to the position before the execution of the autofocus.
  • One embodiment of the present invention is made in view of the above-mentioned situation, and an imaging device, an imaging method, and an imaging method capable of suppressing a decrease in focusing accuracy while shortening a control time of the imaging device. Provide a program.
  • An imaging apparatus includes an imaging lens having an imaging optical system including a zoom lens and a focus lens, an acquisition unit that acquires a focal distance of the imaging lens from the state of the zoom lens, and a focal distance acquired by the acquisition unit. Accordingly, the control unit performs zoom tracking control to change the state of the focus lens, and the control unit determines whether or not autofocus is being performed when a change in focal length acquired by the acquisition unit is detected Makes the reference in zoom tracking control different.
  • control unit performs zoom tracking control based on the current position of the focus lens when the autofocus is not being performed, and when the autofocus is being performed, the autofocus is performed.
  • Zoom tracking control may be performed based on the position of the focus lens before execution of focus.
  • Control when the control unit performs zoom tracking control based on the position of the focus lens before execution of the auto focus when the auto focus is being performed, Control may be changed based on that.
  • the imaging device before the execution of the autofocusing is If the drive amount of the focus lens at the time of performing the zoom tracking control based on the position is equal to or less than the threshold, autofocus is continued, and if the drive amount exceeds the threshold, the autofocus is interrupted to perform auto Zoom tracking control may be performed based on the position of the focus lens before execution of focus.
  • the threshold may be a value smaller than the distance between consecutive positions when deriving the evaluation value of the autofocus while changing the position of the focus lens.
  • the control unit detects a change in focal length acquired by the acquisition unit, and when autofocus is being performed, the peak value of the evaluation value of the autofocus is If it is detected, the auto focus is interrupted and zoom tracking control is performed based on the position of the focus lens at which the evaluation value becomes the peak value. If the peak value of the evaluation value is not detected, the auto focus is performed. May be controlled to continue.
  • the control unit when the control unit detects a change in focal length acquired by the acquisition unit, and when autofocus is being performed, the search direction of the autofocus and the zoom tracking If the drive direction of the focus lens accompanying the control is the reverse direction, the auto focus is interrupted and zoom tracking control is performed based on the position of the focus lens before the execution of the auto focus, and if it is the same direction, Control to continue the autofocus may be performed.
  • control unit when the control unit detects a change in the focal length acquired by the acquisition unit and the autofocus is being performed and the autofocus is continued, the autofocus is performed.
  • Control may be performed to perform autofocus by changing the end position of the search range by the amount of drive of the focus lens accompanying zoom tracking control.
  • zoom tracking control when the control unit detects a change in focal length acquired by the acquisition unit, and when autofocus is not in progress, the current position of the focus lens is used as a reference. Zoom tracking control may be performed.
  • the imaging method according to the present disclosure is an imaging method performed by an imaging apparatus including an imaging lens having an imaging optical system including a zoom lens and a focus lens, and acquires the focal distance of the imaging lens from the state of the zoom lens.
  • zoom tracking control When performing zoom tracking control to change the state of the focus lens according to the obtained focal length, when a change in the obtained focal length is detected, zoom tracking control is performed depending on whether autofocus is being performed or not. This is an imaging method in which the reference is made different.
  • the program of the present disclosure acquires a focal length of an imaging lens from the state of the zoom lens in a computer included in an imaging apparatus including an imaging lens having an imaging optical system including a zoom lens and a focus lens.
  • processing that makes the reference in zoom tracking control different depending on whether or not auto focus is in progress when a change in the acquired focal length is detected. Is a program to execute.
  • the imaging device of the present disclosure includes a processor and a memory
  • the memory includes a state of the zoom lens in a computer included in the imaging device including an imaging lens having an imaging optical system including a zoom lens and a focus lens.
  • the autofocus is performed when a change in the acquired focal length is detected.
  • the processor stores instructions for executing processing including different criteria in zoom tracking control depending on whether or not execution is in progress.
  • the imaging device 10 is a lens-interchangeable digital camera, and includes an imaging device main body 12 and an imaging lens 14.
  • the imaging lens 14 is exchangeably mounted on the imaging device body 12.
  • the imaging device 10 has a still image capturing mode and a moving image capturing mode as operation modes of the imaging system.
  • the still image capturing mode is an operation mode for recording a still image obtained by capturing an object
  • the moving image capturing mode is an operation mode for recording a moving image obtained by capturing an object.
  • a still image imaging mode and a moving image imaging mode are selectively set. Further, in the still image capturing mode, the manual focus mode and the auto focus mode are selectively set in accordance with an instruction given to the imaging device 10 by the user.
  • the imaging condition is adjusted by half-pressing a release button (not shown) provided on the imaging device main body 12, and thereafter, full exposure is performed to perform main exposure.
  • a release button (not shown) provided on the imaging device main body 12, and thereafter, full exposure is performed to perform main exposure.
  • the release button is pressed halfway, the AE (Auto Exposure) function is activated to set the exposure state, then the AF (Auto Focus) function is activated to perform focusing control, and the release button is fully pressed. Then, imaging is performed.
  • the imaging device body 12 includes a mount 13, and the imaging lens 14 includes a mount 15.
  • the imaging lens 14 is exchangeably mounted on the imaging device main body 12 by the mount 15 being coupled to the mount 13.
  • the imaging lens 14 includes a lens unit 18, an aperture 19, and a control device 20.
  • the diaphragm 19 is provided closer to the imaging device main body 12 than the lens unit 18, adjusts the light amount of the subject light transmitted through the lens unit 18, and guides the subject light into the imaging device main body 12.
  • the control device 20 is electrically connected to the imaging device body 12 via the mounts 13 and 15, and controls the entire imaging lens 14 in accordance with an instruction from the imaging device body 12.
  • the imaging device body 12 includes an imaging device 22, a first mirror 24, a second mirror 26, a body-side main control unit 28, a mirror driving unit 30, an imaging device driver 32, an image signal processing circuit 34, an image memory 36, and an image processing unit 38 includes a display control unit 40 and a display 42.
  • the imaging apparatus body 12 further includes a reception I / F (InterFace) 44, a reception device 46, a media I / F 48, a memory card 50, an external I / F 52, and a finder 54.
  • the main-unit-side main control unit 28 is an example of a computer according to the disclosed technology, and includes a central processing unit (CPU) 60, a primary storage unit 62, and a secondary storage unit 64.
  • the CPU 60 controls the entire imaging device 10.
  • the primary storage unit 62 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 62 is a RAM (Random Access Memory).
  • the secondary storage unit 64 is a non-volatile memory in which various programs, various parameters, and the like are stored in advance.
  • An example of the secondary storage unit 64 is a flash memory.
  • the CPU 60, the primary storage unit 62, and the secondary storage unit 64 are connected to the bus line 56.
  • the mirror drive unit 30, the imaging element driver 32, the image signal processing circuit 34, the image memory 36, the image processing unit 38, the display control unit 40, the reception I / F 44, the media I / F 48, and the external I / F 52 are also bus Connected to line 56.
  • the first mirror 24 is a movable mirror which is interposed between the light receiving surface 22A of the imaging element 22 and the lens unit 18 and can be moved to the light receiving surface covering position ⁇ and the light receiving surface open position ⁇ .
  • the first mirror 24 is connected to the mirror driving unit 30, and the mirror driving unit 30 drives the first mirror 24 under the control of the CPU 60 to open the light receiving surface covering position ⁇ and the light receiving surface opening of the first mirror 24.
  • the portion 30 is disposed at the light receiving surface open position ⁇ .
  • the first mirror 24 covers the light receiving surface 22 A, and reflects the subject light guided from the lens unit 18 to guide it to the second mirror 26.
  • the second mirror 26 reflects the subject light guided from the first mirror 24 to guide it to the finder 54 via an optical system (not shown).
  • the finder 54 transmits the subject light guided by the second mirror 26.
  • the state in which the light receiving surface 22A is covered by the first mirror 24 is released, and the subject light is received by the light receiving surface 22A without being reflected by the first mirror 24.
  • the image sensor driver 32 is connected to the image sensor 22 and supplies a drive pulse to the image sensor 22 under the control of the CPU 60. Each pixel of the imaging device 22 is driven in accordance with the drive pulse supplied by the imaging device driver 32.
  • a CCD (Charge Coupled Device) image sensor is used as the imaging device 22.
  • CMOS Complementary Metal Oxide Semiconductor
  • Other image sensors such as sensors may be used.
  • the image signal processing circuit 34 reads an image signal for one frame from the image sensor 22 under control of the CPU 60 for each pixel.
  • the image signal processing circuit 34 performs various processes such as correlated double sampling, automatic gain adjustment, and A / D conversion on the read image signal.
  • the image signal processing circuit 34 performs various processes on the image signal, and digitizes the image signal at a predetermined frame rate (for example, several tens of frames / second) defined by a clock signal supplied from the CPU 60. It is outputted to the image memory 36 every one frame.
  • the image memory 36 temporarily holds the image signal input from the image signal processing circuit 34.
  • the image processing unit 38 acquires an image signal for each frame at a predetermined frame rate from the image memory 36, and performs various processing such as gamma correction, luminance and color difference conversion, and compression processing on the acquired image signal. Do. Further, the image processing unit 38 outputs an image signal obtained by performing various processes to the display control unit 40 for each frame at a predetermined frame rate. Further, the image processing unit 38 outputs an image signal obtained by performing various processes to the CPU 60 in response to a request from the CPU 60.
  • the display control unit 40 is connected to the display 42 and controls the display 42 under the control of the CPU 60.
  • the display control unit 40 also outputs the image signal input from the image processing unit 38 to the display 42 at a predetermined frame rate for each frame.
  • the display 42 displays an image indicated by the image signal input from the display control unit 40 at a predetermined frame rate as a live view image.
  • the display 42 also displays a still image which is a single frame image obtained by imaging in a single frame. In addition to the live view image, a menu screen or the like is also displayed on the display 42.
  • the reception device 46 includes a dial, a release button, a cross key, a MENU key, a touch panel, and the like (not shown), and receives various instructions from the user.
  • the reception device 46 is connected to the reception I / F 44, and outputs an instruction content signal indicating the content of the received instruction to the reception I / F 44.
  • the reception I / F 44 outputs the instruction content signal input from the reception device 46 to the CPU 60.
  • the CPU 60 executes processing in accordance with the instruction content signal input from the reception I / F 44.
  • the media I / F 48 is connected to the memory card 50, and performs recording and reading of an image file on the memory card 50 under the control of the CPU 60.
  • the image file read from the memory card 50 by the media I / F 48 is decompressed by the image processor 38 under the control of the CPU 60 and displayed on the display 42 as a reproduced image.
  • the external I / F 52 is connected to the control device 20 of the imaging lens 14 by connecting the mount 15 to the mount 13, and controls transmission and reception of various information between the CPU 60 and the control device 20.
  • the lens unit 18 includes an incident lens 70, a zoom lens 72, and a focus lens 74.
  • the incident lens 70, the zoom lens 72, and the focus lens 74 are provided along the optical axis L1, and the focus lens 74, the zoom lens 72, and the incident lens 70 are disposed in this order from the diaphragm 19 side along the optical axis L1. It is done.
  • Subject light is incident on the incident lens 70.
  • the incident lens 70 transmits subject light and guides the light to the zoom lens 72.
  • the zoom lens 72 according to the present embodiment includes a plurality of lenses movable along the optical axis L1, and the focal length of the imaging lens 14 (hereinafter simply referred to as "focal length") by adjusting the state of the zoom lens 72. Adjust). Specifically, in the zoom lens 72, when the zoom ring (not shown) provided on the imaging lens 14 is rotated, the lenses move closer to each other along the optical axis L1 or move away from each other. The positional relationship along the axis L1 is adjusted to adjust the focal length. The zoom lens 72 transmits subject light incident from the incident lens 70 and guides the light to the focus lens 74.
  • the focus lens 74 is a lens that can move along the optical axis L1, and changes the focusing state of the subject image formed on the light receiving surface 22A of the imaging device 22 by moving along the optical axis L1.
  • the focus lens 74 transmits subject light incident from the zoom lens 72 and guides the light to the stop 19.
  • the diaphragm 19 adjusts the light amount of the subject light incident from the focus lens 74 and transmits the subject light to lead it to the imaging device main body 12.
  • the control device 20 of the imaging lens 14 includes a lens side main control unit 76, a focal length sensor 78, a focus lens drive unit 80, a lens position sensor 82, an aperture drive unit 84, and an external I / F 86.
  • the lens side main control unit 76 includes a CPU 88, a primary storage unit 90, and a secondary storage unit 92.
  • the CPU 88 controls the entire imaging lens 14.
  • the primary storage unit 90 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 90 is a RAM.
  • the secondary storage unit 92 is a non-volatile memory in which various programs, various parameters, and the like are stored in advance.
  • An example of the secondary storage unit 92 is a flash memory.
  • the CPU 88, the primary storage unit 90, and the secondary storage unit 92 are connected to the bus line 94.
  • the focal length sensor 78, the focus lens drive unit 80, the lens position sensor 82, the diaphragm drive unit 84, and the external I / F 86 are also connected to the bus line 94.
  • the external I / F 86 is connected to the external I / F 52 of the imaging device main body 12 by connecting the mount 13 to the mount 15, and cooperates with the external I / F 52 to connect the CPU 88 and the CPU 60 of the imaging device main body 12 Control transmission and reception of various information during the
  • the focal length sensor 78 detects the state of the zoom lens 72 from the rotational state of the zoom ring, and converts the detected state of the zoom lens 72 into a focal length. Then, the focal length sensor 78 outputs focal length information indicating the focal length obtained by conversion to the CPU 88.
  • the focus lens drive unit 80 includes a focus lens drive motor (not shown).
  • the focus lens drive unit 80 moves the focus lens 74 along the optical axis L1 by operating the focus lens drive motor under the control of the CPU 88 in accordance with the instruction received by the reception device 46.
  • the focus lens drive unit 80 operates the focus lens drive motor according to the instruction from the CPU 88, and transmits the power of the focus lens drive motor to the focus lens 74, thereby moving the focus lens 74 along the optical axis L1.
  • the lens position sensor 82 includes, for example, an encoder, detects a position along the optical axis L1 of the focus lens 74, and outputs lens position information indicating the detected position to the CPU 88.
  • the diaphragm drive unit 84 includes a diaphragm drive motor (not shown).
  • the diaphragm drive unit 84 adjusts the size of the aperture of the diaphragm 19 by operating the diaphragm drive motor under the control of the CPU 88 in accordance with the instruction received by the reception device 46.
  • the imaging device 10 performs autofocusing according to a so-called contrast AF method.
  • the imaging apparatus 10 performs auto focusing at a plurality of different positions while moving the focus lens 74 from the WIDE side to the TELE side along the optical axis L1.
  • An evaluation value of focus (hereinafter referred to as "AF evaluation value”) is derived.
  • the imaging device 10 performs focusing control by moving the focus lens 74 to a position where the derived AF evaluation value becomes a peak value.
  • the contrast value of the autofocus area is applied as the AF evaluation value.
  • the distance between consecutive positions D1 shown in FIG. 3) when deriving the AF evaluation value while changing the position of the focus lens 74 is referred to as a “distance D1”. Note that this distance D1 may be the same distance or different distances between successive positions.
  • the secondary storage unit 92 of the lens side main control unit 76 stores tracking data 96.
  • the tracking data 96 is data used for zoom tracking control that changes the position of the focus lens 74 along the optical axis L1 according to the focal length.
  • the tracking data 96 includes the focal length and the light when the shooting distance from the light receiving surface 22A to the subject (hereinafter simply referred to as "shooting distance") is infinity (INF (INFinity)). It includes data indicating the correspondence with the position of the focus lens 74 along the axis L1. Further, the tracking data 96 includes data indicating the correspondence between the focal length and the position of the focus lens 74 along the optical axis L1 when the imaging distance is the shortest imaging distance (MOD (Minimum Object Distance)). In the following description, when the position of the focus lens 74 is simply described, it indicates the position of the focus lens 74 along the optical axis L1.
  • MOD Minimum Object Distance
  • the secondary storage unit 64 of the main body side main control unit 28 stores an imaging program 98.
  • the CPU 60 reads the imaging program 98 from the secondary storage unit 64, expands it in the primary storage unit 62, and executes an imaging process (see FIG. 7) described later according to the expanded imaging program 98.
  • the CPU 60 operates as an acquisition unit and a control unit by executing the imaging program 98.
  • the imaging process illustrated in FIG. 7 is performed, for example, when the power switch of the imaging device 10 is turned on.
  • step S10 of FIG. 7 the CPU 60 acquires the focal length via the external I / F 52. Specifically, the CPU 60 outputs an instruction to acquire the focal length to the CPU 88. The CPU 88 acquires the focal length detected by the focal length sensor 78 when an instruction to acquire the focal length is input from the CPU 60. Then, the CPU 88 outputs the acquired focal length to the CPU 60.
  • step S12 the CPU 60 determines whether or not the focal length acquired at this time (immediately before) at step S10 has changed from the focal length acquired at previous step S10. If the determination is negative, the process returns to step S10. If the determination is positive, the process proceeds to step S14. In step S12, even if the focal length obtained in step S10 this time is changed from the focal length obtained in step S10 last time, if the amount of change is within the range of the allowable error in step S12. It may be determined that the focal length has not changed.
  • step S14 the CPU 60 acquires tracking data 96 via the external I / F 52. Specifically, the CPU 60 outputs an instruction to acquire the tracking data 96 to the CPU 88. When an instruction to acquire the tracking data 96 is input from the CPU 60, the CPU 88 reads the tracking data 96 from the secondary storage unit 92. Then, the CPU 88 outputs the read tracking data 96 to the CPU 60.
  • step S16 the CPU 60 determines whether or not autofocus is being performed. If the determination is negative, the process proceeds to step S18. If the determination is affirmative, the process proceeds to step S20.
  • step S18 the CPU 60 performs zoom tracking control based on the current position of the focus lens 74.
  • the CPU 60 copes with the current shooting distance by interpolation processing using the tracking curve of the shooting distance included in the tracking data 96 and the tracking curve of the INF. Tracking curve (broken line curve in the example of FIG. 8) is derived. Further, the CPU 60 derives the position P1 of the focus lens 74 corresponding to the focal length S1 acquired in the previous step S10, using the derived tracking curve. Then, the CPU 60 outputs, to the CPU 88, an instruction to move the focus lens 74 to the derived position P1. When an instruction to move the focus lens 74 is input from the CPU 60, the CPU 88 controls the focus lens drive unit 80 to move the focus lens 74 to the position P1 input from the CPU 60. When the process of step S18 ends, the process proceeds to step S30.
  • step S20 the CPU 60 derives the drive amount of the focus lens 74 when performing the zoom tracking control based on the position of the focus lens 74 before the execution of the autofocus.
  • the CPU 60 uses the position P2 of the focus lens 74 before execution of autofocus and the focal length S2, and the tracking curve of the shooting distance is MOD and the tracking curve of the INF Interpolate between By this interpolation, the CPU 60 derives a tracking curve (a broken line curve in the example of FIG. 9) based on the position of the focus lens 74 before the execution of the autofocus.
  • the CPU 60 derives the position P1 of the focus lens 74 corresponding to the focal length S1 acquired in the previous step S10, using the derived tracking curve. Then, the CPU 60 derives the driving amount of the focus lens 74 from the current position of the focus lens 74 to the position P1. The CPU 60 acquires the position detected by the lens position sensor 82 via the CPU 88 as the current position of the focus lens 74.
  • step S22 the CPU 60 determines whether the driving amount of the focus lens 74 derived in step S20 is equal to or less than the threshold TH1. In the present embodiment, a value less than the distance D1 between successive positions of the focus lens 74 when deriving the AF evaluation value is applied as the threshold value TH1. If the determination is negative, the process proceeds to step S24. If the determination is affirmative, the process proceeds to step S28.
  • the threshold TH1 is a predetermined multiple of the focal depth (for example, n / 2) You may apply a double value.
  • step S24 the CPU 60 performs control to interrupt autofocus.
  • step S26 the CPU 60 performs zoom tracking control based on the position of the focus lens 74 before execution of the autofocus. Specifically, the CPU 60 outputs, to the CPU 88, an instruction to move the focus lens 74 to the position P1 derived in step S20.
  • the CPU 88 controls the focus lens drive unit 80 to move the focus lens 74 to the position P1 input from the CPU 60.
  • step S28 the CPU 60 performs control to continue the autofocus.
  • step S28 ends, the process proceeds to step S30.
  • step S30 the CPU 60 determines whether the end timing of the main imaging process has come. If the determination is negative, the process returns to step S10. If the determination is affirmative, the imaging process ends. Note that as an example of the end timing, there is a timing when the power switch of the imaging device 10 is turned off.
  • zoom tracking control is performed based on the current position of the focus lens 74 (step S18). If autofocusing is being performed, zoom tracking control is performed based on the position of the focus lens 74 before execution of autofocusing (step S26). In addition, when auto focus is being performed, control is changed based on the driving amount of the focus lens 74 when performing zoom tracking control based on the position of the focus lens 74 before execution of auto focus (see FIG. Step S22). In addition, when the driving amount of the focus lens 74 at the time of performing the zoom tracking control based on the position of the focus lens 74 before the execution of the auto focus is equal to or less than the threshold TH1, the auto focus is continued.
  • the auto focus is interrupted, and zoom tracking control is performed based on the position of the focus lens 74 before the execution of the auto focus. Further, according to the present embodiment, a value less than the distance D1 between the successive positions of the focus lens 74 when deriving the AF evaluation value is applied as the threshold value TH1.
  • Second Embodiment A second embodiment of the disclosed technology will be described.
  • the configuration of the imaging device 10 according to the present embodiment is the same as that of the first embodiment (see FIGS. 1 and 2), and thus the description thereof is omitted.
  • step S40 in FIG. 10 the CPU 60 determines whether or not the peak value of the AF evaluation value has already been detected. If the determination is affirmative, the process proceeds to step S24. If the determination is negative, the process proceeds to step S28.
  • step S42 the CPU 60 performs zoom tracking control based on the position of the focus lens 74 corresponding to the peak value of the AF evaluation value.
  • the CPU 60 uses the position P3 of the focus lens 74 corresponding to the peak value of the AF evaluation value and the focal length S3 at the time of peak value detection. Interpolate between the tracking curve of MOD and the tracking curve of INF. By this interpolation, the CPU 60 derives a tracking curve (curved line in the example of FIG. 11) based on the position of the focus lens 74 corresponding to the peak value of the AF evaluation value.
  • the CPU 60 derives the position P1 of the focus lens 74 corresponding to the focal length S1 acquired in the previous step S10, using the derived tracking curve. Then, the CPU 60 outputs, to the CPU 88, an instruction to move the focus lens 74 to the derived position P1.
  • the CPU 88 controls the focus lens drive unit 80 to move the focus lens 74 to the position P1 input from the CPU 60.
  • the following will be performed depending on whether the peak value of the AF evaluation value is detected or not. Perform the control shown in. That is, when the peak value of the AF evaluation value is detected, the automatic focusing is interrupted, and zoom tracking control is performed based on the position of the focus lens 74 at which the AF evaluation value becomes the peak value. On the other hand, when the peak value of the AF evaluation value is not detected, control to continue the autofocus is performed. Therefore, it is possible to suppress a decrease in focusing accuracy while shortening the control time of the imaging device 10.
  • step S50 in FIG. 12 the CPU 60 derives the position P1 of the focus lens 74 corresponding to the focal length S1 acquired in the immediately preceding step S10, as in step S18. Then, the CPU 60 derives the driving amount of the focus lens 74 from the current position of the focus lens 74 to the position P1. The CPU 60 acquires the position detected by the lens position sensor 82 via the CPU 88 as the current position of the focus lens 74.
  • step S52 the CPU 60 performs control to continue the autofocus by changing the end position of the search range of autofocus by the drive amount derived in step S50.
  • the CPU 60 steps the search range of the autofocus as shown in FIG. Expand by the drive amount derived in S50.
  • the CPU 60 narrows the search range of autofocus by the drive amount derived in step S50.
  • the end position of the search range of the autofocus is changed by the amount of drive of the focus lens 74 involved in the zoom tracking control. Therefore, it is possible to further suppress the decrease in focusing accuracy.
  • step S60 of FIG. 14 the CPU 60 derives the position P1 of the focus lens 74 corresponding to the focal length S1 acquired in step S10 immediately before, as in step S18. Then, the CPU 60 determines whether or not the search direction of the autofocus and the drive direction of the focus lens 74 from the current position of the focus lens 74 to the position P1 are opposite. If the determination is affirmative, the process proceeds to step S24. If the determination is negative, the process proceeds to step S28.
  • the autofocus is continued.
  • the search direction and the drive direction are opposite to each other, the auto focus is interrupted, and zoom tracking control is performed based on the position of the focus lens 74 before the execution of the auto focus. Therefore, it is possible to suppress a decrease in focusing accuracy while shortening the control time of the imaging device 10.
  • various processors other than the CPU may execute the imaging process executed by the CPU executing the software (program) in each of the above embodiments.
  • a processor in this case, in order to execute specific processing such as PLD (Programmable Logic Device) or ASIC (Application Specific Integrated Circuit) whose circuit configuration can be changed after manufacturing an FPGA (Field-Programmable Gate Array) or the like.
  • a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed is exemplified.
  • the imaging process may be performed by one of these various processors, or a combination of two or more processors of the same or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, etc. You may execute in.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the imaging program 98 may be provided in the form of being recorded in a recording medium such as a compact disk read only memory (CD-ROM), a digital versatile disk read only memory (DVD-ROM), and a universal serial bus (USB) memory. Good.
  • the imaging program 98 may be downloaded from an external device via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Abstract

撮像装置は、撮像レンズのズームレンズの状態から撮像レンズの焦点距離を取得し、取得した焦点距離に応じて撮像レンズのフォーカスレンズの状態を変化させるズームトラッキング制御を行うにあたり、取得した焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、ズームトラッキング制御における基準を異ならせる。

Description

撮像装置、撮像方法、及びプログラム
 本開示の技術は、撮像装置、撮像方法、及びプログラムに関する。
 従来、ズームレンズの駆動に応じて焦点調節レンズを移動させるズームトラッキング制御を実行するズームトラッキング部を備えた撮像装置が開示されている(特開2012-255910号公報参照)。この撮像装置は、光学系の焦点状態を検出するために焦点調節レンズの駆動が行われている際に、ズームレンズの駆動を検出した場合に、焦点調節レンズの駆動を中止し、ズームトラッキング部にズームトラッキング制御を実行させる。
 また、レンズのカムカーブを用いた合焦による撮像を保証する撮像範囲のデータを保持するメモリと、ズームレンズと連動させてフォーカスレンズを可動させる制御部と、を備えた撮像装置が開示されている(特開2006-162821号公報参照)。この撮像装置は、ズームレンズの位置により検出される焦点深度が、ズームレンズの位置における上記撮像範囲より小さい場合に、合焦の程度を示す評価値を用いたオートフォーカス制御によりフォーカスレンズを駆動する。また、この撮像装置は、ズームレンズの位置により検出される焦点深度が、ズームレンズの位置における上記撮像範囲より大きい場合に、上記撮像範囲のデータにおけるカムカーブによりフォーカスレンズを駆動する。
 ズームレンズ及びフォーカスレンズを有する撮像装置において、オートフォーカスの実行中にズーム動作が行われると、オートフォーカスの途中におけるフォーカスレンズの位置を基準としてズームトラッキング制御が行われてしまう結果、合焦精度が低下してしまう場合がある。一方、オートフォーカスの実行中にズーム動作が行われた場合に、オートフォーカスを中断し、オートフォーカスの実行前の位置にフォーカスレンズを戻したうえでズームトラッキング制御を行うことが考えられる。
 しかしながら、これらの場合、合焦精度の低下を抑制するためには、ズームトラッキング制御を行った後に再度オートフォーカスを実行することとなり、撮像装置の制御時間が長くなってしまう。
 本発明の一つの実施形態は、以上の事情を鑑みて成されたものであり、撮像装置の制御時間を短縮しつつ、合焦精度の低下を抑制することができる撮像装置、撮像方法、及びプログラムを提供する。
 本開示の撮像装置は、ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズと、ズームレンズの状態から撮像レンズの焦点距離を取得する取得部と、取得部により取得された焦点距離に応じてフォーカスレンズの状態を変化させるズームトラッキング制御を行う制御部と、を備え、制御部が、取得部により取得された焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、ズームトラッキング制御における基準を異ならせる。
 なお、本開示の撮像装置は、制御部が、オートフォーカスが実行中ではない場合は、現在のフォーカスレンズの位置を基準としたズームトラッキング制御を行い、オートフォーカスが実行中である場合は、オートフォーカスの実行前のフォーカスレンズの位置を基準としたズームトラッキング制御を行ってもよい。
 また、本開示の撮像装置は、制御部が、オートフォーカスが実行中である場合に、オートフォーカスの実行前のフォーカスレンズの位置を基準としたズームトラッキング制御を行う際のフォーカスレンズの駆動量に基づいて制御を変更してもよい。
 また、本開示の撮像装置は、制御部が、取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、オートフォーカスの実行前のフォーカスレンズの位置を基準としたズームトラッキング制御を行う際のフォーカスレンズの駆動量が閾値以下である場合は、オートフォーカスを継続させ、上記駆動量が上記閾値を超える場合は、オートフォーカスを中断させて、オートフォーカスの実行前のフォーカスレンズの位置を基準としたズームトラッキング制御を行ってもよい。
 また、本開示の撮像装置は、上記閾値が、フォーカスレンズの位置を変更しながらオートフォーカスの評価値を導出する際の連続する位置間の距離未満の値であってもよい。
 また、本開示の撮像装置は、制御部が、取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、オートフォーカスの評価値のピーク値が検出されている場合は、オートフォーカスを中断させて、評価値がピーク値となるフォーカスレンズの位置を基準としたズームトラッキング制御を行い、評価値のピーク値が検出されていない場合は、オートフォーカスを継続させる制御を行ってもよい。
 また、本開示の撮像装置は、制御部が、取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、オートフォーカスの探索方向と、ズームトラッキング制御に伴うフォーカスレンズの駆動方向が逆方向である場合は、オートフォーカスを中断させて、オートフォーカスの実行前のフォーカスレンズの位置を基準としたズームトラッキング制御を行い、同じ方向である場合は、オートフォーカスを継続させる制御を行ってもよい。
 また、本開示の撮像装置は、制御部が、取得部により取得された焦点距離の変化が検出された場合で、オートフォーカスが実行中である場合で、かつオートフォーカスを継続させる場合、オートフォーカスの探索範囲の終了位置をズームトラッキング制御に伴うフォーカスレンズの駆動量分だけ変更してオートフォーカスを行わせる制御を行ってもよい。
 また、本開示の撮像装置は、制御部が、取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中ではない場合、現在のフォーカスレンズの位置を基準としたズームトラッキング制御を行ってもよい。
 一方、本開示の撮像方法は、ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズを備えた撮像装置が実行する撮像方法であって、ズームレンズの状態から撮像レンズの焦点距離を取得し、取得した焦点距離に応じてフォーカスレンズの状態を変化させるズームトラッキング制御を行うにあたり、取得した焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、ズームトラッキング制御における基準を異ならせる撮像方法である。
 また、本開示のプログラムは、ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズを備えた撮像装置が有するコンピュータに、ズームレンズの状態から撮像レンズの焦点距離を取得し、取得した焦点距離に応じてフォーカスレンズの状態を変化させるズームトラッキング制御を行うにあたり、取得した焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、ズームトラッキング制御における基準を異ならせる処理を実行させるためのプログラムである。
 また、本開示の撮像装置は、プロセッサと、メモリと、を含み、メモリは、ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズを備えた撮像装置が有するコンピュータに、ズームレンズの状態から撮像レンズの焦点距離を取得すること、及び、取得した焦点距離に応じてフォーカスレンズの状態を変化させるズームトラッキング制御を行うにあたり、取得した焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、ズームトラッキング制御における基準を異ならせること、を含む処理を実行させるための指令を記憶し、プロセッサは指令を実行する。
 本発明の一つの実施形態によれば、撮像装置の制御時間を短縮しつつ、合焦精度の低下を抑制することができる。
各実施形態に係る撮像装置のハードウェア構成の一例を示すブロック図である。 各実施形態に係る撮像装置に含まれる撮像レンズのハードウェア構成の一例を示すブロック図である。 各実施形態に係るオートフォーカスを説明するためのグラフである。 各実施形態に係る撮像装置の撮像レンズに含まれるレンズ側主制御部の二次記憶部の記憶内容の一例を示す概念図である。 各実施形態に係るトラッキングデータを説明するためのグラフである。 各実施形態に係る撮像装置の撮像装置本体に含まれる本体側主制御部の二次記憶部の記憶内容の一例を示す概念図である。 第1実施形態に係る撮像処理の一例を示すフローチャートである。 各実施形態に係る現在位置を基準としたズームトラッキング制御を説明するためのグラフである。 第1、第3、及び第4実施形態に係るオートフォーカス実行前のフォーカスレンズの位置を基準としたズームトラッキング制御を説明するためのグラフである。 第2実施形態に係る撮像処理の一例を示すフローチャートである。 第2実施形態に係るオートフォーカスの評価値がピーク値となるフォーカスレンズの位置を基準としたズームトラッキング制御を説明するためのグラフである。 第3実施形態に係る撮像処理の一例を示すフローチャートである。 第3及び第4実施形態に係るオートフォーカスの探索範囲の終了位置を変更する処理を説明するための図である。 第4実施形態に係る撮像処理の一例を示すフローチャートである。
 以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
 [第1実施形態]
 まず、図1及び図2を参照して、本実施形態に係る撮像装置10の構成を説明する。図1に示すように、撮像装置10は、レンズ交換式のデジタルカメラであり、撮像装置本体12及び撮像レンズ14を含む。撮像レンズ14は、撮像装置本体12に対して交換可能に装着される。
 本実施形態に係る撮像装置10は、撮像系の動作モードとして、静止画撮像モードと動画撮像モードとを有する。静止画撮像モードは、被写体が撮像されて得られた静止画像を記録する動作モードであり、動画撮像モードは、被写体が撮像されて得られた動画像を記録する動作モードである。
 撮像装置10では、ユーザから撮像装置10に対して与えられた指示に応じて、静止画撮像モードと動画撮像モードとが選択的に設定される。また、静止画撮像モードでは、ユーザから撮像装置10に対して与えられた指示に応じて、マニュアルフォーカスモードとオートフォーカスモードとが選択的に設定される。
 オートフォーカスモードでは、撮像装置本体12に設けられたレリーズボタン(図示省略)を半押し状態にすることにより撮像条件の調整が行われ、その後、引き続き全押し状態にすると本露光が行われる。つまり、レリーズボタンを半押し状態にすることによりAE(AutoExposure)機能が働いて露出状態が設定された後、AF(AutoFocus)機能が働いて合焦制御が行われ、レリーズボタンを全押し状態にすると撮像が行われる。
 撮像装置本体12はマウント13を備えており、撮像レンズ14は、マウント15を備えている。撮像レンズ14は、マウント13にマウント15が結合されることにより撮像装置本体12に交換可能に装着される。撮像レンズ14は、レンズユニット18、絞り19、及び制御装置20を含む。絞り19は、レンズユニット18よりも撮像装置本体12側に設けられており、レンズユニット18を透過した被写体光の光量を調節し、被写体光を撮像装置本体12内に導く。制御装置20は、マウント13、15を介して撮像装置本体12に電気的に接続されており、撮像装置本体12からの指示に従って撮像レンズ14の全体を制御する。
 撮像装置本体12は、撮像素子22、第1ミラー24、第2ミラー26、本体側主制御部28、ミラー駆動部30、撮像素子ドライバ32、画像信号処理回路34、画像メモリ36、画像処理部38、表示制御部40、及びディスプレイ42を含む。また、撮像装置本体12は、受付I/F(InterFace)44、受付デバイス46、メディアI/F48、メモリカード50、外部I/F52、及びファインダ54を更に含む。
 本体側主制御部28は、開示の技術に係るコンピュータの一例であり、CPU(Central Processing Unit)60、一次記憶部62、及び二次記憶部64を備えている。CPU60は、撮像装置10の全体を制御する。一次記憶部62は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部62の一例としては、RAM(Random Access Memory)が挙げられる。二次記憶部64は、各種プログラム及び各種パラメータ等を予め記憶した不揮発性のメモリである。二次記憶部64の一例としては、フラッシュメモリが挙げられる。
 CPU60、一次記憶部62、及び二次記憶部64は、バスライン56に接続されている。また、ミラー駆動部30、撮像素子ドライバ32、画像信号処理回路34、画像メモリ36、画像処理部38、表示制御部40、受付I/F44、メディアI/F48、及び外部I/F52も、バスライン56に接続されている。
 第1ミラー24は、撮像素子22の受光面22Aとレンズユニット18との間に介在しており、受光面被覆位置αと受光面開放位置βとに移動可能な可動ミラーである。第1ミラー24は、ミラー駆動部30に接続されており、ミラー駆動部30は、CPU60の制御下で、第1ミラー24を駆動させ、第1ミラー24を受光面被覆位置αと受光面開放位置βとに選択的に配置する。すなわち、第1ミラー24は、受光面22Aに対して被写体光を受光させない場合にミラー駆動部30によって受光面被覆位置αに配置され、受光面22Aに対して被写体光を受光させる場合にミラー駆動部30によって受光面開放位置βに配置される。
 受光面被覆位置αでは、第1ミラー24が受光面22Aを覆い、かつ、レンズユニット18から導かれた被写体光を反射して第2ミラー26に導く。第2ミラー26は、第1ミラー24から導かれた被写体光を反射することで光学系(図示省略)を介して、ファインダ54に導く。ファインダ54は、第2ミラー26によって導かれた被写体光を透過させる。受光面開放位置βでは、第1ミラー24によって受光面22Aが覆われた状態が解除され、被写体光が第1ミラー24で反射されることなく、受光面22Aによって受光される。
 撮像素子ドライバ32は、撮像素子22に接続されており、CPU60の制御下で、撮像素子22に駆動パルスを供給する。撮像素子22の各画素は、撮像素子ドライバ32によって供給された駆動パルスに従って駆動する。なお、本実施形態では、撮像素子22として、CCD(Charge Coupled Device)イメージセンサを用いているが、本開示の技術はこれに限定されるものではなく、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の他のイメージセンサを用いてもよい。
 画像信号処理回路34は、CPU60の制御下で、撮像素子22から1フレーム分の画像信号を画素毎に読み出す。画像信号処理回路34は、読み出した画像信号に対して、相関二重サンプリング処理、自動利得調整、及びA/D変換等の各種処理を行う。画像信号処理回路34は、画像信号に対して各種処理を行うことでデジタル化した画像信号を、CPU60から供給されるクロック信号で規定される所定のフレームレート(例えば、数十フレーム/秒)で1フレーム毎に画像メモリ36に出力する。画像メモリ36は、画像信号処理回路34から入力された画像信号を一時的に保持する。
 画像処理部38は、画像メモリ36から所定のフレームレートで1フレーム毎に画像信号を取得し、取得した画像信号に対して、ガンマ補正と、輝度及び色差変換と、圧縮処理等の各種処理を行う。また、画像処理部38は、各種処理を行って得た画像信号を所定のフレームレートで1フレーム毎に表示制御部40に出力する。更に、画像処理部38は、各種処理を行って得た画像信号を、CPU60の要求に応じて、CPU60に出力する。
 表示制御部40は、ディスプレイ42に接続されており、CPU60の制御下で、ディスプレイ42を制御する。また、表示制御部40は、画像処理部38から入力された画像信号を1フレーム毎に所定のフレームレートでディスプレイ42に出力する。ディスプレイ42は、表示制御部40から所定のフレームレートで入力された画像信号により示される画像をライブビュー画像として表示する。また、ディスプレイ42は、単一フレームで撮像されて得られた単一フレーム画像である静止画像も表示する。なお、ディスプレイ42には、ライブビュー画像の他に、メニュー画面等も表示される。
 受付デバイス46は、不図示のダイヤル、レリーズボタン、十字キー、MENUキー、及びタッチパネル等を有しており、ユーザからの各種指示を受け付ける。受付デバイス46は、受付I/F44に接続されており、受け付けた指示の内容を示す指示内容信号を受付I/F44に出力する。受付I/F44は、受付デバイス46から入力された指示内容信号をCPU60に出力する。CPU60は、受付I/F44から入力された指示内容信号に応じた処理を実行する。
 メディアI/F48は、メモリカード50に接続されており、CPU60の制御下で、メモリカード50に対する画像ファイルの記録及び読み出しを行う。メディアI/F48によってメモリカード50から読み出された画像ファイルは、CPU60の制御下で、画像処理部38によって伸長処理が施されてディスプレイ42に再生画像として表示される。
 外部I/F52は、マウント13にマウント15が接続されることで、撮像レンズ14の制御装置20と接続され、CPU60と制御装置20との間の各種情報の送受信を司る。
 一例として図2に示すように、本実施形態に係るレンズユニット18は、入射レンズ70、ズームレンズ72、及びフォーカスレンズ74を含む。入射レンズ70、ズームレンズ72、及びフォーカスレンズ74は、光軸L1に沿って設けられており、絞り19側から光軸L1に沿ってフォーカスレンズ74、ズームレンズ72、及び入射レンズ70の順に配置されている。
 被写体光は、入射レンズ70に入射される。入射レンズ70は、被写体光を透過させ、ズームレンズ72に導く。本実施形態に係るズームレンズ72は、光軸L1に沿って移動可能な複数のレンズを含み、ズームレンズ72の状態を調節することによって撮像レンズ14の焦点距離(以下、単に「焦点距離」という)を調節する。具体的には、ズームレンズ72は、撮像レンズ14に設けられたズームリング(図示省略)が回転されることにより各レンズが光軸L1に沿って近づいたり、遠ざかったりすることによってレンズ間の光軸L1に沿った位置関係が調節され、焦点距離が調節される。ズームレンズ72は、入射レンズ70から入射された被写体光を透過させ、フォーカスレンズ74に導く。
 フォーカスレンズ74は、光軸L1に沿って移動可能なレンズであり、光軸L1に沿って移動することで撮像素子22の受光面22Aに形成される被写体像の合焦状態を変化させる。フォーカスレンズ74は、ズームレンズ72から入射された被写体光を透過させ、絞り19に導く。絞り19は、フォーカスレンズ74から入射された被写体光の光量を調整し、かつ被写体光を透過させて撮像装置本体12に導く。
 撮像レンズ14の制御装置20は、レンズ側主制御部76、焦点距離センサ78、フォーカスレンズ駆動部80、レンズ位置センサ82、絞り駆動部84、及び外部I/F86を含む。
 レンズ側主制御部76は、CPU88、一次記憶部90、及び二次記憶部92を備えている。CPU88は、撮像レンズ14の全体を制御する。一次記憶部90は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部90の一例としては、RAMが挙げられる。二次記憶部92は、各種プログラム及び各種パラメータ等を予め記憶した不揮発性のメモリである。二次記憶部92の一例としては、フラッシュメモリが挙げられる。
 CPU88、一次記憶部90、及び二次記憶部92は、バスライン94に接続されている。また、焦点距離センサ78、フォーカスレンズ駆動部80、レンズ位置センサ82、絞り駆動部84、及び外部I/F86も、バスライン94に接続されている。
 外部I/F86は、マウント15にマウント13が接続されることで、撮像装置本体12の外部I/F52と接続され、外部I/F52と協働して、CPU88と撮像装置本体12のCPU60との間の各種情報の送受信を司る。
 焦点距離センサ78は、ズームリングの回転状態から、ズームレンズ72の状態を検出し、検出したズームレンズ72の状態を焦点距離に換算する。そして、焦点距離センサ78は、換算して得られた焦点距離を示す焦点距離情報をCPU88に出力する。
 フォーカスレンズ駆動部80は、フォーカスレンズ駆動用モータ(図示省略)を含む。フォーカスレンズ駆動部80は、受付デバイス46によって受け付けられた指示に応じて、CPU88の制御下で、フォーカスレンズ駆動用モータを作動させることで、フォーカスレンズ74を光軸L1に沿って移動させる。すなわち、フォーカスレンズ駆動部80は、CPU88からの指示に従って、フォーカスレンズ駆動用モータを作動させ、フォーカスレンズ駆動用モータの動力をフォーカスレンズ74に伝達することより、フォーカスレンズ74を光軸L1に沿って移動させる。レンズ位置センサ82は、例えば、エンコーダを含み、フォーカスレンズ74の光軸L1に沿った位置を検出し、検出した位置を示すレンズ位置情報をCPU88に出力する。
 絞り駆動部84は、絞り駆動用モータ(図示省略)を含む。絞り駆動部84は、受付デバイス46によって受け付けられた指示に応じて、CPU88の制御下で、絞り駆動用モータを作動させることで、絞り19の開口の大きさを調節する。
 また、本実施形態に係る撮像装置10は、所謂コントラストAF方式でオートフォーカスを行う。具体的には、本実施形態に係る撮像装置10は、一例として図3に示すように、フォーカスレンズ74を光軸L1に沿ってWIDE側からTELE側に移動させながら、複数の異なる位置でオートフォーカスの評価値(以下、「AF評価値」という)を導出する。そして、撮像装置10は、導出したAF評価値がピーク値となる位置にフォーカスレンズ74を移動させることによって、合焦制御を行う。なお、本実施形態では、AF評価値として、オートフォーカスエリアのコントラスト値を適用している。また、以下では、フォーカスレンズ74の位置を変更しながらAF評価値を導出する際の連続する位置間の距離(図3に示すD1)を「距離D1」という。なお、この距離D1は、各連続する位置間で同じ距離でもよいし、異なる距離であってもよい。
 一例として図4に示すように、レンズ側主制御部76の二次記憶部92は、トラッキングデータ96を記憶している。トラッキングデータ96は、焦点距離に応じて光軸L1に沿ったフォーカスレンズ74の位置を変化させるズームトラッキング制御に用いられるデータである。
 一例として図5に示すように、トラッキングデータ96は、受光面22Aから被写体までの撮影距離(以下、単に「撮影距離」という)が無限遠(INF(INFinity))である場合における焦点距離と光軸L1に沿ったフォーカスレンズ74の位置との対応関係を示すデータを含む。また、トラッキングデータ96は、撮影距離が最短撮影距離(MOD(Minimum Object Distance))である場合における焦点距離と光軸L1に沿ったフォーカスレンズ74の位置との対応関係を示すデータを含む。なお、以下では、単にフォーカスレンズ74の位置と記載した場合は、光軸L1に沿ったフォーカスレンズ74の位置を表すものとする。
 一方、一例として図6に示すように、本体側主制御部28の二次記憶部64は、撮像プログラム98を記憶している。CPU60は、二次記憶部64から撮像プログラム98を読み出して一次記憶部62に展開し、展開した撮像プログラム98に従って後述する撮像処理(図7参照)を実行する。換言すると、CPU60は、撮像プログラム98を実行することで取得部及び制御部として動作する。
 次に、図7を参照して、本実施形態に係る撮像装置10の作用を説明する。なお、図7に示す撮像処理は、例えば、撮像装置10の電源スイッチがオン状態とされた場合に実行される。
 図7のステップS10で、CPU60は、外部I/F52を介して焦点距離を取得する。具体的には、CPU60は、CPU88に対し、焦点距離を取得する指示を出力する。CPU88は、CPU60から焦点距離を取得する指示が入力されると、焦点距離センサ78により検出された焦点距離を取得する。そして、CPU88は、取得した焦点距離をCPU60に出力する。
 ステップS12で、CPU60は、今回(直前)のステップS10で取得された焦点距離が前回のステップS10で取得された焦点距離から変化しているか否かを判定する。この判定が否定判定となった場合は、処理はステップS10に戻り、肯定判定となった場合は、処理はステップS14に移行する。なお、ステップS12で、CPU60は、今回のステップS10で取得された焦点距離が前回のステップS10で取得された焦点距離から変化している場合でも、その変化量が許容誤差の範囲内の場合は、焦点距離が変化していないと判定してもよい。
 ステップS14で、CPU60は、外部I/F52を介してトラッキングデータ96を取得する。具体的には、CPU60は、CPU88に対し、トラッキングデータ96を取得する指示を出力する。CPU88は、CPU60からトラッキングデータ96を取得する指示が入力されると、二次記憶部92からトラッキングデータ96を読み出す。そして、CPU88は、読み出したトラッキングデータ96をCPU60に出力する。
 ステップS16で、CPU60は、オートフォーカスが実行中であるか否かを判定する。この判定が否定判定となった場合は、処理はステップS18に移行し、肯定判定となった場合は、処理はステップS20に移行する。
 ステップS18で、CPU60は、現在のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う。具体的には、CPU60は、一例として図8に示すように、トラッキングデータ96に含まれる撮影距離がMODのトラッキングカーブと、INFのトラッキングカーブとを用いた補間処理によって、現時点の撮影距離に対応するトラッキングカーブ(図8の例における破線の曲線)を導出する。また、CPU60は、導出したトラッキングカーブを用いて、直前のステップS10で取得された焦点距離S1に対応するフォーカスレンズ74の位置P1を導出する。そして、CPU60は、導出した位置P1にフォーカスレンズ74を移動させる指示をCPU88に出力する。CPU88は、CPU60からフォーカスレンズ74を移動させる指示が入力されると、フォーカスレンズ駆動部80を制御し、CPU60から入力された位置P1にフォーカスレンズ74を移動させる。ステップS18の処理が終了すると、処理はステップS30に移行する。
 一方、ステップS20で、CPU60は、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う際のフォーカスレンズ74の駆動量を導出する。具体的には、CPU60は、一例として図9に示すように、オートフォーカスの実行前のフォーカスレンズ74の位置P2と焦点距離S2とを用いて、撮影距離がMODのトラッキングカーブとINFのトラッキングカーブとの間を補間する。この補間により、CPU60は、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたトラッキングカーブ(図9の例における破線の曲線)を導出する。
 また、CPU60は、導出したトラッキングカーブを用いて、直前のステップS10で取得された焦点距離S1に対応するフォーカスレンズ74の位置P1を導出する。そして、CPU60は、現在のフォーカスレンズ74の位置から位置P1へのフォーカスレンズ74の駆動量を導出する。なお、CPU60は、この現在のフォーカスレンズ74の位置として、CPU88を介して、レンズ位置センサ82により検出された位置を取得する。
 ステップS22で、CPU60は、ステップS20で導出されたフォーカスレンズ74の駆動量が閾値TH1以下であるか否かを判定する。なお、本実施形態では、閾値TH1として、AF評価値を導出する際のフォーカスレンズ74の連続する位置間の距離D1未満の値を適用している。この判定が否定判定となった場合は、処理はステップS24に移行し、肯定判定となった場合は、処理はステップS28に移行する。なお、AF評価値を導出する際のフォーカスレンズ74の連続する位置間の距離D1を、焦点深度のn倍と定義している場合は、閾値TH1として焦点深度の所定倍(例えば、n/2倍)の値を適用してもよい。
 ステップS24で、CPU60は、オートフォーカスを中断させる制御を行う。ステップS26で、CPU60は、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う。具体的には、CPU60は、ステップS20で導出された位置P1にフォーカスレンズ74を移動させる指示をCPU88に出力する。CPU88は、CPU60からフォーカスレンズ74を移動させる指示が入力されると、フォーカスレンズ駆動部80を制御し、CPU60から入力された位置P1にフォーカスレンズ74を移動させる。ステップS28の処理が終了すると、処理はステップS30に移行する。
 一方、ステップS28で、CPU60は、オートフォーカスを継続させる制御を行う。ステップS28の処理が終了すると、処理はステップS30に移行する。ステップS30で、CPU60は、本撮像処理の終了タイミングが到来したか否かを判定する。この判定が否定判定となった場合は、処理はステップS10に戻り、肯定判定となった場合は、本撮像処理が終了する。なお、この終了タイミングの例としては、撮像装置10の電源スイッチがオフ状態とされたタイミングが挙げられる。
 以上説明したように、本実施形態によれば、オートフォーカスが実行中ではない場合は、現在のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行っている(ステップS18)。また、オートフォーカスが実行中である場合は、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行っている(ステップS26)。また、オートフォーカスが実行中である場合に、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う際のフォーカスレンズ74の駆動量に基づいて制御を変更している(ステップS22)。また、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う際のフォーカスレンズ74の駆動量が閾値TH1以下の場合は、オートフォーカスを継続している。一方、上記駆動量が閾値TH1を超える場合は、オートフォーカスを中断し、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行っている。また、本実施形態によれば、閾値TH1として、AF評価値を導出する際のフォーカスレンズ74の連続する位置間の距離D1未満の値を適用している。
 すなわち、ズームトラッキング制御に伴うフォーカスレンズ74の駆動量が閾値TH1を超える場合は、AF評価値のピーク値を検出できない可能性が比較的高いため、前回のオートフォーカスによる合焦位置を基準としたズームトラッキング制御を行う。また、ズームトラッキング制御に伴うフォーカスレンズ74の駆動量が閾値TH1以下の場合は、AF評価値のピーク値を検出できる可能性が比較的高いため、オートフォーカスを継続している。従って、撮像装置10の制御時間を短縮しつつ、合焦精度の低下を抑制することができる。
 [第2実施形態]
 開示の技術の第2実施形態を説明する。なお、本実施形態に係る撮像装置10の構成は、第1実施形態と同様(図1及び図2参照)であるため、説明を省略する。
 図10を参照して、本実施形態に係る撮像装置10の作用を説明する。なお、図10における図7と同一の処理を実行するステップについては、図7と同一のステップ番号を付して説明を省略する。
 図10のステップS40で、CPU60は、すでにAF評価値のピーク値が検出されているか否かを判定する。この判定が肯定判定となった場合は、処理はステップS24に移行し、否定判定となった場合は、処理はステップS28に移行する。
 ステップS42で、CPU60は、AF評価値のピーク値に対応するフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う。具体的には、CPU60は、一例として図11に示すように、AF評価値のピーク値に対応するフォーカスレンズ74の位置P3とピーク値の検出時の焦点距離S3とを用いて、撮影距離がMODのトラッキングカーブとINFのトラッキングカーブとの間を補間する。この補間により、CPU60は、AF評価値のピーク値に対応するフォーカスレンズ74の位置を基準としたトラッキングカーブ(図11の例における破線の曲線)を導出する。
 また、CPU60は、導出したトラッキングカーブを用いて、直前のステップS10で取得された焦点距離S1に対応するフォーカスレンズ74の位置P1を導出する。そして、CPU60は、導出した位置P1にフォーカスレンズ74を移動させる指示をCPU88に出力する。CPU88は、CPU60からフォーカスレンズ74を移動させる指示が入力されると、フォーカスレンズ駆動部80を制御し、CPU60から入力された位置P1にフォーカスレンズ74を移動させる。ステップS42の処理が終了すると、処理はステップS30に移行する。
 以上説明したように、本実施形態によれば、焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、AF評価値のピーク値が検出されているか否かによって以下に示す制御を行う。すなわち、AF評価値のピーク値が検出されている場合は、オートフォーカスを中断させて、AF評価値がピーク値となるフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う。一方、AF評価値のピーク値が検出されていない場合は、オートフォーカスを継続させる制御を行う。従って、撮像装置10の制御時間を短縮しつつ、合焦精度の低下を抑制することができる。
 [第3実施形態]
 開示の技術の第3実施形態を説明する。なお、本実施形態に係る撮像装置10の構成は、第1実施形態と同様(図1及び図2参照)であるため、説明を省略する。
 図12を参照して、本実施形態に係る撮像装置10の作用を説明する。なお、図12における図7と同一の処理を実行するステップについては、図7と同一のステップ番号を付して説明を省略する。
 図12のステップS50で、CPU60は、ステップS18と同様に、直前のステップS10で取得された焦点距離S1に対応するフォーカスレンズ74の位置P1を導出する。そして、CPU60は、現在のフォーカスレンズ74の位置から位置P1へのフォーカスレンズ74の駆動量を導出する。なお、CPU60は、この現在のフォーカスレンズ74の位置として、CPU88を介して、レンズ位置センサ82により検出された位置を取得する。
 ステップS52で、CPU60は、オートフォーカスの探索範囲の終了位置を、ステップS50で導出された駆動量分だけ変更してオートフォーカスを継続させる制御を行う。本実施形態では、CPU60は、ズームトラッキング制御に伴うフォーカスレンズ74の駆動方向と、オートフォーカスの探索方向が同じ方向である場合は、一例として図13に示すように、オートフォーカスの探索範囲をステップS50で導出された駆動量分だけ広げる。一方、CPU60は、ズームトラッキング制御に伴うフォーカスレンズ74の駆動方向と、オートフォーカスの探索方向が逆方向である場合は、オートフォーカスの探索範囲をステップS50で導出された駆動量分だけ狭める。ステップS52の処理が終了すると、処理はステップS30に移行する。
 以上説明したように、本実施形態によれば、オートフォーカスの探索範囲の終了位置をズームトラッキング制御に伴うフォーカスレンズ74の駆動量分だけ変更している。従って、合焦精度の低下をより抑制することができる。
 [第4実施形態]
 開示の技術の第4実施形態を説明する。なお、本実施形態に係る撮像装置10の構成は、第1実施形態と同様(図1及び図2参照)であるため、説明を省略する。
 図14を参照して、本実施形態に係る撮像装置10の作用を説明する。なお、図14における図12と同一の処理を実行するステップについては、図12と同一のステップ番号を付して説明を省略する。
 図14のステップS60で、CPU60は、ステップS18と同様に、直前のステップS10で取得された焦点距離S1に対応するフォーカスレンズ74の位置P1を導出する。そして、CPU60は、オートフォーカスの探索方向と、現在のフォーカスレンズ74の位置から位置P1へのフォーカスレンズ74の駆動方向とが逆方向であるか否かを判定する。この判定が肯定判定となった場合は、処理はステップS24に移行し、否定判定となった場合は、処理はステップS28に移行する。
 以上説明したように、本実施形態によれば、オートフォーカスの探索方向と、ズームトラッキング制御に伴うフォーカスレンズ74の駆動方向が同じ方向である場合は、オートフォーカスを継続させる。一方、上記探索方向と上記駆動方向とが逆方向である場合は、オートフォーカスを中断させて、オートフォーカスの実行前のフォーカスレンズ74の位置を基準としたズームトラッキング制御を行う。従って、撮像装置10の制御時間を短縮しつつ、合焦精度の低下を抑制することができる。
 なお、上記各実施形態でCPUがソフトウェア(プログラム)を実行することにより実行した撮像処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、撮像処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、撮像プログラム98が二次記憶部64に予め記憶(インストール)されている態様を説明したが、これに限定されない。撮像プログラム98は、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、撮像プログラム98は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 本出願は、2017年9月27日出願の日本出願である特願2017-186448の優先権を主張するものであり、この出願の全内容は参照により本明細書に取り込まれる。また本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (11)

  1.  ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズと、
     前記ズームレンズの状態から前記撮像レンズの焦点距離を取得する取得部と、
     前記取得部により取得された焦点距離に応じて前記フォーカスレンズの状態を変化させるズームトラッキング制御を行う制御部と、
     を備え、
     前記制御部は、前記取得部により取得された焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、前記ズームトラッキング制御における基準を異ならせる
     撮像装置。
  2.  前記制御部は、オートフォーカスが実行中ではない場合は、現在の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行い、オートフォーカスが実行中である場合は、オートフォーカスの実行前の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行う
     請求項1に記載の撮像装置。
  3.  前記制御部は、オートフォーカスが実行中である場合に、オートフォーカスの実行前の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行う際の前記フォーカスレンズの駆動量に基づいて制御を変更する
     請求項2に記載の撮像装置。
  4.  前記制御部は、前記取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、オートフォーカスの実行前の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行う際の前記フォーカスレンズの駆動量が閾値以下である場合は、オートフォーカスを継続させ、前記駆動量が前記閾値を超える場合は、オートフォーカスを中断させて、オートフォーカスの実行前の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行う
     請求項3に記載の撮像装置。
  5.  前記閾値は、前記フォーカスレンズの位置を変更しながらオートフォーカスの評価値を導出する際の連続する前記位置間の距離未満の値である
     請求項4に記載の撮像装置。
  6.  前記制御部は、前記取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、オートフォーカスの評価値のピーク値が検出されている場合は、オートフォーカスを中断させて、前記評価値が前記ピーク値となる前記フォーカスレンズの位置を基準としたズームトラッキング制御を行い、前記評価値のピーク値が検出されていない場合は、オートフォーカスを継続させる制御を行う
     請求項1に記載の撮像装置。
  7.  前記制御部は、前記取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中である場合に、オートフォーカスの探索方向と、ズームトラッキング制御に伴う前記フォーカスレンズの駆動方向が逆方向である場合は、オートフォーカスを中断させて、オートフォーカスの実行前の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行い、同じ方向である場合は、オートフォーカスを継続させる制御を行う
     請求項1に記載の撮像装置。
  8.  前記制御部は、前記取得部により取得された焦点距離の変化が検出された場合で、オートフォーカスが実行中である場合で、かつオートフォーカスを継続させる場合、オートフォーカスの探索範囲の終了位置をズームトラッキング制御に伴う前記フォーカスレンズの駆動量分だけ変更してオートフォーカスを行わせる制御を行う
     請求項4から請求項7の何れか1項に記載の撮像装置。
  9.  前記制御部は、前記取得部により取得された焦点距離の変化が検出された場合で、かつオートフォーカスが実行中ではない場合、現在の前記フォーカスレンズの位置を基準としたズームトラッキング制御を行う
     請求項1から請求項8の何れか1項に記載の撮像装置。
  10.  ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズを備えた撮像装置が実行する撮像方法であって、
     前記ズームレンズの状態から前記撮像レンズの焦点距離を取得し、
     取得した焦点距離に応じて前記フォーカスレンズの状態を変化させるズームトラッキング制御を行うにあたり、取得した焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、前記ズームトラッキング制御における基準を異ならせる
     撮像方法。
  11.  ズームレンズとフォーカスレンズとを含む撮像光学系を有する撮像レンズを備えた撮像装置が有するコンピュータに、
     前記ズームレンズの状態から前記撮像レンズの焦点距離を取得し、
     取得した焦点距離に応じて前記フォーカスレンズの状態を変化させるズームトラッキング制御を行うにあたり、取得した焦点距離の変化が検出された場合に、オートフォーカスが実行中か否かによって、前記ズームトラッキング制御における基準を異ならせる
     処理を実行させるためのプログラム。
PCT/JP2018/024239 2017-09-27 2018-06-26 撮像装置、撮像方法、及びプログラム WO2019064759A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019544274A JP6653790B2 (ja) 2017-09-27 2018-06-26 撮像装置、撮像方法、及びプログラム
CN201880062581.8A CN111183383B (zh) 2017-09-27 2018-06-26 摄像装置、摄像方法及存储介质
US16/830,059 US11394868B2 (en) 2017-09-27 2020-03-25 Imaging device, imaging method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-186448 2017-09-27
JP2017186448 2017-09-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/830,059 Continuation US11394868B2 (en) 2017-09-27 2020-03-25 Imaging device, imaging method, and program

Publications (1)

Publication Number Publication Date
WO2019064759A1 true WO2019064759A1 (ja) 2019-04-04

Family

ID=65903361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/024239 WO2019064759A1 (ja) 2017-09-27 2018-06-26 撮像装置、撮像方法、及びプログラム

Country Status (4)

Country Link
US (1) US11394868B2 (ja)
JP (1) JP6653790B2 (ja)
CN (1) CN111183383B (ja)
WO (1) WO2019064759A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022150602A (ja) * 2021-03-26 2022-10-07 キヤノン株式会社 撮像装置、情報処理装置、撮像装置の制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217181A (ja) * 1992-10-27 1994-08-05 Olympus Optical Co Ltd カメラ
JP2014222305A (ja) * 2013-05-14 2014-11-27 オリンパス株式会社 カメラシステムおよび焦点調節方法
JP2015045676A (ja) * 2013-08-27 2015-03-12 オリンパス株式会社 撮影装置およびカメラシステム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3382979B2 (ja) * 1992-10-27 2003-03-04 オリンパス光学工業株式会社 カメラ
JP3679693B2 (ja) 2000-07-31 2005-08-03 三洋電機株式会社 オートフォーカスカメラ
JP2006162821A (ja) * 2004-12-06 2006-06-22 Sony Corp 撮像装置、撮像装置の制御方法、撮像装置の制御方法のプログラム及び撮像装置の制御方法のプログラムを記録した記録媒体
KR101129385B1 (ko) * 2005-05-24 2012-03-26 삼성전자주식회사 줌 트래킹 방법 및 이를 수행하는 이미지 처리장치
KR20070016351A (ko) * 2005-08-03 2007-02-08 삼성전기주식회사 줌 트래킹 제어방법
JP5415899B2 (ja) * 2008-10-30 2014-02-12 パナソニック株式会社 撮像装置
JP5782843B2 (ja) 2011-06-09 2015-09-24 株式会社ニコン 撮像装置
CN104040404B (zh) * 2012-01-13 2016-11-09 佳能株式会社 镜头单元及其控制方法和摄像设备及其控制方法
KR101293245B1 (ko) * 2012-02-21 2013-08-09 (주)비에이치비씨 광학 줌 카메라의 줌 트래킹 자동 초점 제어기 및 그 제어 방법
JP6320095B2 (ja) * 2014-03-17 2018-05-09 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
JP6659100B2 (ja) * 2015-08-06 2020-03-04 キヤノン株式会社 撮像装置
JP6706819B2 (ja) * 2016-02-15 2020-06-10 パナソニックIpマネジメント株式会社 ズーム機構を備えた撮像装置及び交換レンズ
JP7039254B2 (ja) * 2017-10-31 2022-03-22 キヤノン株式会社 レンズ制御装置、該レンズ制御装置を備える撮像装置、及びレンズ制御方法
JP6799711B2 (ja) * 2018-03-23 2020-12-16 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
US11399127B2 (en) * 2019-02-27 2022-07-26 Canon Kabushiki Kaisha Imaging apparatus and method for controlling the same
US11202013B2 (en) * 2020-01-30 2021-12-14 Canon Kabushiki Kaisha Control apparatus, lens apparatus, imaging apparatus, control method, and non-transitory computer-readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217181A (ja) * 1992-10-27 1994-08-05 Olympus Optical Co Ltd カメラ
JP2014222305A (ja) * 2013-05-14 2014-11-27 オリンパス株式会社 カメラシステムおよび焦点調節方法
JP2015045676A (ja) * 2013-08-27 2015-03-12 オリンパス株式会社 撮影装置およびカメラシステム

Also Published As

Publication number Publication date
US11394868B2 (en) 2022-07-19
JPWO2019064759A1 (ja) 2020-05-28
CN111183383A (zh) 2020-05-19
US20200228725A1 (en) 2020-07-16
JP6653790B2 (ja) 2020-02-26
CN111183383B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
US11223774B2 (en) Imaging apparatus, lens apparatus, and method for controlling the same
JP7087156B2 (ja) 撮像装置、撮像方法、及びプログラム
US11412128B2 (en) Imaging device, control method of imaging device, and control program of imaging device to change zoom tracking information based on contrast values
JP2007140278A (ja) デジタルカメラ、露出条件決定方法
US10477101B2 (en) Focus detection apparatus, control method and storage medium
JP2007178480A (ja) デジタルカメラ、自動焦点調節方法、および自動焦点調節プログラム
US11467367B2 (en) Imaging device, imaging method, and program
US9274402B2 (en) Imaging device that executes auto focus control by referring to distance image data regarding a depth of a region
JP6653790B2 (ja) 撮像装置、撮像方法、及びプログラム
EP3562142A1 (en) Lens apparatus, image capturing apparatus, control method of lens apparatus, and control method of image capturing apparatus
US10986273B2 (en) Image pickup apparatus and lens device that have image blur correction function
US11294145B2 (en) Imaging device, imaging method, and program capable of suppressing decrease in autofocusing accuracy
JP4847352B2 (ja) 撮像装置及びその制御方法
JP6168827B2 (ja) 像振れ補正装置および光学機器
JP2010147612A (ja) カメラおよびカメラシステム
JP4900134B2 (ja) 焦点調節装置、カメラ
JP2006201568A (ja) 手ぶれ検出可能なカメラ
US20210364888A1 (en) Lens apparatus, image pickup apparatus, and camera system
US20230217112A1 (en) Control apparatus, lens apparatus, image pickup apparatus, image pickup system, control method, and a non-transitory computer-readable storage medium
US20220321785A1 (en) Control apparatus, imaging apparatus, lens apparatus, and control method for image blur correction system
JP5619227B2 (ja) 撮像装置及び該撮像装置の制御方法
JP2010002847A (ja) 撮像装置及び撮像方法
JP2006254191A (ja) 電子カメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18861478

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019544274

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18861478

Country of ref document: EP

Kind code of ref document: A1