WO2019064988A1 - 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム - Google Patents

撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム Download PDF

Info

Publication number
WO2019064988A1
WO2019064988A1 PCT/JP2018/030565 JP2018030565W WO2019064988A1 WO 2019064988 A1 WO2019064988 A1 WO 2019064988A1 JP 2018030565 W JP2018030565 W JP 2018030565W WO 2019064988 A1 WO2019064988 A1 WO 2019064988A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
zoom tracking
lens
zoom
contrast
Prior art date
Application number
PCT/JP2018/030565
Other languages
English (en)
French (fr)
Inventor
光司 森
伸一郎 藤木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019544412A priority Critical patent/JP6727453B2/ja
Priority to CN201880061077.6A priority patent/CN111133355B/zh
Publication of WO2019064988A1 publication Critical patent/WO2019064988A1/ja
Priority to US16/830,044 priority patent/US11412128B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • G02B7/102Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • the technology of the present disclosure relates to an imaging device, a control method of the imaging device, and a control program of the imaging device.
  • an imaging device performing a zoom tracking operation of moving a focus lens according to a zoom tracking curve indicating a correspondence between a focal length and a position of a focus lens according to driving of the zoom lens.
  • Japanese Patent Application Laid-Open Nos. 2008-129455 and 9-311265 describe techniques for performing a zoom tracking operation according to a zoom tracking curve obtained by estimation or complementation from a zoom tracking curve already obtained. It is done.
  • Japanese Patent Laid-Open No. 9-33792 describes a technique for changing the zoom tracking curve depending on the direction in which the object is focused, using the output from which the imaging signal is detected during the zoom tracking operation.
  • the present disclosure provides an imaging device, a control method of the imaging device, and a control program of the imaging device capable of improving the accuracy of zoom tracking while suppressing the appearance of the captured image from deteriorating.
  • a first aspect of the present disclosure is an imaging apparatus, which includes an imaging lens having an imaging optical system including a zoom lens and a focus lens, and an imaging element, and is obtained by imaging an object with the imaging element through the imaging optical system.
  • An imaging unit that outputs a captured image signal, an image generation unit that generates a captured image according to the image signal, an acquisition unit that acquires a focal distance of the imaging lens from the state of the zoom lens, Control for changing the position of the focus lens along the optical axis direction according to the focal length acquired by the acquisition unit, based on zoom tracking information representing the correspondence between the lens and the focus position, and first control
  • the contrast information representing the contrast of the captured image is acquired multiple times during execution of the contrast, and the contrast represented by each of the acquired plurality of contrast information Based on the change in the preparative value, and a control unit that performs second control for controlling to change the zoom tracking information used in the first control.
  • the zoom tracking information is a zoom tracking curve that represents the correspondence between the focal length and the focus position.
  • the second control is performed by shifting the zoom tracking curve used for the first control by the front depth of field or the rear depth of field
  • the control is to change to a zoom tracking curve shifted by a minute.
  • the second control includes zoom tracking according to a peak value when the contrast value represented by each of the plurality of contrast information includes the peak value of the contrast value. It is control to change to a curve.
  • the second control is performed when the contrast curve represented by the contrast value represented by each of the plurality of contrast information shows an increasing tendency.
  • the control is to change to a zoom tracking curve shifted by the front side depth of field.
  • the second control reduces the contrast curve represented by the contrast value represented by each of the plurality of contrast information When the tendency is indicated, the control is changed to the zoom tracking curve shifted by the rear side depth of field.
  • the second control causes the zoom tracking curve used for the first control to be another zoom tracking curve within a predetermined range from the zoom tracking curve before change. It is control to change.
  • An eighth aspect of the present disclosure is the seventh aspect, wherein the predetermined range is a range corresponding to the depth of field according to the zoom tracking curve before change.
  • control unit is configured to determine a speed at which the change in position of the focus lens to be changed by the first control is predetermined. If it is later, prohibit the execution of the second control.
  • the predetermined speed is a speed at which a change in position of the focus lens can not follow the zoom tracking curve.
  • control unit is configured to change a change speed at which the focal distance acquired by the acquisition unit changes is less than a predetermined change speed. In the case, the second control is performed.
  • control unit is configured to control the contrast value represented by the contrast information before execution of the first control, and the first control If the difference from the contrast value represented by the contrast information after execution is equal to or greater than a predetermined threshold value, execution of the second control is prohibited.
  • the thirteenth aspect of the present disclosure is the frame rate according to any one of the first to twelfth aspects, wherein the control unit outputs an image signal to the imaging unit during an operation of acquiring contrast information. Control to make it higher than in the other cases.
  • the control unit changes the focal length from the wide angle side to the telephoto side by movement of the zoom lens. 2) Perform control, and prohibit the second control when the focal length changes from the telephoto side to the wide angle side.
  • a fifteenth aspect of the present disclosure is a control method of an imaging device, including an imaging lens having an imaging optical system including a zoom lens and a focus lens, and an imaging element, and imaging an object with the imaging element through the imaging optical system
  • An imaging apparatus comprising: an imaging unit that outputs an image signal obtained by the image processing unit; an image generation unit that generates a captured image according to the image signal; and an acquisition unit that acquires the focal distance of the imaging lens from the state of the zoom lens Control method according to a subject distance, based on zoom tracking information indicating a correspondence between a focal length and a focus position, according to the focal length of the focus lens acquired by the acquisition unit.
  • the first control for changing the position is performed, and contrast information representing the contrast of the captured image is acquired multiple times during execution of the first control, and the acquired plurality of controls are acquired. Based on the change in contrast values represented by each strike information comprises a process for performing second control for changing the zoom tracking information used in the first control.
  • a sixteenth aspect of the present disclosure is a control program for an imaging device, including an imaging lens having an imaging optical system including a zoom lens and a focus lens in a computer, and an imaging element, and imaging a subject through the imaging optical system
  • a control program of the imaging device, the computer including a focusing lens corresponding to the focal distance acquired by the acquiring unit on the basis of zoom tracking information representing a correspondence between the focal distance and the focus position according to the subject distance.
  • a first control for changing the position along the optical axis direction is performed, and a contrast representing the contrast of a captured image during execution of the first control
  • a second control of changing the zoom tracking information used for the first control based on the change of the contrast value represented by each of the acquired plurality of contrast information. belongs to.
  • an imaging device a control method of an imaging device, and a control program of an imaging device, which can improve zoom tracking accuracy while suppressing deterioration in appearance of a captured image.
  • the imaging device 10 of the present exemplary embodiment is a lens-interchangeable digital camera, and includes an imaging device body 12 and an imaging lens 14.
  • the imaging lens 14 is exchangeably mounted on the imaging device body 12.
  • the lens barrel of the imaging lens 14 is provided with a focus ring 16 used in the manual focus mode.
  • the imaging lens 14 includes a lens unit 18.
  • the lens unit 18 of the present exemplary embodiment is an example of the imaging optical system of the present disclosure.
  • the lens unit 18 is a combination lens in which a plurality of lenses including a focusing lens 84 are combined.
  • the focus lens 84 moves in the direction of the optical axis L1 along with the manual rotation operation of the focus ring 16, and a subject on the light receiving surface 22A (see FIG. 3) of the image sensor 22 described later at the focusing position according to the subject distance.
  • Subject light which is reflected light indicating.
  • the "subject distance" is the distance from the light receiving surface 22A to the subject.
  • a dial 24 and a release button 26 are provided on the top surface of the imaging device body 12.
  • the dial 24 is operated at the time of various settings such as switching between the imaging mode and the reproduction mode. Therefore, in the imaging device 10, when the dial 24 is operated by the user, the imaging mode and the reproduction mode are selectively set as the operation mode.
  • the imaging device 10 has a still image capturing mode and a moving image capturing mode as operation modes of the imaging system.
  • the still image capturing mode is an operation mode for recording a still image obtained by capturing an object by the imaging device 10
  • the moving image capturing mode is to record a moving image obtained by capturing an object by the imaging device 10. It is an operation mode.
  • still images and moving images are simply referred to as “captured images” when they are collectively referred to without distinction.
  • the release button 26 is configured to be capable of detecting a two-step pressing operation of an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to, for example, a state in which the standby position is depressed to the intermediate position (half pressed position), and the imaging instruction state is a state in which the final depressed position (full pressed position) beyond the intermediate position is depressed.
  • Point to In the following "a state of being pressed from a standby position to a half-pressed position" is referred to as "a half-pressed state”, and "a state of being pressed from a standby position to a fully pressed position” is referred to as a "full-pressed state”.
  • the imaging condition is adjusted by half-pressing the release button 26. Thereafter, when full-pressing continues, the main exposure is performed.
  • the release button 26 is half-pressed and the AE (Auto Exposure) function is activated to set the exposure state, then the AF (Auto Focus) function is activated and the focusing is controlled.
  • the AF Auto Focus
  • a display 28, a cross key 30, a MENU / OK key 32, a BACK / DISP button 34, a finder 36, and a touch panel 38 are provided on the back of the imaging device body 12.
  • the display 28 is, for example, an LCD (Liquid Crystal Display), and displays an image, characters, and the like obtained by the imaging device 10 capturing an object.
  • the display 28 of the present exemplary embodiment is an example of the display unit of the present disclosure.
  • the display 28 of the present exemplary embodiment is configured as a touch panel display 29 together with the touch panel 38.
  • the display 28 is used to display a live view image in the imaging mode.
  • the live view image is also referred to as a through image, and is a continuous frame image obtained by imaging an object in continuous frames by the imaging element 22 of the imaging device 10.
  • the term "captured image" also includes a live view image.
  • the display 28 is also used to display a still image obtained by imaging in a single frame when a still image capturing instruction is given. Furthermore, the display 28 is also used to display a reproduced image in the reproduction mode and to display a menu screen or the like.
  • a transmissive touch panel 38 is superimposed on the surface of the display area of the display 28.
  • the touch panel 38 detects a touch by an indicator such as a finger or a stylus pen, for example.
  • the touch panel 38 outputs detection result information indicating a detection result such as presence or absence of a touch on the touch panel 38 at a predetermined cycle (for example, 100 milliseconds) as a predetermined output destination (for example, a central processing unit (CPU) described later). 74, see FIG. 3).
  • the detection result information includes two-dimensional coordinates (hereinafter referred to as "coordinates") that can specify the contact position by the indicator on the touch panel 38 when the touch panel 38 detects a touch by the indicator, and the touch panel 38 If no contact is detected, coordinates are not included.
  • the cross key 30 functions as a multifunction key that outputs an instruction content signal according to selection of one or more menus and various instructions such as zoom and frame advance.
  • the MENU / OK key 32 has a function as a menu (MENU) button for instructing one or more menus to be displayed on the screen of the display 28, and permission to instruct confirmation and execution of selected contents (OK ) Is an operation key having a function as a button.
  • the BACK / DISP button 34 is used to delete a desired object such as a selected item, cancel a designated content, or return to the previous operation state.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the imaging device 10 of the present exemplary embodiment.
  • FIG. 4 is a block diagram showing an example of the hardware configuration of the imaging lens 14 included in the imaging device 10 of the present exemplary embodiment.
  • the imaging device body 12 of the present exemplary embodiment includes the mount 13 (see also FIG. 1), and the imaging lens 14 includes the mount 15.
  • the imaging lens 14 is exchangeably mounted on the imaging device main body 12 by the mount 15 being coupled to the mount 13.
  • the imaging lens 14 includes the lens unit 18, the diaphragm 19, and the control device 40 described above.
  • the control device 40 is electrically connected to the CPU 74 through the external I / F (Interface) 72 of the imaging device main body 12 by connecting the mount 15 to the mount 13, and according to the instruction of the CPU 74, Control the whole.
  • the lens unit 18 of the present exemplary embodiment includes an incident lens 80, a zoom lens 82, and the focus lens 84 described above.
  • the incident lens 80, the zoom lens 82, and the focus lens 84 are provided along the optical axis L1, and the focus lens 84, the zoom lens 82, and the incident lens 80 are disposed in this order from the diaphragm 19 side along the optical axis L1. It is done.
  • Subject light is incident on the entrance lens 80.
  • the incident lens 80 transmits subject light and guides it to the zoom lens 82.
  • the zoom lens 82 of the present exemplary embodiment includes a plurality of lenses movable along the optical axis L1, and the focal length of the imaging lens 14 (hereinafter simply referred to as “focal length”) by adjusting the state of the zoom lens 82. Adjust). Specifically, in the zoom lens 82, when a zoom ring (not shown) provided on the imaging lens 14 is rotated, each lens moves closer to or away from the optical axis L1, and light between the lenses is moved. The positional relationship along the axis L1 is adjusted to adjust the focal length. The zoom lens 82 transmits subject light incident from the incident lens 80 and guides the light to the focus lens 84.
  • the focus lens 84 is a lens movable along the optical axis L1, and changes the focusing state of the subject image formed on the light receiving surface 22A of the imaging device 22 by moving along the optical axis L1.
  • the focus lens 84 transmits subject light incident from the zoom lens 82 and guides the light to the stop 19.
  • the diaphragm 19 adjusts the light amount of subject light transmitted through the lens unit 18 and guides the subject light into the imaging device body 12.
  • the control device 40 of the imaging lens 14 includes a lens side main control unit 86, a focal distance sensor 88, a focus lens drive unit 90, a lens position sensor 92, an aperture drive unit 94, and an external I / F 96.
  • the lens side main control unit 86 includes a CPU 98, a primary storage unit 100, and a secondary storage unit 102.
  • the CPU 98 controls the entire imaging lens 14.
  • the primary storage unit 100 is a volatile memory used as a work area or the like when executing various programs.
  • An example of the primary storage unit 100 is a RAM (Random Access Memory).
  • the secondary storage unit 102 is a non-volatile memory in which various programs, various parameters, and the like are stored in advance. Examples of the secondary storage unit 102 include an EEPROM (Electrically Erasable Programmable Read-Only Memory), a flash memory, and the like.
  • the CPU 98, the primary storage unit 100, and the secondary storage unit 102 are connected to the bus line 104.
  • the focal length sensor 88, the focus lens drive unit 90, the lens position sensor 92, the aperture drive unit 94, and the external I / F 96 are also connected to the bus line 104.
  • the external I / F 96 is connected to the external I / F 72 of the imaging device main body 12 by connecting the mount 13 to the mount 15, and cooperates with the external I / F 72 to connect the CPU 98 and the CPU 74 of the imaging device main body 12 Control transmission and reception of various information during the
  • the focal length sensor 88 detects the state of the zoom lens 82 from the rotation state of the focus ring 16 and converts the detected state of the zoom lens 82 into a focal length. Then, the focal length sensor 88 outputs focal length information indicating the focal length obtained by conversion to the CPU 98.
  • the focus lens drive unit 90 includes a focus lens drive motor (not shown).
  • the focus lens drive unit 90 operates the focus lens drive motor according to the drive pulse under the control of the CPU 98 in accordance with the instruction received by the reception device 62, to align the focus lens 84 along the optical axis L1.
  • the lens position sensor 92 detects the position along the optical axis L1 of the focus lens 84, and outputs lens position information indicating the detected position to the CPU 98.
  • the diaphragm drive unit 94 includes a diaphragm drive motor (not shown).
  • the diaphragm drive unit 94 adjusts the size of the aperture of the diaphragm 19 by operating the diaphragm drive motor under the control of the CPU 98 in accordance with the instruction received by the reception device 62.
  • the imaging device 10 of the present exemplary embodiment performs autofocusing according to a so-called contrast AF method. Specifically, as shown in FIG. 5 as an example, the imaging device 10 of the present exemplary embodiment moves the focus lens 84 to the rear side (light receiving surface side) or the front side (subject side) along the optical axis L1.
  • the autofocus contrast value is derived at a plurality of different positions while Then, the imaging device 10 performs focusing control by moving the focus lens 84 to a position where the derived contrast value is a peak value.
  • the contrast value of the autofocus area is applied as the contrast value.
  • the secondary storage unit 102 of the lens side main control unit 86 stores tracking data 110.
  • the tracking data 110 is data used for a zoom tracking operation that changes the position of the focus lens 84 along the optical axis L1 according to the focal length.
  • the tracking data 110 of the present exemplary embodiment is an example of zoom tracking information of the present disclosure.
  • the tracking data 110 of the present exemplary embodiment includes the focal length and the position of the focusing lens 84 along the optical axis L1 when the subject distance is infinity (INF (INF inity)). Contains data indicating the correspondence relationship between Also, the tracking data 110 includes data indicating the correspondence between the focal length and the position of the focus lens 84 along the optical axis L1 when the subject distance is the shortest object distance (MOD (Minimum Object Distance)).
  • MOD Minimum Object Distance
  • the tracking data 110 is a combination of the focal length representing the zoom tracking curve and the position of the focus lens 84 for each zoom tracking curve corresponding to a plurality of types of object distances assumed in advance including the infinite distance and the shortest object distance.
  • it may be data stored in the form of a table, or data represented in the form of a function with the depth of field or focal length as a parameter.
  • the zoom tracking curve included in the tracking data 110 may be derived by complementing the zoom tracking curve using a known method. It is made possible.
  • the imaging device body 12 of the present exemplary embodiment includes the imaging device 22, the first mirror 42, the second mirror 44, the body side main control unit 46, the mirror driving unit 48, and the imaging device driver 50. , An image signal processing circuit 52, an image memory 54, an image processing unit 56, and a display control unit 58.
  • the imaging apparatus main body 12 also includes a reception I / F 60, a reception device 62, a media I / F 64, and an external I / F 72.
  • the main body-side main control unit 46 is an example of a computer according to the technology of the present disclosure, and includes a CPU 74, a primary storage unit 76, and a secondary storage unit 78.
  • the CPU 74 controls the entire imaging device 10.
  • the primary storage unit 76 is a volatile memory used as a work area or the like in the execution of various programs.
  • An example of the primary storage unit 76 is a RAM or the like.
  • the secondary storage unit 78 of the present exemplary embodiment is a non-volatile memory in which various programs including the zoom tracking control program 79 described above and various parameters and the like are stored in advance. Examples of the secondary storage unit 78 include an EEPROM or a flash memory.
  • the CPU 74 reads out the zoom tracking control program 79 from the secondary storage unit 78, expands it in the primary storage unit 76, and executes zoom tracking control processing described later in detail according to the expanded zoom tracking control program 79.
  • the CPU 74 operates as an acquisition unit and a control unit of the disclosed technology by executing the zoom tracking control program 79.
  • the zoom tracking control program 79 of the present exemplary embodiment is an example of the control program of the present disclosure.
  • the CPU 74, the primary storage unit 76, and the secondary storage unit 78 are connected to the bus line 81.
  • the mirror driving unit 48, the imaging element driver 50, and the image signal processing circuit 52 are also connected to the bus line 81.
  • the image memory 54, the image processing unit 56, the display control unit 58, the reception I / F 60, the media I / F 64, and the external I / F 72 are also connected to the bus line 81.
  • the first mirror 42 is interposed between the light receiving surface 22A of the imaging element 22 and the lens unit 18, and is a movable mirror movable to the light receiving surface covering position ⁇ and the light receiving surface open position ⁇ .
  • the first mirror 42 is connected to the mirror driving unit 48, and the mirror driving unit 48 drives the first mirror 42 under the control of the CPU 42 to open the light receiving surface covering position ⁇ and the light receiving surface of the first mirror 42.
  • the first mirror 42 is disposed at the light reception surface covering position ⁇ by the mirror driving unit 48 when the light reception surface 22A does not receive the object light, and the mirror drive is performed when the light reception surface 22A receives the object light.
  • the portion 48 is disposed at the light receiving surface open position ⁇ .
  • the first mirror 42 covers the light receiving surface 22 A, and reflects the subject light sent from the lens unit 18 to guide it to the second mirror 44.
  • the second mirror 44 reflects the subject light guided from the first mirror 42 to guide it to the finder 36 via an optical system (not shown).
  • the finder 36 transmits subject light guided by the second mirror 44.
  • the state in which the light receiving surface 22A is covered by the first mirror 42 is released, and the subject light is received by the light receiving surface 22A without being reflected by the first mirror 42.
  • the image sensor driver 50 is connected to the image sensor 22.
  • a charge coupled device (CCD) image sensor is used as the imaging device 22, but the technology of the present disclosure is not limited thereto.
  • CMOS complementary metal-oxide-semiconductor
  • Other image sensors such as an image sensor may be used.
  • the image signal processing circuit 52 reads an image signal for one frame from the imaging device 22 for each pixel according to the horizontal synchronization signal.
  • the image signal processing circuit 52 performs various processing such as correlated double sampling processing, automatic gain adjustment, and A / D (Analog / Digital) conversion on the read image signal.
  • the image signal processing circuit 52 carries out various processes on the image signal, and digitizes the image signal at a specific frame rate (for example, several tens of frames per second) defined by a clock signal supplied from the CPU 74. It is outputted to the image memory 54 every one frame.
  • the imaging device 22 and the imaging device driver 50 of the present exemplary embodiment are an example of the imaging unit of the present disclosure.
  • the image memory 54 temporarily holds the image signal input from the image signal processing circuit 52.
  • the image processing unit 56 acquires an image signal for each frame at a specific frame rate from the image memory 54, and performs various processing such as gamma correction, luminance conversion, color difference conversion, and compression processing on the acquired image signal. Do. Further, the image processing unit 56 outputs an image signal obtained by performing various processes to the display control unit 58 for each frame at a specific frame rate. Further, the image processing unit 56 outputs an image signal obtained by performing various processes to the CPU 74 in response to a request from the CPU 74.
  • the image processing unit 56 of the present exemplary embodiment is an example of the image generation unit of the present disclosure.
  • the display control unit 58 is connected to the display 28 of the touch panel display 29 and controls the display 28 under the control of the CPU 74.
  • the display control unit 58 also outputs the image signal input from the image processing unit 56 to the display 28 at a specific frame rate for each frame.
  • the display 28 displays an image indicated by the image signal input from the display control unit 58 at a specific frame rate as a live view image.
  • the display 28 also displays a still image which is a single frame image obtained by imaging in a single frame.
  • the display 28 displays a reproduced image, a menu screen, and the like.
  • the receiving device 62 has a dial 24, a release button 26, a cross key 30, a MENU / OK key 32, a BACK / DISP button 34, and the like, and receives various instructions from the user.
  • Reception device 62 of the present exemplary embodiment is an example of a reception unit of the present disclosure.
  • the touch panel 38 and the reception device 62 of the touch panel display 29 are connected to the reception I / F 60 and output an instruction content signal indicating the content of the received instruction to the reception I / F 60.
  • the reception I / F 60 outputs the input instruction content signal to the CPU 74.
  • the CPU 74 executes processing in accordance with the instruction content signal input from the reception I / F 60.
  • a memory card 66 is detachably connected to the media I / F 64.
  • the media I / F 64 performs recording and reading of an image file on the memory card 66 under the control of the CPU 74.
  • the image file read out from the memory card 66 by the media I / F 64 is decompressed by the image processor 56 under the control of the CPU 74 and displayed on the display 28 as a reproduced image.
  • the operation mode is switched according to the instruction received by the reception device 62.
  • the still image imaging mode and the moving image imaging mode are selectively set in accordance with the instruction accepted by the accepting device 62.
  • a still image file can be recorded on the memory card 66
  • a moving image file can be recorded on the memory card 66.
  • the CPU 74 controls the imaging device driver 50 to cause the imaging device 22 to perform main exposure for one frame.
  • the image processing unit 56 acquires an image signal obtained by performing exposure for one frame under the control of the CPU 74, performs compression processing on the acquired image signal, and generates a specific still image format. Generate a still image file.
  • the specific still image format may be, for example, a format of JPEG (Joint Photographic Experts Group) format.
  • the still image file is recorded on the memory card 66 via the media I / F 64 by the image processing unit 56 under the control of the CPU 74.
  • the image processing unit 56 When an instruction to capture a moving image is accepted by the release button 26 under the moving image capturing mode, the image processing unit 56 performs compression processing on the image signal for live view image, and the moving image of a specific moving image format Generate an image file.
  • the specific moving picture format may be, for example, a format of the Moving Picture Experts Group (MPEG).
  • MPEG Moving Picture Experts Group
  • the moving image file is recorded on the memory card 66 via the media I / F 64 by the image processing unit 56 under the control of the CPU 74.
  • the CPU 74 of the imaging device 10 reads the zoom tracking control program 79 from the secondary storage unit 78 and the primary storage unit 76.
  • the zoom tracking control process one example of which is illustrated in FIG.
  • the CPU 74 starts the zoom tracking operation. Specifically, the CPU 74 reads the tracking data 110 corresponding to the current subject distance from the secondary storage unit 102. Further, based on the zoom tracking curve indicated by the read tracking data 110, the CPU 74 starts the zoom tracking operation of moving the focus lens 84 by the focus lens drive unit 90 according to the movement of the zoom lens 82.
  • the CPU 74 of the present exemplary embodiment acquires the contrast value of the captured image before the start of the zoom tracking operation.
  • the CPU 74 determines whether the zoom lens 82 is moving in the direction in which the focal length changes from WIDE to TELE.
  • the resolution of the drive pulse for operating the focus lens drive motor is low at the position where the focal distance is the most WIDE, so the position of the focus lens 84 varies and the measurement accuracy is limited. .
  • the upper and lower limits of the variation of the position of the focus lens 84 are determined based on the depth of focus (depth of field) at the position where the focal distance is the most WIDE.
  • the zoom tracking curve U is the upper limit
  • the zoom tracking curve L is the lower limit
  • the range of the zoom tracking curve U and the zoom tracking curve L is an allowable range of blur occurring in the captured image.
  • the zoom tracking curve T1 When the zoom tracking operation is performed according to the zoom tracking curve T, the zoom tracking curve T1 according to the depth of field on the front side (subject side) with respect to the zoom tracking curve T and the subject on the rear side (light receiving surface 22A) If it is within the range with the zoom tracking curve T2 according to the depth of field, a desired captured image in focus can be obtained.
  • the zoom tracking curve T1 has the same zoom tracking curve U and the starting point on the WIDE side
  • the zoom tracking curve T2 has the same zoom tracking curve L and the starting point on the WIDE side.
  • the depth of field becomes shallower as the focal length increases, so the depth of field DT with respect to the zoom tracking curve T is shallower than the depth of field DW, as shown in FIG. Therefore, when the zoom lens 82 is moved in the direction in which the focal distance changes from WIDE to TELE in the zoom tracking operation, it is easily deviated from the in-focus position as compared to the case where the focal distance moves in the direction changing from TELE to WIDE. Become.
  • the zoom tracking curve used for the zoom tracking operation is appropriately zoomed according to the in-focus state. Control to change to tracking curve.
  • the zoom lens 82 is moved in the direction in which the focal length changes from TELE to WIDE, the change of the zoom tracking curve as described above is not performed.
  • step S102 Becomes a negative determination, and the process proceeds to step S104.
  • step S104 the CPU 74 executes the normal zoom tracking operation of moving the focus lens 84 by the focus lens drive unit 90 to the position based on the zoom tracking curve obtained in step S100 according to the movement of the zoom lens 82.
  • the zoom tracking control process is ended.
  • step S102 the determination in step S102 is positive, and the process proceeds to step S106.
  • the CPU 74 changes the frame rate at which the image signal is read from the imaging element 22 and generates a captured image to the highest value that the imaging device 10 can take.
  • the CPU 74 acquires the contrast value of the captured image a plurality of times according to the frame rate changed in step S106 while performing control to move the focus lens 84.
  • the frame rate that defines the timing of acquiring the contrast value is high, more contrast values (captured images) can be acquired as compared to the case where the frame rate is low. It is possible to change to a more appropriate zoom tracking curve and improve the accuracy of zoom tracking.
  • the CPU 74 determines whether the difference between the contrast value before starting the zoom tracking in step S100 and the representative value of the contrast values acquired a plurality of times acquired in step S108 is equal to or greater than a predetermined threshold value. It is determined whether or not.
  • the representative value of the contrast value is not particularly limited, and examples thereof include an average value, a mode value, and a maximum value of the contrast values acquired a plurality of times.
  • step S110 determines whether the difference between the contrast values is equal to or greater than a predetermined threshold value. If the difference between the contrast values is large, for example, by performing the zoom tracking operation, the blur of the captured image may be large or the original captured image may be largely blurred. In such a case, the acquired contrast is obtained. The value may be incorrect. If the acquired contrast values are inaccurate, then the concern is that changes to the appropriate zoom tracking curve will not occur. Therefore, in the present exemplary embodiment, a threshold is determined in advance for determining that the acquired contrast value is likely to be an incorrect value, and zoom tracking is performed when the difference between the contrast values is equal to or greater than a predetermined threshold. The process proceeds to step S132 without changing the curve. In the present exemplary embodiment, when the difference in contrast value is large in this manner, the change of the zoom tracking curve can be inhibited to improve the accuracy of the change of the zoom tracking curve.
  • step S110 determines whether the difference between the contrast values is equal to or greater than the predetermined threshold. If the difference between the contrast values is less than the predetermined threshold, the determination in step S110 is negative and the process proceeds to step S112.
  • step S112 the CPU 74 derives the state of change in contrast value based on the plurality of contrast values acquired in step S107.
  • a contrast curve represented by a plurality of acquired contrast values is derived as a state of change of the contrast value as an example.
  • the zoom tracking operation is performed using the zoom tracking curve Ta on the rear side (the light receiving surface 22A side) of the zoom tracking curve Tt.
  • the contrast values obtained when the focal lengths are F1, F2, and F3 are a1, a2, and a3, respectively.
  • the contrast value is represented by the horizontal axis (x axis) and the position of the focus lens 84 is represented by the vertical axis (y axis)
  • the focal length is in the direction from WIDE to TELE.
  • the contrast value also increases with the change of the position of the focus lens 84 in the positive direction (subject side). In other words, it indicates the tendency of the contrast curve represented by the plurality of acquired contrast values to increase (see arrow A in FIG. 12).
  • the position of the focus lens 84 is from the rear side (the light receiving surface 22A side) to the front side as the focal length changes from WIDE to TELE.
  • the correspondence between the focal length and the position of the focus lens 84 when changing to (subject side) is shown, the correspondence between the focal length and the position of the focus lens 84 differs depending on the focus lens 84 and the zoom lens 82. .
  • the zoom tracking operation is performed using the zoom tracking curve Tc on the rear side (the light receiving surface 22A side) than the zoom tracking curve Tt.
  • the contrast values obtained when the focal lengths are F1, F2, and F3 are c1, c2, and c3, respectively.
  • the contrast value is represented by the horizontal axis (x axis) and the position of the focus lens 84 is represented by the vertical axis (y axis)
  • the focal length is in the direction from WIDE to TELE.
  • the contrast value also increases with the change of the position of the focus lens 84 in the positive direction (object side).
  • the contrast curve represented by the plurality of acquired contrast values has a tendency to increase (see arrow C in FIG. 14).
  • the zoom tracking operation is performed using the zoom tracking curve Tb on the front side (subject side) of the zoom tracking curve Tt.
  • the contrast values obtained when the focal lengths are F1, F2, and F3 are b1, b2, and b3, respectively.
  • the contrast value is represented by the horizontal axis (x axis) and the position of the focus lens 84 is represented by the vertical axis (y axis)
  • the focal length is in the direction from WIDE to TELE.
  • the contrast value decreases with the change of the position of the focus lens 84 in the positive direction (object side).
  • the contrast curve represented by the plurality of acquired contrast values tends to decrease (see arrow B in FIG. 12).
  • the zoom tracking operation is performed using the zoom tracking curve Td on the front side (subject side) of the zoom tracking curve Tt.
  • the contrast values obtained when the focal lengths are F1, F2 and F3 are d1, d2 and d3, respectively.
  • the contrast value is represented by the horizontal axis (x axis) and the position of the focus lens 84 is represented by the vertical axis (y axis)
  • the focal length is in the direction from WIDE to TELE.
  • the contrast value decreases with a change in the position of the focus lens 84 in the positive direction (subject side). In other words, it indicates the tendency of the contrast curve represented by the plurality of acquired contrast values to decrease (see arrow D in FIG. 14).
  • the zoom tracking curve on the rear side (the light receiving surface 22A side) of the current zoom tracking curve is displayed. Control to change.
  • the zoom tracking curve corresponding to the peak values is changed to the in-focus state. Control to change to a zoom tracking curve according to the condition
  • step S114 the CPU 74 determines whether the contrast value obtained in step S108 includes a peak value. If the obtained contrast value includes a peak value, the determination in step S114 is affirmative, and the process proceeds to step S116.
  • step S116 the CPU 74 determines the zoom tracking curve to be changed as the zoom tracking curve corresponding to the peak value.
  • step S114 determines whether the peak value is included in the contrast value obtained in step S108.
  • step S118 the CPU 74 determines whether the contrast curve indicated by the plurality of contrast values derived in step S112 indicates an increasing tendency. If the contrast curve indicates an increasing tendency, the determination in step S118 is affirmative, and the process proceeds to step S120.
  • step S120 the CPU 74 determines the zoom tracking curve to be changed as the zoom tracking curve on the front side (subject side) as described above. In the present exemplary embodiment, the zoom tracking curve can be changed while the bint is matched by determining the zoom tracking curve on the front side by the depth of field.
  • step S116 determines whether the contrast curve does not show an increasing tendency.
  • step S122 the CPU 74 determines whether the contrast curve indicated by the plurality of contrast values derived in step S112 indicates a decreasing tendency. If the contrast curve indicates a decreasing tendency, the determination in step S122 is positive, and the process proceeds to step S124.
  • step S124 the CPU 74 determines the zoom tracking curve to be changed as the zoom tracking curve on the rear side (the light receiving surface 22A side) as described above. In the present exemplary embodiment, by determining the zoom tracking curve on the rear side by the depth of field, it is possible to change the zoom tracking curve while keeping the bint matching.
  • step S122 determines whether the contrast curve does not show a decreasing tendency. If the contrast curve does not show a decreasing tendency, the determination in step S122 is negative, and the process proceeds to step S132.
  • step S126 the CPU 74 determines whether or not the zoom tracking curve of the change destination determined in any of the above steps S116, S120 and S124 is within a predetermined range.
  • the predetermined range is a range of zoom tracking curve U and zoom tracking curve L, which is an allowable range of blur occurring in a captured image as described above with reference to FIG. It is inside.
  • step S126 determines whether the zoom tracking curve to be changed is within the predetermined range. If the zoom tracking curve to be changed is within the predetermined range, the determination in step S126 is affirmative, and the process proceeds to step S128. In step S128, the CPU 74 changes the zoom tracking curve used for the zoom tracking operation to the zoom tracking curve of the change destination determined in any of the steps S116, S120, and S124.
  • step S130 the CPU 74 changes the zoom tracking curve used for the zoom tracking operation to a zoom tracking curve within a predetermined range.
  • the zoom tracking curve to be changed is determined to be the zoom tracking curve corresponding to the peak value in step S116, the zoom tracking curve in the predetermined range closest to the determined zoom tracking curve is changed.
  • the zoom tracking curve to be changed is determined as the zoom tracking curve on the front side (subject side) in step S120, the zoom tracking curve used in the current zoom tracking operation is determined on the front side (subject side) in advance. Change to a zoom tracking curve that falls within the specified range.
  • the zoom tracking curve to be changed is determined as the zoom tracking curve on the rear side (the light receiving surface 22A side) in step S124, the rear side (light receiving surface 22A) than the zoom tracking curve used for the current zoom tracking operation On the side, change the zoom tracking curve within a predetermined range.
  • step S132 the CPU 74 determines whether or not the operation of moving the zoom lens 82 has ended.
  • the determination in step S132 is negative until the movement of the zoom lens 82 is stopped, the process returns to step S108, and the processes in steps S110 to S130 are repeated.
  • the determination in step S132 is positive, and the process proceeds to step S134.
  • step S134 the CPU 74 stops the zoom tracking operation, and in the next step S136, the CPU 74 changes the frame rate at which the image signal is read from the image sensor 22 changed to the highest value in step S106. After returning to the frame rate used for shooting in (1), the zoom tracking control process ends.
  • the zoom tracking curve used for the zoom tracking operation is changed to the zoom tracking curve determined based on the change in the contrast value of the captured image acquired multiple times.
  • the imaging device 10 of the present exemplary embodiment it is possible to change to an appropriate zoom tracking curve, and there is no large deviation from the in-focus position. Therefore, according to the imaging device 10 of the present exemplary embodiment, it is possible to improve the zoom tracking accuracy while suppressing the appearance of the captured image from being deteriorated.
  • the configuration of the imaging device 10 of the present exemplary embodiment is the same as the configuration (see FIGS. 1 to 4) of the imaging device 10 of the first exemplary embodiment, and thus the description thereof is omitted.
  • FIG. 15 shows a flowchart showing an example of the flow of zoom tracking control processing of the present exemplary embodiment.
  • step S100 in the zoom tracking control process of the present exemplary embodiment, after the positive determination in step S100 is made in comparison with the zoom tracking control process (see FIG. 9) of the first exemplary embodiment, step S103A and The point of executing each processing of 103B is different.
  • the CPU 74 determines whether the speed at which the zoom lens 82 is moved is less than a predetermined threshold speed. If the moving speed of the zoom lens 82 is too fast, it may not be possible to obtain an accurate contrast value in the acquisition of the contrast value in step S108 (see FIG. 9) described above in the first exemplary embodiment. It may not be possible to determine the tracking curve where to change. Therefore, in the present exemplary embodiment, a threshold value of the moving speed of the zoom lens 82 that enables the appropriate zoom tracking curve to be determined as the change destination is obtained in advance and set in the imaging device 10.
  • step S104 the normal zoom tracking operation is performed, and when the movement of the zoom lens 82 is stopped, the zoom tracking control process is ended.
  • step S103A determines whether the speed at which the zoom lens 82 is moved is less than the predetermined threshold speed. If the speed at which the zoom lens 82 is moved is less than the predetermined threshold speed, the determination in step S103A is positive, and the process proceeds to step S103B.
  • step S103B the CPU 74 determines whether the moving speed of the focus lens 84 is a speed sufficient to follow the zoom tracking curve.
  • the moving speed of the focus lens 84 is slow, the determined zoom tracking curve can not be followed, and the in-focus position may be shifted. Therefore, in the present exemplary embodiment, the moving speed of the focus lens 84 sufficient to follow the zoom tracking curve is obtained in advance as a threshold and set in the imaging device 10. If the moving speed of the focus lens 84 is slower than the set threshold, the CPU 74 determines that the speed is not sufficient to follow the zoom tracking curve.
  • step S103B determines whether the moving speed of the focus lens 84 is sufficient to follow the zoom tracking curve.
  • step S103B determines whether the moving speed of the focus lens 84 is a speed sufficient to follow the zoom tracking curve. If the moving speed of the focus lens 84 is a speed sufficient to follow the zoom tracking curve, the determination in step S103B is affirmed, and steps S106 to S136 described above in the first exemplary embodiment (see FIG. 9). Execute each process of
  • the imaging device 10 of the present exemplary embodiment performs the normal zoom tracking operation when the moving speed of the focus lens 84 is not a speed sufficient to follow the zoom tracking curve.
  • the imaging device 10 of the present exemplary embodiment it is possible to change to an appropriate zoom tracking curve, and the accuracy of zoom tracking can be improved.
  • the imaging device 10 includes an imaging lens having a lens unit 18 including a zoom lens 82 and a focus lens 84, and an imaging element 22. 22, an imaging device driver 50 for outputting an image signal obtained by imaging, an image processing unit 56 for generating a captured image according to the image signal, and a secondary storage unit 78 for storing the CPU 74 and the zoom tracking control program 79. And a main body side main control unit 46 including
  • the CPU 74 executes the zoom tracking control program 79 to obtain an acquisition unit for acquiring the focal length of the imaging lens from the state of the zoom lens 82, and tracking data 110 representing the correspondence between the focal length and the focus position according to the subject distance.
  • Zoom tracking operation by the first control that performs control to change the position of the focus lens 84 along the optical axis direction according to the acquired focal length based on the zoom tracking curve indicated by the image, and imaging during the first control Second control that acquires contrast information representing the contrast of an image a plurality of times, and changes the zoom tracking curve used for the first control based on a change in contrast value represented by each of the acquired plurality of contrast information Functions as a control unit that
  • the imaging device 10 of each of the above-described exemplary embodiments it is possible to change to an appropriate zoom tracking curve, and there is no large deviation from the in-focus position. Therefore, according to the imaging device 10 of the present exemplary embodiment, it is possible to improve the accuracy of zoom tracking while suppressing the appearance of the captured image from being deteriorated.
  • zoom tracking control program 79 is read from the secondary storage unit 78 in each of the above-described exemplary embodiments, it is not necessary to store the zoom tracking control program 79 in the secondary storage unit 78 from the beginning.
  • zoom tracking is performed on an arbitrary portable storage medium 150 such as a solid state drave (SSD), a universal serial bus (USB) memory, or a compact disc read only memory (CD-ROM).
  • the control program 79 may be stored.
  • the zoom tracking control program 79 of the storage medium 150 is installed in the imaging device main body 12, and the installed zoom tracking control program 79 is executed by the CPU 74.
  • the zoom tracking control program 79 is stored in a storage unit such as another computer or a server device connected to the imaging device main body 12 via a communication network (not shown), and the zoom tracking control program 79 It may be downloaded in response to 12 requests. In this case, the downloaded zoom tracking control program 79 is executed by the CPU 74.
  • zoom tracking control process described in each of the above-described exemplary embodiments is merely an example. Therefore, needless to say, unnecessary steps may be deleted, new steps may be added, or the processing order may be changed without departing from the scope of the present invention.
  • the zoom tracking control process is realized by a software configuration using a computer, but the technology of the present disclosure is not limited to this.
  • the zoom tracking control process may be executed only by a hardware configuration such as a field-programmable gate array (FPGA) or an application specific integrated circuit (ASIC).
  • zoom tracking control processing may be executed by a combination of a software configuration and a hardware configuration.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Abstract

CPUは、ズームトラッキング制御プログラムを実行することによりズームレンズの状態から撮像レンズの焦点距離を取得する取得部と、被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すトラッキングデータが示すズームトラッキング曲線に基づいて、取得した焦点距離に応じてフォーカスレンズの光軸方向に沿った位置を変化させる制御を行う第1制御、及び第1制御の実行中に撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数のコントラスト情報の各々によって表されるコントラスト値の変化に基づいて、第1制御に用いるズームトラッキング曲線を変更する制御を行う第2制御を行う制御部として機能する。

Description

撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム
 本開示の技術は、撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラムに関する。
 従来、ズームレンズの駆動に応じて、焦点距離とフォーカスレンズの位置との対応関係を示すズームトラッキング曲線に従ってフォーカスレンズを移動させるズームトラッキング動作を行う撮像装置が開示されている。例えば、特開2008-129455号公報及び特開平9-311265号公報には、既に得られているズームトラッキング曲線から推定や補完等により得られたズームトラッキング曲線に従って、ズームトラッキング動作を行う技術が記載されている。
 また、特開平9-33792号公報には、ズームトラッキング動作中に、撮像信号を検知した出力を用いて、被写体に対して合焦する方向により、ズームトラッキング曲線を乗り換える技術が記載されている。
 しかしながら、特開平9-33792号公報に記載の技術では、ズームトラッキング動作を行っても、合焦位置からのずれが大きくなる場合や、適切なズームトラッキング曲線に乗り換えることができない場合があり、ズームトラッキングの精度が低下する場合があった。また、ズームトラッキング動作において、所謂コントラストAF方式でオートフォーカスを行う場合、正確な合焦位置を導出するために、フォーカスレンズを一旦、合焦位置から大きく外れた位置に移動させる必要があり、この場合、一旦、撮像画像がぼけることになるため、撮像画像の見栄えが悪くなる場合があった。
 本開示は、撮像画像の見栄えが悪くなることを抑制しつつ、ズームトラッキングの精度を向上できる撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラムを提供する。
 本開示の第1の態様は、撮像装置であって、ズームレンズ及びフォーカスレンズを含む撮像光学系を有する撮像レンズと、撮像素子を含み、撮像光学系を通して被写体を撮像素子により撮像して得られた画像信号を出力する撮像部と、画像信号に応じた撮像画像を生成する画像生成部と、ズームレンズの状態から撮像レンズの焦点距離を取得する取得部と、被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すズームトラッキング情報に基づいて、取得部により取得した焦点距離に応じてフォーカスレンズの光軸方向に沿った位置を変化させる制御を行う第1制御、及び第1制御の実行中に撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数のコントラスト情報の各々によって表されるコントラスト値の変化に基づいて、第1制御に用いるズームトラッキング情報を変更する制御を行う第2制御を行う制御部と、を備える。
 本開示の第2の態様は、第1の態様において、ズームトラッキング情報は、焦点距離とフォーカス位置との対応関係を表すズームトラッキング曲線である。
 本開示の第3の態様は、第2の態様において、第2制御は、第1制御に用いるズームトラッキング曲線を、前側の被写界深度分ずらしたズームトラッキング曲線または後側の被写界深度分ずらしたズームトラッキング曲線に変更する制御である。
 本開示の第4の態様は、第2の態様において、第2制御は、複数のコントラスト情報の各々によって表されるコントラスト値がコントラスト値のピーク値を含む場合は、ピーク値に応じたズームトラッキング曲線に変更する制御である。
 本開示の第5の態様は、第3の態様または第4の態様において、第2制御は、複数のコントラスト情報の各々によって表されるコントラスト値により表されるコントラストカーブが増加傾向を示す場合は、前側の被写界深度分ずらしたズームトラッキング曲線に変更する制御である。
 本開示の第6の態様は、第3の態様から第5の態様のいずれか1態様において、第2制御は、複数のコントラスト情報の各々によって表されるコントラスト値により表されるコントラストカーブが減少傾向を示す場合は、後側の被写界深度分ずらしたズームトラッキング曲線に変更する制御である。
 本開示の第7の態様は、第2の態様において、第2制御は、第1制御に用いるズームトラッキング曲線を、変更前のズームトラッキング曲線から予め定められた範囲内の他のズームトラッキング曲線に変更する制御である。
 本開示の第8の態様は、第7の態様において、予め定められた範囲は、変更前のズームトラッキング曲線に応じた被写界深度に応じた範囲である。
 本開示の第9の態様は、第2の態様から第8の態様のいずれか1態様において、制御部は、第1制御により変化させるフォーカスレンズの位置の変化の速度が、予め定められた速度よりも遅い場合、第2制御の実行を禁止する。
 本開示の第10の態様は、第9の態様において、予め定められた速度は、フォーカスレンズの位置の変化がズームトラッキング曲線に追従できない速度である。
 本開示の第11の態様は、第1の態様から第10の態様のいずれか1態様において、制御部は、取得部が取得した焦点距離が変化する変化速度が予め定められた変化速度未満の場合、第2制御を行う。
 本開示の第12の態様は、第1の態様から第11の態様のいずれか1態様において、制御部は、第1制御の実行前にコントラスト情報によって表されるコントラスト値と、第1制御の実行後にコントラスト情報によって表されるコントラスト値との差が、予め定められた閾値以上の場合、第2制御の実行を禁止する。
 本開示の第13の態様は、第1の態様から第12の態様のいずれか1態様において、制御部は、コントラスト情報を取得する動作中は、撮像部に対して画像信号を出力するフレームレートを他の場合に比べて高くさせる制御をさらに行う。
 本開示の第14の態様は、第1の態様から第13の態様のいずれか1態様において、制御部は、ズームレンズの移動により焦点距離が広角側から望遠側に向けて変化する場合、第2制御を行い、焦点距離が望遠側から広角側に向けて変化する場合、第2制御を禁止する。
 本開示の第15の態様は、撮像装置の制御方法であって、ズームレンズ及びフォーカスレンズを含む撮像光学系を有する撮像レンズと、撮像素子を含み、撮像光学系を通して被写体を撮像素子により撮像して得られた画像信号を出力する撮像部と、画像信号に応じた撮像画像を生成する画像生成部と、ズームレンズの状態から撮像レンズの焦点距離を取得する取得部と、を備えた撮像装置の制御方法であって、被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すズームトラッキング情報に基づいて、取得部により取得した焦点距離に応じてフォーカスレンズの光軸方向に沿った位置を変化させる第1制御を行い、第1制御の実行中に撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数のコントラスト情報の各々によって表されるコントラスト値の変化に基づいて、第1制御に用いるズームトラッキング情報を変更する第2制御を行う処理を含む。
 本開示の第16の態様は、撮像装置の制御プログラムであって、コンピュータに、ズームレンズ及びフォーカスレンズを含む撮像光学系を有する撮像レンズと、撮像素子を含み、撮像光学系を通して被写体を撮像素子により撮像して得られた画像信号を出力する撮像部と、画像信号に応じた撮像画像を生成する画像生成部と、ズームレンズの状態から撮像レンズの焦点距離を取得する取得部と、を備えた撮像装置の制御プログラムであって、コンピュータに、被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すズームトラッキング情報に基づいて、取得部により取得した焦点距離に応じてフォーカスレンズの光軸方向に沿った位置を変化させる第1制御を行い、第1制御の実行中に撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数のコントラスト情報の各々によって表されるコントラスト値の変化に基づいて、第1制御に用いるズームトラッキング情報を変更する第2制御を行う、処理を実行させるためのものである。
 本開示の上記態様によれば、撮像画像の見栄えが悪くなることを抑制しつつ、ズームトラッキングの精度を向上できる、撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラムを提供する。
第1及び第2例示的実施形態の撮像装置の外観の一例を示す斜視図である。 第1及び第2例示的実施形態の撮像装置の背面側の外観の一例を示す背面図である。 第1及び第2例示的実施形態の撮像装置のハードウェア構成の一例を示すブロック図である。 第1及び第2例示的実施形態の撮像装置に含まれる撮像レンズのハードウェア構成の一例を示すブロック図である。 第1及び第2例示的実施形態のオートフォーカスを説明するためのグラフである。 第1及び第2例示的実施形態の撮像装置の撮像レンズに含まれるレンズ主制御部の二次記憶部の記憶内容の一例を示す概念図である。 第1及び第2例示的実施形態のトラッキングデータを説明するためのグラフである。 第1及び第2例示的実施形態の撮像装置本体に含まれる本体側主制御部の二次記憶部の記憶内容の一例を示す概念図である。 第1例示的実施形態のズームトラッキング制御処理の流れの一例を示すフローチャートである。 第1及び第2例示的実施形態のズームトラッキング制御を説明するためのグラフである。 第1及び第2例示的実施形態のズームトラッキング制御動作におけるコントラスト値の変化の一例を説明するためのグラフである。 第1及び第2例示的実施形態のズームトラッキング制御動作におけるコントラスト値の変化の傾向の一例を説明するためのグラフである。 第1及び第2例示的実施形態のズームトラッキング制御動作におけるコントラスト値の変化の他の例を説明するためのグラフである。 第1及び第2例示的実施形態のズームトラッキング制御動作におけるコントラスト値の変化の傾向の他の例を説明するためのグラフである。 第2例示的実施形態のズームトラッキング制御処理の流れの一例を示すフローチャートである。 例示的実施形態のズームトラッキング制御プログラムが記憶された記憶媒体からズームトラッキング制御プログラムが撮像装置本体にインストールされる態様の一例を示す概念図である。
 以下、図面を参照して本開示の技術を実施するための形態例を詳細に説明する。
[第1例示的実施形態]
 まず、図1~図3を参照して、本例示的実施形態の撮像装置10の構成の一例について説明する。一例として図1に示すように、本例示的実施形態の撮像装置10は、レンズ交換式のデジタルカメラであり、撮像装置本体12及び撮像レンズ14を含む。
 撮像レンズ14は、撮像装置本体12に対して交換可能に装着される。撮像レンズ14の鏡筒には、マニュアルフォーカスモード時に使用されるフォーカスリング16が設けられている。撮像レンズ14は、レンズユニット18を含む。本例示的実施形態のレンズユニット18が、本開示の撮像光学系の一例である。
 レンズユニット18は、フォーカスレンズ84を含む複数のレンズが組み合わされた組み合わせレンズである。フォーカスレンズ84は、フォーカスリング16の手動による回転操作に伴って光軸L1方向に移動し、被写体距離に応じた合焦位置で後述の撮像素子22の受光面22A(図3参照)に、被写体を示す反射光である被写体光が結像される。なお、「被写体距離」とは、受光面22Aから被写体までの距離である。
 撮像装置本体12の上面には、ダイヤル24及びレリーズボタン26が設けられている。ダイヤル24は、撮像モードと再生モードとの切り替え等の各種設定の際に操作される。従って、撮像装置10では、ダイヤル24がユーザによって操作されることにより、動作モードとして撮像モードと再生モードとが選択的に設定される。
 撮像装置10は、撮像系の動作モードとして、静止画撮像モードと動画撮像モードとを有する。静止画撮像モードは、撮像装置10により被写体が撮像されて得られた静止画像を記録する動作モードであり、動画撮像モードは、撮像装置10により被写体が撮像されて得られた動画像を記録する動作モードである。なお、本例示的実施形態では、静止画像及び動画像を区別せず総称する場合は、単に「撮像画像」という。
 レリーズボタン26は、撮像準備指示状態と撮像指示状態との2段階の押圧操作が検出可能に構成されている。撮像準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。
 オートフォーカスモードでは、レリーズボタン26を半押し状態にすることにより撮像条件の調整が行われ、その後、引き続き全押し状態にすると本露光が行われる。つまり、レリーズボタン26を半押し状態にすることによりAE(Auto Exposure)機能が働いて露光量状態が設定された後、AF(Auto Focus)機能が働いて合焦制御され、レリーズボタン26を全押し状態にすると撮像が行われる。
 一例として図2に示すように、撮像装置本体12の背面には、ディスプレイ28、十字キー30、MENU/OKキー32、BACK/DISPボタン34、ファインダ36、及びタッチパネル38が設けられている。
 ディスプレイ28は、例えば、LCD(Liquid Crystal Display)であり、撮像装置10により被写体が撮像されることで得られた画像及び文字等を表示する。本例示的実施形態のディスプレイ28が、本開示の表示部の一例である。なお、本例示的実施形態のディスプレイ28は、タッチパネル38と共に、タッチパネルディスプレイ29として構成されている。ディスプレイ28は、撮像モードにおけるライブビュー画像の表示に用いられる。ライブビュー画像は、スルー画像とも称され、撮像装置10の撮像素子22により被写体が連続フレームで撮像されて得られた連続フレーム画像である。なお、「撮像画像」という場合は、ライブビュー画像も含む。
 ディスプレイ28は、静止画撮像の指示が与えられた場合に単一フレームで撮像されて得られた静止画像の表示にも用いられる。更に、ディスプレイ28は、再生モードにおける再生画像の表示及びメニュー画面等の表示にも用いられる。
 ディスプレイ28の表示領域の表面には、透過型のタッチパネル38が重ねられている。タッチパネル38は、例えば、指またはスタイラスペン等の指示体による接触を検知する。タッチパネル38は、タッチパネル38に対する指示体による接触の有無等の検知結果を示す検知結果情報を予め定められた周期(例えば100ミリ秒)で既定の出力先(例えば、後述のCPU(Central Processing Unit)74、図3参照)に出力する。検知結果情報は、タッチパネル38が指示体による接触を検知した場合、タッチパネル38上の指示体による接触位置を特定可能な二次元座標(以下、「座標」という)を含み、タッチパネル38が指示体による接触を検知していない場合、座標を含まない。
 十字キー30は、1つまたは複数のメニューの選択、及びズームやコマ送り等の各種の指示に応じた指示内容信号を出力するマルチファンクションのキーとして機能する。MENU/OKキー32は、ディスプレイ28の画面上に1つまたは複数のメニューを表示させる指示を行うためのメニュー(MENU)ボタンとしての機能と、選択内容の確定及び実行等を指示する許可(OK)ボタンとしての機能とを兼備した操作キーである。BACK/DISPボタン34は、選択項目等、所望の対象の消去や指定内容の取消し、あるいは1つ前の操作状態に戻す場合等に使用される。
 図3は、本例示的実施形態の撮像装置10のハードウェア構成の一例を示すブロック図である。また、図4は、本例示的実施形態の撮像装置10に含まれる撮像レンズ14のハードウェア構成の一例を示すブロック図である。
 図3に示すように本例示的実施形態の撮像装置本体12はマウント13を備えており(図1も参照)、撮像レンズ14は、マウント15を備えている。撮像レンズ14は、マウント13にマウント15が結合されることにより撮像装置本体12に交換可能に装着される。
 撮像レンズ14は、上述したレンズユニット18、絞り19、及び制御装置40を含む。制御装置40は、マウント13にマウント15が接続されることで、撮像装置本体12の外部I/F(Interface)72を介してCPU74と電気的に接続され、CPU74の指示に従って、撮像レンズ14の全体を制御する。
 図4に示すように、本例示的実施形態のレンズユニット18は、入射レンズ80、ズームレンズ82、及び上述したフォーカスレンズ84を含む。入射レンズ80、ズームレンズ82、及びフォーカスレンズ84は、光軸L1に沿って設けられており、絞り19側から光軸L1に沿ってフォーカスレンズ84、ズームレンズ82、及び入射レンズ80の順に配置されている。
 被写体光は、入射レンズ80に入射される。入射レンズ80は、被写体光を透過させ、ズームレンズ82に導く。本例示的実施形態のズームレンズ82は、光軸L1に沿って移動可能な複数のレンズを含み、ズームレンズ82の状態を調節することによって撮像レンズ14の焦点距離(以下、単に「焦点距離」という)を調節する。具体的には、ズームレンズ82は、撮像レンズ14に設けられたズームリング(図示省略)が回転されることにより各レンズが光軸L1に沿って近づいたり、遠ざかったりすることによってレンズ間の光軸L1に沿った位置関係が調節され、焦点距離が調節される。ズームレンズ82は、入射レンズ80から入射された被写体光を透過させ、フォーカスレンズ84に導く。
 フォーカスレンズ84は、光軸L1に沿って移動可能なレンズであり、光軸L1に沿って移動することで撮像素子22の受光面22Aに形成される被写体像の合焦状態を変化させる。フォーカスレンズ84は、ズームレンズ82から入射された被写体光を透過させ、絞り19に導く。絞り19は、レンズユニット18を透過した被写体光の光量を調節し、被写体光を撮像装置本体12内に導く。
 撮像レンズ14の制御装置40は、レンズ側主制御部86、焦点距離センサ88、フォーカスレンズ駆動部90、レンズ位置センサ92、絞り駆動部94、及び外部I/F96を含む。
 レンズ側主制御部86は、CPU98、一次記憶部100、及び二次記憶部102を備えている。CPU98は、撮像レンズ14の全体を制御する。一次記憶部100は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部100の一例としては、RAM(Random Access Memory)が挙げられる。二次記憶部102は、各種プログラム及び各種パラメータ等を予め記憶した不揮発性のメモリである。二次記憶部102の一例としては、EEPROM(Electrically Erasable Programmable Read-Only Memory)またはフラッシュメモリ等が挙げられる。
 CPU98、一次記憶部100、及び二次記憶部102は、バスライン104に接続されている。また、焦点距離センサ88、フォーカスレンズ駆動部90、レンズ位置センサ92、絞り駆動部94、及び外部I/F96も、バスライン104に接続されている。
 外部I/F96は、マウント15にマウント13が接続されることで、撮像装置本体12の外部I/F72と接続され、外部I/F72と協働して、CPU98と撮像装置本体12のCPU74との間の各種情報の送受信を司る。
 焦点距離センサ88は、フォーカスリング16の回転状態から、ズームレンズ82の状態を検出し、検出したズームレンズ82の状態を焦点距離に換算する。そして、焦点距離センサ88は、換算して得られた焦点距離を示す焦点距離情報をCPU98に出力する。
 フォーカスレンズ駆動部90は、フォーカスレンズ駆動用モータ(図示省略)を含む。フォーカスレンズ駆動部90は、受付デバイス62によって受け付けられた指示に応じて、CPU98の制御下で、駆動パルスに応じてフォーカスレンズ駆動用モータを作動させることで、フォーカスレンズ84を光軸L1に沿って移動させる。すなわち、フォーカスレンズ駆動部90は、CPU98からの指示に従って、フォーカスレンズ駆動用モータを作動させ、フォーカスレンズ駆動用モータの動力をフォーカスレンズ84に伝達することより、フォーカスレンズ84を光軸L1に沿って移動させる。レンズ位置センサ92は、フォーカスレンズ84の光軸L1に沿った位置を検出し、検出した位置を示すレンズ位置情報をCPU98に出力する。
 絞り駆動部94は、絞り駆動用モータ(図示省略)を含む。絞り駆動部94は、受付デバイス62によって受け付けられた指示に応じて、CPU98の制御下で、絞り駆動用モータを作動させることで、絞り19の開口の大きさを調節する。
 また、本例示的実施形態の撮像装置10は、所謂コントラストAF方式でオートフォーカスを行う。具体的には、本例示的実施形態の撮像装置10は、一例として図5に示すように、フォーカスレンズ84を光軸L1に沿って後側(受光面側)か前側(被写体側)に移動させながら、複数の異なる位置でオートフォーカスのコントラスト値を導出する。そして、撮像装置10は、導出したコントラスト値がピーク値となる位置にフォーカスレンズ84を移動させることによって、合焦制御を行う。なお、一例として本例示的実施形態では、コントラスト値として、オートフォーカスエリアのコントラスト値を適用している。
 一例として図6に示すように、レンズ側主制御部86の二次記憶部102は、トラッキングデータ110を記憶している。トラッキングデータ110は、焦点距離に応じて光軸L1に沿ったフォーカスレンズ84の位置を変化させるズームトラッキング動作に用いられるデータである。本例示的実施形態のトラッキングデータ110が、本開示のズームトラッキング情報の一例である。
 一例として図7に示すように、本例示的実施形態のトラッキングデータ110は、被写体距離が無限遠(INF(INFinity))である場合における焦点距離と光軸L1に沿ったフォーカスレンズ84の位置との対応関係を示すデータを含む。また、トラッキングデータ110は、被写体距離が最短被写体距離(MOD(Minimum Object Distance))である場合における焦点距離と光軸L1に沿ったフォーカスレンズ84の位置との対応関係を示すデータを含む。なお、以下では、単にフォーカスレンズ84の位置と記載した場合は、光軸L1に沿ったフォーカスレンズ84の位置を表すものとする。
 なお、トラッキングデータ110は、上記無限遠や最短被写体距離を含む予め想定される複数種類の被写体距離に対応するズームトラッキング曲線毎に、ズームトラッキング曲線を表す焦点距離とフォーカスレンズ84の位置との組合せを例えばテーブル形式で記憶したデータであってもよいし、被写界深度や焦点距離をパラメータとした関数の形式で表したデータであってもよい。なお、本例示的実施形態の撮像装置10では、トラッキングデータ110に含まれないズームトラッキング曲線であっても、トラッキングデータ110に含まれるズームトラッキング曲線を既知の方法により補完することにより導出することが可能とされている。
 一方、図3に示すように本例示的実施形態の撮像装置本体12は、撮像素子22、第1ミラー42、第2ミラー44、本体側主制御部46、ミラー駆動部48、撮像素子ドライバ50、画像信号処理回路52、画像メモリ54、画像処理部56、及び表示制御部58を含む。また、撮像装置本体12は、受付I/F60、受付デバイス62、メディアI/F64、及び外部I/F72を含む。
 本体側主制御部46は、本開示の技術のコンピュータの一例であり、CPU74、一次記憶部76、及び二次記憶部78を備えている。CPU74は、撮像装置10の全体を制御する。一次記憶部76は、各種プログラムの実行におけるワークエリア等として用いられる揮発性のメモリである。一次記憶部76の一例としては、RAM等が挙げられる。本例示的実施形態の二次記憶部78は、図8に示すように、上述したズームトラッキング制御プログラム79を含む各種プログラム、及び各種パラメータ等を予め記憶した不揮発性のメモリである。二次記憶部78の一例としては、EEPROMまたはフラッシュメモリ等が挙げられる。
 CPU74は、二次記憶部78からズームトラッキング制御プログラム79を読み出して一次記憶部76に展開し、展開したズームトラッキング制御プログラム79に従って詳細を後述するズームトラッキング制御処理を実行する。換言すると、CPU74は、ズームトラッキング制御プログラム79を実行することで開示の技術の取得部及び制御部として動作する。本例示的実施形態のズームトラッキング制御プログラム79が、本開示の制御プログラムの一例である。
 CPU74、一次記憶部76、及び二次記憶部78は、バスライン81に接続されている。また、ミラー駆動部48、撮像素子ドライバ50、及び画像信号処理回路52も、バスライン81に接続されている。また、画像メモリ54、画像処理部56、表示制御部58、受付I/F60、メディアI/F64、及び外部I/F72も、バスライン81に接続されている。
 第1ミラー42は、撮像素子22の受光面22Aとレンズユニット18との間に介在しており、受光面被覆位置αと受光面開放位置βとに移動可能な可動ミラーである。
 第1ミラー42は、ミラー駆動部48に接続されており、ミラー駆動部48は、CPU42の制御下で、第1ミラー42を駆動させ、第1ミラー42を受光面被覆位置αと受光面開放位置βとに選択的に配置する。すなわち、第1ミラー42は、受光面22Aに対して被写体光を受光させない場合にミラー駆動部48によって受光面被覆位置αに配置され、受光面22Aに対して被写体光を受光させる場合にミラー駆動部48によって受光面開放位置βに配置される。
 受光面被覆位置αでは、第1ミラー42が受光面22Aを覆い、かつ、レンズユニット18から送り込まれた被写体光を反射して第2ミラー44に導く。第2ミラー44は、第1ミラー42から導かれた被写体光を反射することで光学系(図示省略)を介して、ファインダ36に導く。ファインダ36は、第2ミラー44によって導かれた被写体光を透過させる。
 一方、受光面開放位置βでは、第1ミラー42によって受光面22Aが覆われた状態が解除され、被写体光が第1ミラー42で反射されることなく、受光面22Aによって受光される。
 撮像素子ドライバ50は、撮像素子22に接続されている。本例示的実施形態では、撮像素子22として、CCD(Charge Coupled Device)イメージセンサを用いているが、本開示の技術はこれに限定されるものではなく、例えば、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等の他のイメージセンサを用いてもよい。
 画像信号処理回路52は、上記水平同期信号に応じて撮像素子22から1フレーム分の画像信号を画素毎に読み出す。画像信号処理回路52は、読み出した画像信号に対して、相関二重サンプリング処理、自動利得調整、及びA/D(Analog/Digital)変換等の各種処理を行う。画像信号処理回路52は、画像信号に対して各種処理を行うことでデジタル化した画像信号を、CPU74から供給されるクロック信号で規定される特定のフレームレート(例えば、数十フレーム/秒)で1フレーム毎に画像メモリ54に出力する。
 本例示的実施形態の撮像素子22及び撮像素子ドライバ50が本開示の撮像部の一例である。
 画像メモリ54は、画像信号処理回路52から入力された画像信号を一時的に保持する。
 画像処理部56は、画像メモリ54から特定のフレームレートで1フレーム毎に画像信号を取得し、取得した画像信号に対して、ガンマ補正、輝度変換、色差変換、及び圧縮処理等の各種処理を行う。また、画像処理部56は、各種処理を行って得た画像信号を特定のフレームレートで1フレーム毎に表示制御部58に出力する。更に、画像処理部56は、各種処理を行って得た画像信号を、CPU74の要求に応じて、CPU74に出力する。本例示的実施形態の画像処理部56が、本開示の画像生成部の一例である。
 表示制御部58は、タッチパネルディスプレイ29のディスプレイ28に接続されており、CPU74の制御下で、ディスプレイ28を制御する。また、表示制御部58は、画像処理部56から入力された画像信号を1フレーム毎に特定のフレームレートでディスプレイ28に出力する。
 ディスプレイ28は、表示制御部58から特定のフレームレートで入力された画像信号により示される画像をライブビュー画像として表示する。また、ディスプレイ28は、単一フレームで撮像されて得られた単一フレーム画像である静止画像も表示する。なお、ディスプレイ28には、ライブビュー画像の他に、再生画像及びメニュー画面等が表示される。
 受付デバイス62は、ダイヤル24、レリーズボタン26、十字キー30、MENU/OKキー32、及びBACK/DISPボタン34等を有しており、ユーザによる各種指示を受け付ける。本例示的実施形態の受付デバイス62が、本開示の受付部の一例である。
 タッチパネルディスプレイ29のタッチパネル38及び受付デバイス62は、受付I/F60に接続されており、受け付けた指示の内容を示す指示内容信号を受付I/F60に出力する。受付I/F60は、入力された指示内容信号をCPU74に出力する。CPU74は、受付I/F60から入力された指示内容信号に応じた処理を実行する。
 メディアI/F64には、メモリカード66が着脱可能に接続されている。メディアI/F64は、CPU74の制御下で、メモリカード66に対する画像ファイルの記録及び読み出しを行う。
 メディアI/F64によってメモリカード66から読み出された画像ファイルは、CPU74の制御下で、画像処理部56によって伸長処理が施されてディスプレイ28に再生画像として表示される。
 撮像装置10では、受付デバイス62で受け付けられた指示に応じて、動作モードが切り替えられる。例えば、撮像装置10では、撮像モード下において、受付デバイス62で受け付けられた指示に応じて、静止画撮像モードと動画撮像モードとが選択的に設定される。静止画撮像モード下では、静止画像ファイルがメモリカード66に記録可能になり、動画撮像モード下では、動画像ファイルがメモリカード66に記録可能になる。
 CPU74は、静止画撮像モード下でレリーズボタン26によって静止画像の撮像の指示が受け付けられた場合、撮像素子ドライバ50を制御することで、撮像素子22に1フレーム分の本露光を行わせる。画像処理部56は、CPU74の制御下で、1フレーム分の露光が行われることによって得られた画像信号を取得し、取得した画像信号に対して圧縮処理を施して特定の静止画像用フォーマットの静止画像ファイルを生成する。なお、特定の静止画像用フォーマットは、例えば、JPEG(Joint Photographic Experts Group)形式のフォーマットであってもよい。静止画像ファイルは、CPU74の制御下で、画像処理部56によって、メディアI/F64を介してメモリカード66に記録される。
 画像処理部56は、動画撮像モード下でレリーズボタン26によって動画像の撮像の指示が受け付けられた場合、ライブビュー画像用の画像信号に対して圧縮処理を施して特定の動画像用フォーマットの動画像ファイルを生成する。なお、特定の動画像用フォーマットとは、例えば、MPEG(Moving Picture Experts Group)形式のフォーマットであってもよい。動画像ファイルは、CPU74の制御下で、画像処理部56によって、メディアI/F64を介してメモリカード66に記録される。
 次に、本例示的実施形態の撮像装置10の作用として、本例示的実施形態のズームトラッキング制御処理を実行する場合の撮像装置10の作用について説明する。
 本例示的実施形態では、撮影モードに移行した後、ズームレンズ82が移動を開始した場合に、撮像装置10のCPU74は、二次記憶部78からズームトラッキング制御プログラム79を読み出して一次記憶部76に展開して実行することにより、図9に一例を示した、ズームトラッキング制御処理を実行する。
 図9のステップS100でCPU74は、ズームトラッキング動作を開始する。具体的には、CPU74は、二次記憶部102から現在の被写体距離に応じたトラッキングデータ110を読み出す。さらにCPU74は、読み出したトラッキングデータ110が示すズームトラッキング曲線に基づき、ズームレンズ82の移動に応じて、フォーカスレンズ駆動部90によりフォーカスレンズ84を移動させるズームトラッキング動作を開始する。なお、本例示的実施形態のCPU74は、ズームトラッキング動作の開始前に、撮像画像のコントラスト値を取得しておく。
 次のステップS102でCPU74は、焦点距離センサ88から出力された焦点距離情報に基づき、焦点距離がWIDEからTELEに変化する方向にズームレンズ82が移動しているか否かを判定する。
 本例示的実施形態の撮像装置10では、焦点距離が最もWIDEの位置においてフォーカスレンズ駆動用モータを作動させる駆動パルスの分解能が低いため、フォーカスレンズ84の位置にばらつきが生じ測定精度に限界が生じる。
 フォーカスレンズ84の位置のばらつきの上限及び下限は、焦点距離が最もWIDEの位置における焦点深度(被写界深度)に基づいて定まる。図10に示した場合では、ズームトラッキング曲線Uが上限であり、ズームトラッキング曲線Lが下限であり、ズームトラッキング曲線U及びズームトラッキング曲線Lの範囲内が撮像画像に生じるぼけの許容範囲となる。
 ズームトラッキング曲線Tに従ってズームトラッキング動作を行う場合、ズームトラッキング曲線Tに対して、前側(被写体側)の被写界深度に応じたズームトラッキング曲線T1と、後側(受光面22A側)の被写界深度に応じたズームトラッキング曲線T2との範囲内であれば、ピントが合った所望の撮像画像が得られる。ズームトラッキング曲線T1は、ズームトラッキング曲線UとWIDE側の起点が同一であり、ズームトラッキング曲線T2は、ズームトラッキング曲線LとWIDE側の起点が同一である。
 被写界深度は、焦点距離が長くなるほど浅くなるため、図10に示すように、ズームトラッキング曲線Tに対する被写界深度DTは、被写界深度DWよりも浅い。そのため、ズームトラッキング動作においてズームレンズ82を、焦点距離がWIDEからTELEに変化する方向に移動させる場合、焦点距離がTELEからWIDEに変化する方向に移動させる場合に比べて、合焦位置からずれやすくなる。
 そこで、本例示的実施形態では、焦点距離がWIDEからTELEに変化する方向にズームレンズ82が移動している場合、適宜、ズームトラッキング動作に用いるズームトラッキング曲線を合焦状態に応じた適切なズームトラッキング曲線に変更する制御を行う。一方、本例示的実施形態では、焦点距離がTELEからWIDEに変化する方向にズームレンズ82が移動している場合、上記のようなズームトラッキング曲線の変更は行わない。
 そのため、焦点距離がWIDEからTELEに変化する方向にズームレンズ82が移動していない場合、換言すると焦点距離がTELEからWIDEに変化する方向にズームレンズ82が移動している場合、ステップS102の判定が否定判定となり、ステップS104へ移行する。
 ステップS104でCPU74は、ズームレンズ82の移動に応じて、上記ステップS100で得られたズームトラッキング曲線に基づいた位置に、フォーカスレンズ駆動部90によりフォーカスレンズ84を移動させる通常のズームトラッキング動作を実行し、ズームレンズ82の移動が停止すると、ズームトラッキング制御処理を終了する。
 一方、焦点距離がWIDEからTELEに変化する方向にズームレンズ82が移動している場合、ステップS102の判定が肯定判定となり、ステップS106へ移行する。ステップS106でCPU74は、撮像素子22から画像信号を読み出して撮像画像を生成するフレームレートを、撮像装置10が取り得る最高値に変更する。
 次のステップS108でCPU74は、フォーカスレンズ84を移動させる制御を行いながら撮像画像のコントラスト値を、上記ステップS106で変更したフレームレートに応じて複数回取得する。本例示的実施形態では、コントラスト値を取得するタイミングを規定するフレームレートを高くしているため、フレームレートが低い場合に比べて、多くのコントラスト値(撮像画像)を取得することができるので、より適切なズームトラッキング曲線に変更することができ、ズームトラッキングの精度を向上させることができる。
 次のステップS110でCPU74は、上記ステップS100でズームトラッキングを開始する前のコントラスト値と上記ステップS108で取得した複数回取得したコントラスト値の代表値との差が予め定められた閾値以上であるか否かを判定する。なお、コントラスト値の代表値とは、特に限定されないが、例えば、複数回取得したコントラスト値の平均値、最頻値、及び最大値等が挙げられる。
 コントラスト値の差が予め定められた閾値以上である場合、ステップS110の判定が肯定判定となり、ステップS132へ移行する。コントラスト値の差が大きい場合、例えば、ズームトラッキング動作を行うことにより、撮像画像のぼけが大きくなったり、もともとの撮像画像が大きくぼけていたりする可能性があり、このような場合、取得したコントラスト値が不正確な値である場合がある。取得したコントラスト値が不正確である場合、適切なズームトラッキング曲線への変更が行われない懸念が高くなる。そのため、本例示的実施形態では、取得したコントラスト値が不正確な値の可能性が高いとみなすための閾値を予め得ておき、コントラスト値の差が予め定められた閾値以上の場合、ズームトラッキング曲線の変更を行わずに、ステップS132へ移行する。本例示的実施形態では、このようにコントラスト値の差が大きい場合、ズームトラッキング曲線の変更を禁止することにより、ズームトラッキング曲線の変更の制度を向上させることができる。
 一方、コントラスト値の差が予め定められた閾値以上ではない場合、換言するとコントラスト値の差が予め定められた閾値未満の場合ステップS110の判定が否定判定となり、ステップS112へ移行する。
 ステップS112でCPU74は、上記ステップS107で取得した複数のコントラスト値に基づいてコントラスト値の変化の状態を導出する。本例示的実施形態では、一例としてコントラスト値の変化の状態として、取得された複数のコントラスト値により表されるコントラストカーブを導出する。
 図11に示すように、真のズームトラッキング曲線がズームトラッキング曲線Ttである場合に、ズームトラッキング曲線Ttよりも後側(受光面22A側)のズームトラッキング曲線Taを用いてズームトラッキング動作を行っていたとする。この場合、図11に示すように、焦点距離がF1、F2、及びF3の場合において取得されるコントラスト値は各々、a1、a2、及びa3となる。図12に示すように、コントラスト値の変化の状態を、コントラスト値を横軸(x軸)、フォーカスレンズ84の位置を縦軸(y軸)として表すと、焦点距離がWIDEからTELEの方向に変化する場合(図11に示した焦点距離F1からF3へ変化する場合)、フォーカスレンズ84の位置の正方向(被写体側)への変化とともにコントラスト値も増加する。換言すると、取得された複数のコントラスト値により表されるコントラストカーブが増加する傾向(図12の矢印A参照)を示す。
 なお、図11及び上述した図7及び図10で示したズームトラッキング曲線は、焦点距離がWIDEからTELEに変化するのに応じて、フォーカスレンズ84の位置が後側(受光面22A側)から前側(被写体側)に変化する場合の焦点距離とフォーカスレンズ84の位置との対応関係を示しているが、焦点距離とフォーカスレンズ84の位置との対応関係は、フォーカスレンズ84やズームレンズ82によって異なる。
 焦点距離がWIDEからTELEに変化するのに応じて、フォーカスレンズ84の位置が前側(被写体側)から後側(受光面22A側)に変化する場合の焦点距離とフォーカスレンズ84の位置との対応関係を示すズームトラッキング曲線の例を図13に示す。
 図13に示した場合においても、真のズームトラッキング曲線がズームトラッキング曲線Ttである場合に、ズームトラッキング曲線Ttよりも後側(受光面22A側)のズームトラッキング曲線Tcを用いてズームトラッキング動作を行っていたとする。この場合、図13に示すように、焦点距離がF1、F2、及びF3の場合において取得されるコントラスト値は各々、c1、c2、及びc3となる。図14に示すように、コントラスト値の変化の状態を、コントラスト値を横軸(x軸)、フォーカスレンズ84の位置を縦軸(y軸)として表すと、焦点距離がWIDEからTELEの方向に変化する場合(図13に示した焦点距離F1からF3へ変化する場合)、フォーカスレンズ84の位置の正方向(被写体側)への変化とともにコントラスト値も増加する。換言すると、取得された複数のコントラスト値により表されるコントラストカーブが増加する傾向(図14の矢印C参照)を示す。
 そのため、本例示的実施形態では、取得された複数のコントラスト値により表されるコントラストカーブが増加する傾向を示す場合、現在のズームトラッキング曲線よりも前側(被写体側)のズームトラッキング曲線に変更する制御を行う。
 一方、図11に示すように、真のズームトラッキング曲線がズームトラッキング曲線Ttである場合に、ズームトラッキング曲線Ttよりも前側(被写体側)のズームトラッキング曲線Tbを用いてズームトラッキング動作を行っていたとする。この場合、図11に示すように、焦点距離がF1、F2、及びF3の場合において取得されるコントラスト値は各々、b1、b2、及びb3となる。図12に示すように、コントラスト値の変化の状態を、コントラスト値を横軸(x軸)、フォーカスレンズ84の位置を縦軸(y軸)として表すと、焦点距離がWIDEからTELEの方向に変化する場合(図11に示した焦点距離F1からF3へ変化する場合)、フォーカスレンズ84の位置の正方向(被写体側)への変化とともにコントラスト値は減少する。換言すると、取得された複数のコントラスト値により表されるコントラストカーブが減少する傾向(図12の矢印B参照)を示す。
 また、図13に示すように、真のズームトラッキング曲線がズームトラッキング曲線Ttである場合に、ズームトラッキング曲線Ttよりも前側(被写体側)のズームトラッキング曲線Tdを用いてズームトラッキング動作を行っていたとする。この場合、図13に示すように、焦点距離がF1、F2、及びF3の場合において取得されるコントラスト値は各々、d1、d2、及びd3となる。図14に示すように、コントラスト値の変化の状態を、コントラスト値を横軸(x軸)、フォーカスレンズ84の位置を縦軸(y軸)として表すと、焦点距離がWIDEからTELEの方向に変化する場合(図13に示した焦点距離F1からF3へ変化する場合)、フォーカスレンズ84の位置の正方向(被写体側)への変化とともにコントラスト値は減少する。換言すると、取得された複数のコントラスト値により表されるコントラストカーブが減少する傾向(図14の矢印D参照)を示す。
 そのため、本例示的実施形態では、取得された複数のコントラスト値により表されるコントラストカーブが減少する傾向を示す場合、現在のズームトラッキング曲線よりも後側(受光面22A側)のズームトラッキング曲線に変更する制御を行う。
 また、本例示的実施形態では、上述した場合と異なり、上記ステップS108で得られた複数のコントラスト値がピーク値を含む場合、ピーク値に対応するズームトラッキング曲線に変更することで合焦状態に応じたズームトラッキング曲線に変更する制御を行う。
 そこで次のステップS114でCPU74は、上記ステップS108で得られたコントラスト値にピーク値が含まれるか否かを判定する。得られたコントラスト値にピーク値が含まれる場合、ステップS114の判定が肯定判定となり、ステップS116へ移行する。
 ステップS116でCPU74は、変更するズームトラッキング曲線を、ピーク値に対応するズームトラッキング曲線に決定する。
 一方、上記ステップS108で得られたコントラスト値にピーク値が含まれない場合、ステップS114の判定が否定判定となり、ステップS118へ移行する。
 ステップS118でCPU74は、上記ステップS112で導出した、複数のコントラスト値によって示されるコントラストカーブが増加傾向を示しているか否かを判定する。コントラストカーブが増加傾向を示している場合、ステップS118の判定が肯定判定となり、ステップS120へ移行する。ステップS120でCPU74は、変更するズームトラッキング曲線を、上述したように前側(被写体側)のズームトラッキング曲線に決定する。なお、本例示的実施形態では、被写界深度分前側のズームトラッキング曲線に決定することにより、ビントが合ったままでズームトラッキング曲線の変更を行うことができる。
 一方、コントラストカーブが増加傾向を示していない場合、ステップS116の判定が否定判定となり、ステップS122へ移行する。
 ステップS122でCPU74は、上記ステップS112で導出した、複数のコントラスト値によって示されるコントラストカーブが減少傾向を示しているか否かを判定する。コントラストカーブが減少傾向を示している場合、ステップS122の判定が肯定判定となり、ステップS124へ移行する。ステップS124でCPU74は、変更するズームトラッキング曲線を、上述したように後側(受光面22A側)のズームトラッキング曲線に決定する。なお、本例示的実施形態では、被写界深度分後側のズームトラッキング曲線に決定することにより、ビントが合ったままでズームトラッキング曲線の変更を行うことができる。
 一方、コントラストカーブが減少傾向を示していない場合、ステップS122の判定が否定判定となり、ステップS132へ移行する。
 上記ステップS116、S120、及びS124の後のステップS126でCPU74は、上記ステップS116、S120、及びS124のいずれかにより決定した変更先のズームトラッキング曲線が、予め定められた範囲内にあるか否かを判定する。一例として、本例示的実施形態では、予め定められた範囲を、図10を参照して上述したように、撮像画像に生じるぼけの許容範囲である、ズームトラッキング曲線U及びズームトラッキング曲線Lの範囲内としている。
 変更先のズームトラッキング曲線が、予め定められた範囲内にある場合、ステップS126の判定が肯定判定となり、ステップS128へ移行する。ステップS128でCPU74は、ズームトラッキング動作に用いるズームトラッキング曲線を、上記ステップS116、S120、及びS124のいずれかにより決定した変更先のズームトラッキング曲線に変更する。
 一方、変更先のズームトラッキング曲線が、予め定められた範囲外にある場合、ステップS126の判定が否定判定となり、ステップS130へ移行する。ステップS130でCPU74は、ズームトラッキング動作に用いるズームトラッキング曲線を、予め定められた範囲内のズームトラッキング曲線に変更する。なお、この場合、上記ステップS116により変更先のズームトラッキング曲線をピーク値に対応するズームトラッキング曲線に決定した場合、決定したズームトラッキング曲線に最も近い、予め定められた範囲内のズームトラッキング曲線に変更する。また、上記ステップS120により変更先のズームトラッキング曲線を前側(被写体側)のズームトラッキング曲線に決定した場合、現在のズームトラッキング動作に用いているズームトラッキング曲線よりも前側(被写体側)で、予め定められた範囲内にあるズームトラッキング曲線に変更する。また、上記ステップS124により変更先のズームトラッキング曲線を後側(受光面22A側)のズームトラッキング曲線に決定した場合、現在のズームトラッキング動作に用いているズームトラッキング曲線よりも後側(受光面22A側)で、予め定められた範囲内にあるズームトラッキング曲線に変更する。
 次のステップS132でCPU74は、ズームレンズ82を移動させる操作が終了したか否かを判定する。本例示的実施形態では、ズームレンズ82の移動が停止するまで、ステップS132の判定が否定判定となり、ステップS108に戻り、上記ステップS110~S130の処理を繰り返す。一方、ズームレンズ82の移動が停止した場合、ステップS132の判定が肯定判定となり、ステップS134へ移行する。
 ステップS134でCPU74は、ズームトラッキング動作を停止し、次のステップS136でCPU74は、上記ステップS106で最高値に変更した撮像素子22から画像信号を読み出すフレームレートを、変更前の値(例えば、通常の撮影に用いられるフレームレート)に戻した後、ズームトラッキング制御処理を終了する。
 このように本施形態の撮像装置10では、ズームトラッキング動作に用いるズームトラッキング曲線を、複数回取得した撮像画像のコントラスト値の変化に基づいて決定したズームトラッキング曲線に変更する。
 これにより、本例示的実施形態の撮像装置10では、適切なズームトラッキング曲線に変更することができ、合焦位置から大きくずれることがない。従って、本例示的実施形態の撮像装置10によれば、撮像画像の見栄えが悪くなることを抑制しつつ、ズームトラッキングの精度を向上させることができる。
[第2例示的実施形態]
 以下、第2例示的実施形態について詳細に説明する。なお、本例示的実施形態では、上記第1例示的実施形態で説明した構成及び作用と同一の構成及び作用については同一の符号を付し、詳細な説明を省略する。
 本例示的実施形態の撮像装置10の構成は、第1例示的実施形態の撮像装置10の構成(図1~図4参照)と同様であるため、説明を省略する。
 一方、本例示的実施形態の撮像装置10の作用は、ズームトラッキング制御処理の一部が異なっている。図15には、本例示的実施形態のズームトラッキング制御処理の流れの一例を示すフローチャートを示す。図15に示すように、本例示的実施形態のズームトラッキング制御処理では、第1例示的実施形態のズームトラッキング制御処理(図9参照)に比べ、ステップS100で肯定判定となった後にステップS103A及び103Bの各処理を実行する点が異なっている。
 図15に示すようにS103AでCPU74は、ズームレンズ82を移動する速度が予め定められた閾値速度未満であるか否か判定する。ズームレンズ82の移動速度が速すぎると、第1例示的実施形態で上述したステップS108(図9参照)のコントラスト値の取得において、正確なコントラスト値が取得できなくなる場合等があり、適切なズームトラッキング曲線を変更先に決定できないことがある。そのため、本例示的実施形態では、適切なズームトラッキング曲線を変更先として決定することを可能とするズームレンズ82の移動速度の閾値を予め得ておき、撮像装置10内に設定しておく。
 ズームレンズ82を移動する速度が予め定められた閾値速度未満ではない場合、換言するとズームレンズ82を移動する速度が予め定められた閾値以上の場合、ステップS103Aの判定が否定判定となり、ステップS104へ移行する。上述したようにステップS104では、通常のズームトラッキング動作を実行し、ズームレンズ82の移動が停止すると、ズームトラッキング制御処理を終了する。
 一方、ズームレンズ82を移動する速度が予め定められた閾値速度未満の場合、ステップS103Aの判定が肯定判定となり、ステップS103Bへ移行する。
 ステップS103BでCPU74は、フォーカスレンズ84の移動速度はズームトラッキング曲線を追従するのに十分な速度であるか否かを判定する。フォーカスレンズ84の移動速度が遅い場合、決定したズームトラッキング曲線を追従できず、合焦位置がずれてしまう場合がある。そのため、本例示的実施形態では、ズームトラッキング曲線を追従するために十分なフォーカスレンズ84の移動速度を閾値として予め得ておき、撮像装置10内に設定しておく。CPU74は、フォーカスレンズ84の移動速度が設定されている閾値よりも遅い場合、ズームトラッキング曲線を追従するのに十分な速度ではない判定する。
 このようにフォーカスレンズ84の移動速度がズームトラッキング曲線を追従するのに十分な速度ではない場合、ステップS103Bの判定が否定判定となり、ステップS104へ移行する。
 一方、フォーカスレンズ84の移動速度がズームトラッキング曲線を追従するのに十分な速度の場合、ステップS103Bの判定が肯定判定となり、第1例示的実施形態で上述したステップS106~S136(図9参照)の各処理を実行する。
 このように、本例示的実施形態の撮像装置10は、ズームレンズ82の移動速度が、適切なズームトラッキング曲線を変更先として決定することを可能とするズームレンズ82の移動速度よりも遅い場合、通常のズームトラッキング動作を行う。また、本例示的実施形態の撮像装置10は、フォーカスレンズ84の移動速度が、ズームトラッキング曲線を追従するのに十分な速度ではない場合、通常のズームトラッキング動作を行う。
 これにより、本例示的実施形態の撮像装置10では、適切なズームトラッキング曲線に変更することができ、ズームトラッキングの精度を向上させることができる。
 以上説明したように、上記各例示的実施形態の撮像装置10は、ズームレンズ82及びフォーカスレンズ84を含むレンズユニット18を有する撮像レンズと、撮像素子22を含み、レンズユニット18を通して被写体を撮像素子22により撮像して得られた画像信号を出力する撮像素子ドライバ50と、画像信号に応じた撮像画像を生成する画像処理部56と、CPU74及びズームトラッキング制御プログラム79を記憶する二次記憶部78を含む本体側主制御部46と、を備える。
 CPU74はズームトラッキング制御プログラム79を実行することによりズームレンズ82の状態から撮像レンズの焦点距離を取得する取得部と、被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すトラッキングデータ110が示すズームトラッキング曲線に基づいて、取得した焦点距離に応じてフォーカスレンズ84の光軸方向に沿った位置を変化させる制御を行う第1制御によるズームトラッキング動作、及び第1制御の実行中に撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数のコントラスト情報の各々によって表されるコントラスト値の変化に基づいて、第1制御に用いるズームトラッキング曲線を変更する制御を行う第2制御を行う制御部として機能する。
 従って、上記各例示的実施形態の撮像装置10では、適切なズームトラッキング曲線に変更することができ、合焦位置から大きくずれることがない。そのため、本例示的実施形態の撮像装置10によれば、撮像画像の見栄えが悪くなることを抑制しつつ、ズームトラッキングの精度を向上させることができる。
 なお、上記各例示的実施形態では、焦点距離がTELEからWIDEに変化する方向にズームレンズ82が移動している場合は、通常のズームトラッキング動作を行う形態について説明したが、本開示の技術はこの形態に限定されるものではなく、焦点距離がTELEからWIDEに変化する方向にズームレンズ82が移動している場合についても、合焦位置からずれてしまう懸念が生じるため、焦点距離がWIDEからTELEに変化する方向にズームレンズ82が移動している場合と同様に、ズームトラッキング曲線を変更する制御を行ってもよい。
 上記各例示的実施形態では、ズームトラッキング制御プログラム79を二次記憶部78から読み出す場合を例示したが、必ずしも最初から二次記憶部78に記憶させておく必要はない。例えば、図16に示すように、SSD(Solid State Drave)、USB(Universal Serial Bus)メモリ、またはCD-ROM(Compact Disc Read Only Memory)等の任意の可搬型の記憶媒体150に先ずはズームトラッキング制御プログラム79を記憶させておいてもよい。この場合、記憶媒体150のズームトラッキング制御プログラム79が撮像装置本体12にインストールされ、インストールされたズームトラッキング制御プログラム79がCPU74によって実行される。
 また、通信網(図示省略)を介して撮像装置本体12に接続される他のコンピュータまたはサーバ装置等の記憶部にズームトラッキング制御プログラム79を記憶させておき、ズームトラッキング制御プログラム79が撮像装置本体12の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされたズームトラッキング制御プログラム79はCPU74によって実行される。
 また、上記各例示的実施形態で説明したズームトラッキング制御処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、上記各例示的実施形態では、コンピュータを利用したソフトウェア構成によりズームトラッキング制御処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、ズームトラッキング制御処理が実行されてもよい。また、ズームトラッキング制御処理がソフトウェア構成とハードウェア構成とを組み合わせた構成によって実行されてもよい。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 日本出願特願2017-188602の開示は、その全体が参照により本明細書に取り込まれる。

Claims (16)

  1.  ズームレンズ及びフォーカスレンズを含む撮像光学系を有する撮像レンズと、
     撮像素子を含み、前記撮像光学系を通して被写体を前記撮像素子により撮像して得られた画像信号を出力する撮像部と、
     前記画像信号に応じた撮像画像を生成する画像生成部と、
     前記ズームレンズの状態から前記撮像レンズの焦点距離を取得する取得部と、
     被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すズームトラッキング情報に基づいて、前記取得部により取得した焦点距離に応じて前記フォーカスレンズの光軸方向に沿った位置を変化させる制御を行う第1制御、及び前記第1制御の実行中に前記撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数の前記コントラスト情報の各々によって表されるコントラスト値の変化に基づいて、前記第1制御に用いる前記ズームトラッキング情報を変更する制御を行う第2制御を行う制御部と、
     を備えた撮像装置。
  2.  前記ズームトラッキング情報は、前記焦点距離と前記フォーカス位置との対応関係を表すズームトラッキング曲線である、請求項1に記載の撮像装置。
  3.  前記第2制御は、前記第1制御に用いる前記ズームトラッキング曲線を、前側の被写界深度分ずらしたズームトラッキング曲線または後側の被写界深度分ずらしたズームトラッキング曲線に変更する制御である、請求項2に記載の撮像装置。
  4.  前記第2制御は、複数の前記コントラスト情報の各々によって表されるコントラスト値が前記コントラスト値のピーク値を含む場合は、前記ピーク値に応じたズームトラッキング曲線に変更する制御である、請求項2に記載の撮像装置。
  5.  前記第2制御は、複数の前記コントラスト情報の各々によって表されるコントラスト値により表されるコントラストカーブが増加傾向を示す場合は、前側の被写界深度分ずらしたズームトラッキング曲線に変更する制御である、請求項3または請求項4に記載の撮像装置。
  6.  前記第2制御は、複数の前記コントラスト情報の各々によって表されるコントラスト値により表されるコントラストカーブが減少傾向を示す場合は、後側の被写界深度分ずらしたズームトラッキング曲線に変更する制御である、請求項3から請求項5のいずれか1項に記載の撮像装置。
  7.  前記第2制御は、前記第1制御に用いる前記ズームトラッキング曲線を、変更前のズームトラッキング曲線から予め定められた範囲内の他のズームトラッキング曲線に変更する制御である、請求項2に記載の撮像装置。
  8.  前記予め定められた範囲は、変更前のズームトラッキング曲線に応じた被写界深度に応じた範囲である、請求項7に記載の撮像装置。
  9.  前記制御部は、前記第1制御により変化させる前記フォーカスレンズの位置の変化の速度が、予め定められた速度よりも遅い場合、前記第2制御の実行を禁止する、請求項2から請求項8のいずれか1項に記載の撮像装置。
  10.  前記予め定められた速度は、前記フォーカスレンズの位置の変化が前記ズームトラッキング曲線に追従できない速度である、請求項9に記載の撮像装置。
  11.  前記制御部は、前記取得部が取得した焦点距離が変化する変化速度が予め定められた変化速度未満の場合、前記第2制御を行う、
     請求項1から請求項10のいずれか1項に記載の撮像装置。
  12.  前記制御部は、前記第1制御の実行前に前記コントラスト情報によって表されるコントラスト値と、前記第1制御の実行後に前記コントラスト情報によって表されるコントラスト値との差が、予め定められた閾値以上の場合、前記第2制御の実行を禁止する、請求項1から請求項11のいずれか1項に記載の撮像装置。
  13.  前記制御部は、前記コントラスト情報を取得する動作中は、前記撮像部に対して前記画像信号を出力するフレームレートを他の場合に比べて高くさせる制御をさらに行う、請求項1から請求項12のいずれか1項に記載の撮像装置。
  14.  前記制御部は、前記ズームレンズの移動により焦点距離が広角側から望遠側に向けて変化する場合、前記第2制御を行い、焦点距離が前記望遠側から前記広角側に向けて変化する場合、前記第2制御を禁止する、請求項1から請求項13のいずれか1項に記載の撮像装置。
  15.  ズームレンズ及びフォーカスレンズを含む撮像光学系を有する撮像レンズと、撮像素子を含み、前記撮像光学系を通して被写体を前記撮像素子により撮像して得られた画像信号を出力する撮像部と、前記画像信号に応じた撮像画像を生成する画像生成部と、前記ズームレンズの状態から前記撮像レンズの焦点距離を取得する取得部と、を備えた撮像装置の制御方法であって、
     被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すズームトラッキング情報に基づいて、前記取得部により取得した焦点距離に応じて前記フォーカスレンズの光軸方向に沿った位置を変化させる第1制御を行い、
     前記第1制御の実行中に前記撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数の前記コントラスト情報の各々によって表されるコントラスト値の変化に基づいて、前記第1制御に用いる前記ズームトラッキング情報を変更する第2制御を行う、
     処理を含む撮像装置の制御方法。
  16.  ズームレンズ及びフォーカスレンズを含む撮像光学系を有する撮像レンズと、撮像素子を含み、前記撮像光学系を通して被写体を前記撮像素子により撮像して得られた画像信号を出力する撮像部と、前記画像信号に応じた撮像画像を生成する画像生成部と、前記ズームレンズの状態から前記撮像レンズの焦点距離を取得する取得部と、を備えた撮像装置の制御プログラムであって、
     コンピュータに、
     被写体距離に応じた、焦点距離とフォーカス位置との対応関係を表すズームトラッキング情報に基づいて、前記取得部により取得した焦点距離に応じて前記フォーカスレンズの光軸方向に沿った位置を変化させる第1制御を行い、
     前記第1制御の実行中に前記撮像画像のコントラストを表すコントラスト情報を複数回取得し、取得した複数の前記コントラスト情報の各々によって表されるコントラスト値の変化に基づいて、前記第1制御に用いる前記ズームトラッキング情報を変更する第2制御を行う、
     処理を実行させるための撮像装置の制御プログラム。
PCT/JP2018/030565 2017-09-28 2018-08-17 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム WO2019064988A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019544412A JP6727453B2 (ja) 2017-09-28 2018-08-17 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム
CN201880061077.6A CN111133355B (zh) 2017-09-28 2018-08-17 摄像装置、摄像装置的控制方法及存储介质
US16/830,044 US11412128B2 (en) 2017-09-28 2020-03-25 Imaging device, control method of imaging device, and control program of imaging device to change zoom tracking information based on contrast values

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-188602 2017-09-28
JP2017188602 2017-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/830,044 Continuation US11412128B2 (en) 2017-09-28 2020-03-25 Imaging device, control method of imaging device, and control program of imaging device to change zoom tracking information based on contrast values

Publications (1)

Publication Number Publication Date
WO2019064988A1 true WO2019064988A1 (ja) 2019-04-04

Family

ID=65903553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/030565 WO2019064988A1 (ja) 2017-09-28 2018-08-17 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム

Country Status (4)

Country Link
US (1) US11412128B2 (ja)
JP (1) JP6727453B2 (ja)
CN (1) CN111133355B (ja)
WO (1) WO2019064988A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6961889B1 (ja) * 2020-06-30 2021-11-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 制御装置、撮像装置、制御方法、及びプログラム
CN112135055B (zh) * 2020-09-27 2022-03-15 苏州科达科技股份有限公司 变焦跟踪方法、装置、设备以及存储介质
CN113452920B (zh) * 2021-07-26 2022-10-21 北京字节跳动网络技术有限公司 一种对焦点确定方法、装置、设备及介质
CN114125288B (zh) * 2021-11-19 2022-12-27 杭州晨安科技股份有限公司 一种变焦镜头自动微聚焦方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0281012A (ja) * 1988-09-19 1990-03-22 Victor Co Of Japan Ltd ズームレンズシステム
JP2009258680A (ja) * 2008-03-27 2009-11-05 Panasonic Corp カメラシステム、カメラ本体、交換レンズユニット、フォーカス制御方法、およびプログラム。

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306631A (ja) * 1994-05-12 1995-11-21 Saito Hideo 車輌の駐車練習装置
JPH0933792A (ja) * 1995-07-21 1997-02-07 Sony Corp レンズ駆動装置及び撮像装置
JPH09311265A (ja) 1996-05-17 1997-12-02 Sanyo Electric Co Ltd 撮像装置のオートフォーカス装置およびズームトラッキングカーブの補正方法
JP2004219581A (ja) * 2003-01-10 2004-08-05 Canon Inc 自動焦点調節装置
JP2007086596A (ja) * 2005-09-26 2007-04-05 Pentax Corp カメラ
JP2008129455A (ja) * 2006-11-22 2008-06-05 Sony Corp 撮像装置、制御方法、およびプログラム
CN101675369B (zh) * 2007-05-07 2012-04-04 松下电器产业株式会社 可互换镜头及使用它的摄像系统
WO2009113326A1 (ja) 2008-03-11 2009-09-17 三洋電機株式会社 撮像装置
CN101950063B (zh) * 2009-07-10 2012-08-29 佛山普立华科技有限公司 自动对焦系统及自动对焦方法
US8958009B2 (en) 2010-01-12 2015-02-17 Nikon Corporation Image-capturing device
JP5808124B2 (ja) 2011-03-24 2015-11-10 キヤノン株式会社 焦点検出装置及びその制御方法並びに焦点検出装置を有する撮像装置
JP2013047740A (ja) * 2011-08-29 2013-03-07 Nissan Motor Co Ltd 車両用運転操作トレーニング装置および車両
CN108387997B (zh) * 2011-11-11 2022-07-08 株式会社尼康 镜头镜筒
JP5830373B2 (ja) * 2011-12-22 2015-12-09 オリンパス株式会社 撮像装置
US20130250155A1 (en) * 2012-03-26 2013-09-26 Research In Motion Limited Method and device for focus selection in digital cameras
JP5930999B2 (ja) * 2013-04-05 2016-06-08 キヤノン株式会社 撮像装置、撮像システム、レンズユニット、撮像装置の制御方法、およびレンズユニットの制御方法
EP3907544B1 (en) * 2013-05-10 2024-06-05 Nikon Corporation Lens barrel, camera system, and imaging device
WO2014196389A1 (ja) 2013-06-06 2014-12-11 富士フイルム株式会社 オート・フォーカス装置およびその動作制御方法
JP6253424B2 (ja) * 2014-01-27 2017-12-27 株式会社 日立産業制御ソリューションズ 撮像装置および撮像方法
CN105812653B (zh) * 2015-01-16 2019-05-10 奥林巴斯株式会社 摄像装置和摄像方法
CN104849834B (zh) * 2015-06-03 2017-10-03 福建福光股份有限公司 中波红外连续变焦镜头及其控制方法
JP6702765B2 (ja) * 2016-03-10 2020-06-03 キヤノン株式会社 焦点調節装置およびその制御方法、撮像装置、プログラム、記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0281012A (ja) * 1988-09-19 1990-03-22 Victor Co Of Japan Ltd ズームレンズシステム
JP2009258680A (ja) * 2008-03-27 2009-11-05 Panasonic Corp カメラシステム、カメラ本体、交換レンズユニット、フォーカス制御方法、およびプログラム。

Also Published As

Publication number Publication date
CN111133355A (zh) 2020-05-08
JPWO2019064988A1 (ja) 2020-07-09
US11412128B2 (en) 2022-08-09
US20200228724A1 (en) 2020-07-16
CN111133355B (zh) 2021-12-24
JP6727453B2 (ja) 2020-07-22

Similar Documents

Publication Publication Date Title
US11412128B2 (en) Imaging device, control method of imaging device, and control program of imaging device to change zoom tracking information based on contrast values
JP7086571B2 (ja) 撮像装置、レンズ装置およびこれらの制御方法
JP4094458B2 (ja) 画像入力装置
JP2009251557A (ja) 撮像装置
JP6723438B2 (ja) 撮像装置、撮像用制御方法、及びプログラム
KR101626002B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP2006162991A (ja) 立体画像撮影装置
JP6545420B2 (ja) 撮像装置、撮像用制御方法、及びプログラム
JP2009069170A (ja) 撮影装置および撮影装置の制御方法
JP5409483B2 (ja) 撮像装置
US11467367B2 (en) Imaging device, imaging method, and program
JP2007225897A (ja) 合焦位置決定装置及び方法
JP4925168B2 (ja) 撮像方法および装置
JP5486662B2 (ja) 撮像装置及びカメラ本体
US11394868B2 (en) Imaging device, imaging method, and program
JP6778340B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2009036987A (ja) 撮影装置および撮影装置の制御方法
JP2009086036A (ja) 撮影装置および撮影装置の制御方法
US11336815B2 (en) Focusing control device, focusing control method, and program
WO2019171696A1 (ja) 撮像装置、撮像方法、及びプログラム
JP2006113293A (ja) 撮影装置
JP2009036988A (ja) 撮影装置および撮影装置の制御方法
JP2009048122A (ja) 撮影装置および撮影装置の制御方法
JP2009048124A (ja) 撮影装置および撮影装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18863654

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019544412

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18863654

Country of ref document: EP

Kind code of ref document: A1