WO2018069974A1 - 撮像装置、撮像システム、移動体、方法及びプログラム - Google Patents

撮像装置、撮像システム、移動体、方法及びプログラム Download PDF

Info

Publication number
WO2018069974A1
WO2018069974A1 PCT/JP2016/080139 JP2016080139W WO2018069974A1 WO 2018069974 A1 WO2018069974 A1 WO 2018069974A1 JP 2016080139 W JP2016080139 W JP 2016080139W WO 2018069974 A1 WO2018069974 A1 WO 2018069974A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
control unit
images
positions
evaluation values
Prior art date
Application number
PCT/JP2016/080139
Other languages
English (en)
French (fr)
Inventor
佳範 永山
玲龍 朱
Original Assignee
エスゼット ディージェイアイ テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エスゼット ディージェイアイ テクノロジー カンパニー リミテッド filed Critical エスゼット ディージェイアイ テクノロジー カンパニー リミテッド
Priority to PCT/JP2016/080139 priority Critical patent/WO2018069974A1/ja
Priority to JP2017517814A priority patent/JP6365859B1/ja
Publication of WO2018069974A1 publication Critical patent/WO2018069974A1/ja
Priority to US16/356,694 priority patent/US11125970B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective
    • G02B15/143Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective having three groups only

Definitions

  • the present invention relates to an imaging apparatus, an imaging system, a moving object, a method, and a program.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2011-85928
  • the imaging device includes a control unit.
  • the control unit moves the lens in the first direction along the optical axis and causes each of the plurality of first images to be captured through the lens when the lens is positioned at each of the plurality of first positions.
  • the lens is moved in a second direction opposite to the direction of 1, and the one or more second images captured through the lens when the lens is positioned at each of the one or more second positions in the optical axis direction.
  • Each of these may be imaged.
  • the imaging device may include a specifying unit.
  • the specifying unit includes a focus state calculated from one or more first evaluation values and one or more second images among a plurality of first evaluation values indicating a focus state calculated from the plurality of first images.
  • the in-focus position may be specified by using one or more second evaluation values indicating the above.
  • the control unit may make one or more second positions different from any of the plurality of first positions.
  • the control unit may cause a plurality of second images to be captured through the lens when positioned at a plurality of second positions different from any of the plurality of first positions.
  • the specifying unit may specify the in-focus position by using both the plurality of first evaluation values and the plurality of second evaluation values indicating the focus state calculated from the plurality of second images.
  • the imaging apparatus may include a storage unit that stores information related to backlash in the lens driving mechanism.
  • the control unit may make the second position different from any of the plurality of first positions by using the information on the backlash stored in the storage unit.
  • the control unit is stored in the storage unit when the lens is moved in the first direction and then moved in the second direction to be moved to one of the one or more second positions.
  • the lens may be moved to one position different from any of the plurality of first positions using the information on the backlash that is present.
  • the storage unit may store information related to backlash in association with the position of the lens in the optical axis direction.
  • the control unit uses information related to backlash stored in the storage unit in association with the current position of the lens when the lens is moved in the second direction after moving the lens in the first direction.
  • the lens may be moved to one position different from any of the plurality of first positions.
  • the imaging apparatus may include a storage unit that stores information related to backlash in the lens driving mechanism.
  • the specifying unit is configured to capture one or more first evaluation values and one or more first positions of the lens when an image from which one or more first evaluation values are obtained among the plurality of first positions is captured.
  • the in-focus position may be specified based on one or more second evaluation values and one or more second positions based on information related to backlash.
  • a moving body according to one embodiment of the present invention is provided with the above imaging device.
  • An imaging system includes the imaging device described above.
  • the imaging system may include a support mechanism that supports the imaging device.
  • the imaging system may include a handle portion that is attached to the support mechanism.
  • a method of moving a lens in a first direction along an optical axis and moving a plurality of first images through the lens when the lens is positioned at each of the plurality of first positions Each image is taken and the lens is moved in a second direction opposite to the first direction, and when the lens is located at each of one or more second positions in the optical axis direction, the image is taken through the lens.
  • the method uses a focus state calculated from one or more first evaluation values and one or more second images among a plurality of first evaluation values indicating a focus state calculated from a plurality of first images.
  • One or more second evaluation values shown may be used together to specify a focus position.
  • a program causes a computer to move a lens in a first direction along an optical axis, and when the lens is positioned at each of a plurality of first positions, the plurality of firsts through the lens.
  • Each of the images is picked up, the lens is moved in a second direction opposite to the first direction, and the lens is picked up when the lens is located at each of one or more second positions in the optical axis direction.
  • the step of capturing each of the one or more second images that have been performed is executed.
  • the program is calculated from one or more first evaluation values and one or more second images among a plurality of first evaluation values indicating a focus state calculated from the plurality of first images.
  • the step of specifying the in-focus position may be executed using one or more second evaluation values indicating the focus state together.
  • the time required to specify the focus position can be further shortened.
  • UAV unmanned aerial vehicle
  • An example of the functional block of UAV100 is shown.
  • the relationship between the position of the lens 164 and the evaluation value is shown.
  • An example of backlash amount information of the lens 164 is shown.
  • 12 is a flowchart illustrating an example of a focusing control procedure in the imaging apparatus 190. It is a flowchart which shows an example of the procedure of the movement control of the lens 164 based on backlash information. It is a flowchart which shows an example of the control procedure for moving to a focusing position.
  • An example of the operation content executed in the focus control by the first control unit 142 is shown.
  • the relationship between the position of the focus lens by focus control of a comparative example and an evaluation value is shown.
  • An example of the operation content executed in the focus control in the comparative example is shown.
  • 2 is an external perspective view showing an example of a stabilizer 800.
  • FIG. 2 shows an example of a computer 2000 according to a plurality of aspects.
  • Each block may represent (1) the stage of the process in which the operation is performed or (2) a “part” of the device responsible for performing the operation.
  • Certain stages and “units” may be implemented by dedicated circuitry, processors, and / or programmable circuitry.
  • Dedicated circuitry may include digital and / or analog hardware circuitry.
  • Dedicated circuitry may include integrated circuits (ICs) and / or discrete circuits.
  • the processor may be used with computer readable instructions stored on a computer readable medium.
  • the programmable circuit may be used with computer readable instructions stored on a computer readable medium.
  • the programmable circuit may include a reconfigurable hardware circuit.
  • Reconfigurable hardware circuits include logical AND, logical OR, logical XOR, logical NAND, logical NOR, and other logical operations, flip-flops, registers, field programmable gate arrays (FPGA), programmable logic arrays (PLA), etc.
  • the memory element or the like may be included.
  • the computer readable medium may include any tangible device capable of storing instructions to be executed by a suitable device.
  • a computer readable medium having instructions stored thereon constitutes at least a portion of a product including instructions that can be executed to configure means for performing the operations specified in the flowcharts or block diagrams. It will be.
  • Examples of computer readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like.
  • Computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically erasable programmable read only memory (EEPROM), static random access memory (SRAM), compact disc read only memory (CD-ROM), digital versatile disc (DVD), Blu-ray (RTM) disc, memory stick, integrated A circuit card or the like may be included.
  • RAM random access memory
  • ROM read only memory
  • EPROM or flash memory erasable programmable read only memory
  • EEPROM Electrically erasable programmable read only memory
  • SRAM static random access memory
  • CD-ROM compact disc read only memory
  • DVD digital versatile disc
  • RTM Blu-ray
  • the computer readable instructions may include either source code or object code written in any combination of one or more programming languages.
  • the one or more programming languages include conventional procedural programming languages.
  • the programming language or languages may be an object oriented programming language such as Smalltalk, JAVA, C ++, etc., and a “C” programming language or similar programming language.
  • Computer readable instructions include assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, or state setting data.
  • the computer readable instructions may be provided to a processor or programmable circuit of a general purpose computer, special purpose computer, or other programmable data processing device.
  • Computer readable instructions may be provided locally or via a wide area network (WAN) such as a local area network (LAN), the Internet, etc.
  • WAN wide area network
  • LAN local area network
  • the Internet etc.
  • the processor or programmable circuit may execute computer readable instructions to form a means for performing the operations specified in the flowcharts or block diagrams.
  • Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
  • FIG. 1 shows an example of the appearance of an unmanned aerial vehicle (UAV) 100.
  • the UAV 100 includes a UAV main body 101, a gimbal 110, and an imaging device 190.
  • the imaging device 190 includes an imaging unit 140 and a lens device 160.
  • the UAV 100 is an example of a moving body that includes an imaging device and moves.
  • the moving body is a concept including, in addition to UAV, other aircraft that moves in the air, vehicles that move on the ground, ships that move on the water, and the like.
  • the UAV main body 101 includes a plurality of rotor blades including a rotor blade 108a and a rotor blade 108b.
  • a plurality of rotor blades included in the UAV main body 101 may be collectively referred to as rotor blades 108.
  • the rotary blade 108 is an example of a propulsion unit.
  • the UAV main body 101 uses the rotary wing 108 to fly the UAV 100.
  • the UAV main body 101 causes the UAV 100 to fly by controlling the rotation of the rotary wing 108.
  • the number of rotor blades 108 may be four.
  • the number of rotor blades 108 is not limited to four.
  • the UAV 100 may be a fixed wing aircraft that does not have rotating blades.
  • the gimbal 110 supports the imaging device 190 movably.
  • the gimbal 110 is an example of a support mechanism.
  • the gimbal 110 supports the imaging device 190 so as to be rotatable about the pitch axis.
  • the gimbal 110 supports the imaging device 190 so as to be rotatable about a roll axis.
  • the gimbal 110 supports the imaging device 190 so as to be rotatable about the yaw axis.
  • the gimbal 110 may support the imaging device 190 rotatably around at least one of a pitch axis, a roll axis, and a yaw axis.
  • the gimbal 110 may support the imaging device 190 rotatably about each of the pitch axis, the roll axis, and the yaw axis.
  • the gimbal 110 may hold the imaging unit 140 or the lens device 160.
  • the gimbal 110 may change the imaging direction of the imaging device 190 by rotating the imaging unit 140 and the lens device 160 about at least one of the yaw axis, the pitch axis, and the roll axis.
  • the imaging unit 140 generates and records image data of an optical image formed by the lens device 160.
  • the lens device 160 may be provided integrally with the imaging unit 140.
  • the lens device 160 may be a so-called interchangeable lens.
  • the lens device 160 may be provided so as to be detachable from the imaging unit 140.
  • FIG. 2 shows an example of functional blocks of the UAV100.
  • the UAV main body 101 includes an interface 102, a third control unit 104, a memory 106, a driving unit 107, and a rotating blade 108.
  • the drive unit 107 functions as a drive unit that moves the UAV 100.
  • the drive unit 107 may include a motor that drives the rotating blades 108.
  • One motor provided in the drive unit 107 may be provided corresponding to each of the plurality of rotor blades 108.
  • the drive unit 107 may include a driver that controls the rotation speed of the drive shaft of each motor.
  • Each of the rotor blades 108 is rotated by the rotation of a drive shaft of a motor provided correspondingly.
  • the UAV 100 flies by the lift obtained by the rotation of the rotary blade 108.
  • the interface 102 communicates with an external transmitter. Interface 102 receives various commands from a remote transmitter.
  • the third control unit 104 controls the flight of the UAV 100 according to the command received from the transmitter.
  • the third control unit 104 controls the gimbal 110, the imaging unit 140, and the lens device 160.
  • the third control unit 104 directly or indirectly controls the gimbal 110, the imaging unit 140, and the lens device 160.
  • the third control unit 104 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like.
  • the memory 106 stores programs and the like necessary for the third control unit 104 to control the gimbal 110, the imaging unit 140, and the lens device 160.
  • the memory 106 may be a computer readable recording medium.
  • the memory 106 may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory.
  • the memory 106 may be provided in the housing of the UAV 100.
  • the memory 106 may be provided so as to be removable from the housing of the UAV 100.
  • the third control unit 104 may output a control command for the gimbal 110.
  • the gimbal 110 rotates the imaging device 190 around at least one of the yaw axis, the pitch axis, and the roll axis in accordance with the control command acquired from the third control unit 104.
  • the third control unit 104 may output a control command related to the zoom value and the aperture value of the lens device 160, an imaging instruction to the imaging unit 140, and the like to the imaging device 190.
  • the imaging unit 140 includes a first control unit 142, an imaging element 144, and a memory 146.
  • the first control unit 142 may be configured by a microprocessor such as a CPU or MPU, a microcontroller such as an MCU, or the like.
  • the first control unit 142 controls each unit of the imaging unit 140 and the lens device 160 in accordance with a control command from the third control unit 104.
  • the memory 146 may be a computer-readable recording medium, and may include at least one of flash memory such as SRAM, DRAM, EPROM, EEPROM, and USB memory.
  • the memory 146 may be provided inside the housing of the imaging unit 140.
  • the memory 146 may be provided so as to be removable from the housing of the imaging unit 140.
  • the first control unit 142 outputs control commands such as a zoom value and an aperture value to the lens device 160 based on a control command from the third control unit 104.
  • the imaging element 144 is held inside the housing of the imaging unit 140, generates image data of an optical image formed through the lens device 160, and outputs the image data to the memory 146.
  • the memory 146 stores the image data generated by the image sensor 144.
  • the first control unit 142 may transfer the image data to the memory 106 via the third control unit 104 and store the image data in the memory 106.
  • the imaging device 190 has an autofocus (AF) function.
  • the imaging device 190 has a contrast detection type autofocus function.
  • the calculation unit 148 generates an evaluation value that represents the in-focus state of the lens device 160 from the image data generated by the imaging element 144.
  • the specifying unit 149 specifies the in-focus position in the lens device 160 based on the evaluation value calculated by the calculating unit 148.
  • the first control unit 142 outputs a control command for focusing the lens device 160 on the subject to the lens device 160 based on the in-focus position specified by the specifying unit 149. Thereby, the first control unit 142 controls the lens device 160 so that the evaluation value obtained from the image data becomes high.
  • the lens device 160 includes a second control unit 162, a memory 163, a drive mechanism 161, a lens 164, a lens 166, and a lens 168.
  • the lens 164, the lens 166, and the lens 168 form a lens system.
  • the lens system forms at least a part of the imaging optical system 169.
  • At least one of the lens 164, the lens 166, and the lens 168 may be a lens group including a plurality of lenses.
  • At least one of the lens 164, the lens 166, and the lens 168 may be one lens.
  • the lens 164, the lens 166, and the lens 168 are disposed inside the lens barrel of the lens device 160. Part or all of the lens 164, the lens 166, and the lens 168 may be held to be displaceable along the optical axis.
  • the second control unit 162 moves at least one of the lens 164, the lens 166, and the lens 168 along the optical axis in accordance with a control command from the first control unit 142.
  • the second control unit 162 mainly moves the lens 166 and the lens 168 along the optical axis during zoom control.
  • the second control unit 162 moves the lens 164 along the optical axis during focus control.
  • the lens 164 is a focus lens having a focusing function in the imaging device 190.
  • An image formed by the optical system 169 of the lens device 160 is picked up by the image pickup unit 140.
  • the driving mechanism 161 drives the lens 164, the lens 166, and the lens 168.
  • the drive mechanism 161 includes an actuator, for example. Driving pulses are supplied from the second control unit 162 to the actuator. The actuator is displaced by a driving amount corresponding to the supplied pulse.
  • the drive mechanism 161 includes a holding member that is a mechanical element that holds the lens 164, the lens 166, and the lens 168.
  • the holding member is, for example, a lens holding frame.
  • the holding member engages with a driving member that is a mechanical element that transmits the driving force of the actuator.
  • the drive member is, for example, a lead screw. There is a gap in the engaging portion between the holding member and the drive member. Therefore, backlash exists in the engaging portion between the holding member for the lens 164 and the driving member for the lens 164.
  • the drive mechanism 161 is an example of a drive mechanism for the lens 164.
  • any one control unit may execute processing executed by two or three of the first control unit 142, the second control unit 162, and the third control unit 104.
  • the processing executed by the first control unit 142, the second control unit 162, and the third control unit 104 may be executed by one control unit.
  • the first control unit 142 moves the lens 164 in the first direction along the optical axis, and when the lens 164 is positioned at each of the plurality of first positions, the plurality of the plurality of the first control units 142 through the lens 164. Each of the first images is captured.
  • the first control unit 142 calculates a plurality of first evaluation values indicating the focus state from the plurality of first images.
  • the first control unit 142 causes the calculation unit 148 to calculate a plurality of first evaluation values.
  • the evaluation value may be, for example, an image contrast value.
  • the first control unit 142 moves the lens 164 in a second direction opposite to the first direction, and the lens 164 is positioned at each of one or more second positions in the optical axis direction. Each of the one or more second images picked up through is picked up.
  • the first control unit 142 calculates one or more second evaluation values indicating the focus state from the one or more second images.
  • the first control unit 142 causes the calculation unit 148 to calculate one or more second evaluation values.
  • the specifying unit 149 has a focus calculated from one or more first evaluation values and one or more second images among a plurality of first evaluation values indicating a focus state calculated from the plurality of first images.
  • the in-focus position is specified by using one or more second evaluation values indicating the state together.
  • the specifying unit 149 may specify the in-focus position using three or more evaluation values including the one or more first evaluation values and the one or more second evaluation values.
  • the specifying unit 149 may specify the in-focus position by using both the plurality of first evaluation values and one or more second evaluation values.
  • the specifying unit 149 may specify the in-focus position by using both the plurality of first evaluation values and the plurality of second evaluation values.
  • the first control unit 142, the calculation unit 148, and the specifying unit 149 function as a focus detection device in the imaging device 190.
  • the first control unit 142 makes one or more second positions different from any of the plurality of first positions.
  • the first control unit 142 causes the lens 164 to capture a plurality of second images when the lens 164 is positioned at a plurality of second positions different from any of the plurality of first positions.
  • the specifying unit 149 specifies the in-focus position using both the plurality of first evaluation values and the plurality of second evaluation values indicating the focus state calculated from the plurality of second images.
  • the memory 163 stores information related to backlash in the drive mechanism 161.
  • the first control unit 142 uses the information on backlash stored in the memory 163 to make the second position different from any of the plurality of first positions.
  • the first control unit 142 acquires information about backlash stored in the memory 163 through the second control unit 162 and uses it for controlling the second position.
  • the first control unit 142 moves the lens 164 in the second direction after moving the lens 164 in the first direction.
  • the memory Using the information on the backlash stored in 163, the lens 164 is moved to one position different from any of the plurality of first positions.
  • the memory 163 stores information related to backlash in association with the position of the lens 164 in the optical axis direction.
  • the first control unit 142 moves the lens 164 in the first direction and then moves the lens 164 in the second direction, the first control unit 142 associates the current position of the lens 164 with the current position stored in the memory 163. Using the information on the rush, the lens 164 is moved to one position different from any of the plurality of first positions.
  • the specifying unit 149 captures one or more first evaluation values and one or more first positions of the lens 164 when an image from which the one or more first evaluation values are calculated is captured, and one or more first evaluation values.
  • the in-focus position may be specified based on the evaluation value of 2 and one or more second positions based on information related to backlash.
  • the specifying unit 149 includes a plurality of first positions of the lens 164 and one or more second evaluation values when images of the plurality of first evaluation values and one or more first evaluation values calculated are respectively captured.
  • the in-focus position may be specified based on the evaluation value and one or more second positions based on information related to backlash.
  • FIG. 3 shows the relationship between the position of the lens 164 and the evaluation value.
  • the horizontal axis indicates the position of the lens 164 in the optical axis direction.
  • the vertical axis indicates the evaluation value calculated from the captured image.
  • the plus direction on the horizontal axis corresponds to the first direction.
  • the minus direction on the horizontal axis corresponds to the second direction.
  • the position of the lens 164 in the optical axis direction will be described using numerals 1 to 7.
  • the first control unit 142 moves the lens 164 in one direction through the second control unit 162 in the order of position 1, position 2, position 3, and position 4.
  • the first direction is a direction in which the lens 164 passes through position 1, position 2, position 3, and position 4 in this order.
  • the first control unit 142 causes the image sensor 144 to capture an image through the optical system 169 when the lens 164 exists at each of the position 1, the position 2, the position 3, and the position 4.
  • the first control unit 142 causes the calculation unit 148 to calculate an evaluation value of an image captured by the image sensor 144 when the lens 164 exists at each of the position 1, the position 2, the position 3, and the position 4.
  • the calculation unit 148 calculates an evaluation value E1 from an image captured through the optical system 169 when the lens 164 exists at the position 1. Similarly, the calculation unit 148 calculates evaluation values E2, E3, and E4 from images captured through the optical system 169 when the lens 164 exists at each of the position 2, the position 3, and the position 4, respectively.
  • An evaluation value calculated from an image captured when the lens 164 is present at the position i is referred to as Ei.
  • E4 ⁇ E3- ⁇ and E2 ⁇ E3- ⁇ the first control unit 142 determines that the in-focus position exists between the position 2 and the position 4 when E4 is obtained.
  • is a threshold for detecting a change in the evaluation value.
  • is used to determine the slope of a tangent line of a curve that associates an evaluation value with the position of the lens 164.
  • the first control unit 142 obtains an E3 greater than E2 + ⁇ when the lens 164 is present at the position 3, and therefore there is a section between the position 2 and the position 3 where the slope of the tangent of the curve is positive.
  • the first control unit 142 Since the first control unit 142 obtains E4 smaller than E3- ⁇ when the lens 164 exists at the position 4, the section where the slope of the tangent of the curve is negative between the position 3 and the position 4 Is determined to exist. Therefore, the first control unit 142 determines that a position where the slope of the tangent of the curve is 0 exists between the position 2 and the position 4 when E4 is obtained. Since the evaluation value can be the maximum value (maximum value) at the position where the slope of the tangent of the curve becomes 0, the position can be regarded as the in-focus position. Thereby, the first control unit 142 determines that the in-focus position exists between the position 2 and the position 4 when E4 is obtained. In response to this determination, the first control unit 142 moves the lens 164 in the second direction. The second direction is a direction in which the lens 164 passes through the position 4, the position 5, and the position 6 in this order.
  • the first control unit 142 causes the image sensor 144 to capture an image through the optical system 169 when the lens 164 exists at each of the position 5 and the position 6.
  • the first control unit 142 causes the calculation unit 148 to calculate the evaluation value of each image captured by the imaging element 144 when the lens 164 exists at each of the position 5 and the position 6.
  • the position 5 is a position between the position 4 and the position 3.
  • the position 5 may be a midpoint between the position 4 and the position 3.
  • the position 6 is a position between the position 3 and the position 2.
  • Position 6 may be a midpoint between position 3 and position 2.
  • the first control unit 142 causes the image sensor 144 to capture an image when the lens 164 exists at each of the position 5 and the position 6.
  • the first control unit 142 When the lens 164 is moved in the second direction, the first control unit 142 does not capture an image when the lens 164 is in the vicinity of the position 3.
  • the first control unit 142 may set the position 5 and the position 6 at positions away from the position 3 by a predetermined distance or more.
  • the predetermined distance may be a distance at which a substantial change in the evaluation value can occur.
  • the predetermined distance may be determined such that a change in the evaluation value that occurs when the lens 164 is moved by a predetermined distance exceeds ⁇ .
  • E5 ⁇ E3- ⁇ and E6 ⁇ E3- ⁇ The first control unit 142 determines that the in-focus position exists between the position 6 and the position 5 when E6 is obtained.
  • the first control unit 142 obtains E5 smaller than E3- ⁇ when the lens 164 exists at the position 5, and therefore, a section where the slope of the tangent of the curve is negative between the position 3 and the position 5. Is determined to exist.
  • the first control unit 142 obtains E6 smaller than E3- ⁇ when the lens 164 exists at the position 6, and therefore, a section where the slope of the tangent of the curve is positive between the position 6 and the position 3. Is determined to exist.
  • the first control unit 142 determines that the in-focus position exists between the position 6 and the position 5 when E6 is obtained. In response to this determination, the first control unit 142 causes the specifying unit 149 to specify the focus position.
  • the identification unit 149 has the maximum evaluation value from the five coordinates (position 2, E2), (position 3, E3), (position 4, E4), (position 5, E5), and (position 6, E6). Position 7 may be specified.
  • the specifying unit 149 may specify the position 7 having the maximum evaluation value from the three coordinates (position 3, E3), (position 5, E5), and (position 6, E6).
  • the identifying unit 149 may perform interpolation such as Lagrangian interpolation to calculate the position 7 at which the evaluation value is maximized.
  • the first control unit 142 moves the lens 164 from the position 6 to the position 7.
  • the first control unit 142 automatically performs the operation described above.
  • the 1st control part 142 performs AF by a contrast detection method.
  • the first control unit 142 moves the lens 164 from the position 6 to the position 7 and then causes the image sensor 144 to capture an image.
  • An image captured when the lens 164 is at the position 7 is a recording image.
  • An image captured when the lens 164 is at the position 7 is recorded in the memory 146.
  • the imaging device 190 As described in relation to FIG. 3, according to the imaging device 190, not only the evaluation value obtained by moving the lens 164 in the second direction but also the lens 164 obtained by moving the lens 164 in the first direction.
  • the obtained evaluation value is used for calculation of the in-focus position. Therefore, it is necessary to obtain an image between the start of the focusing operation and the calculation of the in-focus position, compared to the case where only the evaluation value obtained by moving the lens 164 in the second direction is used. The number can be reduced. Therefore, the AF speed can be increased.
  • FIG. 4 shows an example of backlash amount information of the lens 164.
  • the backlash amount information associates the position of the lens 164 with the backlash amount.
  • the backlash information is stored in the memory 163.
  • the memory 163 stores backlash amounts in association with a plurality of positions of the lens 164 in the optical axis direction of the optical system 169.
  • the backlash amount may be a drive amount for driving the drive mechanism 161.
  • the backlash amount may be expressed by the number of pulses corresponding to the drive amount.
  • the first control unit 142 acquires backlash information through the second control unit 162.
  • the first control unit 142 controls the position of the lens 164 using the backlash information acquired from the second control unit 162.
  • the operation of controlling the lens 164 using the backlash information will be described with reference to FIG.
  • the first control unit 142 sets the position 5 between the position 3 and the position 4.
  • the first control unit 142 sets the position 6 between the position 2 and the position 3.
  • the first control unit 142 refers to the backlash information and specifies the backlash amount associated with the position 4.
  • the first control unit 142 corrects the drive amount of the drive mechanism 161 for moving the lens 164 to the position 5 using the specified backlash information.
  • the first control unit 142 is a value obtained by adding the backlash amount associated with the position 4 to the driving amount corresponding to the distance ⁇ z / 2 between the position 4 and the position 5. To decide. Accordingly, the first control unit 142 can accurately move the lens 164 to the position 5.
  • the backlash amount is used so that the position 5 and the position 6 are different from any of the positions 1, 2, 3, and 4. Control.
  • the position of the lens 164 when capturing an image for calculating the evaluation value does not overlap.
  • the specifying unit 149 does not need to capture an image when the lens 164 is positioned near the position 1, the position 2, the position 3, or the position 4. Therefore, the in-focus position can be specified at a higher speed.
  • FIG. 5 is a flowchart illustrating an example of a focusing control procedure in the imaging apparatus 190.
  • the first control unit 142 initializes the count value (S500). By initializing the count value, the position of the lens 164 when the first image for calculating the evaluation value is captured is set to “position 1”. The count value is added every time the lens 164 moves. Accordingly, the position of the lens 164 is sequentially set to “position 2”, “position 3”,. The count value is used as information for identifying the position of the lens 164 in one focusing control.
  • the first control unit 142 When storing the evaluation value and the position of the lens 164 in an array for storing the evaluation value and the position, the first control unit 142 stores the evaluation value and the position of the lens 164 in a position in the array identified by the count value.
  • the array is an example of a data structure that stores evaluation values and position data of the lens 164.
  • the storage area for storing the data structure may be allocated from the storage area of the memory 146, for example.
  • the first control unit 142 stores the current position of the lens 164 in the array (S510).
  • the first control unit 142 causes the image sensor 144 to capture a first image for calculating the evaluation value (S520).
  • the first control unit 142 causes the calculation unit 148 to calculate the first evaluation value from the first image captured in S520 (S530).
  • the first control unit 142 stores the first evaluation value obtained in S530 in the array (S540).
  • the first control unit 142 determines whether or not the evaluation value peak has been exceeded. For example, the first control unit 142 specifies the maximum value from the evaluation values already stored in the array. The first control unit 142 specifies the position of the lens 164 where the maximum evaluation value is obtained. When the first evaluation value calculated in S530 is lower than the maximum value and the difference between the first evaluation value calculated in S530 and the maximum value is larger than a predetermined threshold value, the evaluation value peaks. Judge that it exceeded. When it is determined that the peak of the evaluation value is not exceeded, the process proceeds to S560.
  • the first control unit 142 moves the lens 164 in the first direction.
  • the movement destination position of the lens 164 is a position advanced from the current position of the lens 164 by a predetermined distance in the first direction.
  • the predetermined distance may be ⁇ z shown in FIG.
  • the first control unit 142 adds the count value (S570). After S570, the process proceeds to S510.
  • S550 if the first control unit 142 determines that the peak of the evaluation value has been exceeded, the process proceeds to S580.
  • the first control unit 142 moves the lens 164 based on the backlash information. Subsequently, the first control unit 142 performs control for moving the lens 164 to the in-focus position (S582). Details of S580 and S582 will be described later.
  • FIG. 6 is a flowchart showing an example of a procedure for controlling the movement of the lens 164 based on the backlash information.
  • the flowchart of FIG. 6 can be applied to the procedure of S580 in the flowchart of FIG.
  • the first control unit 142 acquires the backlash amount (S600). For example, the first control unit 142 refers to the backlash information acquired from the lens device 160 and specifies the backlash amount corresponding to the current position of the lens 164.
  • the first control unit 142 moves the lens 164 in the second direction and positions the lens 164 at the first position 5 of the second positions (S610). At this time, the first control unit 142 adds the backlash amount to the drive amount of the drive mechanism 161 for moving the lens 164. For example, the first control unit 142 adds the backlash amount to the drive amount for moving the lens 164 by a predetermined distance.
  • the predetermined distance may be ⁇ z / 2 shown in FIG.
  • the first control unit 142 can position the lens 164 at the midpoint between the position 3 and the position 4. Accordingly, the first control unit 142 can accurately position the lens 164 at the position 5 among the second positions in consideration of the backlash amount.
  • the first control unit 142 adds the count value (S620). Thereby, the movement control of the lens 164 based on the backlash information is terminated.
  • FIG. 7 is a flowchart showing an example of a control procedure for moving to the in-focus position.
  • the flowchart of FIG. 7 can be applied to the procedure of S582 in the flowchart of FIG.
  • the first control unit 142 stores the current position of the lens 164 in the array (S710).
  • the first control unit 142 causes the image sensor 144 to capture a second image for calculating the evaluation value (S720).
  • the first control unit 142 causes the calculation unit 148 to calculate the second evaluation value from the second image captured in S720 (S730).
  • the first control unit 142 stores the second evaluation value obtained in S730 in the array (S740).
  • the first control unit 142 determines whether or not the peak of the evaluation value has been exceeded. For example, the first control unit 142 specifies the maximum value from the evaluation values already stored in the array.
  • the evaluation value stored in the array includes the first evaluation value stored in S540 of FIG.
  • the first control unit 142 specifies the maximum value from the first evaluation value and the second evaluation value that have already been acquired.
  • the first control unit 142 determines that the second evaluation value calculated in S730 is lower than the maximum value, and the difference between the second evaluation value calculated in S730 and the maximum value is larger than a predetermined threshold value. It is determined that the peak of the evaluation value was exceeded.
  • the peak of the evaluation value is exceeded on condition that the current lens 164 is in a position advanced in the second direction from the position of the lens 164 when the image with the maximum evaluation value is obtained. to decide.
  • the first control unit 142 sets the evaluation value on the condition that the current lens 164 is in a position advanced in the second direction from the position 3 corresponding to the maximum evaluation value E3 in FIG. Judge that the peak was exceeded. That is, when the lens 164 is present at a position advanced in the first direction from the position 3, it is determined that the peak of the evaluation value has not been exceeded. If it is determined that the evaluation value peak is not exceeded, the process proceeds to S760.
  • the first control unit 142 moves the lens 164 in the second direction.
  • the movement destination position of the lens 164 is a position advanced from the current position of the lens 164 by a predetermined distance in the second direction.
  • the predetermined distance may be ⁇ z shown in FIG.
  • the first control unit 142 adds the count value (S770). After S770, the process proceeds to S710.
  • the process proceeds to S780.
  • the first control unit 142 causes the specifying unit 149 to specify the focus position.
  • the specifying unit 149 calculates the position of the lens 164 where the evaluation value is maximized using both the first evaluation value and the second evaluation value.
  • the first control unit 142 acquires the backlash amount (S782). For example, the first control unit 142 refers to the backlash information acquired from the lens device 160 and specifies the backlash amount corresponding to the current position of the lens 164.
  • the first controller 142 moves the lens 164 to the in-focus position by moving the lens 164 in the first direction (S784). At this time, the first control unit 142 adds the backlash amount to the drive amount of the drive mechanism 161 for moving the lens 164. For example, the first control unit 142 adds the backlash amount to the drive amount corresponding to the difference between the in-focus position and the current position. Accordingly, the first control unit 142 can accurately position the lens 164 at the in-focus position.
  • a method of detecting that the evaluation value has decreased by the threshold value ⁇ or more can be applied to the detection of the evaluation value exceeding the peak.
  • FIG. 8 shows an example of the operation content executed in the focusing control by the first control unit 142 in a table format.
  • the table of FIG. 8 shows the steps executed in order of time and the operation contents performed in each step.
  • FIG. 8 shows the operation contents in the example of FIG.
  • step 1 after imaging and calculating the evaluation value, the lens 164 is moved in the first direction.
  • step 2 imaging, calculation of the evaluation value, and detection of the peak exceeding the evaluation value are performed. If no over peak is detected, the lens 164 is moved in the first direction.
  • step 3 imaging, calculation of an evaluation value, and detection of an evaluation value exceeding the peak are performed. If no over peak is detected, the lens 164 is moved in the first direction.
  • step 4 imaging, calculation of evaluation value, and detection of peak exceeding evaluation value are performed. When the peak excess is detected, movement control of the lens 164 is performed based on the backlash information.
  • step 5 imaging, calculation of an evaluation value, and detection of an evaluation value exceeding the peak are performed. If no over peak is detected, the lens 164 is moved in the second direction.
  • step 6 imaging, calculation of evaluation values, and detection of peak exceeding evaluation values are performed. When the peak excess is detected, the lens 164 is moved to the in-focus position specified by the specifying unit 149.
  • FIG. 9 shows the relationship between the position of the focus lens and the evaluation value by the focus control of the comparative example.
  • the operation from the position 1 to the position 4 is the same as the operation illustrated in FIG.
  • the focus position is specified using only the evaluation value obtained by moving the focus lens in the second direction after the peak excess is detected at the position 4.
  • the operation from the position 1 to the position 4 corresponds to the rough driving for roughly searching for the peak of the evaluation value.
  • fine driving is performed in the second direction. Specifically, the movement distance ⁇ z ′ per time in the second direction is shorter than ⁇ z.
  • the focus lens is moved in the second direction, and an evaluation value is calculated from an image when the focus lens exists at position 5 ′, position 6 ′, position 7 ′, and position 8 ′.
  • the evaluation values corresponding to the positions 5 ′, 6 ′, 7 ′, and 8 ′ are E5 ′, E6 ′, E7 ′, and E8 ′.
  • the evaluation value of E7 ′ it cannot be determined whether or not the evaluation value peak has been exceeded. It can be determined that the evaluation value peak has been exceeded only when the evaluation value of E8 ′ is obtained. Then, for example, the in-focus position 7 ′ is calculated using E5 ′, E6 ′, and E7 ′.
  • the comparative example of FIG. 9 shows a case where ⁇ z ′ ⁇ z / 2.
  • ⁇ ′z ⁇ z / 2
  • the peak excess is detected.
  • the evaluation value at a position overlapping or very close to the position of the focus lens when moved in the first direction is calculated.
  • the evaluation value when moved in the first direction cannot be effectively used.
  • the five-point evaluation value when five evaluation values are required to specify the in-focus position, the five-point evaluation value must be obtained by moving the focus lens in the second direction. Therefore, according to the focus control of the comparative example, it takes a substantially long time to specify the focus position.
  • FIG. 10 shows an example of the operation content executed in the focus control in the comparative example in a table format.
  • the table of FIG. 10 shows the steps executed in order of time and the operation contents performed in each step.
  • FIG. 10 shows the operation contents in the example of FIG.
  • Step 1 to Step 3 have the same operation content as Step 1 to Step 3 in FIG.
  • step 4 imaging, calculation of an evaluation value, and detection of an evaluation value exceeding the peak are performed.
  • the focus lens movement control is performed based on the backlash information. In this case, the moving distance of the focus lens is ⁇ z ′.
  • step 5 imaging, calculation of an evaluation value, and detection of an evaluation value exceeding the peak are performed. If the peak excess is not detected, the focus lens is moved in the second direction.
  • the imaging, calculation of the evaluation value, and detection of the peak exceeding the evaluation value are performed. In each of Step 6 and Step 7, the focus lens is moved in the second direction.
  • step 8 imaging, calculation of evaluation value, and detection of peak exceeding evaluation value are performed.
  • the peak excess for example, the in-focus position is calculated using the evaluation value calculated from the image when the focus lens exists at the position 5 ′, the position 6 ′, and the position 7 ′. Then, the lens 164 is moved to the calculated in-focus position.
  • eight steps are required until the focus position is specified.
  • the backlash amount may be a constant value regardless of the position of the lens 164.
  • the memory 163 may store a fixed amount of backlash.
  • the backlash amount stored in the lens 164 may be an actual measurement value of the backlash amount in each lens 164.
  • the backlash amount stored in the lens 164 may be a design value determined by the design of the drive mechanism 161.
  • the movement control of the lens 164 described above is not only intermittent driving in which an image is captured and the evaluation value is calculated while the lens 164 is stopped after the lens 164 is moved, but also when the lens 164 is moved without stopping the lens 164.
  • This can also be applied to continuous driving in which an evaluation value is calculated by capturing the image of.
  • intermittent driving as described above, for each movement of the lens 164, the number of pulses corresponding to ⁇ z is given to the driving mechanism 161, and the first position when moving in the first direction; What is necessary is just to make it not overlap with the 2nd position in the case of moving to a 2nd direction.
  • the lens 164 when acquiring the image for calculating the evaluation value does not overlap in the case of moving in the first direction and in the case of moving in the second direction. What is necessary is just to control the moving speed of.
  • the imaging device 190 is supported by the gimbal 110.
  • the imaging device 190 may be an imaging device for sensing that images the surroundings of the UAV 100.
  • An imaging device for sensing may be provided at the nose of the UAV 100.
  • the imaging device for sensing may be provided on the bottom surface of the UAV 100.
  • the imaging device for sensing may be provided on at least one of the nose and the bottom surface of the UAV 100.
  • Three-dimensional spatial data around the UAV 100 may be generated based on an image captured by the imaging device for sensing.
  • At least one imaging device for sensing may be provided on each of the nose, the tail, the side surface, the bottom surface, and the ceiling surface of the UAV 100.
  • the angle of view that can be set by the imaging device for sensing may be wider than the angle of view that can be set by the imaging device 190.
  • the imaging device for sensing may have a single focus lens or a fisheye lens.
  • FIG. 11 is an external perspective view showing an example of the stabilizer 800.
  • the stabilizer 800 is an example of a moving body.
  • the imaging device 190 may be mounted on a mobile body other than the UAV 100.
  • the camera unit 813 included in the stabilizer 800 may include the imaging device 190.
  • the stabilizer 800 includes a camera unit 813, a gimbal 820, and a handle portion 803.
  • the gimbal 820 supports the camera unit 813 in a rotatable manner.
  • the gimbal 820 has a pan axis 809, a roll axis 810, and a tilt axis 811.
  • the gimbal 820 supports the camera unit 813 so as to be rotatable about a pan axis 809, a roll axis 810, and a tilt axis 811.
  • the gimbal 820 is an example of a support mechanism.
  • the camera unit 813 is an example of an imaging device.
  • the camera unit 813 has a slot 812 for inserting a memory.
  • the gimbal 820 is fixed to the handle portion 803 via the holder 807.
  • the handle portion 803 has various buttons for operating the gimbal 820 and the camera unit 813.
  • the handle portion 803 includes a shutter button 804, a recording button 805, and an operation button 806. By pressing the shutter button 804, a still image can be recorded by the camera unit 813.
  • the recording button 805 is pressed, a moving image can be recorded by the camera unit 813.
  • the device holder 801 is fixed to the handle portion 803.
  • the device holder 801 holds a mobile device 802 such as a smartphone.
  • the mobile device 802 is communicably connected to the stabilizer 800 via a wireless network such as WiFi. Thereby, an image captured by the camera unit 813 can be displayed on the screen of the mobile device 802.
  • the time required to complete the focusing control in the camera unit 813 can be shortened.
  • the imaging device 190 is not limited to the imaging device provided in the moving body.
  • the imaging device 190 can function as an imaging device by itself.
  • the imaging device 190 may be a single lens reflex camera.
  • the imaging device 190 may be a lens non-exchangeable camera.
  • the imaging device 190 may be a so-called compact digital camera.
  • the imaging device 190 may be a video camera.
  • FIG. 12 illustrates an example of a computer 2000 in which aspects of the present invention may be embodied in whole or in part.
  • the program installed in the computer 2000 can cause the computer 2000 to function as an operation associated with the apparatus according to the embodiment of the present invention or as one or more “units” of the apparatus.
  • the program can cause the computer 2000 to execute the operation or the one or more “units”.
  • the program can cause the computer 2000 to execute the process according to the embodiment of the present invention or the stage of the process.
  • Such a program may be executed by CPU 2012 to cause computer 2000 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.
  • the computer 2000 includes a CPU 2012 and a RAM 2014, which are connected to each other by a host controller 2010.
  • the computer 2000 also includes a communication interface 2022 and an input / output unit, which are connected to the host controller 2010 via the input / output controller 2020.
  • the computer 2000 includes a ROM 2030.
  • the CPU 2012 operates in accordance with programs stored in the ROM 2030 and the RAM 2014, thereby controlling each unit.
  • the communication interface 2022 communicates with other electronic devices via a network.
  • the ROM 2030 stores a boot program executed by the computer 2000 at the time of activation and / or a program depending on the hardware of the computer 2000.
  • the program is provided via a computer-readable recording medium such as a CD-ROM, DVD-ROM, USB memory, or memory card, or a network.
  • the RAM 2014 or the ROM 2030 is an example of a computer-readable recording medium.
  • the program is installed in the RAM 2014 or the ROM 2030 and executed by the CPU 2012. Information processing described in these programs is read by the computer 2000 and brings about cooperation between the programs and the various types of hardware resources.
  • An apparatus or method may be configured by implementing information manipulation or processing in accordance with the use of computer 2000.
  • the CPU 2012 executes a communication program loaded in the RAM 2014 and performs communication processing on the communication interface 2022 based on the processing described in the communication program. You may order.
  • the communication interface 2022 reads transmission data stored in a transmission buffer processing area provided in a RAM 2014 or a recording medium such as a USB memory under the control of the CPU 2012.
  • the communication interface 2022 transmits the read transmission data to the network.
  • the communication interface 2022 may write the reception data received from the network in a reception buffer processing area provided on the recording medium.
  • the CPU 2012 allows the RAM 2014 to read all or necessary portions of a file or database stored in an external recording medium such as a USB memory, and executes various types of processing on the data on the RAM 2014. Good. Next, the CPU 2012 writes back the processed data to the external recording medium.
  • the CPU 2012 describes various types of operations, information processing, condition determination, conditional branching, unconditional branching, and information retrieval that are described in various places in the present disclosure for data read from the RAM 2014 and specified by the instruction sequence of the program. Various types of processing may be performed, including / replacement etc., and the result is written back to the RAM 2014. Further, the CPU 2012 may search for information in files, databases, etc. in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 2012 specifies the attribute value of the first attribute. The entry that matches the condition is searched from the plurality of entries, the attribute value of the second attribute stored in the entry is read, and thereby the first attribute that satisfies the predetermined condition is associated. The attribute value of the obtained second attribute may be acquired.
  • the program or software module described above may be stored in a computer-readable medium on the computer 2000 or in the vicinity of the computer 2000.
  • a recording medium such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can be used as the computer-readable medium.
  • a program stored in a computer-readable medium may be provided to the computer 2000 via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Abstract

撮像装置は、レンズを光軸に沿って第1の向きに移動させて、レンズが複数の第1の位置のそれぞれに位置するときにレンズを通じて複数の第1の画像のそれぞれを撮像させ、第1の向きとは反対の第2の向きにレンズを移動させて、レンズが光軸方向における1以上の第2の位置のそれぞれに位置するときにレンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させる制御部と、複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する特定部とを備える。

Description

撮像装置、撮像システム、移動体、方法及びプログラム
 本発明は、撮像装置、撮像システム、移動体、方法及びプログラムに関する。
 山登りオートフォーカス動作によりフォーカスレンズを移動させる技術がある(例えば、特許文献1)。
 特許文献1 特開2011-85928号公報
解決しようとする課題
 レンズを移動させて撮像した複数の画像から合焦位置を特定する方式において、合焦位置を特定するまでに要する時間をより短くすることが望まれている。
一般的開示
 本発明の一態様に係る撮像装置は、制御部を備える。制御部は、レンズを光軸に沿って第1の向きに移動させて、レンズが複数の第1の位置のそれぞれに位置するときにレンズを通じて複数の第1の画像のそれぞれを撮像させ、第1の向きとは反対の第2の向きにレンズを移動させて、レンズが光軸方向における1以上の第2の位置のそれぞれに位置するときにレンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させてよい。撮像装置は、特定部を備えてよい。特定部は、複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定してよい。
 制御部は、1以上の第2の位置を、複数の第1の位置のいずれとも異ならせてよい。
 制御部は、複数の第1の位置のいずれとも異なる複数の第2の位置に位置するときに、レンズを通じて複数の第2の画像を撮像させてよい。特定部は、複数の第1の評価値及び複数の第2の画像から算出された焦点状態を示す複数の第2の評価値をともに用いて、合焦位置を特定してよい。
 撮像装置は、レンズの駆動機構におけるバックラッシュに関する情報を格納する格納部を備えてよい。制御部は、格納部に格納されているバックラッシュに関する情報を用いて、第2の位置を複数の第1の位置のいずれとも異ならせてよい。
 制御部は、第1の向きにレンズを移動させた後に第2の向きにレンズを移動させて1以上の第2の位置のうちの1つの位置に移動させる場合に、格納部に格納されているバックラッシュに関する情報を用いて、複数の第1の位置のいずれとも異なる1つの位置にレンズを移動させてよい。
 格納部は、光軸方向におけるレンズの位置に対応づけてバックラッシュに関する情報を格納してよい。
 制御部は、第1の向きにレンズを移動させた後に第2の向きにレンズを移動させる場合に、レンズの現在の位置に対応づけて格納部に格納されているバックラッシュに関する情報を用いて、複数の第1の位置のいずれとも異なる1つの位置にレンズを移動させてよい。
 撮像装置は、レンズの駆動機構におけるバックラッシュに関する情報を格納する格納部を備えてよい。特定部は、1以上の第1の評価値と、複数の第1の位置のうち1以上の第1の評価値が得られた画像をそれぞれ撮像したときにおけるレンズの1以上の第1の位置と、1以上の第2の評価値と、バックラッシュに関する情報に基づく1以上の第2の位置とに基づいて、合焦位置を特定してよい。
 本発明の一態様に係る移動体は、上記の撮像装置を備えて移動する。
 本発明の一態様に係る撮像システムは、上記の撮像装置を備える。撮像システムは、撮像装置を支持する支持機構を備えてよい。撮像システムは、支持機構に取り付けられている持ち手部を備えてよい。
 本発明の一態様に係る方法は、レンズを光軸に沿って第1の向きに移動させて、レンズが複数の第1の位置のそれぞれに位置するときにレンズを通じて複数の第1の画像のそれぞれを撮像させ、第1の向きとは反対の第2の向きにレンズを移動させて、レンズが光軸方向における1以上の第2の位置のそれぞれに位置するときにレンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させる段階を備える。方法は、複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する段階を備えてよい。
 本発明の一態様に係るプログラムは、コンピュータに、レンズを光軸に沿って第1の向きに移動させて、レンズが複数の第1の位置のそれぞれに位置するときにレンズを通じて複数の第1の画像のそれぞれを撮像させ、第1の向きとは反対の第2の向きにレンズを移動させて、レンズが光軸方向における1以上の第2の位置のそれぞれに位置するときにレンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させる段階を実行させる。プログラムは、コンピュータに、複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する段階を実行させてよい。
 レンズを移動させて撮像した複数の画像から合焦位置を特定する方式において、合焦位置を特定するまでに要する時間をより短くすることができる。
 上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。
無人航空機(UAV)100の外観の一例を示す。 UAV100の機能ブロックの一例を示す。 レンズ164の位置と評価値との関係を示す。 レンズ164のバックラッシュ量情報の一例を示す。 撮像装置190における合焦制御の手順の一例を示すフローチャートである。 バックラッシュ情報に基づくレンズ164の移動制御の手順の一例を示すフローチャートである。 合焦位置に移動するための制御手順の一例を示すフローチャートである。 第1制御部142による合焦制御において実行される動作内容の一例を示す。 比較例の合焦制御によるフォーカスレンズの位置と評価値との関係を示す。 比較例における合焦制御において実行される動作内容の一例を示す。 スタビライザ800の一例を示す外観斜視図である。 複数の態様に係るコンピュータ2000の例を示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイルまたはレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。
 本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよい。各ブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置の「部」を表わしてよい。特定の段階および「部」が、専用回路、プロセッサ、及び/又はプログラマブル回路によって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよい。専用回路は、集積回路(IC)及び/又はディスクリート回路を含んでよい。プロセッサは、コンピュータが可読な媒体に格納されるコンピュータが可読な命令と共に用いられてよい。プログラマブル回路は、コンピュータが可読な媒体に格納されるコンピュータ可読命令と共に用いられてよい。プログラマブル回路は、再構成可能なハードウェア回路を含んでよい。再構成可能なハードウェア回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含んでよい。
 コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよい。その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を構成すべく実行され得る命令を含む、製品の少なくとも一部を構成することになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
 コンピュータが可読な命令は、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードの何れかを含んでよい。1または複数のプログラミング言語は、従来の手続型プログラミング言語を含む。1または複数のプログラミング言語は、Smalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語でよい。コンピュータが可読な命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、または状態設定データを含む。コンピュータが可読な命令は、汎用コンピュータ、特殊用途のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に、提供されてよい。コンピュータが可読な命令は、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、提供されてよい。プロセッサまたはプログラマブル回路は、フローチャートまたはブロック図で指定された操作を実行するための手段を構成すべく、コンピュータが可読な命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
 図1は、無人航空機(UAV)100の外観の一例を示す。UAV100は、UAV本体101、ジンバル110、及び撮像装置190を備える。撮像装置190は、撮像部140及びレンズ装置160を備える。UAV100は、撮像装置を備えて移動する移動体の一例である。移動体とは、UAVの他、空中を移動する他の航空機、地上を移動する車両、水上を移動する船舶等を含む概念である。
 UAV本体101は、回転翼108a及び回転翼108bを含む複数の回転翼を備える。UAV本体101が有する複数の回転翼を、回転翼108と総称する場合がある。回転翼108は、推進部の一例である。UAV本体101は、回転翼108を用いてUAV100を飛行させる。UAV本体101は、回転翼108の回転を制御することでUAV100を飛行させる。回転翼108の数は、4つであってよい。回転翼108の数は、4つには限定されない。UAV100は、回転翼を有さない固定翼機であってよい。
 ジンバル110は、撮像装置190を可動に支持する。ジンバル110は、支持機構の一例である。例えば、ジンバル110は、撮像装置190を、ピッチ軸を中心に回転可能に支持する。ジンバル110は、撮像装置190を、ロール軸を中心に回転可能に支持する。ジンバル110は、撮像装置190を、ヨー軸を中心に回転可能に支持する。ジンバル110は、ピッチ軸、ロール軸、及びヨー軸の少なくとも1つの軸を中心に、撮像装置190を回転可能に支持してよい。ジンバル110は、ピッチ軸、ロール軸、及びヨー軸のそれぞれを中心に、撮像装置190を回転可能に支持してよい。ジンバル110は、撮像部140を保持してもよし、レンズ装置160を保持してもよい。ジンバル110は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部140及びレンズ装置160を回転させることで、撮像装置190の撮像方向を変更してよい。
 撮像部140は、レンズ装置160により結像された光学像の画像データを生成して記録する。レンズ装置160は、撮像部140と一体的に設けられてよい。レンズ装置160は、いわゆる交換レンズであってよい。レンズ装置160は、撮像部140に対して着脱可能に設けられてよい。
 図2は、UAV100の機能ブロックの一例を示す。UAV本体101は、インタフェース102、第3制御部104、メモリ106、駆動部107、及び回転翼108を有する。
 駆動部107は、UAV100を移動させる駆動部として機能する。駆動部107は、回転翼108を駆動するモータを備えてよい。駆動部107が備えるモータは、複数の回転翼108のそれぞれに対応して1つ設けられてよい。駆動部107は、それぞれのモータの駆動軸の回転速度を制御するドライバを備えてよい。回転翼108のそれぞれは、対応して設けられたモータの駆動軸の回転によって回転される。UAV100は、回転翼108の回転で得られる揚力により飛行する。
 インタフェース102は、外部の送信機と通信する。インタフェース102は、遠隔の送信機から各種の命令を受信する。第3制御部104は、送信機から受信した命令に従って、UAV100の飛行を制御する。第3制御部104は、ジンバル110、撮像部140、及びレンズ装置160を制御する。第3制御部104は、ジンバル110、撮像部140、及びレンズ装置160を、直接的又は間接的に制御する。
 第3制御部104は、CPU又はMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラ等により構成されてよい。メモリ106は、第3制御部104がジンバル110、撮像部140、及びレンズ装置160を制御するのに必要なプログラム等を格納する。メモリ106は、コンピュータが可読な記録媒体であってよい。メモリ106は、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ106は、UAV100の筐体に設けられてよい。メモリ106は、UAV100の筐体から取り外し可能に設けられてよい。
 第3制御部104は、ジンバル110に対する制御命令を出力してよい。ジンバル110は、第3制御部104から取得した制御命令に従って、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像装置190を回転させる。第3制御部104は、撮像装置190に、レンズ装置160のズーム値及び絞り値、撮像部140に対する撮像指示等に関する制御命令を出力してよい。
 撮像部140は、第1制御部142、撮像素子144及びメモリ146を有する。第1制御部142は、CPU又はMPUなどのマイクロプロセッサ、MCUなどのマイクロコントローラ等により構成されてよい。第1制御部142は、第3制御部104からの制御命令に応じて、撮像部140の各部及びレンズ装置160を制御する。メモリ146は、コンピュータが可読な記録媒体でよく、SRAM、DRAM、EPROM、EEPROM、及びUSBメモリなどのフラッシュメモリの少なくとも1つを含んでよい。メモリ146は、撮像部140の筐体の内部に設けられてよい。メモリ146は、撮像部140の筐体から取り外し可能に設けられてよい。
 第1制御部142は、第3制御部104からの制御命令に基づいて、レンズ装置160に、ズーム値、絞り値等の制御命令を出力する。撮像素子144は、撮像部140の筐体の内部に保持され、レンズ装置160を介して結像された光学像の画像データを生成して、メモリ146に出力する。メモリ146は、撮像素子144が生成した画像データを格納する。第1制御部142は、第3制御部104を介して画像データをメモリ106に転送して、画像データをメモリ106に格納させてよい。
 撮像装置190は、オートフォーカス(AF)機能を有する。撮像装置190は、コントラスト検出方式のオートフォーカス機能を有する。例えば、算出部148は、撮像素子144が生成した画像データから、レンズ装置160の合焦状態を表す評価値を生成する。特定部149は、算出部148が算出した評価値に基づいて、レンズ装置160における合焦位置を特定する。第1制御部142は、特定部149が特定した合焦位置に基づいて、レンズ装置160を被写体に合焦させるための制御命令をレンズ装置160に出力する。これにより、第1制御部142は、画像データから得られる評価値が高くなるようにレンズ装置160を制御する。
 レンズ装置160は、第2制御部162、メモリ163、駆動機構161、レンズ164、レンズ166、及びレンズ168を備える。レンズ164、レンズ166、及びレンズ168は、レンズ系を形成する。当該レンズ系は、撮像用の光学系169の少なくとも一部を形成する。レンズ164、レンズ166、及びレンズ168のうちの少なくとも1つは、複数のレンズを備えるレンズ群であってよい。レンズ164、レンズ166、及びレンズ168の少なくとも1つは、1つのレンズであってよい。レンズ164、レンズ166、及びレンズ168は、レンズ装置160の鏡筒の内部に配置される。レンズ164、レンズ166、及びレンズ168の一部又は全部は、光軸に沿って変位可能に保持されてよい。
 第2制御部162は、第1制御部142からの制御命令に従って、レンズ164、レンズ166、及びレンズ168の少なくとも一つを光軸に沿って移動させる。例えば、第2制御部162は、ズーム制御時に、主としてレンズ166及びレンズ168を光軸に沿って移動させる。第2制御部162は、合焦制御時に、レンズ164を光軸に沿って移動させる。本実施形態において、レンズ164が、撮像装置190における合焦機能を担うフォーカスレンズであるとする。レンズ装置160の光学系169により結像された像は、撮像部140により撮像される。
 駆動機構161は、レンズ164、レンズ166及びレンズ168を駆動する。駆動機構161は、例えばアクチュエータを備える。アクチュエータには、第2制御部162から駆動用のパルスが供給される。アクチュエータは、供給されたパルスに応じた駆動量だけ変位する。駆動機構161は、レンズ164、レンズ166及びレンズ168をそれぞれ保持する機械要素である保持部材を備える。保持部材は、例えばレンズ保持枠である。保持部材は、アクチュエータの駆動力を伝達する機械要素である駆動部材と係合する。駆動部材は、例えばリードスクリューである。保持部材と駆動部材との係合部には、隙間が存在する。したがって、レンズ164用の保持部材とレンズ164用の駆動部材との係合部にバックラッシュが存在する。駆動機構161は、レンズ164の駆動機構の一例である。
 本実施形態では、UAV100が、第1制御部142、第2制御部162及び第3制御部104を備える例について説明する。しかし、第1制御部142、第2制御部162及び第3制御部104のうちの2つ又は3つで実行される処理を、いずれか1つの制御部が実行してよい。第1制御部142、第2制御部162及び第3制御部104で実行される処理を1つの制御部で実行してもよい。
 撮像部140において、第1制御部142は、レンズ164を光軸に沿って第1の向きに移動させて、レンズ164が複数の第1の位置のそれぞれに位置するときにレンズ164を通じて複数の第1の画像のそれぞれを撮像させる。第1制御部142は、当該複数の第1の画像から、焦点状態を示す複数の第1の評価値を算出させる。第1制御部142は、算出部148に、複数の第1の評価値を算出させる。評価値は、例えば画像のコントラスト値であってよい。
 第1制御部142は、第1の向きとは反対の第2の向きにレンズ164を移動させて、レンズ164が光軸方向における1以上の第2の位置のそれぞれに位置するときにレンズ164を通じて撮像された1以上の第2の画像のそれぞれを撮像させる。第1制御部142は、当該1以上の第2の画像から、焦点状態を示す1以上の第2の評価値を算出させる。第1制御部142は、算出部148に、1以上の第2の評価値を算出させる。
 特定部149は、複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する。特定部149は、当該1以上の第1の評価値及び当該1以上の第2の評価値を含む3以上の評価値を用いて、合焦位置を特定してよい。特定部149は、複数の第1の評価値及び1以上の第2の評価値をともに用いて、合焦位置を特定してよい。特定部149は、複数の第1の評価値及び複数の第2の評価値をともに用いて、合焦位置を特定してよい。第1制御部142、算出部148及び特定部149は、撮像装置190における焦点検出装置として機能する。
 第1制御部142は、1以上の第2の位置を、複数の第1の位置のいずれとも異ならせる。第1制御部142は、複数の第1の位置のいずれとも異なる複数の第2の位置にレンズ164が位置するときに、レンズ164を通じて複数の第2の画像を撮像させる。特定部149は、複数の第1の評価値及び複数の第2の画像から算出された焦点状態を示す複数の第2の評価値をともに用いて、合焦位置を特定する。
 メモリ163は、駆動機構161におけるバックラッシュに関する情報を格納する。第1制御部142は、メモリ163に格納されているバックラッシュに関する情報を用いて、第2の位置を複数の第1の位置のいずれとも異ならせる。第1制御部142は、第2制御部162を通じて、メモリ163に格納しているバックラッシュに関する情報を取得して、第2の位置の制御に用いる。
 第1制御部142は、第1の向きにレンズ164を移動させた後に、第2の向きにレンズ164を移動させる。第1制御部142は、第1の向きにレンズ164を移動させた後に第2の向きにレンズ164を移動させて1以上の第2の位置のうちの1つの位置に移動させる場合に、メモリ163に格納されているバックラッシュに関する情報を用いて、複数の第1の位置のいずれとも異なる1つの位置に、レンズ164を移動させる。
 メモリ163は、光軸方向におけるレンズ164の位置に対応づけてバックラッシュに関する情報を格納する。第1制御部142は、第1の向きにレンズ164を移動させた後に第2の向きにレンズ164を移動させる場合に、レンズ164の現在の位置に対応づけてメモリ163に格納されているバックラッシュに関する情報を用いて、複数の第1の位置のいずれとも異なる1つの位置にレンズ164を移動させる。
 特定部149は、1以上の第1の評価値と、1以上の第1の評価値が算出された画像をそれぞれ撮像したときのレンズ164の1以上の第1の位置と、1以上の第2の評価値と、バックラッシュに関する情報に基づく1以上の第2の位置とに基づいて、合焦位置を特定してよい。特定部149は、複数の第1の評価値と、1以上の第1の評価値が算出された画像をそれぞれ撮像したときのレンズ164の複数の第1の位置と、1以上の第2の評価値と、バックラッシュに関する情報に基づく1以上の第2の位置とに基づいて、合焦位置を特定してよい。
 図3は、レンズ164の位置と評価値との関係を示す。横軸はレンズ164の光軸方向の位置を示す。縦軸は、撮像された画像から算出される評価値を示す。横軸のプラス方向(紙面右向き)は第1の向きに対応する。横軸のマイナス方向(紙面左向き)は第2の向きに対応する。図3に関連する説明において、光軸方向におけるレンズ164の位置を、1から7の数字を用いて説明する。
 第1制御部142は、第2制御部162を通じて、位置1、位置2、位置3及び位置4の順に、一方向にレンズ164を移動させる。第1の向きは、レンズ164が位置1、位置2、位置3、及び位置4をこの順に通過する向きである。第1制御部142は、レンズ164が位置1、位置2、位置3及び位置4のそれぞれの位置に存在するときに、光学系169を通じて撮像素子144に撮像させる。第1制御部142は、レンズ164が位置1、位置2、位置3及び位置4のそれぞれの位置に存在するときに撮像素子144により撮像された画像の評価値を算出部148に算出させる。
 算出部148は、レンズ164が位置1に存在するときに光学系169を通じて撮像された画像から評価値E1を算出する。同様に、算出部148は、位置2、位置3及び位置4のそれぞれの位置にレンズ164が存在するときに光学系169を通じて撮像された画像から、評価値E2、E3及びE4をそれぞれ算出する。レンズ164が位置iに存在するときに撮像された画像から算出された評価値をEiと呼ぶ。
 図3に示されるように、E1<E2<E3であり、かつ、E4<E3である。ただし、E4<E3-Δであり、かつ、E2<E3-Δである。この場合、第1制御部142は、E4が得られた段階で、合焦位置が位置2と位置4との間に存在すると判断する。Δは、評価値の変化を検出するための閾値である。例えば、Δは、レンズ164の位置に評価値を関連づける曲線の接線の傾きを判断するために用いられる。第1制御部142は、レンズ164が位置3に存在する場合にE2+Δより大きいE3が得られたことから、位置2と位置3との間に、曲線の接線の傾きが正となる区間が存在すると判断する。第1制御部142は、レンズ164が位置4に存在する場合にE3-Δより小さいE4が得られたことから、位置3と位置4との間に、曲線の接線の傾きが負となる区間が存在すると判断する。よって、第1制御部142は、E4が得られた段階で、位置2と位置4との間に、曲線の接線の傾きが0になる位置が存在すると判断する。曲線の接線の傾きが0になる位置で評価値が最大値(極大値)となり得るため、その位置を合焦位置とみなすことができる。これにより、第1制御部142は、E4が得られた段階で、位置2と位置4との間に合焦位置が存在すると判断する。この判断に応じて、第1制御部142は、第2の向きにレンズ164を移動させる。第2の向きは、レンズ164が位置4、位置5、位置6をこの順に通過する向きである。
 第1制御部142は、レンズ164が位置5及び位置6のそれぞれの位置に存在するときに、光学系169を通じて撮像素子144に撮像させる。第1制御部142は、レンズ164が位置5及び位置6のそれぞれに存在するときに撮像素子144により撮像された各画像の評価値を、算出部148に算出させる。位置5は、位置4と位置3との間の位置である。位置5は、位置4と位置3との中点であってよい。位置6は、位置3と位置2との間の位置である。位置6は、位置3と位置2との間の中点であってよい。第1制御部142は、位置5及び位置6のそれぞれにレンズ164が存在するときに撮像素子144に撮像させる。第1制御部142は、第2の向きにレンズ164を移動させる場合において、レンズ164が位置3の近傍の位置では画像を撮像させない。第1制御部142は、第2の向きにレンズ164を移動させる場合、位置3から予め定められた距離以上離れた位置に、位置5及び位置6を設定してよい。予め定められた距離とは、評価値の実質的な変化が生じ得る距離であってよい。例えば、レンズ164を予め定められた距離だけ移動させた場合に生じる評価値の変化がΔを超えるように、予め定められた距離が定められてよい。位置3から予め定められた距離以上離れた位置に位置5及び位置6を設定することで、E3との間の評価値の差が実質的に生じ得ない位置で撮像することを抑制できる。
 図3に示されるように、E5<E3-Δであり、かつ、E6<E3-Δである。第1制御部142は、E6が得られた段階で、合焦位置が位置6と位置5との間に存在すると判断する。第1制御部142は、レンズ164が位置5に存在する場合にE3-Δより小さいE5が得られたことから、位置3と位置5との間に、曲線の接線の傾きが負となる区間が存在すると判断する。第1制御部142は、レンズ164が位置6に存在する場合にE3-Δより小さいE6が得られたことから、位置6と位置3との間に、曲線の接線の傾きが正となる区間が存在すると判断する。よって、第1制御部142は、E6が得られた段階で、合焦位置が位置6と位置5との間に存在すると判断する。この判断に応じて、第1制御部142は、特定部149に合焦位置を特定させる。特定部149は、5つの座標(位置2、E2)、(位置3、E3)、(位置4、E4)、(位置5、E5)及び(位置6、E6)から、評価値が最大となる位置7を特定してよい。特定部149は、3つの座標(位置3、E3)、(位置5、E5)及び(位置6、E6)から、評価値が最大となる位置7を特定してよい。特定部149は、ラグランジュ補間などの補間を行いて、評価値が最大となる位置7を算出してよい。
 第1制御部142は、位置6から位置7にレンズ164を移動させる。第1制御部142は、以上に説明した動作を自動で行う。このように、第1制御部142は、コントラスト検出方式でAFを実行する。
 第1制御部142は、位置6から位置7にレンズ164を移動させてから撮像素子144に画像を撮像させる。レンズ164が位置7に存在するときに撮像された画像は、記録用の画像である。レンズ164が位置7に存在するときに撮像された画像は、メモリ146に記録される。
 図3に関連して説明したように、撮像装置190によれば、第2の向きにレンズ164を移動させて得られた評価値だけでなく、第1の向きにレンズ164を移動させて得られた評価値を、合焦位置の計算に用いる。そのため、第2の向きにレンズ164を移動させて得られた評価値のみを用いる場合に比べて、合焦動作を開始してから合焦位置を算出するまでの間に取得する必要がある画像数を減らすことができる。そのため、AF速度を高めることができる。
 図4は、レンズ164のバックラッシュ量情報の一例を示す。バックラッシュ量情報は、レンズ164の位置とバックラッシュ量とを対応づける。バックラッシュ情報は、メモリ163に格納される。メモリ163は、光学系169の光軸方向におけるレンズ164の複数の位置に対応づけてバックラッシュ量を格納する。バックラッシュ量は、駆動機構161を駆動する駆動量であってよい。バックラッシュ量は、駆動量に対応するパルス数で表されてよい。第1制御部142は、第2制御部162を通じてバックラッシュ情報を取得する。第1制御部142は、第2制御部162から取得したバックラッシュ情報を用いて、レンズ164の位置を制御する。
 図3を参照してバックラッシュ情報を用いてレンズ164を制御する動作を説明する。第1制御部142は、位置3と位置4との間に位置5を設定する。第1制御部142は、位置2と位置3との間に位置6を設定する。第1制御部142は、位置4の位置から位置5にレンズ164を移動させる場合に、バックラッシュ情報を参照して、位置4に対応づけられたバックラッシュ量を特定する。第1制御部142は、特定したバックラッシュ情報を用いて、レンズ164を位置5に移動させるための駆動機構161の駆動量を補正する。例えば、第1制御部142は、駆動機構161の駆動量として、位置4-位置5の距離Δz/2に対応する駆動量に、位置4の位置に対応づけられたバックラッシュ量を加算した値を決定する。これにより、第1制御部142は、レンズ164を正確に位置5に移動させることができる。
 第1制御部142は、レンズ164を第2の向きに移動させる場合に、バックラッシュ量を用いて、位置5及び位置6が位置1、位置2、位置3及び位置4のいずれとも異なるように制御する。これにより、第1の向きにレンズ164を移動させる場合及び第2の向きにレンズ164を移動させる場合の全体において、評価値を算出するための画像を撮像するときのレンズ164の位置が重複しないようにすることができる。そのため、特定部149は、レンズ164を第2の向きに移動させる場合において、レンズ164が位置1、位置2、位置3又は位置4の近傍に位置するときの画像を撮像させる必要がない。そのため、より高速に合焦位置を特定することができる。
 図5は、撮像装置190における合焦制御の手順の一例を示すフローチャートである。第1制御部142は、カウント値を初期化する(S500)。カウント値の初期化により、評価値を算出する最初の画像を撮像するときのレンズ164の位置を「位置1」と設定する。カウント値はレンズ164の移動毎に加算される。これにより、レンズ164の位置は「位置2」、「位置3」・・・に順次に設定される。カウント値は、1回の合焦制御におけるレンズ164の位置を識別するための情報として用いられる。第1制御部142は、評価値及びレンズ164の位置を、評価値及び位置を記憶するための配列に格納する場合に、カウント値で識別される配列内の位置に格納する。配列は、評価値及びレンズ164の位置のデータを格納するデータ構造の一例である。データ構造を記憶するための記憶領域は、例えばメモリ146の記憶領域から割り当てられてよい。
 第1制御部142は、レンズ164の現在の位置を配列に格納する(S510)。第1制御部142は、評価値を算出するための第1の画像を、撮像素子144に撮像させる(S520)。第1制御部142は、S520において撮像された第1の画像から、第1の評価値を算出部148に算出させる(S530)。第1制御部142は、S530で得られた第1の評価値を配列に格納する(S540)。
 第1制御部142は、評価値のピークを越えたか否かを判断する。例えば、第1制御部142は、既に配列内に格納されている評価値の中から最大値を特定する。第1制御部142は、評価値の最大値が得られたレンズ164の位置を特定する。S530で算出された第1の評価値が最大値より低く、かつ、S530で算出された第1の評価値と最大値との差が予め定められた閾値より大きい場合に、評価値がピークを越えたと判断する。評価値のピークを越えていないと判断した場合は、S560に進む。
 S560において、第1制御部142は、レンズ164を第1の向きに移動させる。レンズ164の移動先の位置は、レンズ164の現在の位置から第1の向きに予め定められた距離だけ進んだ位置である。予め定められた距離は、図3に示すΔzであってよい。第1制御部142は、カウント値を加算する(S570)。S570の後、S510に進む。
 S550において、第1制御部142は、評価値のピークを越えたと判断した場合は、S580に進む。S580において、第1制御部142は、バックラッシュ情報に基づくレンズ164の移動を行う。続いて、第1制御部142は、レンズ164を合焦位置に移動するための制御を行う(S582)。S580及びS582の詳細については後述する。
 図6は、バックラッシュ情報に基づくレンズ164の移動制御の手順の一例を示すフローチャートである。図6のフローチャートは、図5のフローチャートにおけるS580の手順に適用できる。
 第1制御部142は、バックラッシュ量を取得する(S600)。例えば、第1制御部142は、レンズ装置160から取得したバックラッシュ情報を参照して、レンズ164の現在の位置に対応するバックラッシュ量を特定する。
 第1制御部142は、レンズ164を第2の向きに移動させて、第2の位置のうちの1番目の位置5にレンズ164を位置させる(S610)。このとき、第1制御部142は、レンズ164を移動させるための駆動機構161の駆動量に、バックラッシュ量を加算する。例えば、第1制御部142は、予め定められた距離だけレンズ164を移動させるための駆動量に、バックラッシュ量を加算する。予め定められた距離は、図3に示すΔz/2であってよい。この場合、第1制御部142は、位置3と位置4との中点にレンズ164を位置させることができる。これにより、第1制御部142は、バックラッシュ量を考慮して、第2の位置のうちの位置5にレンズ164を正確に位置させることができる。
 続いて、第1制御部142は、カウント値を加算する(S620)。これにより、バックラッシュ情報に基づくレンズ164の移動制御を終了する。
 図7は、合焦位置に移動するための制御手順の一例を示すフローチャートである。図7のフローチャートは、図5のフローチャートにおけるS582の手順に適用できる。
 第1制御部142は、レンズ164の現在の位置を配列に格納する(S710)。第1制御部142は、評価値を算出するための第2の画像を、撮像素子144に撮像させる(S720)。第1制御部142は、S720において撮像された第2の画像から、第2の評価値を算出部148に算出させる(S730)。第1制御部142は、S730で得られた第2の評価値を配列に格納する(S740)。
 第1制御部142は、評価値のピークを超えたか否かを判断する。例えば、第1制御部142は、既に配列内に格納されている評価値の中から最大値を特定する。ここで、配列内に格納されている評価値は、図5のS540で格納された第1の評価値を含む。すなわち、第1制御部142は、既に取得された第1の評価値及び第2の評価値の中から最大値を特定する。第1制御部142は、S730で算出された第2の評価値が最大値より低く、かつ、S730で算出された第2の評価値と最大値との差が予め定められた閾値より大きい場合に、評価値のピークを超えたと判断する。なお、評価値の最大値が得られた画像を撮像したときのレンズ164の位置より、現在のレンズ164が第2の向きに進んだ位置にあることを条件として、評価値のピークを超えたと判断する。例えば、第1制御部142は、図3において評価値の最大値E3に対応する位置3より、現在のレンズ164の位置が第2の向きに進んだ位置にあることを条件として、評価値のピークを超えたと判断する。すなわち、レンズ164が位置3より第1の向きに進んだ位置に存在する場合は、評価値のピークを超えていないと判断する。評価値のピークを越えていないと判断した場合は、S760に進む。
 S760において、第1制御部142は、レンズ164を第2の向きに移動させる。レンズ164の移動先の位置は、レンズ164の現在の位置から第2の向きに予め定められた距離だけ進んだ位置である。予め定められた距離は、図3に示すΔzであってよい。第1制御部142は、カウント値を加算する(S770)。S770の後、S710に進む。
 S750において、第1制御部142は、評価値のピークを越えたと判断した場合は、S780に進む。S780において、第1制御部142は、特定部149に合焦位置を特定させる。上述したように、特定部149は、第1の評価値及び第2の評価値をともに用いて、評価値が最大となるレンズ164の位置を算出する。
 第1制御部142は、バックラッシュ量を取得する(S782)。例えば、第1制御部142は、レンズ装置160から取得したバックラッシュ情報を参照して、レンズ164の現在の位置に対応するバックラッシュ量を特定する。
 第1制御部142は、レンズ164を第1の向きに移動させて、合焦位置までレンズ164を移動させる(S784)。このとき、第1制御部142は、レンズ164を移動させるための駆動機構161の駆動量に、バックラッシュ量を加算する。例えば、第1制御部142は、合焦位置と現在の位置との差に対応する駆動量に、バックラッシュ量を加算する。これにより、第1制御部142は、合焦位置にレンズ164を正確に位置させることができる。
 なお、評価値のピーク超えの検出は、上述したように、評価値の最大値から閾値Δ以上減少したことを検出する方式を適用できる。その他、特定の向きにレンズ164を移動した場合に続けて得られる評価値が一定数以上連続して減少したことを検出する方式を適用できる。
 図8は、第1制御部142による合焦制御において実行される動作内容の一例を表形式で示す。図8の表は、時間順に実行されるステップと、各ステップで行われる動作内容を示す。図8は、図3の例における動作内容を示す。
 ステップ1において、撮像及び評価値の算出の後に、第1の向きにレンズ164を移動する。続くステップ2において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出されない場合、第1の向きにレンズ164を移動する。ステップ3において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出されない場合、第1の向きにレンズ164を移動する。
 ステップ4において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出された場合、バックラッシュ情報に基づくレンズ164の移動制御を行う。ステップ5において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出されない場合、第2の向きにレンズ164を移動する。ステップ6において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出された場合、特定部149が特定した合焦位置にレンズ164を移動する。
 図9は、比較例の合焦制御によるフォーカスレンズの位置と評価値との関係を示す。位置1から位置4までの動作は、図3に例示した動作と同様の動作が行われる。この比較例の合焦制御では、位置4でピーク超えが検出された後に、第2の向きにフォーカスレンズを移動させて得られた評価値のみを用いて、合焦位置を特定する。位置1から位置4までの動作は、評価値のピークを粗く探索する粗駆動に相当する。
 合焦位置の特定精度を高めるために、第2の向きでは微駆動を行う。具体的には、第2の向きにおける1回あたりの移動距離Δz'をΔzより短くする。第2の向きにフォーカスレンズを移動させて、フォーカスレンズが位置5'、位置6'、位置7'、位置8'に存在する場合の画像から評価値を算出する。位置5'、位置6'、位置7'、位置8'に対応する評価値をE5'、E6'、E7'、E8'とする。図9の例では、E6'>E5'、E7'<E6'、E8'<E7'であり、かつ、E7'>E6'-Δである。そのため、E7'の評価値が得られた段階では、評価値のピークを超えたか否かの判断ができない。E8'の評価値が得られた段階で初めて、評価値のピークを超えたと判断ができる。そして、例えばE5'、E6'及びE7'を用いて、合焦位置7'を算出する。
 比較例の合焦制御によれば、例えば撮像装置190における合焦制御と比べて、評価値のピーク超えを検出するために、実質的により多くの画像を撮像する必要がある。図9の比較例は、Δz'<Δz/2である場合を示す。図9の比較例において、Δ'z=Δz/2とした場合でも、第2の向きに沿って少なくとも3点の位置にフォーカスレンズが存在する場合の画像を撮像しなければ、ピーク超えを検出できない。3点でピーク超えを検出できたとしても、合焦位置を特定するために3点の評価値しか利用できない。また、第1の向きに移動させたときのフォーカスレンズの位置と重複する又は極めて近い位置での評価値を算出することになってしまう。そのため、第1の向きに移動させた場合の評価値を有効利用できていないことになる。また、合焦位置を特定するために5点の評価値を要する場合、第2の向きにフォーカスレンズを移動して5点の評価値を得なければならない。したがって、比較例の合焦制御によれば、合焦位置を特定するまでに実質的に長い時間がかかることになる。
 図10は、比較例における合焦制御において実行される動作内容の一例を表形式で示す。図10の表は、時間順に実行されるステップと、各ステップで行われる動作内容を示す。図10は、図9の例における動作内容を示す。
 ステップ1からステップ3は、図8のステップ1からステップ3と同様の動作内容となる。ステップ4において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出された場合、バックラッシュ情報に基づくフォーカスレンズの移動制御を行う。この場合、フォーカスレンズの移動距離はΔz'である。ステップ5において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出されない場合、第2の向きにフォーカスレンズを移動する。ステップ5と同様に、ステップ6及びステップ7のそれぞれにおいて、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ステップ6及びステップ7のそれぞれにおいて、第2の向きにフォーカスレンズを移動する。
 ステップ8において、撮像及び評価値の算出及び評価値のピーク超えの検出を行う。ピーク超えが検出された場合、例えば、位置5'、位置6'、位置7'にフォーカスレンズが存在する場合の画像から算出された評価値を用いて合焦位置を算出する。そして、算出した合焦位置にレンズ164を移動する。このように、比較例の合焦制御によれば、合焦位置を特定するまでに8ステップを必要とする。
 図9及び図10に関連して説明したように、比較例の合焦制御によれば、評価値のピーク超えを検出するためにより多くのステップを要する。そのため、合焦制御が完了するまでに長い時間がかかってしまう。これに対し、撮像装置190における合焦制御によれば、より少ないステップでピーク超えを検出できる。したがって、合焦制御の完了までに要する時間を短くすることができる。
 以上の説明において、レンズ164に関するバックラッシュ量情報として、レンズ164の位置に対応づけてバックラッシュ量を格納する例を説明した。しかし、バックラッシュ量は、レンズ164の位置によらずに一定値としてよい。メモリ163には、一定値のバックラッシュ量が格納されてよい。レンズ164に格納するバックラッシュ量は、個々のレンズ164におけるバックラッシュ量の実測値であってよい。レンズ164に格納するバックラッシュ量は、駆動機構161の設計で定められた設計値であってよい。
 上述したレンズ164の移動制御は、レンズ164を移動させた後に停止した状態で画像を撮像させて評価値を算出する間欠駆動だけでなく、レンズ164を停止することなくレンズ164の移動中に画像を撮像させて評価値を算出する連続駆動にも適用できる。間欠駆動の場合は、上述したようにレンズ164の1回の移動毎に、Δzに対応する数のパルスを駆動機構161に与えて、第1の向きに移動する場合の第1の位置と、第2の向きに移動する場合の第2の位置とが重複しないようにすればよい。一方、連続駆動の場合は、評価値を算出する画像を取得するときのレンズ164の位置が、第1の向きに移動する場合と第2の向きに移動する場合とで重複しないように、レンズの移動速度を制御すればよい。
 UAV100において、撮像装置190はジンバル110に支持される。しかし、撮像装置190が設けられる位置は、ジンバル110に限られない。撮像装置190は、UAV100の周囲を撮像するセンシング用の撮像装置であってよい。センシング用の撮像装置は、UAV100の機首に設けられてよい。センシング用の撮像装置は、UAV100の底面に設けられてよい。センシング用の撮像装置は、UAV100の機首および底面の少なくとも一方に設けられてよい。センシング用の撮像装置により撮像された画像に基づいて、UAV100の周囲の3次元空間データが生成されてよい。センシング用の撮像装置は、UAV100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの設けられてよい。センシング用の撮像装置で設定できる画角は、撮像装置190で設定できる画角より広くてよい。センシング用の撮像装置は、単焦点レンズ又は魚眼レンズを有してもよい。
 図11は、スタビライザ800の一例を示す外観斜視図である。スタビライザ800は、移動体の一例である。撮像装置190は、UAV100以外の移動体に搭載されてよい。例えば、スタビライザ800が備えるカメラユニット813が、撮像装置190を備えてよい。
 スタビライザ800は、カメラユニット813、ジンバル820、及び持ち手部803を備える。ジンバル820は、カメラユニット813を回転可能に支持する。ジンバル820は、パン軸809、ロール軸810、及びチルト軸811を有する。ジンバル820は、パン軸809、ロール軸810、及びチルト軸811を中心に、カメラユニット813を回転可能に支持する。ジンバル820は、支持機構の一例である。
 カメラユニット813は、撮像装置の一例である。カメラユニット813は、メモリを挿入するためのスロット812を有する。ジンバル820は、ホルダ807を介して持ち手部803に固定される。
 持ち手部803は、ジンバル820、カメラユニット813を操作するための各種ボタンを有する。持ち手部803は、シャッターボタン804、録画ボタン805、及び操作ボタン806を含む。シャッターボタン804が押下されることで、カメラユニット813により静止画を記録することができる。録画ボタン805が押下されることで、カメラユニット813により動画を記録することができる。
 デバイスホルダ801が持ち手部803に固定されている。デバイスホルダ801は、スマートフォンなどのモバイルデバイス802を保持する。モバイルデバイス802は、WiFiなどの無線ネットワークを介してスタビライザ800と通信可能に接続される。これにより、カメラユニット813により撮像された画像をモバイルデバイス802の画面に表示させることができる。
 スタビライザ800によれば、カメラユニット813における合焦制御の完了までに要する時間を短くすることができる。
 以上の説明では、撮像装置190が移動体に設けられる形態を説明した。しかし、撮像装置190は、移動体に備えられる撮像装置に限られない。撮像装置190は、単体で撮像装置として機能し得る。撮像装置190は、一眼レフレックスカメラであってよい。撮像装置190は、レンズ非交換式のカメラであってよい。撮像装置190は、いわゆるコンパクトデジタルカメラであってよい。撮像装置190は、ビデオカメラであってよい。
 図12は、本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ2000の例を示す。コンピュータ2000にインストールされたプログラムは、コンピュータ2000に、本発明の実施形態に係る装置に関連付けられる操作又は当該装置の1又は複数の「部」として機能させることができる。当該プログラムは、コンピュータ2000に当該操作又は当該1又は複数の「部」を実行させることができる。当該プログラムは、コンピュータ2000に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ2000に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定の操作を実行させるべく、CPU2012によって実行されてよい。
 本実施形態によるコンピュータ2000は、CPU2012、及びRAM2014を含み、それらはホストコントローラ2010によって相互に接続されている。コンピュータ2000はまた、通信インタフェース2022、入力/出力ユニットを含み、それらは入力/出力コントローラ2020を介してホストコントローラ2010に接続されている。コンピュータ2000は、ROM2030を含む。CPU2012は、ROM2030およびRAM2014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。
 通信インタフェース2022は、ネットワークを介して他の電子デバイスと通信する。ROM2030は、アクティブ化時にコンピュータ2000によって実行されるブートプログラム等、及び/又はコンピュータ2000のハードウェアに依存するプログラムを格納する。プログラムは、CD-ROM、DVD-ROM、USBメモリまたはメモリカードのようなコンピュータが可読な記録媒体又はネットワークを介して提供される。RAM2014、またはROM2030は、コンピュータが可読な記録媒体の例である。プログラムは、RAM2014、またはROM2030にインストールされ、CPU2012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2000に読み取られ、プログラムと上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2000の使用に従い情報の操作または処理を実現することによって構成されてよい。
 例えば、通信がコンピュータ2000および外部デバイス間で実行される場合、CPU2012は、RAM2014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2022に対し、通信処理を命令してよい。通信インタフェース2022は、CPU2012の制御下、RAM2014、またはUSBメモリのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取る。通信インタフェース2022は、読み取った送信データをネットワークに送信する。通信インタフェース2022は、ネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込んでよい。
 また、CPU2012は、USBメモリ等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2014に読み取られるようにし、RAM2014上のデータに対し様々なタイプの処理を実行してよい。CPU2012は次に、処理されたデータを外部記録媒体にライトバックする。
 様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2012は、RAM2014から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2014に対しライトバックする。また、CPU2012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2012は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
 上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2000上またはコンピュータ2000近傍のコンピュータが可読な媒体に格納されてよい。専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能である。コンピュータが可読な媒体に格納されたプログラムを、ネットワークを介してコンピュータ2000に提供してよい。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
100 UAV
101 UAV本体
102 インタフェース
104 第3制御部
106 メモリ
107 駆動部
108 回転翼
110 ジンバル
140 撮像部
142 第1制御部
144 撮像素子
146 メモリ
148 算出部
149 特定部
160 レンズ装置
161 駆動機構
162 第2制御部
163 メモリ
164、166、168 レンズ
169 光学系
190 撮像装置
800 スタビライザ
801 デバイスホルダ
802 モバイルデバイス
803 持ち手部
804 シャッターボタン
805 録画ボタン
806 操作ボタン
807 ホルダ
809 パン軸
810 ロール軸
811 チルト軸
812 スロット
813 カメラユニット
820 ジンバル
2000 コンピュータ
2010 ホストコントローラ
2012 CPU
2014 RAM
2020 入力/出力コントローラ
2022 通信インタフェース
2030 ROM

Claims (11)

  1.  レンズを光軸に沿って第1の向きに移動させて、前記レンズが複数の第1の位置のそれぞれに位置するときに前記レンズを通じて複数の第1の画像のそれぞれを撮像させ、前記第1の向きとは反対の第2の向きに前記レンズを移動させて、前記レンズが前記光軸方向における1以上の第2の位置のそれぞれに位置するときに前記レンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させる制御部と、
     前記複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び前記1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する特定部と
    を備える撮像装置。
  2.  前記制御部は、前記1以上の第2の位置を、前記複数の第1の位置のいずれとも異ならせる
    請求項1に記載の撮像装置。
  3.  前記制御部は、前記複数の第1の位置のいずれとも異なる複数の第2の位置に位置するときに、前記レンズを通じて複数の第2の画像を撮像させ、
     前記特定部は、前記複数の第1の評価値及び前記複数の第2の画像から算出された焦点状態を示す複数の第2の評価値をともに用いて、合焦位置を特定する
    請求項2に記載の撮像装置。
  4.  前記レンズの駆動機構におけるバックラッシュに関する情報を格納する格納部
    をさらに備え、
     前記制御部は、前記格納部に格納されている前記バックラッシュに関する情報を用いて、前記第2の位置を前記複数の第1の位置のいずれとも異ならせる
    請求項2又は3に記載の撮像装置。
  5.  前記制御部は、前記第1の向きに前記レンズを移動させた後に前記第2の向きに前記レンズを移動させて前記1以上の第2の位置のうちの1つの位置に移動させる場合に、前記格納部に格納されている前記バックラッシュに関する情報を用いて、前記複数の第1の位置のいずれとも異なる前記1つの位置に前記レンズを移動させる
    請求項4に記載の撮像装置。
  6.  前記格納部は、前記光軸方向における前記レンズの位置に対応づけて前記バックラッシュに関する情報を格納し、
     前記制御部は、前記第1の向きに前記レンズを移動させた後に前記第2の向きに前記レンズを移動させる場合に、前記レンズの現在の位置に対応づけて前記格納部に格納されているバックラッシュに関する情報を用いて、前記複数の第1の位置のいずれとも異なる前記1つの位置に前記レンズを移動させる
    請求項5に記載の撮像装置。
  7.  前記レンズの駆動機構におけるバックラッシュに関する情報を格納する格納部
    をさらに備え、
     前記特定部は、前記1以上の第1の評価値と、前記複数の第1の位置のうち前記1以上の第1の評価値が得られた画像をそれぞれ撮像したときにおける前記レンズの1以上の第1の位置と、前記1以上の第2の評価値と、前記バックラッシュに関する情報に基づく前記1以上の第2の位置とに基づいて、前記合焦位置を特定する
    請求項1から3のいずれか一項に記載の撮像装置。
  8.  請求項1から7のいずれか一項に記載の撮像装置を備えて移動する移動体。
  9.  請求項1から7のいずれか一項に記載の撮像装置と、
     前記撮像装置を支持する支持機構と、
     前記支持機構に取り付けられている持ち手部と
    を備える撮像システム。
  10.  レンズを光軸に沿って第1の向きに移動させて、前記レンズが複数の第1の位置のそれぞれに位置するときに前記レンズを通じて複数の第1の画像のそれぞれを撮像させ、前記第1の向きとは反対の第2の向きに前記レンズを移動させて、前記レンズが前記光軸方向における1以上の第2の位置のそれぞれに位置するときに前記レンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させる段階と、
     前記複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び前記1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する段階と
    を備える方法。
  11.  レンズを光軸に沿って第1の向きに移動させて、前記レンズが複数の第1の位置のそれぞれに位置するときに前記レンズを通じて複数の第1の画像のそれぞれを撮像させ、前記第1の向きとは反対の第2の向きに前記レンズを移動させて、前記レンズが前記光軸方向における1以上の第2の位置のそれぞれに位置するときに前記レンズを通じて撮像された1以上の第2の画像のそれぞれを撮像させる段階と、
     前記複数の第1の画像から算出された焦点状態を示す複数の第1の評価値のうちの1以上の第1の評価値及び前記1以上の第2の画像から算出された焦点状態を示す1以上の第2の評価値をともに用いて、合焦位置を特定する段階と
    をコンピュータに実行させるためのプログラム。
PCT/JP2016/080139 2016-10-11 2016-10-11 撮像装置、撮像システム、移動体、方法及びプログラム WO2018069974A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/080139 WO2018069974A1 (ja) 2016-10-11 2016-10-11 撮像装置、撮像システム、移動体、方法及びプログラム
JP2017517814A JP6365859B1 (ja) 2016-10-11 2016-10-11 撮像装置、撮像システム、移動体、方法及びプログラム
US16/356,694 US11125970B2 (en) 2016-10-11 2019-03-18 Method for lens autofocusing and imaging device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/080139 WO2018069974A1 (ja) 2016-10-11 2016-10-11 撮像装置、撮像システム、移動体、方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/356,694 Continuation US11125970B2 (en) 2016-10-11 2019-03-18 Method for lens autofocusing and imaging device thereof

Publications (1)

Publication Number Publication Date
WO2018069974A1 true WO2018069974A1 (ja) 2018-04-19

Family

ID=61905356

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/080139 WO2018069974A1 (ja) 2016-10-11 2016-10-11 撮像装置、撮像システム、移動体、方法及びプログラム

Country Status (3)

Country Link
US (1) US11125970B2 (ja)
JP (1) JP6365859B1 (ja)
WO (1) WO2018069974A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020527248A (ja) * 2018-05-28 2020-09-03 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. 話者分離モデルの訓練方法、両話者の分離方法及び関連設備

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59112241U (ja) * 1983-01-18 1984-07-28 ミノルタ株式会社 カメラ支持装置
JP2000338387A (ja) * 1999-05-31 2000-12-08 Fuji Photo Film Co Ltd オートフォーカス方法、装置及び記憶媒体
JP2008165141A (ja) * 2007-01-05 2008-07-17 Elmo Co Ltd 焦点調整装置、撮影装置および焦点調整方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8611739B2 (en) 2009-09-17 2013-12-17 Panasonic Corporation Focus adjusting apparatus and imaging apparatus
JP5325966B2 (ja) * 2011-11-25 2013-10-23 オリンパス株式会社 撮像装置及び撮像方法
JP6063634B2 (ja) * 2012-03-29 2017-01-18 オリンパス株式会社 焦点調節装置
JP6171273B2 (ja) * 2012-06-21 2017-08-02 リコーイメージング株式会社 オートフォーカス装置およびデジタルカメラ
JP6204644B2 (ja) * 2012-08-15 2017-09-27 キヤノン株式会社 撮像装置およびその制御方法
US9854155B1 (en) * 2015-06-16 2017-12-26 Amazon Technologies, Inc. Determining camera auto-focus settings
JP6255540B2 (ja) * 2015-09-30 2017-12-27 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59112241U (ja) * 1983-01-18 1984-07-28 ミノルタ株式会社 カメラ支持装置
JP2000338387A (ja) * 1999-05-31 2000-12-08 Fuji Photo Film Co Ltd オートフォーカス方法、装置及び記憶媒体
JP2008165141A (ja) * 2007-01-05 2008-07-17 Elmo Co Ltd 焦点調整装置、撮影装置および焦点調整方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020527248A (ja) * 2018-05-28 2020-09-03 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. 話者分離モデルの訓練方法、両話者の分離方法及び関連設備
US11158324B2 (en) 2018-05-28 2021-10-26 Ping An Technology (Shenzhen) Co., Ltd. Speaker separation model training method, two-speaker separation method and computing device

Also Published As

Publication number Publication date
US20190212523A1 (en) 2019-07-11
JPWO2018069974A1 (ja) 2018-10-11
JP6365859B1 (ja) 2018-08-01
US11125970B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
JP6878736B2 (ja) 制御装置、移動体、制御方法、及びプログラム
JP2019216343A (ja) 決定装置、移動体、決定方法、及びプログラム
JP6365859B1 (ja) 撮像装置、撮像システム、移動体、方法及びプログラム
JP2021085893A (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP6582317B1 (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP6790318B2 (ja) 無人航空機、制御方法、及びプログラム
JP6972456B1 (ja) 測距センサ、撮像装置、制御方法、及びプログラム
JP7003358B2 (ja) 制御装置、撮像装置、制御方法、及びプログラム
WO2018185940A1 (ja) 撮像制御装置、撮像装置、撮像システム、移動体、撮像制御方法、及びプログラム
JP6768997B1 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP2019082539A (ja) 制御装置、レンズ装置、飛行体、制御方法、及びプログラム
JP6268655B1 (ja) 撮像装置、撮像システム、移動体、撮像方法、及びプログラム
JP6696092B2 (ja) 制御装置、移動体、制御方法、及びプログラム
JP2021032990A (ja) 制御装置、撮像システム、制御方法、及びプログラム
JP6780203B2 (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP2019205047A (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP7043706B2 (ja) 制御装置、撮像システム、制御方法、及びプログラム
JP6961889B1 (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP6788153B2 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP6896963B1 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP6903848B2 (ja) 制御装置、レンズ装置、撮像装置、制御方法、及びプログラム
JP6413170B1 (ja) 決定装置、撮像装置、撮像システム、移動体、決定方法、及びプログラム
JP6690105B1 (ja) 制御装置、撮像装置、システム、制御方法、及びプログラム
JP7043707B2 (ja) シーン認識装置、撮像装置、シーン認識方法、及びプログラム
JP6888215B2 (ja) 制御装置、撮像装置、撮像システム、移動体、制御方法、及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017517814

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16918548

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC , EPO FORM 1205A DATED 31.07.2019.

122 Ep: pct application non-entry in european phase

Ref document number: 16918548

Country of ref document: EP

Kind code of ref document: A1