WO2018212008A1 - 撮像装置及び画像合成装置 - Google Patents

撮像装置及び画像合成装置 Download PDF

Info

Publication number
WO2018212008A1
WO2018212008A1 PCT/JP2018/017659 JP2018017659W WO2018212008A1 WO 2018212008 A1 WO2018212008 A1 WO 2018212008A1 JP 2018017659 W JP2018017659 W JP 2018017659W WO 2018212008 A1 WO2018212008 A1 WO 2018212008A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
image
imaging
unit
moving
Prior art date
Application number
PCT/JP2018/017659
Other languages
English (en)
French (fr)
Inventor
小野 修司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201880025680.9A priority Critical patent/CN110574359B/zh
Priority to JP2019519184A priority patent/JP6735917B2/ja
Publication of WO2018212008A1 publication Critical patent/WO2018212008A1/ja
Priority to US16/601,589 priority patent/US11012607B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • G03B13/22Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera coupling providing for compensation upon change of camera lens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Definitions

  • the present invention relates to an image pickup apparatus and an image composition apparatus, and more particularly to an image pickup apparatus that picks up an image while moving, and an image composition apparatus that generates a single composite image from an image picked up by the image pickup apparatus.
  • Patent Document 1 Technology that continuously captures the ground surface with a camera mounted on an aircraft and connects the obtained images to generate a single composite image of a wide area (also called mosaic composition, stitching, etc.)
  • Patent Document 1 The same type of technology is also known as a technology for generating a panoramic image.
  • Patent Document 2 proposes a method of adjusting the depth of field according to the subject distance as a method of accurately operating autofocus by imaging while moving.
  • JP 2016-39390 A Japanese Patent Laid-Open No. 10-31151
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging device that can capture a focused image while moving, and an image synthesis device that can generate a high-definition composite image. .
  • a moving body an imaging unit provided in the moving body, a focusing mechanism provided in the imaging unit, a focusing control unit that controls the focusing mechanism to periodically scan a focus position, and an imaging range shifted
  • a movement control unit that moves the moving body at a speed that is scanned at least once before moving to a position, and an imaging control unit that causes the imaging unit to continuously capture moving images or periodically capture still images.
  • a recording unit that records a moving image or a still image group captured by the imaging unit.
  • moving images are continuously captured while moving with a moving body, or still images are periodically captured.
  • the continuous capturing of moving images means that the moving images are continuously captured from the start of imaging to the end of imaging.
  • “Still images are periodically captured” means that still images are repeatedly captured at regular intervals from the start of imaging to the end of imaging.
  • the focusing mechanism is controlled by the focusing control unit, and the focus position is periodically scanned.
  • “scanning” of the focus position refers to an operation of displacing the focus position from one end to the other end within a predetermined range. For example, it refers to an operation of shifting the focus position from the closest end position to the infinity end position.
  • peripheral scanning means that scanning is repeatedly performed at a constant period. By periodically scanning the focus position, if a moving image is captured, it is possible to capture images with different in-focus positions in each frame. Further, if still images are captured, still images with different in-focus positions can be captured each time.
  • the captured moving image or still image group is recorded in the recording unit.
  • a recorded moving image or still image group is analyzed in units of scanning, and if a frame image having the highest sharpness or a still image having the highest sharpness is extracted, a focused image can be obtained in units of scanning.
  • the moving speed is controlled so that the moving body is scanned at least once before moving to a position shifted by the imaging range. Thereby, even when shooting while moving, it is possible to capture a focused image without omission. That is, a focused image can be taken with a certain degree of overlap.
  • the moving body moves to a position shifted by the imaging range and at the same time as one scanning is completed. Thereby, it can image efficiently.
  • “simultaneous” does not require strict simultaneity, but includes a range that can be regarded as almost simultaneous. Therefore, a slight deviation is allowed. Therefore, the moving body may be moved at a speed at which one scanning is completed at almost the same timing as when the moving body moves to a position shifted by the imaging range.
  • the imaging device further including: an imaging range calculation unit that calculates an imaging range based on a subject distance and an angle of view of the imaging unit.
  • the imaging range is calculated based on the subject distance and the angle of view of the imaging unit. Thereby, the imaging range can be automatically set.
  • the imaging apparatus further including a subject distance detection unit that detects a subject distance based on an output of the imaging unit.
  • the subject distance is detected based on the output of the imaging unit. Thereby, even if the subject distance fluctuates, the current imaging range can be estimated.
  • the movement control unit adjusts the speed of the moving body according to the change in the imaging range.
  • the imaging unit includes an imaging lens and an image sensor that captures an image formed by the imaging lens, and the focusing mechanism moves part or all of the lens group constituting the imaging lens,
  • the imaging apparatus according to any one of (1) to (4), wherein the focus position is displaced.
  • the imaging unit includes an imaging lens and an image sensor that captures an image formed by the imaging lens.
  • the focusing mechanism displaces the focus position by moving part or all of the lens group constituting the imaging lens.
  • the focus position is displaced in a sine wave shape and periodically scanned.
  • scanning is performed in both the forward path and the backward path.
  • the focus position is displaced in a sawtooth waveform and scanned periodically. In this case, scanning is performed only in the forward path.
  • a focused image extraction unit that analyzes a moving image or a still image group recorded in the recording unit in units of scanning and extracts a frame image having the highest sharpness or a still image having the highest sharpness as a focused image.
  • the imaging apparatus according to any one of (1) to (7), further including:
  • the focused image extracting unit that extracts the focused image.
  • the focused image extracting unit analyzes the moving image or the still image group recorded in the recording unit in units of scanning, and extracts the image of the frame with the highest sharpness or the still image with the highest sharpness as the focused image.
  • the imaging lens includes a first optical system and a second optical system having the same optical axis as the first optical system and having a focal length shorter than that of the first optical system.
  • the pixels that selectively receive the light that has passed through the first optical system and the light that has passed through the second optical system are regularly arranged, and an image formed by the first optical system and the second optical system.
  • a first optical system focusing mechanism that picks up an image to be formed at the same time, and a focusing mechanism moves a part or all of a lens group constituting the first optical system to displace a focus position of the first optical system.
  • the focusing control unit includes a first optical system focusing control unit that controls the first optical system focusing mechanism to periodically scan the focus position of the first optical system, and the movement control unit includes the first optical system. Move to a position shifted by the imaging range of the system
  • the moving control unit moves the moving body at a speed scanned at least once, and the imaging control unit causes the image sensor to continuously capture a moving image or periodically capture a still image.
  • the imaging apparatus according to (5), wherein the moving image or still image group captured by the optical system and the moving image or still image group captured by the second optical system are recorded.
  • the imaging lens is configured to include two optical systems (first optical system and second optical system) having different focal lengths, and the image sensor is imaged by each optical system. It is comprised so that it can image simultaneously.
  • the two optical systems (the first optical system and the second optical system) have the same optical axis, and the second optical system has a shorter focal length than the first optical system.
  • the image sensor is configured by regularly arranging pixels that selectively receive light that has passed through the first optical system and light that has passed through the second optical system, and an image formed by the first optical system. The image formed by the second optical system is simultaneously captured.
  • an image of the first optical system is captured by a pixel group that receives light that has passed through the first optical system
  • an image of the second optical system is captured by a pixel group that receives light that has passed through the second optical system.
  • images with different focal lengths can be simultaneously captured on the same axis with a single imaging unit, and an image without parallax can be captured.
  • a focusing mechanism of the first optical system (first optical system focusing mechanism) is provided.
  • the first optical system focusing mechanism moves a part or all of the lens group constituting the first optical system to displace the focus position of the first optical system.
  • a first optical system focusing control unit is provided as the focusing control unit.
  • the first optical system focusing control unit controls the first optical system focusing mechanism to periodically scan the focus position of the first optical system.
  • images with different in-focus positions are captured in the first optical system. That is, if a moving image is captured, an image with a different focus position is captured in each frame, and if a still image is captured, a still image with a different focus position is captured each time.
  • the moving image or still image group captured by the first optical system and the moving image or still image group captured by the second optical system are recorded in the recording unit.
  • a moving image or still image group captured by the first optical system is analyzed in units of scanning, and a frame image with the highest sharpness or a still image with the highest sharpness is extracted to obtain a focused image in units of scanning. It is done.
  • the moving speed is controlled so that the moving body is scanned at least once before moving to a position shifted by the imaging range by the first optical system.
  • the first optical system can capture a focused image without omission. That is, a focused image can be taken with a certain degree of overlap.
  • an image corresponding to the extracted focused image may be extracted. That is, an image captured at the same timing as the image extracted as the focused image may be extracted.
  • processing such as feature point extraction is performed using an image captured by the second optical system.
  • the composite image is generated using the focused image group captured by the first optical system. Since the image picked up by the first optical system is a telephoto image than the image picked up by the second optical system, a higher-resolution composite image can be generated.
  • the second optical system is constituted by a fixed-focus optical system and is imaged with pan focus. Since the second optical system can be composed of a lens with a short focal length, it can capture an image with pan focus.
  • a second optical system in-focus state detection unit that detects the in-focus state of the second optical system is further provided, and the focusing mechanism moves a part or all of the lens group constituting the second optical system
  • a second optical system focusing mechanism for displacing the focus position of the second optical system is further provided, and the focusing control unit controls the second optical system focusing mechanism based on the detection result of the second optical system focusing state detection unit.
  • the second optical system in-focus state detecting unit that detects the in-focus state of the second optical system, the focusing mechanism (second optical system focusing mechanism) of the second optical system, and the control unit (first 2 optical system focusing control unit).
  • the second optical system focusing mechanism moves a part or all of the lens group constituting the second optical system to displace the focus position of the second optical system.
  • the second optical system focusing control unit controls the second optical system focusing mechanism based on the detection result of the second optical system focusing state detection unit to focus the second optical system on the subject. As a result, a focused image can be taken with high accuracy in the second optical system.
  • the first optical system and the second optical system are arranged concentrically.
  • the inner peripheral portion is configured by the second optical system
  • the outer peripheral portion is configured by the ring-shaped second optical system.
  • the second optical system is composed of a reflective telephoto lens.
  • the focus position is displaced in a sine wave shape and periodically scanned.
  • scanning is performed in both the forward path and the backward path.
  • the focus position is displaced in a sawtooth waveform and scanned periodically. In this case, scanning is performed only in the forward path.
  • the focused image extracting unit that extracts the focused image.
  • the focused image extracting unit analyzes the moving image or the still image group recorded in the recording unit in units of scanning, and extracts the image of the frame with the highest sharpness or the still image with the highest sharpness as the focused image.
  • the moving body is constituted by a flying body.
  • a flying body For example, it can be composed of a remotely operated unmanned aircraft (so-called drone).
  • An imaging lens having a first optical system and a second optical system that have the same optical axis and different properties, and light that has passed through the first optical system and the second optical system Pixels that selectively receive light are regularly arranged, and an image sensor that simultaneously captures an image formed by the first optical system and an image formed by the second optical system, and the first optical
  • the first optical system focusing mechanism that moves part or all of the lens group constituting the system to displace the focus position of the first optical system, and the first optical system focusing mechanism are controlled to control the first optical system.
  • the first optical system focusing control unit that periodically scans the focus position, the imaging control unit that causes the image sensor to continuously capture moving images or periodic images, and the first optical system.
  • the imaging lens includes two optical systems having different properties (first optical system and second optical system), and the image sensor can simultaneously capture images formed by the optical systems. Configured.
  • the two optical systems (the first optical system and the second optical system) have the same optical axis and have different properties.
  • the image sensor is configured by regularly arranging pixels that selectively receive light that has passed through the first optical system and light that has passed through the second optical system, and an image formed by the first optical system. The image formed by the second optical system is simultaneously captured.
  • an image of the first optical system is captured by a pixel group that receives light that has passed through the first optical system
  • an image of the second optical system is captured by a pixel group that receives light that has passed through the second optical system.
  • two types of images without parallax can be simultaneously imaged by one imaging unit.
  • a focusing mechanism of the first optical system (first optical system focusing mechanism) is provided.
  • the first optical system focusing mechanism moves a part or all of the lens group constituting the first optical system to displace the focus position of the first optical system.
  • a first optical system focusing control unit is provided as the focusing control unit.
  • the first optical system focusing control unit controls the first optical system focusing mechanism to periodically scan the focus position of the first optical system.
  • images with different in-focus positions are captured in the first optical system. That is, if a moving image is captured, an image with a different focus position is captured in each frame, and if a still image is captured, a still image with a different focus position is captured each time.
  • the moving image or still image group captured by the first optical system and the moving image or still image group captured by the second optical system are recorded in the recording unit.
  • a moving image or still image group captured by the first optical system is analyzed in units of scanning, and a frame image with the highest sharpness or a still image with the highest sharpness is extracted to obtain a focused image in units of scanning. It is done.
  • an image focused in the first optical system without omission can be imaged. That is, a focused image can be taken with a certain degree of overlap.
  • an image corresponding to the extracted focused image may be extracted. That is, an image captured at the same timing as the image extracted as the focused image may be extracted.
  • An optical system having different properties is an optical system capable of capturing different types of images due to different properties as an optical system, such as an optical system having a different focal length or an optical system having a different transmission wavelength characteristic.
  • the first optical system and the second optical system constituting the imaging lens have different focal lengths, and the second optical system has a shorter focal length than the first optical system.
  • two images having different focal lengths can be simultaneously imaged on the same axis, and two types of images without parallax can be imaged.
  • processing such as mosaic synthesis
  • processing such as feature point extraction is performed using an image captured by the second optical system. Since the image captured by the second optical system is an image that covers a wider area than the image captured by the first optical system, more feature points can be extracted.
  • the composite image is generated using the focused image group captured by the first optical system. Since the image picked up by the first optical system is a telephoto image than the image picked up by the second optical system, a higher-resolution composite image can be generated.
  • the second optical system is constituted by a fixed-focus optical system and is imaged with pan focus. Since the second optical system can be composed of a lens with a short focal length, it can capture an image with pan focus.
  • the second optical system in-focus state detecting unit that detects the in-focus state of the second optical system, the focusing mechanism (second optical system focusing mechanism) of the second optical system, and the control unit (first 2 optical system focusing control unit).
  • the second optical system focusing mechanism moves a part or all of the lens group constituting the second optical system to displace the focus position of the second optical system.
  • the second optical system focusing control unit controls the second optical system focusing mechanism based on the detection result of the second optical system focusing state detection unit to focus the second optical system on the subject. As a result, a focused image can be taken with high accuracy in the second optical system.
  • the first optical system and the second optical system are arranged concentrically.
  • the inner peripheral portion is configured by the second optical system
  • the outer peripheral portion is configured by the ring-shaped second optical system.
  • the second optical system is composed of a reflective telephoto lens.
  • the focus position is displaced in a sine wave shape and periodically scanned.
  • scanning is performed in both the forward path and the backward path.
  • the focus position is displaced in a sawtooth waveform and scanned periodically. In this case, scanning is performed only in the forward path.
  • the focused image extracting unit that extracts the focused image.
  • the focused image extracting unit analyzes the moving image or the still image group recorded in the recording unit in units of scanning, and extracts the image of the frame with the highest sharpness or the still image with the highest sharpness as the focused image.
  • the imaging device according to (8), a composite image generation unit that acquires a plurality of focused images from the imaging device, and generates a single composite image by connecting the acquired plurality of focused images.
  • An image composition apparatus An image composition apparatus.
  • a composite image is generated using the extracted focused image. Since each focused image is a high-definition image focused on the imaging target, a high-definition composite image can be generated. Moreover, since each focused image has an overlapping area, a composite image can be generated without omission.
  • the image synthesizing device (25), further including an imaging condition estimation unit, wherein the composite image generation unit arranges each focused image based on the estimation result of the imaging condition estimation unit and generates a composite image.
  • the relative position and orientation of the imaging unit when each focused image is captured is estimated.
  • the composite image is generated based on the estimation result. That is, it is generated by arranging each focused image based on the estimated position and orientation.
  • the posture is specified as the direction of the optical axis and the rotation around the optical axis.
  • the imaging condition estimation unit applies SfM processing to the acquired plurality of focused images, and estimates the relative position and orientation of the imaging unit when each focused image is captured (26) Image synthesizer.
  • the SfM process is a process for restoring the three-dimensional shape of the subject and the relative position and orientation of the imaging unit from a plurality of images with different viewpoints.
  • a composite image is generated using the extracted focused image.
  • Each in-focus image is a high-definition image focused on an imaging target and a telephoto image, so that a high-definition composite image can be generated.
  • each focused image has an overlapping area, a composite image can be generated without omission.
  • An imaging unit that acquires images of the second optical system corresponding to the respective focused images from the imaging device, analyzes the acquired plurality of images of the second optical system, and images the focused images.
  • the image capturing condition estimating unit for estimating the relative position and orientation of the image forming unit, and the composite image generating unit arranges each focused image based on the estimation result of the image capturing condition estimating unit, and generates a composite image.
  • the image composition apparatus The image composition apparatus.
  • the relative position and orientation of the imaging unit when each focused image is captured is estimated.
  • the composite image is generated based on the estimation result. That is, it is generated by arranging each focused image based on the estimated position and orientation.
  • the image of the second optical system corresponding to each focused image is an image of the second optical system captured at the same timing as each focused image. If it is a moving image, it is an image of the same frame, and if it is a still image, it is a still image captured at the same timing. Since the image captured by the second optical system is a wider-angle image than the image captured by the first optical system, more feature points necessary for analysis can be extracted. Thereby, the relative position and orientation of the imaging unit can be estimated with higher accuracy. In addition, this makes it possible to generate a composite image with higher accuracy.
  • the imaging condition estimation unit applies SfM processing to the acquired images of the plurality of second optical systems, and estimates the relative position and orientation of the imaging unit when each focused image is captured.
  • the image synthesizer applies SfM processing to the acquired images of the plurality of second optical systems, and estimates the relative position and orientation of the imaging unit when each focused image is captured.
  • a focused image can be taken while moving.
  • a high-definition composite image can be generated.
  • Imaging device Block diagram showing electrical configuration of unmanned aerial vehicle Block diagram of main functions realized by unmanned aircraft microcomputer Block diagram showing the electrical configuration of the controller Block diagram showing schematic configuration of camera Block diagram of the main functions realized by the camera microcomputer Conceptual diagram of scanning Conceptual diagram of setting the flight speed of an unmanned aerial vehicle during imaging Conceptual diagram of focused image extraction Conceptual diagram of setting the flight speed of an unmanned aerial vehicle when movement is completed simultaneously with scanning Conceptual diagram for periodic scanning with the focus position displaced in a sawtooth waveform Illustration of how to calculate depth of field Graph showing the relationship between the position of the focusing lens group and the subject distance to be focused Block diagram showing schematic configuration of camera Schematic configuration diagram of imaging lens
  • Block diagram showing schematic configuration of imaging lens drive system Operation explanatory diagram of the first optical system driven by the first optical system focusing mechanism Schematic configuration diagram of image sensor Conceptual diagram of
  • FIG. 1 is a system configuration diagram of an imaging apparatus.
  • the imaging apparatus 1 includes an unmanned aircraft 10 and a camera 100 mounted on the unmanned aircraft 10.
  • the unmanned aerial vehicle 10 is an example of a moving object and a flying object.
  • the unmanned aerial vehicle 10 is a so-called drone and flies in the atmosphere based on an operation by the controller 12.
  • the unmanned aerial vehicle 10 includes a main body frame 14 including a plurality of flight propellers 16.
  • the main body frame 14 includes a body portion 14A, four arm portions 14B (only two are shown in FIG. 1) extending radially from the body portion 14A, and four leg portions 14C (FIG. 1) extending radially from the body portion 14A. 1 shows only two).
  • the propeller 16 is provided at the tip of each arm portion 14B. Therefore, the unmanned aerial vehicle 10 of the present embodiment is provided with four propellers 16 (only two are shown in FIG. 1).
  • the unmanned aerial vehicle 10 flies in the atmosphere by buoyancy generated by rotating the propeller 16.
  • the unmanned aerial vehicle 10 is lifted, lowered, turned, and the like by individually controlling the rotation of each propeller 16. Further, the flight speed is controlled by controlling the rotation of each propeller 16 individually.
  • FIG. 2 is a block diagram showing the electrical configuration of the unmanned aerial vehicle.
  • the unmanned aerial vehicle 10 includes a propeller drive motor 20, a motor driver 22, a sensor unit 24, a fuselage-side wireless communication unit 26, a fuselage-side wired communication unit 28, and an unmanned aircraft microcomputer (microcomputer) 30. Prepare.
  • the propeller drive motor 20 is a rotation drive means of the propeller 16.
  • a propeller drive motor 20 is provided for each propeller 16.
  • the driving of each propeller drive motor 20 is individually controlled by a motor driver 22.
  • Each motor driver 22 controls driving of the propeller drive motor 20 in accordance with a command from the unmanned aircraft microcomputer 30.
  • the Sensor unit 24 detects the flight state of the aircraft.
  • the sensor unit 24 includes various sensors such as a gyro sensor, a geomagnetic sensor, an acceleration sensor, a speed sensor, an altitude sensor, and a GPS (Global Positioning System).
  • the sensor unit 24 outputs information on the flight state of the aircraft detected by various sensors to the unmanned aircraft microcomputer 30.
  • the aircraft-side wireless communication unit 26 communicates wirelessly with the controller 12 under the control of the unmanned aircraft microcomputer 30 and transmits and receives various signals to and from each other. For example, when the controller 12 is operated, a control signal based on the operation is transmitted from the controller 12 to the unmanned aircraft 10. The aircraft-side wireless communication unit 26 receives the control signal transmitted from the controller 12 and outputs it to the unmanned aircraft 10.
  • the communication method is not particularly limited, and a commonly used communication method (for example, a communication method based on a wireless LAN (Local Area Network) standard, a communication method based on a specific power-saving wireless standard, or a cellular phone network) is used. Communication system).
  • the aircraft-side wired communication unit 28 communicates with the camera 100 in a wired manner under the control of the unmanned aircraft microcomputer 30 and transmits and receives various signals to and from each other.
  • the communication method is not particularly limited, and a commonly used communication method (for example, a communication method according to the USB (Universal Serial Bus) standard) is used.
  • the unmanned aerial vehicle microcomputer 30 is a control unit that controls the overall operation of the unmanned aerial vehicle 10.
  • the unmanned aerial vehicle microcomputer 30 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and implements various functions by executing predetermined programs.
  • the program is stored in the ROM.
  • Fig. 3 is a block diagram of the main functions realized by the unmanned aerial vehicle microcomputer.
  • the unmanned aerial vehicle microcomputer 30 functions as a movement control unit 30a, a camera control unit 30b, an airframe side wireless communication control unit 30c, an airframe side wired communication control unit 30d, and the like by executing a predetermined program.
  • the movement control unit 30 a controls the flight (movement) of the unmanned aerial vehicle 10 by controlling the driving of each propeller drive motor 20 via the motor driver 22.
  • the movement control unit 30 a controls the driving of each propeller drive motor 20 based on the control signal transmitted from the controller 12 and the flight state information output from the sensor unit 24, and the flight of the unmanned aircraft 10. To control. For example, when the controller 12 is instructed to ascend, the drive of each propeller drive motor 20 is controlled so that the aircraft rises. In addition, when the controller 12 instructs the lowering, the driving of each propeller drive motor 20 is controlled so that the machine body descends. Further, when turning is instructed from the controller 12, the driving of each propeller drive motor 20 is controlled so that the aircraft turns in the instructed direction. Further, during imaging, the driving of each propeller drive motor 20 is controlled so that the aircraft flies at a predetermined speed. The flight control of the aircraft during imaging will be described in detail later.
  • the camera control unit 30b controls the camera 100 based on a control signal transmitted from the controller 12. For example, the camera 100 is caused to start imaging in response to an imaging start instruction from the controller 12. Further, in response to an imaging end instruction from the controller 12, the camera 100 ends imaging.
  • the aircraft-side wireless communication control unit 30 c controls communication with the controller 12 via the aircraft-side wireless communication unit 26.
  • the aircraft-side wired communication control unit 30d controls communication with the camera 100 via the aircraft-side wired communication unit 28.
  • FIG. 4 is a block diagram showing an electrical configuration of the controller.
  • the controller 12 includes a controller operation unit 12a, a controller display unit 12b, a controller-side wireless communication unit 12c, and a controller microcomputer 12d.
  • the controller operation unit 12 a includes various operation members that operate the unmanned aircraft 10 and the camera 100.
  • the operation members for operating the unmanned aerial vehicle 10 include, for example, an operation member for instructing the ascent and descent of the unmanned aircraft 10, an operation member for instructing the turning of the unmanned aircraft 10, and the like.
  • the operation member that operates the camera 100 includes, for example, an operation member that instructs to start and end imaging.
  • the controller display unit 12b is composed of, for example, an LCD (Liquid Crystal Display / liquid crystal display). For example, information on the flight state of the unmanned aerial vehicle 10 is displayed on the controller display unit 12b.
  • LCD Liquid Crystal Display / liquid crystal display
  • the controller-side wireless communication unit 12c communicates wirelessly with the unmanned aircraft 10 under the control of the controller microcomputer 12d, and transmits and receives various signals to and from each other.
  • the controller microcomputer 12d is a control unit that performs overall control of the entire operation of the controller 12.
  • the unmanned aerial vehicle microcomputer 30 includes a CPU, a ROM, and a RAM, and implements various functions by executing predetermined programs. For example, when the controller operation unit 12a is operated, a control signal corresponding to the operation is generated and transmitted to the unmanned aircraft 10 via the controller-side wireless communication unit 12c. Further, for example, flight state information is acquired from the unmanned aerial vehicle 10 via the controller-side wireless communication unit 12c and displayed on the controller display unit 12b.
  • the program is stored in the ROM.
  • FIG. 5 is a block diagram showing a schematic configuration of the camera.
  • the camera 100 is an example of an imaging unit and is configured with a monocular camera.
  • the camera 100 is mounted on the unmanned aerial vehicle 10 via a pan head.
  • the imaging direction is adjusted by the pan head.
  • the camera 100 continuously captures moving images in accordance with an imaging instruction from the controller 12.
  • the camera 100 includes an imaging lens 110, an image sensor 120, an analog signal processing unit 122, a recording unit 124, a camera-side wired communication unit 126, a camera microcomputer 128, and the like.
  • the imaging lens 110 is composed of a single focus lens and includes an aperture 112 and a focusing mechanism.
  • the diaphragm 112 is constituted by, for example, an iris diaphragm.
  • the diaphragm 112 includes a diaphragm motor 114 as its driving means.
  • the aperture of the aperture 112 is variable by driving the aperture motor 114.
  • the focusing mechanism displaces the focus position of the imaging lens 110 by moving a part of the plurality of lens groups constituting the imaging lens 110 back and forth along the optical axis L. Specifically, by moving the focusing lens group 110f back and forth along the optical axis L, the focus position of the imaging lens 110 is displaced.
  • the focusing mechanism includes a support portion (not shown) that supports the focusing lens group 110f so as to be movable along the optical axis L, and a focusing motor 116 that moves the focusing lens group 110f along the optical axis L. Is done.
  • the focusing motor 116 is constituted by, for example, a linear motor.
  • the imaging lens 110 includes a photo interrupter 118a and an MR sensor (MR sensor: Magneto-Resistive Sensor) 118b as means for detecting the position of the focusing lens group 110f.
  • the photo interrupter 118a detects that the focusing lens group 110f is located at a predetermined origin.
  • the MR sensor 118b detects the amount of displacement of the focusing lens group 110f.
  • the position of the focusing lens group 110f relative to the origin can be detected by detecting that the focusing lens group 110f is located at the origin by the photo interrupter 118a and detecting the displacement amount from the origin by the MR sensor 118b.
  • the detection results of the photo interrupter 118a and the MR sensor 118b are output to the camera microcomputer 128.
  • the camera microcomputer 128 detects the position of the focusing lens group 110f based on the outputs of the photo interrupter 118a and the MR sensor 118b.
  • the image sensor 120 captures an image formed by the imaging lens 110.
  • the image sensor 120 is composed of a solid-state imaging device such as a CMOS (CMOS: “Complementary” Metal—Oxide “Semiconductor”) or a CCD (CCD: “Charged” Coupled “Device”) having a predetermined color filter array.
  • CMOS Complementary Metal—Oxide
  • CCD CCD
  • the analog signal processing unit 122 captures an analog image signal for each pixel output from the image sensor 120, performs predetermined signal processing (for example, correlated double sampling processing, gain adjustment, etc.), and then converts the digital signal. And output.
  • the digital image signal output from the analog signal processing unit 122 is taken into the camera microcomputer 128.
  • the recording unit 124 is a recording unit for various data.
  • the captured image data is recorded in the recording unit 124.
  • the recording unit 124 is configured by a storage device using a non-volatile memory such as SSD (solid state drive).
  • the camera-side wired communication unit 126 communicates with the unmanned aircraft 10 in a wired manner under the control of the camera microcomputer 128 and transmits / receives various signals to / from each other.
  • the camera microcomputer 128 is a control unit that controls the overall operation of the camera 100.
  • the camera microcomputer 128 includes a CPU, a ROM, and a RAM, and realizes various functions by executing predetermined programs.
  • the program is stored in the ROM.
  • FIG. 6 is a block diagram of main functions realized by the camera microcomputer.
  • the camera microcomputer 128 executes a predetermined program, thereby performing a digital signal processing unit 128a, a recording control unit 128b, a camera-side wired communication control unit 128c, an imaging control unit 128d, an aperture control unit 128e, It functions as a focusing control unit 128f, a lens position detection unit 128g, and the like.
  • the digital signal processing unit 128a takes in the analog image signal output from the analog signal processing unit 122 and performs predetermined signal processing (for example, color interpolation, color separation, color balance adjustment, gamma correction, image enhancement processing, etc.). Image data is generated.
  • predetermined signal processing for example, color interpolation, color separation, color balance adjustment, gamma correction, image enhancement processing, etc.
  • the recording control unit 128b controls reading and writing of data to the recording unit 124.
  • Image data obtained by imaging is recorded in the recording unit 124 by the recording control unit 128b.
  • the camera-side wired communication control unit 128 c controls communication with the unmanned aircraft 10 via the camera-side wired communication unit 126.
  • the imaging control unit 128d controls driving of the image sensor 120 via the image sensor driver 120a. More specifically, the driving of the image sensor 120 is controlled so that a moving image is captured at a predetermined frame rate.
  • the aperture control unit 128e controls driving of the aperture motor 114 via the aperture motor driver 114a. More specifically, the drive of the aperture motor 114 is controlled so that the aperture 112 has a predetermined aperture value (aperture amount).
  • the aperture value is set based on a signal obtained from the image sensor 120. That is, the aperture value is set so that the proper exposure is obtained.
  • the focusing control unit 128f controls the driving of the focusing motor 116 via the focusing motor driver 116a. Specifically, the driving of the focusing motor 116 is controlled so that the focus position is periodically scanned.
  • scanning of the focus position refers to an operation of displacing the focus position from one end to the other end within a predetermined range.
  • periodicically scanning means that scanning is repeatedly performed at a constant period.
  • the focus position is displaced in a sine wave shape between the close end and the infinite end, and is periodically scanned.
  • FIG. 7 is a conceptual diagram of scanning.
  • the vertical axis indicates the focus position
  • the horizontal axis indicates time.
  • the focus position is displaced sinusoidally between the close end and the infinite end.
  • scanning is performed both on the forward path and on the return path.
  • scanning in the direction from the closest end position to the infinity end position (scanning on the forward path) and scanning in the direction from the infinity end position to the closest end position (scanning on the return path) Are repeated periodically.
  • Scanning in the forward path and scanning in the backward path are each performed as a single scan. Therefore, in this case, scanning is performed twice in a reciprocating manner.
  • the lens position detection unit 128g detects the position of the focusing lens group 110f based on the outputs of the photo interrupter 118a and the MR sensor 118b.
  • the focusing control unit 128f controls the driving of the focusing motor 116 based on the position of the focusing lens group 110f to periodically scan the focus position.
  • the unmanned aerial vehicle 10 flies in the atmosphere based on the operation of the controller 12. Specifically, it rises in accordance with an ascending instruction from the controller 12, and descends in accordance with a descending instruction. Further, the vehicle turns in the designated direction according to the turning instruction.
  • the camera 100 also takes an image based on the operation of the controller 12. That is, in response to an instruction to start imaging by the controller 12, imaging of a moving image is started. Further, in response to an instruction to end imaging by the controller 12, the imaging of the moving image ends. Moving images are continuously captured from the start of imaging until the end of imaging is instructed. The captured moving image is recorded in the recording unit 124.
  • the focus position is periodically scanned during imaging. That is, the focus position is displaced in a sine wave shape between the close end and the infinity end, and the focus position is periodically scanned.
  • at least one focused frame image can be captured each time scanning is performed.
  • the unmanned aerial vehicle microcomputer 30 that functions as the movement control unit 30a controls the driving of each propeller drive motor 20 based on the output from the sensor unit 24, and flies (including hovering) while keeping the altitude substantially constant.
  • the unmanned aircraft 10 flies while the speed is controlled as follows during imaging. That is, the flight speed is controlled so that scanning is performed at least once before moving to a position shifted by the imaging range.
  • FIG. 8 is a conceptual diagram of setting the flight speed of the unmanned aircraft being imaged.
  • the range of the angle of view ⁇ is imaged by the camera 100.
  • X is the width of the imaging range in the moving direction of the unmanned aerial vehicle 10.
  • the unmanned aircraft 10 is set to a speed at which it is scanned at least once during the distance X movement.
  • FIG. 8 shows an example when the speed is set to be scanned twice during the distance X movement.
  • T the time required for one scan
  • V the speed of the unmanned aerial vehicle 10
  • the imaging range can be calculated from the angle of view ⁇ and the subject distance.
  • An approximate value of the subject distance can be acquired from the altitude of the unmanned aircraft 10. That is, since the altitude of the unmanned aerial vehicle 10 is kept substantially constant during imaging, the approximate subject distance can be estimated from the altitude of the unmanned aerial vehicle 10. Therefore, an approximate value can be acquired in advance for the imaging range.
  • the speed of the unmanned aerial vehicle 10 for satisfying the above conditions can be set from the imaging range acquired in advance. That is, the speed for scanning at least once before moving to a position shifted by the imaging range can be set. In this example, the scanning speed is set twice.
  • the unmanned aerial vehicle microcomputer 30 of the unmanned aerial vehicle 10 that functions as the movement control unit 30a controls the driving of each propeller drive motor 20 so as to move at a set speed during imaging.
  • a moving image obtained by imaging is recorded in the recording unit 124.
  • This moving image is a moving image whose focus position fluctuates periodically.
  • the focus position is displaced from the closest end position to the infinity end position in one scan. Therefore, it is possible to acquire an image of a frame in which at least one sheet is in focus for each scan.
  • the in-focus image can be extracted in units of scanning by analyzing the moving image obtained by imaging in units of scanning and extracting the image with the highest sharpness.
  • FIG. 9 is a conceptual diagram of extracting a focused image.
  • a moving image obtained by imaging is analyzed in units of scanning, and a frame image with the highest sharpness is extracted. Specifically, the sharpness of the image FI constituting each frame is obtained, and the image FImax of the frame having the highest sharpness is extracted in units of scanning.
  • This process may be performed by the camera 100 or a dedicated image processing apparatus.
  • the camera microcomputer 128 When performing with the camera 100, the camera microcomputer 128 implements a function for performing the above processing.
  • the camera microcomputer 128 functions as a focused image extraction unit by executing a predetermined program, and executes the above processing.
  • the in-focus image may be extracted in real time or collectively after the imaging is completed. When it is performed in real time, a focused image extraction process is performed every time scanning is completed.
  • a computer is caused to function as the image processing apparatus.
  • a computer is caused to execute a predetermined program to function as a device that performs the above processing.
  • the speed of the unmanned aircraft 10 during imaging is preferable to set to a speed at which one scanning is completed at the same time as moving to a position shifted by the imaging range.
  • a desired range can be imaged in a short time.
  • FIG. 10 is a conceptual diagram of setting the flight speed of the unmanned aircraft when the movement is completed simultaneously with the scanning.
  • the speed of the unmanned aircraft 10 is set so that the unmanned aircraft 10 moves a distance X and completes one scan at the same time.
  • the speed of the unmanned aircraft 10 may be set to a speed at which one scan is completed at almost the same timing as when the unmanned aircraft 10 moves to a position shifted by the imaging range.
  • the speed is set to a speed at which one scan is completed slightly faster than the unmanned aircraft 10 moves to a position shifted by the imaging range.
  • the width X of the imaging range of the camera 100 in the moving direction of the unmanned aerial vehicle 10 changes according to the moving direction of the unmanned aircraft 10. Therefore, when imaging while changing the direction arbitrarily, it is preferable to correct the speed according to the moving direction of the unmanned aircraft 10.
  • the imaging range varies even when the orientation (imaging direction) of the camera 100 is changed, it is more preferable to correct the speed according to the orientation of the camera 100.
  • the speed is a speed at which a single scan is completed at the same time as moving to a position shifted by the width in the short side direction of the imaging range.
  • the unmanned aerial vehicle 10 flies at a substantially constant altitude during imaging.
  • the unmanned aerial vehicle 10 includes altitude measuring means such as an altitude sensor
  • the adjustment is performed by the following procedure, for example.
  • the altitude information is acquired.
  • the subject distance is estimated based on the acquired altitude information.
  • the current imaging range is calculated from the estimated subject distance and angle of view. Based on the calculated current imaging range information, the speed of the unmanned aircraft 10 is corrected.
  • the imaging range becomes wider, so the flight speed is increased.
  • the process for calculating the imaging range from the subject distance and the angle of view and the process for calculating the speed correction amount from the calculated imaging range and correcting the flight speed are performed by, for example, the unmanned aircraft microcomputer 30.
  • the unmanned aircraft microcomputer 30 functions as an imaging range calculation unit and a flight speed correction unit.
  • the imaging range calculation unit acquires current altitude information as subject distance information, and calculates the current imaging range based on the acquired subject distance information and angle of view.
  • the flight speed correction unit corrects the flight speed based on the calculated imaging range. For example, the flight speed is corrected with a correction amount corresponding to the change amount of the imaging range.
  • the subject distance can also be obtained from the captured image. That is, if the focus position when the focused image is captured is known, the subject distance can be obtained from the information on the focus position, and therefore the subject distance can be obtained from the captured image.
  • processing is performed as follows. First, image data for one scan is acquired when one scan is completed. Next, the acquired image data is analyzed, and a focused image is extracted. Next, the focus position when the focused image is extracted is specified. Next, the subject distance is specified based on the specified focus position. By performing this process every time a single scan is completed, the subject distance can be sequentially detected.
  • the process of detecting the subject distance from the captured image may be performed by the camera 100 or the unmanned aircraft 10.
  • the camera microcomputer 128 functions as a subject distance detection unit.
  • the unmanned aircraft 10 performs, the unmanned aircraft microcomputer 30 functions as a subject distance detection unit.
  • image data is acquired from the camera 100 and processed.
  • the focus position is displaced in a sine wave shape and the scanning is periodically performed.
  • the scanning mode is not limited to this.
  • the focus position may be displaced in a sawtooth shape and scanned periodically.
  • FIG. 11 is a conceptual diagram in the case of periodically scanning with the focus position displaced in a sawtooth waveform.
  • the vertical axis indicates the focus position
  • the horizontal axis indicates time.
  • the focus position is displaced in a sawtooth waveform between the close end and the infinite end, and is scanned periodically.
  • the focus position is displaced intermittently, it is preferable to set the displacement amount in consideration of the depth of field.
  • setting of the displacement amount in consideration of the depth of field will be described.
  • FIG. 12 is an explanatory diagram of a method for calculating the depth of field.
  • the depth of field is the range of distance on the subject side that appears to be in focus.
  • a place where a certain focus is focused in a strict sense is only on one plane.
  • a certain amount of tolerance there is a range where it can be said that the image is sufficiently clearly formed before and after that.
  • the front depth of field is the front depth of field Df and the rear depth of field is the rear depth of field Db
  • the front depth of field Df and the rear depth of field Db are as follows: Is calculated by
  • Front depth of field Df (Allowable confusion circle diameter ⁇ F value ⁇ Subject distance 2 ) / (Focal distance 2 + Allowable confusion circle diameter ⁇ F value ⁇ Subject distance)
  • Rear depth of field Db (Allowable confusion circle diameter ⁇ F value ⁇ Subject distance 2 ) / (Focal distance 2 ⁇ Allowable confusion circle diameter ⁇ F value ⁇ Subject distance)
  • the circle of confusion is a circular image when a point is imaged by the imaging lens, and the minimum size that cannot be recognized as blur by the image sensor is particularly called an allowable circle of confusion.
  • the permissible circle of confusion is determined by the optical imaging limit of the lens, which is called the pixel pitch of the image sensor or the Airy disk diameter, and the larger the pixel pitch or the Airy disk diameter is the permissible circle of confusion.
  • the subject distance to be focused changes. That is, the subject distance to be focused changes from a to a + ⁇ a.
  • the displacement ( ⁇ b) of the focus position is set so that the change amount ⁇ a of the subject distance to be focused does not exceed the front depth of field Df and the rear depth of field Db.
  • ⁇ Scan setting example> Consider a case where an image that is in focus within a range of ⁇ 50 mm is picked up when picking up an image while moving horizontally from a position 1000 mm away from the object.
  • the camera specifications are as follows.
  • FIG. 13 is a graph showing the relationship between the position of the focusing lens group and the subject distance to be focused.
  • the focusing lens group may be displaced within a range of 46.1 mm to 45.9 mm from the imaging surface of the image sensor.
  • the amount of displacement is set to a level of detail that does not exceed the depth of field.
  • the unmanned aircraft 10 may be configured to automatically fly a predetermined route. In this case, the controller 12 becomes unnecessary.
  • the unmanned aerial vehicle 10 flies on a predetermined route while autonomously controlling based on information from various sensors. In this case as well, the flight speed is set under the above conditions.
  • the moving image is continuously captured according to the imaging instruction, but the still image may be periodically captured. “Capturing a still image periodically” means that a still image is repeatedly imaged at a constant period from the start of imaging to the end of imaging.
  • a part of the lens group constituting the imaging lens is moved to displace the focus position.
  • the structure for displacing the focus position that is, the structure of the focusing mechanism is limited to this. It is not something.
  • the focus position can be displaced by moving the entire imaging lens, that is, the entire lens group along the optical axis L.
  • the imaging lens may be fixed and the focus position may be displaced by moving the image sensor back and forth along the optical axis.
  • the form of communication between the unmanned aerial vehicle 10 and the camera 100 is not particularly limited, and may be a form of wireless communication.
  • the imaging apparatus according to the present embodiment is also common to the imaging apparatus according to the first embodiment in that the imaging apparatus includes an unmanned aircraft and a camera mounted on the unmanned aircraft. However, the configuration of the camera that is the imaging unit is different.
  • the camera of the imaging apparatus according to the present embodiment is configured by a twin-lens camera that can simultaneously capture two images having different angles of view on the same axis.
  • FIG. 14 is a block diagram illustrating a schematic configuration of the camera.
  • the camera 200 is an example of an imaging unit.
  • the camera 200 includes an imaging lens 300, an image sensor 210, an analog signal processing unit 230, a recording unit 232, a camera side wired communication unit 234, a camera microcomputer 236, and the like.
  • FIG. 15 is a schematic configuration diagram of an imaging lens.
  • the imaging lens 300 has two optical systems (a first optical system 310 and a second optical system 320) for simultaneously capturing two images having different angles of view.
  • the first optical system 310 and the second optical system 320 have the same optical axis L in order to image on the same axis.
  • the first optical system 310 and the second optical system 320 are arranged concentrically.
  • the first optical system 310 and the second optical system 320 have different focal lengths in order to capture images with different angles of view.
  • the first optical system 310 is configured with a telephoto optical system
  • the second optical system 320 is configured with a wide-angle optical system having a focal length shorter than that of the first optical system 310.
  • the first optical system 310 is a telephoto optical system.
  • the first optical system 310 is configured as a reflective telephoto optical system.
  • the first optical system 310 includes a first optical system first lens 310a, a first optical system first mirror 310b, a first optical system second mirror 310c, and a first optical system stop in order from the subject side. 310d and a common lens 330 are arranged.
  • the first optical system first lens 310a, the first optical system first mirror 310b, the first optical system second mirror 310c, and the first optical system stop 310d each have a ring shape.
  • the first optical system first mirror 310b constitutes a primary mirror of the reflective telephoto optical system, and reflects the light that has passed through the first optical system first lens 310a toward the first optical system second mirror 310c.
  • the first optical system second mirror 310 c constitutes a secondary mirror of the reflective telephoto optical system, and reflects the light reflected by the first optical system first mirror 310 b toward the common lens 330.
  • the first optical system stop 310d adjusts the amount of light incident on the common lens 330 from the first optical system second mirror 310c.
  • the first optical system stop 310d is configured by combining a plurality of stop blades in a ring shape, and adjusts the amount of light by expanding and reducing the outer diameter.
  • the common lens 330 is the final lens.
  • the light incident on the first optical system 310 exits from the common lens 330 and enters the image sensor 210.
  • the common lens 330 is shared with the second optical system 320.
  • FIG. 16 is a diagram showing a ray trajectory of light passing through the first optical system.
  • the light passes through the first optical system first lens 310 a, the first optical system first mirror 310 b, the first optical system second mirror 310 c, the first optical system stop 310 d, and the common lens 330. Incident on the image sensor 210.
  • the second optical system 320 is a wide-angle optical system.
  • the second optical system 320 is configured with a fixed focus optical system capable of performing pan-focus imaging.
  • the second optical system 320 includes a second optical system first lens 320a, a second optical system second lens 320b, a second optical system stop 320c, and a second optical system third lens in order from the subject side.
  • 320d, a second optical system fourth lens 320e, and a common lens 330 are disposed.
  • Each optical element is arranged on the inner circumference coaxial with the first optical system 310. Since the second optical system 320 has a fixed focal point, each optical element (including the common lens 330) is fixedly arranged at a fixed position.
  • the second optical system stop 320c is also composed of a fixed stop, and is fixedly arranged at a fixed position.
  • FIG. 17 is a diagram showing a ray trajectory of light passing through the second optical system.
  • the light passes through the second optical system first lens 320a, the second optical system second lens 320b, the second optical system diaphragm 320c, the second optical system third lens 320d, the second optical system fourth lens 320e, and the common lens 330.
  • the image sensor 210 Through the image sensor 210.
  • FIG. 18 is a block diagram illustrating a schematic configuration of a driving system of the imaging lens.
  • the drive system is provided only for the first optical system 310.
  • the first optical system 310 includes a first optical system focusing mechanism as a mechanism for adjusting the focus position.
  • the first optical system focusing mechanism displaces the focus position by moving a part of the optical elements of the first optical system 310 back and forth along the axis.
  • FIG. 19 is an explanatory view of the operation of the first optical system driven by the first optical system focusing mechanism.
  • FIG. 4A shows a state where the movable part is moved to the subject side
  • FIG. 4B shows a state where the movable part is moved to the image plane side.
  • the first optical system focusing mechanism includes a first optical system first lens 310a, a first optical system first mirror 310b, a first optical system second mirror 310c, and a first optical system 310.
  • the focus position is displaced by moving the first optical system stop 310d integrally.
  • the first optical system focusing mechanism includes a first optical system first lens 310a, a first optical system first mirror 310b, a first optical system second mirror 310c, and a first optical system stop 310d (hereinafter referred to as a first optical system movable portion). And a first optical system focusing motor 340 that moves the first optical system movable unit along the axis. Composed.
  • the first optical system focusing motor 340 is composed of, for example, a linear motor.
  • the camera microcomputer 236 controls driving of the first optical system focusing motor 340 via the first optical system focusing motor driver 340a.
  • the first optical system 310 includes a first optical system photo interrupter 342a and a first optical system MR sensor 342b as means for detecting the position of the first optical system movable part.
  • the first optical system photo interrupter 342a detects that the first optical system movable unit is located at a predetermined origin.
  • the first optical system MR sensor 342b detects the amount of displacement of the first optical system movable part.
  • the first optical system photointerrupter 342a detects that the first optical system movable portion is located at the origin, and the first optical system MR sensor 342b detects the displacement amount from the origin, whereby the first optical system movable relative to the origin is detected.
  • the position of the part can be detected.
  • the detection results of the first optical system photo interrupter 342a and the first optical system MR sensor 342b are output to the camera microcomputer 236.
  • the camera microcomputer 236 detects the position of the first optical system movable part based on the outputs of the first optical system photointerrupter 342a and the first optical system MR sensor 342b.
  • the first optical system aperture 310d is driven by the first optical system aperture motor 344.
  • the camera microcomputer 236 controls driving of the first optical system diaphragm motor 344 via the first optical system diaphragm driver 344a.
  • the image sensor 210 includes a directional sensor in which pixels that selectively receive light that has passed through the first optical system 310 and light that has passed through the second optical system 320 are arranged in a matrix.
  • FIG. 20 is a schematic configuration diagram of the image sensor.
  • the image sensor 210 includes a first pixel 212A that selectively receives light that has passed through the first optical system 310 and a second pixel that selectively receives light that has passed through the second optical system 320. 212B.
  • the first pixels 212A and the second pixels 212B are alternately arranged on the same plane.
  • FIG. 21 is a conceptual diagram of a configuration for selectively receiving light from an optical system to which each pixel of the image sensor corresponds.
  • each pixel includes a photodiode 214, a microlens 216, and a light shielding mask 218.
  • the micro lens 216 is disposed in front of the photodiode 214.
  • the microlens 216 forms a pupil image of the first optical system 310 and the second optical system 320 on the photodiode 214.
  • the light shielding mask 218 is disposed between the microlens 216 and the photodiode 214.
  • the light shielding mask 218 shields part of the light that has passed through the microlens 216.
  • the light shielding mask 218 of the first pixel 212 ⁇ / b> A has a shape that shields the light L ⁇ b> 2 that has passed through the second optical system 320. Specifically, it has a circular shape.
  • the light shielding mask 218 of the second pixel 212B has a shape that shields the light L1 that has passed through the first optical system 310. Specifically, it has a ring shape.
  • the first pixel 212A selectively receives the light L1 that has passed through the first optical system 310
  • the second pixel 212B selectively receives the light L2 that has passed through the second optical system 320. Therefore, the image signal of the image Im1 obtained via the first optical system 310 can be acquired by acquiring the image signal of the first pixel 212A, and the second optical signal can be acquired by acquiring the image signal of the second pixel 212B. An image signal of the image Im2 obtained through the system 320 can be acquired.
  • the first optical system 310 is configured with a telephoto optical system
  • the second optical system 320 is configured with a wide-angle optical system. Therefore, the image Im1 of the first optical system 310 is a telephoto image, and the image Im2 of the second optical system 320 is a wide-angle image. Further, since the images of the respective optical systems are picked up on the same axis, the image Im1 of the first optical system 310 is an enlarged image of the central portion of the image Im2 of the second optical system 320, and has no parallax.
  • the first pixel 212A and the second pixel 212B are provided with color filters.
  • the color filters are arranged in a prescribed arrangement. For example, color filters composed of three colors of red (R), green (G), and blue (B) are arranged in a Bayer array. Thereby, a color image can be acquired.
  • the analog signal processing unit 230 takes in an analog image signal for each pixel output from the image sensor 210, performs predetermined signal processing, converts it into a digital signal, and outputs it.
  • the digital image signal output from the analog signal processing unit 230 is taken into the camera microcomputer 236.
  • the recording unit 232 is a recording unit for various data.
  • the captured image data is recorded in the recording unit 232. Note that, since the camera 200 of the present embodiment captures two images at the same time by one imaging, the two images are recorded by one imaging. Specifically, image data captured by the first optical system 310 and image data captured by the second optical system 320 are recorded.
  • the camera-side wired communication unit 234 communicates with the unmanned aircraft 10 by wire under the control of the camera microcomputer 236 and transmits and receives various signals to and from each other.
  • the camera microcomputer 236 is a control unit that performs overall control of the overall operation of the camera 200.
  • the camera microcomputer 236 includes a CPU, a ROM, and a RAM, and realizes various functions by executing predetermined programs.
  • the program is stored in the ROM.
  • FIG. 22 is a block diagram of main functions realized by the camera microcomputer.
  • the camera microcomputer 236 executes a predetermined program to thereby execute a digital signal processing unit 236a, a recording control unit 236b, a camera side wired communication control unit 236c, an imaging control unit 236d, and a first optical system aperture. It functions as a control unit 236e, a first optical system focusing control unit 236f, a first optical system lens position detection unit 236g, and the like.
  • the digital signal processing unit 236a takes in the analog image signal output from the analog signal processing unit 230, performs predetermined signal processing, and generates image data. At this time, the digital signal processing unit 236a generates first image data based on the image signal of the first pixel 212A of the image sensor 210, and generates second image data based on the image signal of the second pixel 212B. To do.
  • the first image data is image data of the first image captured through the first optical system 310
  • the second image data is image data of the second image captured through the second optical system 320. is there.
  • the recording control unit 236b controls reading / writing of data to / from the recording unit 232.
  • Image data (first image data and second image data) obtained by imaging is recorded in the recording unit 232 by the recording control unit 236b.
  • the camera-side wired communication control unit 236c controls communication with the unmanned aircraft 10 via the camera-side wired communication unit 234.
  • the imaging control unit 236d controls driving of the image sensor 210 via the image sensor driver 210a. More specifically, the drive of the image sensor 210 is controlled so that a moving image is captured at a predetermined frame rate.
  • the first optical system diaphragm controller 236e controls the driving of the first optical system diaphragm motor 344 via the first optical system diaphragm driver 344a.
  • the first optical system focusing control unit 236f controls driving of the first optical system focusing motor 340 via the first optical system focusing motor driver 340a. Specifically, the drive of the first optical system focusing motor 340 is controlled so that the focus position of the first optical system 310 is periodically scanned. In the camera 200 of the present embodiment, the focus position of the first optical system 310 is displaced in a sine wave shape between the closest end and the infinite end, and is scanned periodically (see FIG. 7).
  • the first optical system lens position detection unit 236g detects the position of the first optical system movable unit based on the outputs of the first optical system photo interrupter 342a and the first optical system MR sensor 342b.
  • the first optical system focusing control unit 236f controls the driving of the first optical system focusing motor 340 based on the position of the first optical system movable unit to periodically scan the focus position.
  • the unmanned aerial vehicle 10 flies in the atmosphere based on the operation of the controller 12. Specifically, it rises in accordance with an ascending instruction from the controller 12, and descends in accordance with a descending instruction. Further, the vehicle turns in the designated direction according to the turning instruction.
  • the camera 200 also takes an image based on the operation of the controller 12. That is, in response to an instruction to start imaging by the controller 12, imaging of a moving image is started. Further, in response to an instruction to end imaging by the controller 12, the imaging of the moving image ends. Moving images are continuously captured from the start of imaging until the end of imaging is instructed.
  • a moving image by the first optical system 310 and a moving image by the second optical system 320 are simultaneously imaged on the same axis.
  • the moving image by the first optical system 310 is a telescopic moving image
  • the moving image by the second optical system 320 is a wide-angle moving image. Both are moving images without parallax.
  • the moving image captured by the first optical system 310 and the moving image captured by the second optical system 320 are recorded in the recording unit 232, respectively.
  • the focus position of the first optical system 310 is periodically scanned. That is, the focus position is displaced in a sine wave shape between the close end and the infinity end, and the focus position is periodically scanned. Thereby, about the 1st optical system 310, the image of the frame which focused at least 1 sheet can be imaged whenever it scans once.
  • imaging by the second optical system 320 is imaging at a fixed focus and imaging at pan focus.
  • the unmanned aerial vehicle microcomputer 30 that functions as the movement control unit 30a controls the driving of each propeller drive motor 20 based on the output from the sensor unit 24, and flies with the altitude maintained substantially constant.
  • the unmanned aircraft 10 flies while the speed is controlled as follows during imaging. That is, the flight speed is controlled so that scanning is performed at least once before moving to a position shifted by the imaging range by the first optical system 310.
  • FIG. 23 is a conceptual diagram of setting the flight speed of the unmanned aircraft being imaged.
  • the range of the angle of view ⁇ 1 is imaged by the first optical system 310
  • the range of the angle of view ⁇ 2 is imaged by the second optical system 320.
  • the width of the imaging range of the first optical system 310 in the moving direction of the unmanned aircraft 10 is X1, and the width of the imaging range of the second optical system 320 is X2.
  • the unmanned aerial vehicle 10 is set to a speed at which it is scanned at least once while moving the distance X1.
  • FIG. 23 shows an example in which the speed is set to be scanned twice while moving the distance X1.
  • the unmanned aerial vehicle microcomputer 30 of the unmanned aerial vehicle 10 that functions as the movement control unit 30a controls the driving of each propeller drive motor 20 so as to move at a set speed during imaging.
  • the moving image captured by the first optical system 310 and the moving image captured by the second optical system 320 are recorded in the recording unit 232, respectively.
  • a moving image picked up by the first optical system 310 is a moving image in which the focus position fluctuates periodically.
  • the focus position is displaced from the closest end position to the infinity end position in one scan. Therefore, it is possible to obtain an image of a frame in which at least one sheet is in focus in one scan.
  • the moving image captured by the first optical system 310 is analyzed in units of scanning, and a frame image with the highest sharpness is extracted, so that a focused image can be extracted in units of scanning.
  • a frame image corresponding to the focused image is extracted. That is, the image of the frame imaged at the same timing as the frame extracted as the focused image is extracted.
  • the in-focus image extraction process may be performed by the camera 200 or a dedicated image processing apparatus.
  • the camera microcomputer 236 When performing with the camera 200, the camera microcomputer 236 is made to realize the function of performing the above processing.
  • the camera microcomputer 236 functions as a focused image extraction unit by executing a predetermined program, and executes the above processing.
  • the in-focus image may be extracted in real time or collectively after the imaging is completed. When it is performed in real time, a focused image extraction process is performed every time scanning is completed.
  • a computer is caused to function as the image processing apparatus.
  • a computer is caused to execute a predetermined program to function as a device that performs the above processing.
  • the speed of the unmanned aircraft 10 during imaging is set to a speed at which one scan is completed at the same time as moving to a position shifted by the imaging range of the first optical system 310.
  • a desired range can be imaged in a short time.
  • FIG. 24 is a conceptual diagram of setting the flight speed of the unmanned aircraft when the movement is completed simultaneously with the scanning.
  • the speed of the unmanned aircraft 10 is set so that the unmanned aircraft 10 moves a distance X1 and completes one scan at the same time.
  • the speed of the unmanned aircraft 10 may be set to a speed at which one scan is completed at almost the same timing as when the unmanned aircraft 10 moves to a position shifted by the imaging range.
  • the speed is set to a speed at which one scan is completed slightly faster than the unmanned aircraft 10 moves to a position shifted by the imaging range of the first optical system 310. .
  • the width X1 of the imaging range of the first optical system 310 in the moving direction of the unmanned aerial vehicle 10 changes in accordance with the moving direction of the unmanned aircraft 10. Therefore, when imaging while changing the direction arbitrarily, it is preferable to correct the speed according to the moving direction of the unmanned aircraft 10.
  • the imaging range varies even when the orientation (imaging direction) of the camera 200 is changed, it is more preferable to correct the speed according to the orientation of the camera 200.
  • the scanning speed is set to at least one scan before moving to a position shifted by the width in the short side direction of the imaging range of the first optical system 310.
  • the maximum speed is a speed at which one scanning is completed at the same time when the first optical system 310 moves to a position shifted by the width in the short side direction of the imaging range.
  • the unmanned aircraft 10 includes altitude measuring means such as an altitude sensor, it is preferable to acquire altitude information from the altitude measuring means and adjust the flight speed. That is, it is preferable to correct the speed of the unmanned aircraft 10 by estimating the subject distance from the altitude and calculating the current imaging range from the estimated subject distance and angle of view.
  • altitude measuring means such as an altitude sensor
  • the process for calculating the imaging range from the subject distance and the angle of view and the process for calculating the speed correction amount from the calculated imaging range and correcting the flight speed are performed by, for example, the unmanned aircraft microcomputer 30.
  • the unmanned aircraft microcomputer 30 functions as an imaging range calculation unit and a flight speed correction unit.
  • the imaging range calculation unit acquires current altitude information as subject distance information, and calculates the current imaging range based on the acquired subject distance information and angle of view.
  • the flight speed correction unit corrects the flight speed based on the calculated imaging range. For example, the flight speed is corrected with a correction amount corresponding to the change amount of the imaging range.
  • the subject distance can also be obtained from the captured image.
  • the process of detecting the subject distance from the captured image may be performed by the camera 200 or the unmanned aircraft 10.
  • the camera microcomputer 236 functions as a subject distance detection unit.
  • the unmanned aircraft 10 performs, the unmanned aircraft microcomputer 30 functions as a subject distance detection unit.
  • image data is acquired from the camera 200 and processed.
  • the focus position is displaced in a sine wave shape and the scanning is periodically performed.
  • the scanning mode is not limited to this.
  • the focus position may be displaced in a sawtooth waveform and scanned periodically (see FIG. 11).
  • the focus position may be displaced intermittently. In this case, it is preferable to match the displacement period and the imaging period.
  • the unmanned aircraft 10 may be configured to automatically fly a predetermined route. In this case, the controller 12 becomes unnecessary.
  • the unmanned aerial vehicle 10 flies on a predetermined route while autonomously controlling based on information from various sensors. In this case as well, the flight speed is set under the above conditions.
  • the moving image is continuously captured according to the imaging instruction, but the still image may be periodically captured.
  • the second optical system 320 is formed of a fixed-focus optical system, but the second optical system 320 may also be provided with a focusing mechanism (second optical system focusing mechanism).
  • the second optical system focusing mechanism displaces the focus position of the second optical system 320 by moving, for example, a part or all of the lens group constituting the second optical system 320.
  • the second optical system 320 when the second optical system 320 is provided with a focusing mechanism, the second optical system 320 may be provided with an autofocus function.
  • a separate detection unit for detecting the focus state of the second optical system 320 is provided, and based on the detection result of the second optical system focus state detection unit, 2 Controls the optical system focusing mechanism.
  • the camera microcomputer 236 performs control of the second optical system focusing mechanism. That is, the camera microcomputer 236 functions as a second optical system focusing control unit and controls the second optical system focusing mechanism based on the detection result of the second optical system focusing state detection unit.
  • the configuration of the second optical system in-focus state detection unit is not particularly limited, and a known detection mechanism can be employed.
  • a detection mechanism using a contrast method a detection mechanism using a phase difference method, a detection mechanism using a distance sensor, or the like can be employed.
  • the diaphragm of the second optical system 320 (second optical system diaphragm 320c) is configured with a fixed diaphragm, but it can also be configured with a diaphragm capable of adjusting the amount of light.
  • a diaphragm capable of adjusting the amount of light.
  • an iris diaphragm can be used.
  • the first optical system 310 and the second optical system 320 are concentrically arranged.
  • the configuration of the imaging lens 300 is not limited to this.
  • it may be configured to be divided into two equal parts, for example, vertically.
  • the image sensor 210 has a configuration corresponding to the configuration of the imaging lens 300.
  • the first optical system 310 and the second optical system 320 are configured by optical systems having different focal lengths, but may be configured by optical systems having the same focal length but different properties. Good. Or you may comprise with an optical system from which a focal distance differs and another property differs.
  • the optical systems may have different transmission wavelength characteristics. “Transmission wavelength characteristics” refers to the property of transmitting light in a specific wavelength range, and “Optical systems having different transmission wavelength characteristics” are optical systems having different properties of transmitting light of a specific wavelength range. I mean.
  • the imaging lens may be configured by an optical system that transmits light in the infrared light region and an optical system that transmits light in the visible light region.
  • Interference elimination processing When the image of two optical systems is picked up by one image sensor like the camera of this embodiment, interference may occur. Interference is a phenomenon in which light from other optical systems is mixed and received. When interference occurs, an image in which images of other optical systems are superimposed is captured. When interference occurs, it is preferable to perform interference removal processing on image data obtained by imaging.
  • Interference elimination processing is performed as follows, for example. Here, for ease of understanding, it is assumed that all the first pixels have the same interference ratio and all the second pixels have the same interference ratio. “Interference ratio” refers to the ratio of light received by each pixel from each optical system.
  • the interference ratio C1 is C11: C12.
  • the crosstalk ratio C2 is C21: C22.
  • the image data of the first optical system before the interference removal process is the first optical system primary image data
  • the image data of the first optical system after the interference removal process is the first optical system secondary image data
  • the image data of the second optical system before the interference removal process is set as the second optical system primary image data
  • the image data of the second optical system after the interference removal process is set as the second optical system secondary image data.
  • A1 be the pixel value of the first optical system primary image data at a specific pixel position (x, y) (the value that the pixel has)
  • A2 be the pixel value of the second optical system primary image data.
  • the pixel value of the first optical system secondary image data at the corresponding pixel position is B1
  • the pixel value of the second optical system secondary image data is B2.
  • the pixel values B1 and B2 of the first optical system secondary image data and the second optical system secondary image data are obtained by solving the following simultaneous equations.
  • the pixel values B1 and B2 of the first optical system secondary image data and the second optical system secondary image data can be calculated, and image data (first image) from which the influence of interference has been removed (first Optical system secondary image data and second optical system secondary image data) can be generated.
  • a matrix of 2 rows and 1 column whose elements are pixel values A1 and A2 of the first optical system primary image data and the second optical system primary image data is A, the first optical system secondary image data, and the second optical system secondary image.
  • the inverse matrix C-1 can be acquired in advance. Therefore, if the pixel values A1 and A2 of each primary image data can be acquired, the pixel values B1 and B2 of each secondary image data can be calculated using the inverse matrix C-1.
  • This processing can be performed by the camera microcomputer 236, for example.
  • the camera microcomputer 236 functions as an interference removal processing unit by executing a predetermined program.
  • this processing can be performed by another apparatus, for example, a computer after imaging.
  • the case where the camera is mounted on the unmanned aircraft is described as an example.
  • the configuration of the moving body on which the camera is mounted is not limited thereto.
  • the present invention can be applied to a case where a camera is mounted on a moving body that travels automatically, such as an autonomous driving vehicle.
  • the distinction between manned and unmanned is also not questioned.
  • the flying object is not limited to an aircraft, and may be a flying object that flies in outer space such as an artificial satellite or a spacecraft.
  • the camera is not necessarily mounted on the moving body, and can be configured to be imaged by the user.
  • the present invention can be applied to a case where a camera is mounted on a pan head or the like and images are taken while panning.
  • FIG. 25 is a system configuration diagram of the image composition apparatus.
  • the image composition device 2 of the present embodiment includes an imaging device 1 and a computer 3.
  • the computer 3 processes the image picked up by the image pickup apparatus 1 and generates a composite image.
  • the composite image generated here is a mosaic image obtained by connecting image groups captured by the imaging apparatus 1.
  • Imaging device 1 including the monocular camera 100 is used.
  • the imaging apparatus 1 is provided with a focused image extraction unit.
  • the focused image extraction unit analyzes the moving image recorded in the recording unit 124 in units of scanning, and extracts a frame image with the highest sharpness in units of scanning as a focused image.
  • the extracted focused image is recorded in the recording unit 124.
  • the camera microcomputer 128 functions as a focused image extraction unit by executing a predetermined program.
  • the computer 3 is an example of a composite image generation unit.
  • the computer 3 acquires an image group from the imaging device 1 and connects the acquired image group to generate a single composite image. Note that the image group acquired from the imaging device 1 is a focused image group extracted in units of scanning.
  • the computer 3 is composed of a general Neumann computer, and includes an input device, an output device, a central processing unit (CPU), a main storage device, an auxiliary storage device, and the like.
  • the computer 3 functions as a composite image generation unit by executing a predetermined program.
  • the program is stored in the auxiliary storage device, read out to the main storage device, and executed by the central processing unit.
  • the computer 3 generates a composite image using a known technique such as mosaic composition or stitching. For example, it is possible to adopt a technique of extracting corresponding feature points between adjacent images and aligning and combining the corresponding feature points so as to overlap each other.
  • FIG. 26 is a diagram illustrating an example of an imaging mode.
  • the figure shows an example of generating a composite image of the photovoltaic power generation facility 500.
  • the solar power generation facility 500 installed on the ground is imaged from the sky by the imaging device 1, and a single composite image in which the entire solar power generation facility 500 is copied is generated.
  • the solar power generation facility 500 is configured by regularly arranging a plurality of solar power generation units 510.
  • One solar power generation unit 510 is configured by regularly arranging a plurality of solar cell modules 520.
  • 45 solar cell modules 520 are arranged in a 5 ⁇ 9 vertical and horizontal direction to constitute one solar power generation unit 510.
  • twelve solar power generation units are arranged in a vertical and horizontal 4 ⁇ 3 configuration of the solar power generation facility 500.
  • the arrow R shown in FIG. 26 indicates the flight route of the imaging device 1.
  • a frame Z indicated by a broken line in FIG. 26 indicates an imaging range when the imaging apparatus 1 captures an image from a predetermined altitude.
  • the imaging device 1 flies so as to scan the solar power generation facility 500, and images the solar power generation facility 500 from above.
  • the flying speed during imaging is set to a speed that is scanned at least once before moving to a position shifted by the imaging range.
  • a focused image extraction process is performed.
  • the focused image extraction process is performed by analyzing the captured moving image in units of scanning and extracting the image of the frame with the highest sharpness in units of scanning.
  • the extracted focused image is recorded in the recording unit 124.
  • FIG. 27 is a conceptual diagram of generation of a composite image.
  • FIG. 4A shows an example of a focused image group obtained when the imaging device 1 flies almost linearly.
  • this figure shows an example of a focused image group obtained when the photovoltaic power generation unit 510 is imaged in a row in the horizontal direction.
  • FIG. 5B shows an example of a composite image generated from the focused image group in FIG.
  • focused images S1, S2,... are obtained in scanning units in time series order.
  • the obtained focused image group is an image in which individual images have overlapping areas between adjacent images.
  • Adjacent images are images that are adjacent in chronological order.
  • the computer 3 processes the focused image group using a known method to generate a composite image. For example, corresponding feature points are extracted between adjacent images, and are aligned and combined so that the corresponding feature points overlap each other. Thereby, as shown in FIG. 27B, one continuous composite image can be generated.
  • the imaging apparatus including the monocular camera 100 is used and the obtained focused image group is processed to generate a composite image has been described as an example, but the twin-lens camera 200 is included. It is also possible to generate a composite image using the image pickup apparatus.
  • the focused image group obtained from the first optical system 310 is synthesized to generate a synthesized image. Since the first optical system 310 is a telephoto optical system, it can generate a high-definition composite image. In this case, feature point extraction processing or the like can also be performed using the image of the second optical system 320.
  • the second optical system 320 is a wide-angle optical system having a shorter focal length than the first optical system 310, an image with a wider angle of view can be taken.
  • the second optical system 320 can capture images on the same axis as the first optical system 310, it can capture images that differ only in the angle of view. Thereby, more feature points can be extracted, and processing such as alignment can be performed accurately.
  • Second embodiment of image composition device ⁇ The image composition apparatus according to the present embodiment analyzes a focused image group obtained by imaging, estimates the relative position and orientation of the camera when each focused image is captured, and based on the estimation result Then, each in-focus image is arranged to generate a composite image.
  • the relative position and orientation of the camera when each focused image is captured is estimated using a SfM (Structure from Motion) technique.
  • the configuration of the image composition device is the same as that of the image composition device 2 of the first embodiment. That is, the image forming apparatus 1 and the computer 3 are included.
  • the imaging apparatus 1 includes a focused image extraction unit.
  • the focused image extraction unit analyzes a moving image captured by the first optical system 310 in units of scanning, and extracts a frame image having the highest sharpness as a focused image of the first optical system 310.
  • the focused image of the second optical system 320 extracts a frame image corresponding to the focused image extracted by the first optical system 310 as a focused image.
  • FIG. 28 is a block diagram of functions realized by a computer.
  • the computer 3 functions as an imaging condition estimation unit 3a and a composite image generation unit 3b by executing a predetermined program.
  • the imaging condition estimation unit 3a acquires a focused image group obtained by imaging from the imaging device 1, analyzes the acquired focused image group, and relatives the camera 200 when each focused image is captured.
  • the position and orientation are estimated as imaging conditions.
  • an SfM process is applied to the acquired focused image group to estimate the relative position and orientation of the camera 200 when each focused image is captured.
  • the SfM process is a process for restoring the three-dimensional shape of the subject and the relative position and orientation of the camera from a plurality of images with different viewpoints.
  • programs for performing SfM processing programs such as “Bundler” and “VisualSFM” are known. When an image group is input, these programs extract feature points in each image and perform matching between the images. The 3D point coordinates of these feature points and the relative position and orientation of each camera are obtained. Estimate and output.
  • FIG. 29 is a diagram illustrating an example of a result output by the SfM process.
  • a coordinate system XYZ is a ground coordinate system with the Z axis as the height direction, and the XY plane represents the ground plane.
  • the 3D point coordinates of the feature point FP extracted from each image, and the relative position and orientation of the camera 200 are estimated.
  • the image synthesizing apparatus uses the imaging apparatus 1 including the two-lens camera 200.
  • this imaging device two images having different angles of view are simultaneously captured on the same axis. Specifically, a telephoto image is captured by the first optical system 310 and a wide-angle image is captured by the second optical system 320.
  • the imaging condition estimation unit 3a performs SfM processing on the focused image group of the second optical system 320 out of the two focused image groups, and determines the relative position and orientation of the camera 200 when each focused image is captured.
  • the second optical system 320 is composed of a wide-angle optical system, it can capture a wider area image. Thereby, when extracting feature points, many feature points can be extracted, and the relative position and orientation of the camera 200 can be estimated with high accuracy.
  • the composite image generation unit 3b Based on the estimation result of the imaging condition estimation unit 3a, the composite image generation unit 3b arranges the focused images and generates a composite image. That is, based on the estimated relative position and orientation of the camera 200, the position and orientation in which each in-focus image is arranged are specified, the in-focus image is arranged in the specified orientation at the specified position, and the composite image is obtained. Generate.
  • the focused image of the first optical system 310 is used for the generation of the composite image.
  • the focused image of the second optical system 320 is used for estimation of the position and orientation of the camera 200.
  • the second optical system 320 is used for estimation of the position and orientation of the camera 200.
  • the focused image of the first optical system 310 is a telephoto image, a higher-definition composite image can be generated.
  • a focused image extraction process is performed.
  • the moving image captured by the first optical system 310 the moving image is analyzed in units of scanning, and the image of the frame with the highest sharpness is extracted in units of scanning as a focused image.
  • the moving image of the second optical system 320 an image of a frame corresponding to the focused image of the first optical system 310 is extracted as the focused image.
  • the focused image group of the second optical system 320 is subjected to SfM processing to estimate the relative position and orientation of the camera 200 when each focused image is captured.
  • a focused image of the first optical system 310 is arranged based on the estimation result, and a wide-area composite image is generated.
  • the relative position and orientation of the camera 200 can be estimated with high accuracy.
  • a higher-definition composite image can be generated by generating a composite image using a telephoto focused image group.
  • the functions realized by the computer can be realized by various processors.
  • Various processors include a general-purpose processor that functions as a processing unit that executes programs and performs various processes, and a PLD that is a processor whose circuit configuration can be changed after manufacturing, such as an FPGA (Field Programmable Gate Array). (Programmable Logic Device), a dedicated electric circuit which is a processor having a circuit configuration designed exclusively for executing specific processing such as ASIC (Application Specific Integrated Circuit).
  • One function may be realized by two or more processors of the same type or different types.
  • a configuration realized by a plurality of FPGAs or a configuration realized by a combination of a CPU and an FPGA may be used.
  • a plurality of functions may be configured with a single processor.
  • a single processor As an example of a configuration that realizes a plurality of functions by a single processor, first, as represented by a computer such as a client and a server, a single processor is configured by a combination of one or more CPUs and software. There is a form in which the processor realizes a plurality of functions. Second, as represented by a system-on-chip (SoC), there is a form of using a processor that realizes a plurality of functions with a single IC chip (IC: integrated circuit). In this way, various functions are realized by using one or more of the various processors as a hardware structure.
  • SoC system-on-chip
  • the hardware structure of these various processors is more specifically an electric circuit in which circuit elements such as semiconductor elements are combined.

Abstract

移動しながら合焦した画像を撮像できる撮像装置、及び、高精細な合成画像を生成でき画像合成装置を提供する。無人航空機10にカメラ100を搭載し、移動しながら撮像する。撮像中は、カメラ100に備えられたフォーカシング機構を制御し、フォーカス位置を周期的に走査させる。また、撮像中は、撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査されるように、無人航空機10の移動を制御する。

Description

撮像装置及び画像合成装置
 本発明は、撮像装置及び画像合成装置に係り、特に移動しながら撮像する撮像装置、及び、その撮像装置によって撮像された画像から一枚の合成画像を生成する画像合成装置に関する。
 航空機に搭載されたカメラで地表を連続的に撮像し、得られた画像群を繋ぎ合わせて、広域を写した一枚の合成画像を生成する技術(モザイク合成、ステッチングなどとも称される)が知られている(たとえば、特許文献1等)。同種の技術は、パノラマ画像を生成する技術としても知られている。
 ところで、この種の技術を用いて高精細な合成画像を生成するためには、繋ぎ合わせる個々の画像が合焦状態で撮像されている必要がある。また、より高精細な合成画像を生成するためには、望遠レンズを使用して撮像する必要がある。
 しかし、移動しながらの撮像でオートフォーカスを正確に作動させることは難しい。特に、望遠レンズを使用したカメラでは、被写界深度が浅いため、移動しながらの撮像でオートフォーカスを正確に作動させることは難しい。
 特許文献2には、移動しながらの撮像でオートフォーカスを正確に作動させる方法として、被写体距離に応じて被写界深度を調整する方法が提案されている。
特開2016-39390号公報 特開平10-31151号公報
 しかしながら、被写界深度で調整できる幅には限界がある。特に、望遠レンズを使用したカメラでは、調整できる被写界深度も浅いため、被写体距離が大きく変動した場合には対応できないという欠点がある。
 本発明は、このような事情に鑑みてなされたもので、移動しながら合焦した画像を撮像できる撮像装置、及び、高精細な合成画像を生成でき画像合成装置を提供することを目的とする。
 上記課題を解決するための手段は、次のとおりである。
 (1)移動体と、移動体に備えられる撮像部と、撮像部に備えられるフォーカシング機構と、フォーカシング機構を制御して、フォーカス位置を周期的に走査させるフォーカシング制御部と、撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度で移動体を移動させる移動制御部と、撮像部に動画像を連続的に撮像させ又は静止画像を周期的に撮像させる撮像制御部と、撮像部で撮像された動画像又は静止画像群を記録する記録部と、を備えた撮像装置。
 本態様によれば、移動体で移動しながら、動画像が連続的に撮像され、又は、静止画像が周期的に撮像される。動画像が連続的に撮像されるとは、撮像開始から撮像終了まで連続して動画像が撮像されることである。静止画像が周期的に撮像されるとは、撮像開始から撮像終了まで一定の間隔で静止画像が繰り返し撮像されることである。撮像中、フォーカシング制御部によってフォーカシング機構が制御され、フォーカス位置が周期的に走査される。ここで、フォーカス位置の「走査」とは、あらかじめ定められた範囲内において、フォーカス位置を一端から他端まで変位させる動作をいう。たとえば、至近端の位置から無限遠端の位置までフォーカス位置を変位させる動作をいう。また、「周期的に走査」とは、一定の周期で走査を繰り返し実施することをいう。フォーカス位置を周期的に走査させることにより、動画像の撮像であれば、各フレームで合焦位置が異なる画像を撮像できる。また、静止画像の撮像であれば、各回で合焦位置の異なる静止画像を撮像できる。撮像された動画像又は静止画像群は、記録部に記録される。記録された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を抽出すれば、走査単位で合焦画像が得られる。移動体は、撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査されるように、移動する速度が制御される。これにより、移動しながら撮影する場合であっても、漏れなく合焦した画像を撮像できる。すなわち、ある程度の重なりをもって、合焦した画像を撮像できる。
 (2)移動制御部は、撮像範囲分ずれた位置に移動すると同時に一回の走査が完了する速度で移動体を移動させる、上記(1)の撮像装置。
 本態様によれば、撮像範囲分ずれた位置に移動すると同時に一回の走査が完了する速度で移動体が移動する。これにより、効率よく撮像できる。なお、ここでの「同時」は、厳密な同時性を要求するものではなく、ほぼ同時とみなせる範囲を含むものである。したがって、若干のずれは許容される。したがって、移動体は、撮像範囲分ずれた位置に移動するのとほぼ同じタイミングで一回の走査が完了する速度で移動すればよい。
 (3)被写体距離及び撮像部の画角に基づいて、撮像範囲を算出する撮像範囲算出部と、を更に備えた上記(1)又は(2)の撮像装置。
 本態様によれば、被写体距離及び撮像部の画角に基づいて、撮像範囲が算出される。これにより、撮像範囲を自動設定できる。
 (4)撮像部の出力に基づいて被写体距離を検出する被写体距離検出部を更に備えた、上記(3)の撮像装置。
 本態様によれば、撮像部の出力に基づいて被写体距離が検出される。これにより、被写体距離が変動する場合であっても、現在の撮像範囲を推定できる。移動制御部は、撮像範囲の変動に応じて、移動体の速度を調整する。
 (5)撮像部は、撮像レンズと、撮像レンズで結像される像を撮像するイメージセンサと、を備え、フォーカシング機構は、撮像レンズを構成するレンズ群の一部又は全部を移動させて、フォーカス位置を変位させる、上記(1)から(4)のいずれか一の撮像装置。
 本態様によれば、撮像部が、撮像レンズと、撮像レンズで結像される像を撮像するイメージセンサと、を備えて構成される。フォーカシング機構は、撮像レンズを構成するレンズ群の一部又は全部を移動させて、フォーカス位置を変位させる。
 (6)フォーカシング制御部は、フォーカス位置を正弦波状に変位させて周期的に走査させる、上記(1)から(5)のいずれか一の撮像装置。
 本態様によれば、フォーカス位置が正弦波状に変位して周期的に走査される。この場合、往路及び復路の双方で走査される。
 (7)フォーカシング制御部は、フォーカス位置をノコギリ波状に変位させて周期的に走査させる、上記(1)から(5)のいずれか一の撮像装置。
 本態様によれば、フォーカス位置がノコギリ波状に変位して周期的に走査される。この場合、往路のみで走査される。
 (8)記録部に記録された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する合焦画像抽出部を更に備えた、上記(1)から(7)のいずれか一の撮像装置。
 本態様によれば、合焦画像を抽出する合焦画像抽出部が備えられる。合焦画像抽出部は、記録部に記録された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する。
 (9)撮像レンズは、第1光学系と、第1光学系と同じ光軸を有し、かつ、第1光学系よりも短い焦点距離を有する第2光学系と、を備え、イメージセンサは、第1光学系を通過した光と第2光学系を通過した光とを選択的に受光する画素が規則的に配列されて、第1光学系で結像される像と第2光学系で結像される像とを同時に撮像し、フォーカシング機構は、第1光学系を構成するレンズ群の一部又は全部を移動させて、第1光学系のフォーカス位置を変位させる第1光学系フォーカシング機構を備え、フォーカシング制御部は、第1光学系フォーカシング機構を制御して、第1光学系のフォーカス位置を周期的に走査させる第1光学系フォーカシング制御部を備え、移動制御部は、第1光学系による撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度で移動体を移動させ、撮像制御部は、イメージセンサに動画像を連続的に撮像させ又は静止画像を周期的に撮像させ、記録部は、第1光学系で撮像された動画像又は静止画像群と、第2光学系で撮像された動画像又は静止画像群と、を記録する、上記(5)の撮像装置。
 本態様によれば、焦点距離の異なる画像を同軸上で同時に撮像できる。具体的には、撮像レンズが、互いに焦点距離の異なる二つの光学系(第1光学系及び第2光学系)を備えて構成され、かつ、イメージセンサが、各光学系で結像される像を同時に撮像できるように構成される。二つの光学系(第1光学系及び第2光学系)は、同じ光軸を有し、第2光学系の方が第1光学系よりも短い焦点距離を有する。イメージセンサは、第1光学系を通過した光と第2光学系を通過した光とを選択的に受光する画素が規則的に配列されて構成され、第1光学系で結像される像と第2光学系で結像される像とを同時に撮像する。すなわち、第1光学系を通過した光を受光する画素群によって、第1光学系の画像が撮像され、第2光学系を通過した光を受光する画素群によって、第2光学系の画像が撮像される。これにより、一つの撮像部で焦点距離の異なる画像を同軸上で同時に撮像でき、視差のない画像を撮像できる。フォーカシング機構として、第1光学系のフォーカシング機構(第1光学系フォーカシング機構)が備えられる。第1光学系フォーカシング機構は、第1光学系を構成するレンズ群の一部又は全部を移動させて、第1光学系のフォーカス位置を変位させる。また、フォーカシング制御部として、第1光学系フォーカシング制御部が備えられる。第1光学系フォーカシング制御部は、第1光学系フォーカシング機構を制御して、第1光学系のフォーカス位置を周期的に走査させる。これにより、第1光学系において、合焦位置が異なる画像が撮像される。すなわち、動画像の撮像であれば、各フレームで合焦位置が異なる画像が撮像され、静止画像の撮像であれば、各回で合焦位置の異なる静止画像が撮像される。第1光学系で撮像された動画像又は静止画像群と、第2光学系で撮像された動画像又は静止画像群は、記録部に記録される。第1光学系で撮像された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を抽出すれば、走査単位で合焦画像が得られる。移動体は、第1光学系による撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査されるように、移動する速度が制御される。これにより、移動しながら撮影する場合であっても、第1光学系において、漏れなく合焦した画像を撮像できる。すなわち、ある程度の重なりをもって、合焦した画像を撮像できる。第2光学系で撮像された動画像又は静止画像群については、抽出した合焦画像に対応する画像を抽出すればよい。すなわち、合焦画像として抽出した画像と同じタイミングで撮像された画像を抽出すればよい。モザイク合成などの処理によって広域の合成画像を生成する場合は、第2光学系で撮像された画像を利用して、特徴点抽出などの処理を行う。第2光学系で撮像される画像は、第1光学系で撮像される画像よりも広範囲を写した画像なので、より多くの特徴点を抽出できる。一方、合成画像は、第1光学系で撮像された合焦画像群を使用して生成する。第1光学系で撮像される画像は、第2光学系で撮像される画像よりも望遠の画像なので、より高解像度の合成画像を生成できる。
 (10)第2光学系が、固定焦点の光学系で構成され、パンフォーカスで撮像される、上記(9)の撮像装置。
 本態様によれば、第2光学系が、固定焦点の光学系で構成され、パンフォーカスで撮像される。第2光学系は、焦点距離の短いレンズで構成できるので、パンフォーカスで撮像できる。
 (11)第2光学系の合焦状態を検出する第2光学系合焦状態検出部を更に備え、フォーカシング機構は、第2光学系を構成するレンズ群の一部又は全部を移動させて、第2光学系のフォーカス位置を変位させる第2光学系フォーカシング機構を更に備え、フォーカシング制御部は、第2光学系合焦状態検出部の検出結果に基づいて、第2光学系フォーカシング機構を制御し、第2光学系を被写体に合焦させる第2光学系フォーカシング制御部を更に備える、上記(9)の撮像装置。
 本態様によれば、第2光学系の合焦状態を検出する第2光学系合焦状態検出部と、第2光学系のフォーカシング機構(第2光学系フォーカシング機構)と、その制御部(第2光学系フォーカシング制御部)と、が備えられる。第2光学系フォーカシング機構は、第2光学系を構成するレンズ群の一部又は全部を移動させて、第2光学系のフォーカス位置を変位させる。第2光学系フォーカシング制御部は、第2光学系合焦状態検出部の検出結果に基づいて、第2光学系フォーカシング機構を制御し、第2光学系を被写体に合焦させる。これにより、第2光学系において、精度よく合焦画像を撮像できる。
 (12)撮像レンズは、第1光学系と第2光学系とが同心状に配置される、上記(9)から(11)のいずれか一の撮像装置。
 本態様によれば、第1光学系と第2光学系とが同心状に配置される。この場合、たとえば、内周部を第2光学系で構成し、外周部をリング状の第2光学系で構成する。第2光学系については、反射望遠レンズで構成する。
 (13)第1光学系フォーカシング制御部は、第1光学系のフォーカス位置を正弦波状に変位させて周期的に走査させる、上記(9)から(12)のいずれか一の撮像装置。
 本態様によれば、フォーカス位置が正弦波状に変位して周期的に走査される。この場合、往路及び復路の双方で走査される。
 (14)第1光学系フォーカシング制御部は、第1光学系のフォーカス位置をノコギリ波状に変位させて周期的に走査させる、上記(9)から(12)のいずれか一の撮像装置。
 本態様によれば、フォーカス位置がノコギリ波状に変位して周期的に走査される。この場合、往路のみで走査される。
 (15)第1光学系で撮像された動画像又は静止画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する合焦画像抽出部を更に備えた、上記(9)から(14)のいずれか一の撮像装置。
 本態様によれば、合焦画像を抽出する合焦画像抽出部が備えられる。合焦画像抽出部は、記録部に記録された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する。
 (16)移動体が飛行体で構成される、上記(1)から(15)のいずれか一の撮像装置。
 本態様によれば、移動体が飛行体で構成される。たとえば、遠隔操作される無人航空機(いわゆるドローン)で構成できる。
 (17)互いに同じ光軸を有し、かつ、互いに異なる性質を有する第1光学系及び第2光学系を備えた撮像レンズと、第1光学系を通過した光と第2光学系を通過した光とを選択的に受光する画素が規則的に配列されて、第1光学系で結像される像と第2光学系で結像される像とを同時に撮像するイメージセンサと、第1光学系を構成するレンズ群の一部又は全部を移動させて、第1光学系のフォーカス位置を変位させる第1光学系フォーカシング機構と、第1光学系フォーカシング機構を制御して、第1光学系のフォーカス位置を周期的に走査させる第1光学系フォーカシング制御部と、イメージセンサに動画像を連続的に撮像させ又は静止画像を周期的に撮像させる撮像制御部と、第1光学系で撮像された動画像又は静止画像群と、第2光学系で撮像された動画像又は静止画像群と、を記録する記録部と、を備えた撮像装置。
 本態様によれば、2種類の画像を同軸上で同時に撮像できる。具体的には、撮像レンズが、性質の異なる二つの光学系(第1光学系及び第2光学系)を備え、かつ、イメージセンサが、各光学系で結像される像を同時に撮像できるように構成される。二つの光学系(第1光学系及び第2光学系)は、互いに同じ光軸を有し、かつ、互いに異なる性質を有する。イメージセンサは、第1光学系を通過した光と第2光学系を通過した光とを選択的に受光する画素が規則的に配列されて構成され、第1光学系で結像される像と第2光学系で結像される像とを同時に撮像する。すなわち、第1光学系を通過した光を受光する画素群によって、第1光学系の画像が撮像され、第2光学系を通過した光を受光する画素群によって、第2光学系の画像が撮像される。これにより、一つの撮像部で視差のない2種類の画像を同時に撮像できる。フォーカシング機構として、第1光学系のフォーカシング機構(第1光学系フォーカシング機構)が備えられる。第1光学系フォーカシング機構は、第1光学系を構成するレンズ群の一部又は全部を移動させて、第1光学系のフォーカス位置を変位させる。また、フォーカシング制御部として、第1光学系フォーカシング制御部が備えられる。第1光学系フォーカシング制御部は、第1光学系フォーカシング機構を制御して、第1光学系のフォーカス位置を周期的に走査させる。これにより、第1光学系において、合焦位置が異なる画像が撮像される。すなわち、動画像の撮像であれば、各フレームで合焦位置が異なる画像が撮像され、静止画像の撮像であれば、各回で合焦位置の異なる静止画像が撮像される。第1光学系で撮像された動画像又は静止画像群と、第2光学系で撮像された動画像又は静止画像群は、記録部に記録される。第1光学系で撮像された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を抽出すれば、走査単位で合焦画像が得られる。移動しながら撮影する場合は、第1光学系による撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査されるように移動すれば、第1光学系において、漏れなく合焦した画像を撮像できる。すなわち、ある程度の重なりをもって、合焦した画像を撮像できる。第2光学系で撮像された動画像又は静止画像群については、抽出した合焦画像に対応する画像を抽出すればよい。すなわち、合焦画像として抽出した画像と同じタイミングで撮像された画像を抽出すればよい。
 性質の異なる光学系とは、たとえば、焦点距離の異なる光学系、透過波長特性の異なる光学系等、光学系としての性質が異なることにより、種類の異なる画像を撮像できる光学系のことである。
 (18)撮像レンズは、第2光学系が第1光学系よりも短い焦点距離を有する、上記(17)の撮像装置。
 本態様によれば、撮像レンズを構成する第1光学系及び第2光学系が互いに異なる焦点距離を有し、第2光学系が第1光学系よりも短い焦点距離を有する。これにより、焦点距離の異なる二つの画像を同軸上で同時に撮像でき、視差のない二種類の画像を撮像できる。モザイク合成などの処理によって広域の合成画像を生成する場合は、第2光学系で撮像された画像を利用して、特徴点抽出などの処理を行う。第2光学系で撮像される画像は、第1光学系で撮像される画像よりも広範囲を写した画像なので、より多くの特徴点を抽出できる。一方、合成画像は、第1光学系で撮像された合焦画像群を使用して生成する。第1光学系で撮像される画像は、第2光学系で撮像される画像よりも望遠の画像なので、より高解像度の合成画像を生成できる。
 (19)第2光学系が、固定焦点の光学系で構成され、パンフォーカスで撮像される、上記(18)の撮像装置。
 本態様によれば、第2光学系が、固定焦点の光学系で構成され、パンフォーカスで撮像される。第2光学系は、焦点距離の短いレンズで構成できるので、パンフォーカスで撮像できる。
 (20)第2光学系の合焦状態を検出する第2光学系合焦状態検出部と、第2光学系を構成するレンズ群の一部又は全部を移動させて、第2光学系のフォーカス位置を変位させる第2光学系フォーカシング機構と、第2光学系合焦状態検出部の検出結果に基づいて、第2光学系フォーカシング機構を制御し、第2光学系を被写体に合焦させる第2光学系フォーカシング制御部と、を更に備えた上記(18)の撮像装置。
 本態様によれば、第2光学系の合焦状態を検出する第2光学系合焦状態検出部と、第2光学系のフォーカシング機構(第2光学系フォーカシング機構)と、その制御部(第2光学系フォーカシング制御部)と、が備えられる。第2光学系フォーカシング機構は、第2光学系を構成するレンズ群の一部又は全部を移動させて、第2光学系のフォーカス位置を変位させる。第2光学系フォーカシング制御部は、第2光学系合焦状態検出部の検出結果に基づいて、第2光学系フォーカシング機構を制御し、第2光学系を被写体に合焦させる。これにより、第2光学系において、精度よく合焦画像を撮像できる。
 (21)撮像レンズは、第1光学系と第2光学系とが同心状に配置される、上記(18)から(20)のいずれか一の撮像装置。
 本態様によれば、第1光学系と第2光学系とが同心状に配置される。この場合、たとえば、内周部を第2光学系で構成し、外周部をリング状の第2光学系で構成する。第2光学系については、反射望遠レンズで構成する。
 (22)第1光学系フォーカシング制御部は、第1光学系のフォーカス位置を正弦波状に変位させて周期的に走査させる、上記(17)から(21)のいずれか一の撮像装置。
 本態様によれば、フォーカス位置が正弦波状に変位して周期的に走査される。この場合、往路及び復路の双方で走査される。
 (23)第1光学系フォーカシング制御部は、第1光学系のフォーカス位置をノコギリ波状に変位させて周期的に走査させる、上記(17)から(21)のいずれか一の撮像装置。
 本態様によれば、フォーカス位置がノコギリ波状に変位して周期的に走査される。この場合、往路のみで走査される。
 (24)第1光学系で撮像された動画像又は静止画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する合焦画像抽出部を更に備えた、上記(17)から(23)のいずれか一の撮像装置。
 本態様によれば、合焦画像を抽出する合焦画像抽出部が備えられる。合焦画像抽出部は、記録部に記録された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する。
 (25)上記(8)の撮像装置と、撮像装置から複数枚の合焦画像を取得し、取得した複数枚の合焦画像を繋ぎ合わせて一枚の合成画像を生成する合成画像生成部と、を備えた画像合成装置。
 本態様によれば、抽出された合焦画像を用いて合成画像が生成される。個々の合焦画像は、それぞれ撮像対象に合焦した高精細な画像であるため、高精細な合成画像を生成できる。また、各合焦画像は、重複領域を有するため、漏れなく合成画像を生成できる。
 (26)撮像装置から複数枚の合焦画像を取得し、取得した複数枚の合焦画像を解析して、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢を推定する撮像条件推定部を更に備え、合成画像生成部は、撮像条件推定部の推定結果に基づいて、各合焦画像を配置し、合成画像を生成する、上記(25)の画像合成装置。
 本態様によれば、撮像により得られた合焦画像群を解析することにより、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢が推定される。合成画像は、その推定結果に基づいて生成される。すなわち、推定された位置及び姿勢に基づいて、各合焦画像を配置することにより生成される。なお、姿勢は光軸の向き及び光軸回りの回転として特定される。
 (27)撮像条件推定部は、取得した複数枚の合焦画像にSfM処理を適用し、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢を推定する、上記(26)の画像合成装置。
 本態様によれば、撮像により得られた合焦画像群にSfM(Structure from Motion)処理を適用することにより、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢が推定される。SfM処理とは、視点の異なる複数枚の画像から被写体の三次元形状、並びに、撮像部の相対的な位置及び姿勢を復元する処理である。
 (28)上記(15)の撮像装置と、撮像装置から複数枚の合焦画像を取得し、取得した複数枚の合焦画像を繋ぎ合わせて一枚の合成画像を生成する合成画像生成部と、を備えた画像合成装置。
 本態様によれば、抽出された合焦画像を用いて合成画像が生成される。個々の合焦画像は、それぞれ撮像対象に合焦した高精細な画像であり、かつ、望遠の画像であるため、高精細な合成画像を生成できる。また、各合焦画像は、重複領域を有するため、漏れなく合成画像を生成できる。
 (29)各合焦画像に対応する第2光学系の画像を撮像装置から取得し、取得した複数枚の第2光学系の画像を解析して、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢を推定する撮像条件推定部を更に備え、合成画像生成部は、撮像条件推定部の推定結果に基づいて、各合焦画像を配置し、合成画像を生成する、上記(28)の画像合成装置。
 本態様によれば、各合焦画像に対応する第2光学系の画像群を解析することにより、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢が推定される。合成画像は、その推定結果に基づいて生成される。すなわち、推定された位置及び姿勢に基づいて、各合焦画像を配置することにより生成される。各合焦画像に対応する第2光学系の画像とは、各合焦画像と同じタイミングで撮像された第2光学系の画像である。動画像であれば、同じフレームの画像であり、静止画像であれば、同じタイミングで撮像された静止画像である。第2光学系で撮像される画像は、第1光学系で撮像される画像よりも広角の画像であるため、解析に必要な特徴点をより多く抽出できる。これにより、より高精度に撮像部の相対的な位置及び姿勢を推定できる。また、これにより、より高精度に合成画像を生成できる。
 (30)撮像条件推定部は、取得した複数枚の第2光学系の画像にSfM処理を適用し、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢を推定する、上記(29)の画像合成装置。
 本態様によれば、撮像により得られた合焦画像群にSfM(Structure from Motion)処理を適用することにより、各合焦画像を撮像した際の撮像部の相対的な位置及び姿勢が推定される。
 本発明によれば、移動しながら合焦した画像を撮像できる。また、高精細な合成画像を生成できる。
撮像装置のシステム構成図 無人航空機の電気的構成を示すブロック図 無人航空機マイコンが実現する主な機能のブロック図 コントローラの電気的構成を示すブロック図 カメラの概略構成を示すブロック図 カメラマイコンが実現する主な機能のブロック図 走査の概念図 撮像中の無人航空機の飛行速度の設定の概念図 合焦画像の抽出の概念図 走査と同時に移動を完了させる場合の無人航空機の飛行速度の設定の概念図 フォーカス位置をノコギリ波状に変位させて周期的に走査する場合の概念図 被写界深度の算出方法の説明図 フォーカシングレンズ群の位置と合焦する被写体距離との関係を示すグラフ カメラの概略構成を示すブロック図 撮像レンズの概略構成図 第1光学系を通る光の光線軌跡を示す図 第2光学系を通る光の光線軌跡を示す図 撮像レンズの駆動系の概略構成を示すブロック図 第1光学系フォーカシング機構によって駆動される第1光学系の動作説明図 イメージセンサの概略構成図 イメージセンサの各画素が対応する光学系からの光を選択的に受光する構成の概念図 カメラマイコンが実現する主な機能のブロック図 撮像中の無人航空機の飛行速度の設定の概念図 走査と同時に移動を完了させる場合の無人航空機の飛行速度の設定の概念図 画像合成装置のシステム構成図 撮像の形態の一例を示す図 合成画像の生成の概念図 コンピュータが実現する機能のブロック図 SfM処理によって出力される結果の一例を示す図
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
 ◆◆撮像装置の第1の実施の形態◆◆
 [撮像装置の装置構成]
 図1は、撮像装置のシステム構成図である。
 同図に示すように、本実施の形態の撮像装置1は、無人航空機10と、その無人航空機10に搭載されるカメラ100と、を備えて構成される。
 《無人航空機》
 無人航空機10は、移動体及び飛行体の一例である。無人航空機10は、いわゆるドローンであり、コントローラ12による操作に基づき大気中を飛行する。
 〈無人航空機の外観構成〉
 無人航空機10は、図1に示すように、本体フレーム14に複数の飛行用のプロペラ16を備えて構成される。
 本体フレーム14は、胴部14Aと、胴部14Aから放射状に延びる4つのアーム部14B(図1では二つのみ図示している)と、胴部14Aから放射状に延びる4つの脚部14C(図1では二つのみ図示している)と、を備えて構成される。
 プロペラ16は、各アーム部14Bの先端に備えられる。したがって、本実施の形態の無人航空機10には、4つのプロペラ16が備えられる(図1では二つのみ図示している)。
 無人航空機10は、プロペラ16を回転させることによって生じる浮力によって大気中を飛行する。無人航空機10は、各プロペラ16の回転を個別に制御することにより、上昇、下降、方向転換等が行われる。また、各プロペラ16の回転を個別に制御することにより、飛行速度が制御される。
 〈無人航空機の電気的構成〉
 図2は、無人航空機の電気的構成を示すブロック図である。
 無人航空機10は、プロペラ駆動モータ20と、モータドライバ22と、センサ部24と、機体側無線通信部26と、機体側有線通信部28と、無人航空機マイコン(マイコン:マイクロコンピュータ)30と、を備える。
 プロペラ駆動モータ20は、プロペラ16の回転駆動手段である。プロペラ駆動モータ20はプロペラ16ごとに備えられる。各プロペラ駆動モータ20の駆動は、モータドライバ22で個別に制御される。各モータドライバ22は、無人航空機マイコン30からの指令に応じて、プロペラ駆動モータ20の駆動を制御する。
 センサ部24は、機体の飛行状態を検出する。センサ部24は、ジャイロセンサ、地磁気センサ、加速度センサ、速度センサ、高度センサ、GPS(Global Positioning System)等の各種センサ類を備えて構成される。センサ部24は、各種センサで検出された機体の飛行状態の情報を無人航空機マイコン30に出力する。
 機体側無線通信部26は、無人航空機マイコン30による制御の下、コントローラ12と無線で通信し、互いに各種信号を送受信する。たとえば、コントローラ12が操作された場合、その操作に基づく制御信号がコントローラ12から無人航空機10に向けて送信される。機体側無線通信部26は、コントローラ12から送信された制御信号を受信し、無人航空機10に出力する。通信の方式は、特に限定されるものではなく、一般的に用いられる通信方式(たとえば、無線LAN(Local Area Network)規格による通信方式、特定省電力無線規格による通信方式、携帯電話網を利用した通信方式等)が使用される。
 機体側有線通信部28は、無人航空機マイコン30による制御の下、カメラ100と有線で通信し、互いに各種信号を送受信する。通信の方式は、特に限定されるものではなく、一般的に用いられる通信方式(たとえば、USB(Universal Serial Bus)規格による通信方式等)が使用される。
 無人航空機マイコン30は、無人航空機10の全体の動作を統括制御する制御部である。無人航空機マイコン30は、CPU(Central Processing Unit/中央処理装置)、ROM(Read Only Memory)、RAM(Random Access Memory)を備え、所定のプログラムを実行することにより各種機能を実現する。プログラムは、ROMに格納される。
 図3は、無人航空機マイコンが実現する主な機能のブロック図である。
 無人航空機マイコン30は、所定のプログラムを実行することにより、移動制御部30a、カメラ制御部30b、機体側無線通信制御部30c、機体側有線通信制御部30d等として機能する。
 移動制御部30aは、モータドライバ22を介して各プロペラ駆動モータ20の駆動を制御することにより、無人航空機10の飛行(移動)を制御する。移動制御部30aは、コントローラ12から送信される制御信号、及び、センサ部24から出力される機体の飛行状態の情報に基づいて、各プロペラ駆動モータ20の駆動を制御し、無人航空機10の飛行を制御する。たとえば、コントローラ12から上昇が指示された場合は、機体が上昇するように、各プロペラ駆動モータ20の駆動を制御する。また、コントローラ12から下降が指示された場合は、機体が下降するように、各プロペラ駆動モータ20の駆動を制御する。更に、コントローラ12から旋回が指示された場合には、指示された方向に機体が旋回するように、各プロペラ駆動モータ20の駆動を制御する。また、撮像中には、機体が所定の速度で飛行するように、各プロペラ駆動モータ20の駆動を制御する。撮像中の機体の飛行制御については、後に詳述する。
 カメラ制御部30bは、コントローラ12から送信される制御信号に基づいて、カメラ100を制御する。たとえば、コントローラ12からの撮像開始指示に応じて、カメラ100に撮像を開始させる。また、コントローラ12からの撮像終了指示に応じて、カメラ100に撮像を終了させる。
 機体側無線通信制御部30cは、機体側無線通信部26を介して、コントローラ12との間の通信を制御する。
 機体側有線通信制御部30dは、機体側有線通信部28を介して、カメラ100との間の通信を制御する。
 〈コントローラの構成〉
 図4は、コントローラの電気的構成を示すブロック図である。
 コントローラ12は、コントローラ操作部12aと、コントローラ表示部12bと、コントローラ側無線通信部12cと、コントローラマイコン12dと、を備える。
 コントローラ操作部12aは、無人航空機10及びカメラ100を操作する各種操作部材を備えて構成される。無人航空機10を操作する操作部材には、たとえば、無人航空機10の上昇、下降を指示する操作部材、無人航空機10の旋回を指示する操作部材等が含まれる。カメラ100を操作する操作部材には、たとえば、撮像開始、撮像終了を指示する操作部材等が含まれる。
 コントローラ表示部12bは、たとえば、LCD(Liquid Crystal Display/液晶ディスプレイ)で構成される。コントローラ表示部12bには、たとえば、無人航空機10の飛行状態の情報が表示される。
 コントローラ側無線通信部12cは、コントローラマイコン12dによる制御の下、無人航空機10と無線で通信し、互いに各種信号を送受信する。
 コントローラマイコン12dは、コントローラ12の全体の動作を統括制御する制御部である。無人航空機マイコン30は、CPU、ROM、RAMを備え、所定のプログラムを実行することにより各種機能を実現する。たとえば、コントローラ操作部12aが操作されると、その操作に応じた制御信号を生成し、コントローラ側無線通信部12cを介して無人航空機10に送信する。また、たとえば、コントローラ側無線通信部12cを介して無人航空機10から飛行状態の情報を取得し、コントローラ表示部12bに表示する。プログラムは、ROMに格納される。
 《カメラ》
 図5は、カメラの概略構成を示すブロック図である。
 カメラ100は、撮像部の一例であり、単眼カメラで構成される。カメラ100は、雲台を介して、無人航空機10に搭載される。雲台によって撮像方向が調整される。
 カメラ100は、コントローラ12からの撮像の指示に応じて、動画像を連続的に撮像する。図5に示すように、カメラ100は、撮像レンズ110、イメージセンサ120、アナログ信号処理部122、記録部124、カメラ側有線通信部126、カメラマイコン128等を備えて構成される。
 撮像レンズ110は、単焦点レンズで構成され、絞り112及びフォーカシング機構を備える。
 絞り112は、たとえばアイリス絞りで構成される。絞り112は、その駆動手段として絞りモータ114を備える。絞り112は、絞りモータ114を駆動することにより、開口量が可変する。
 フォーカシング機構は、撮像レンズ110を構成する複数のレンズ群の一部を光軸Lに沿って前後移動させることにより、撮像レンズ110のフォーカス位置を変位させる。具体的には、フォーカシングレンズ群110fを光軸Lに沿って前後移動させることにより、撮像レンズ110のフォーカス位置を変位させる。フォーカシング機構は、フォーカシングレンズ群110fを光軸Lに沿って移動自在に支持する支持部(不図示)と、フォーカシングレンズ群110fを光軸Lに沿って移動させるフォーカシングモータ116と、を備えて構成される。フォーカシングモータ116は、たとえばリニアモータで構成される。
 撮像レンズ110は、フォーカシングレンズ群110fの位置を検出する手段として、フォトインタラプタ118a及びMRセンサ(MRセンサ:Magneto Resistive Sensor/磁気抵抗効果素子)118bを備える。フォトインタラプタ118aは、フォーカシングレンズ群110fが、あらかじめ定められた原点に位置したことを検出する。MRセンサ118bは、フォーカシングレンズ群110fの変位量を検出する。フォトインタラプタ118aによってフォーカシングレンズ群110fが原点に位置したことを検出し、原点からの変位量をMRセンサ118bで検出することにより、原点に対するフォーカシングレンズ群110fの位置を検出できる。フォトインタラプタ118a及びMRセンサ118bの検出結果は、カメラマイコン128に出力される。カメラマイコン128は、フォトインタラプタ118a及びMRセンサ118bの出力に基づいて、フォーカシングレンズ群110fの位置を検出する。
 イメージセンサ120は、撮像レンズ110で結像される像を撮像する。イメージセンサ120は、たとえば、所定のカラーフィルタ配列を有するCMOS(CMOS: Complementary Metal Oxide Semiconductor)、CCD(CCD: Charged Coupled Device)等の固体撮像素子で構成される。
 アナログ信号処理部122は、イメージセンサ120から出力される画素ごとのアナログの画像信号を取り込み、所定の信号処理(たとえば、相関二重サンプリング処理、ゲイン調整等)を施した後、デジタル信号に変換して出力する。アナログ信号処理部122から出力されたデジタルの画像信号は、カメラマイコン128に取り込まれる。
 記録部124は、各種データの記録部である。撮像された画像データは、記録部124に記録される。記録部124は、たとえば、SSD(solid state drive)などの不揮発性メモリを使用したストレージデバイスで構成される。
 カメラ側有線通信部126は、カメラマイコン128による制御の下、無人航空機10と有線で通信し、互いに各種信号を送受信する。
 カメラマイコン128は、カメラ100の全体の動作を統括制御する制御部である。カメラマイコン128は、CPU、ROM、RAMを備え、所定のプログラムを実行することにより各種機能を実現する。プログラムは、ROMに格納される。
 図6は、カメラマイコンが実現する主な機能のブロック図である。
 同図に示すように、カメラマイコン128は、所定のプログラムを実行することにより、デジタル信号処理部128a、記録制御部128b、カメラ側有線通信制御部128c、撮像制御部128d、絞り制御部128e、フォーカシング制御部128f、レンズ位置検出部128g等として機能する。
 デジタル信号処理部128aは、アナログ信号処理部122から出力されたアナログの画像信号を取り込み、所定の信号処理(たとえば、色補間、色分離、色バランス調整、ガンマ補正、画像強調処理等)を施して、画像データを生成する。
 記録制御部128bは、記録部124へのデータの読み書き制御する。撮像により得られた画像データは、記録制御部128bにより記録部124に記録される。
 カメラ側有線通信制御部128cは、カメラ側有線通信部126を介して、無人航空機10との間の通信を制御する。
 撮像制御部128dは、イメージセンサドライバ120aを介してイメージセンサ120の駆動を制御する。より具体的には、所定のフレームレートで動画像が撮像されるように、イメージセンサ120の駆動を制御する。
 絞り制御部128eは、絞りモータドライバ114aを介して絞りモータ114の駆動を制御する。より具体的には、絞り112が、所定の絞り値(開口量)となるように、絞りモータ114の駆動を制御する。絞り値は、イメージセンサ120から得られる信号に基づいて設定される。すなわち、適正露出となるように、絞り値が設定される。
 フォーカシング制御部128fは、フォーカシングモータドライバ116aを介してフォーカシングモータ116の駆動を制御する。具体的には、フォーカス位置が周期的に走査されるように、フォーカシングモータ116の駆動を制御する。
 ここで、フォーカス位置の「走査」とは、あらかじめ定められた範囲内において、フォーカス位置を一端から他端まで変位させる動作をいう。また、「周期的に走査」とは、一定の周期で走査を繰り返し実施することをいう。
 本実施の形態のカメラ100では、フォーカス位置を至近端と無限遠端との間で正弦波状に変位させて、周期的に走査させる。
 図7は、走査の概念図である。同図において、縦軸はフォーカス位置を示し、横軸は時間を示している。
 同図に示すように、フォーカス位置が至近端と無限遠端との間で正弦波状に変位する。この場合、往路と復路の双方で走査される。すなわち、至近端の位置から無限遠端の位置に向かう方向での走査(往路での走査)と、無限遠端の位置から至近端の位置に向かう方向での走査(復路での走査)とが、周期的に繰り返して行われる。往路での走査と、復路での走査が、それぞれ一回の走査となる。したがって、この場合、往復で二回走査される。
 レンズ位置検出部128gは、フォトインタラプタ118a及びMRセンサ118bの出力に基づいて、フォーカシングレンズ群110fの位置を検出する。
 フォーカシング制御部128fは、フォーカシングレンズ群110fの位置に基づいて、フォーカシングモータ116の駆動を制御し、フォーカス位置を周期的に走査させる。
 [撮像装置の作用]
 《基本動作》
 〈無人航空機の基本動作〉
 無人航空機10は、コントローラ12の操作に基づいて大気中を飛行する。具体的には、コントローラ12による上昇の指示に応じて上昇し、下降の指示に応じて下降する。また、旋回の指示に応じて指示された方向に旋回する。
 〈カメラの基本動作〉
 カメラ100もコントローラ12の操作に基づいて撮像する。すなわち、コントローラ12による撮像開始の指示に応じて、動画像の撮像を開始する。また、コントローラ12による撮像終了の指示に応じて、動画像の撮像を終了する。撮像開始から撮像終了が指示されるまでの間、連続的に動画像が撮像される。撮像された動画像は、記録部124に記録される。
 撮像中はフォーカス位置が周期的に走査される。すなわち、至近端と無限遠端との間でフォーカス位置が正弦波状に変位させられて、周期的にフォーカス位置が走査される。これにより、走査するたびに少なくとも一枚、合焦したフレームの画像を撮像できる。
 〈撮像中の無人航空機の動作〉
 撮像中、無人航空機10は、高度をほぼ一定に保って飛行する。したがって、撮像中の操作は旋回のみが可能になる。
 移動制御部30aとして機能する無人航空機マイコン30は、センサ部24からの出力に基づいて、各プロペラ駆動モータ20の駆動を制御し、高度をほぼ一定に保って飛行(ホバリングを含む)する。
 また、無人航空機10は、撮像中、次のように、速度が制御されて飛行する。すなわち、撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査されるように、飛行速度が制御される。
 図8は、撮像中の無人航空機の飛行速度の設定の概念図である。
 いま、一定の高度から真下に向けて撮像する場合を考える。この場合、カメラ100によって画角θの範囲が撮像される。
 無人航空機10の移動方向における撮像範囲の幅をXとする。この場合、無人航空機10は、距離X移動する間に少なくとも一回走査される速度に設定される。
 図8は、距離X移動する間に二回走査される速度に設定した場合の例を示している。この場合、一回の走査に要する時間をTとすると、無人航空機10の速度Vは、V=X/2Tと設定される。
 撮像範囲は、画角θ及び被写体距離から算出できる。被写体距離は、無人航空機10の高度からおおよその値を取得できる。すなわち、撮像中、無人航空機10は、高度がほぼ一定に保たれるので、無人航空機10の高度から、おおよその被写体距離を推定できる。したがって、撮像範囲は、おおよその値を事前に取得できる。また、事前に取得した撮像範囲から上記条件を満たすための無人航空機10の速度を設定できる。すなわち、撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査するための速度を設定できる。本例では、二回走査する速度に設定する。移動制御部30aとして機能する無人航空機10の無人航空機マイコン30は、撮像中、設定された速度で移動するように、各プロペラ駆動モータ20の駆動を制御する。
 《撮像された画像の処理》
 撮像により得られた動画像は、記録部124に記録される。この動画像は、フォーカス位置が周期的に変動した動画像となる。フォーカス位置は、一回の走査で至近端の位置から無限遠端の位置まで変位する。したがって、走査ごとに少なくとも一枚は合焦したフレームの画像を取得できる。
 撮像により得られた動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を抽出することにより、走査単位で合焦画像を抽出できる。
 図9は、合焦画像の抽出の概念図である。
 撮像により得られた動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を抽出する。具体的には、各フレームを構成する画像FIの鮮鋭度を求め、最も鮮鋭度の高いフレームの画像FImaxを走査単位で抽出する。この処理は、カメラ100で行ってもよいし、専用の画像処理装置で行ってもよい。
 カメラ100で行う場合は、カメラマイコン128に上記処理を行う機能を実現させる。この場合、カメラマイコン128は、所定のプログラムを実行することにより、合焦画像抽出部として機能し、上記処理を実行する。なお、合焦画像の抽出は、リアルタイムに行ってもよいし、撮像終了後にまとめて実施してもよい。リアルタイムに実施する場合は、走査が終了するたびに合焦画像の抽出処理を実施する。
 専用の画像処理装置で行う場合は、たとえば、コンピュータを画像処理装置として機能させる。すなわち、コンピュータに所定のプログラムを実行させて、上記処理を行う装置として機能させる。
 [変形例]
 《無人航空機の速度の設定》
 上記のように、撮像中の無人航空機10の速度は、カメラ100の撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度に設定される。これにより、重なりを持って合焦画像を撮像できる。
 一方、撮像の効率を考慮すると、撮像中の無人航空機10の速度は、撮像範囲分ずれた位置に移動すると同時に一回の走査が完了する速度に設定することが好ましい。これにより、所望の範囲を短時間で撮像できる。
 図10は、走査と同時に移動を完了させる場合の無人航空機の飛行速度の設定の概念図である。
 無人航空機10の移動方向におけるカメラ100の撮像範囲の幅をXとすると、無人航空機10が、距離X移動すると同時に一回の走査が完了するように、無人航空機10の速度が設定される。この場合、一回の走査にかかる時間をTとすると、無人航空機10の速度Vは、V=X/Tと設定される。
 なお、ここでの「同時」は、厳密な同時性を要求するものではなく、ほぼ同時とみなせる範囲を含むものである。したがって、若干のずれは許容される。無人航空機10の速度は、撮像範囲分ずれた位置に移動するのとほぼ同じタイミングで一回の走査が完了する速度に設定すればよい。
 また、実際は、重ね合わせを考慮する必要があるので、無人航空機10が、撮像範囲分ずれた位置に移動するよりも若干速く一回の走査が完了する速度に設定される。
 なお、無人航空機10の移動方向におけるカメラ100の撮像範囲の幅Xは、無人航空機10の移動方向に応じて変化する。したがって、任意に方向転換しながら撮像する場合は、無人航空機10の移動方向に応じて、速度を修正することが好ましい。
 また、カメラ100の向き(撮像方向)を変えた場合にも撮像範囲は変動するので、カメラ100の向きに応じて、速度を修正することがより好ましい。
 一定の速度で飛行しながら撮像する場合は、撮像範囲の短辺方向の幅分ずれた位置に移動するまでの間に少なくとも一回走査される速度に設定する。これにより、任意の方向に飛行しながら撮像する場合であっても、重なり合う合焦画像を撮像できる。この場合の最大速度は、撮像範囲の短辺方向の幅分ずれた位置に移動すると同時に一回の走査が完了する速度である。
 《飛行速度の調整》
 上記のように、撮像中、無人航空機10は、ほぼ一定の高度を保って飛行する。しかし、風等の影響で必ずしも一定の高度で飛行できない場合もある。
 無人航空機10が、高度センサ等の高度測定手段を備えている場合には、その高度測定手段から高度の情報を取得し、飛行速度を調整することが好ましい。調整は、たとえば、次の手順で行う。まず、高度の情報を取得する。次に、取得した高度の情報に基づいて、被写体距離を推定する。次に、推定した被写体距離及び画角から現在の撮像範囲を算出する。算出した現在の撮像範囲の情報に基づいて、無人航空機10の速度を補正する。画角が一定の場合、高度が低下すると(=被写体距離が短くなると)、撮像範囲が狭くなるので、飛行速度を遅くする。一方、高度が上昇すると(=被写体距離が長くなると)、撮像範囲が広くなるので、飛行速度を速くする。
 このように、無人航空機10の高度に応じて、飛行速度を調整することにより、不安定な環境下でも適切に撮像できる。
 なお、被写体距離及び画角から撮像範囲を算出する処理、並びに、算出した撮像範囲から速度の補正量を算出し、飛行速度を補正する処理は、たとえば、無人航空機マイコン30が行う。この場合、無人航空機マイコン30が、撮像範囲算出部及び飛行速度補正部として機能する。撮像範囲算出部は、現在の高度の情報を被写体距離の情報として取得し、取得した被写体距離の情報及び画角に基づいて、現在の撮像範囲を算出する。飛行速度補正部は、算出された撮像範囲に基づいて、飛行速度を補正する。たとえば、撮像範囲の変化量に応じた補正量で飛行速度を補正する。
 被写体距離は、撮像画像から求めることもできる。すなわち、合焦画像が撮像された際のフォーカス位置が分かれば、そのフォーカス位置の情報から被写体距離を求めることができるので、撮像画像から被写体距離を求めることができる。撮像画像から被写体距離を求める場合は、たとえば、次のように処理する。まず、一回の走査が終了した段階で一回の走査分の画像データを取得する。次に、取得した画像データを解析し、合焦画像を抽出する。次に、合焦画像を抽出した際のフォーカス位置を特定する。次に、特定したフォーカス位置に基づいて、被写体距離を特定する。この処理を一回の走査が完了するたびに実施することにより、被写体距離を逐次検出できる。
 撮像画像から被写体距離を検出する処理は、カメラ100で行ってもよいし、無人航空機10で行ってもよい。カメラ100が行う場合は、カメラマイコン128が被写体距離検出部として機能する。また、無人航空機10が行う場合は、無人航空機マイコン30が被写体距離検出部として機能する。無人航空機マイコン30が被写体距離検出部と機能する場合は、カメラ100から画像データを取得して処理する。
 《走査の形態》
 〈走査の波形〉
 上記実施の形態では、フォーカス位置を正弦波状に変位させて周期的に走査させる構成としているが、走査の形態は、これに限定されるものではない。この他、たとえば、フォーカス位置をノコギリ波状に変位させて周期的に走査させる構成としてもよい。
 図11は、フォーカス位置をノコギリ波状に変位させて周期的に走査する場合の概念図である。同図において、縦軸はフォーカス位置を示し、横軸は時間を示している。
 同図に示すように、フォーカス位置が至近端と無限遠端との間でノコギリ波状に変位して、周期的に走査される。
 〈フォーカス位置の変位の形態〉
 また、上記実施の形態では、フォーカス位置を連続的に変位させているが、間欠的に変位させてもよい。この場合、変位の周期と撮像の周期とを合わせることが好ましい。たとえば、動画像の撮像では、フレームレートと同じ周期で変位させる。また、静止画像の撮像では、静止画像の撮像間隔と同じ間隔で変位させる。
 また、フォーカス位置を間欠的に変位させる場合、変位量は被写界深度を考慮して設定することが好ましい。以下、被写界深度を考慮した変位量の設定について説明する。
 図12は、被写界深度の算出方法の説明図である。
 被写界深度とは、焦点が合っているように見える被写体側の距離の範囲のことである。撮像レンズにおいて、ある一つの設定で厳密な意味で焦点が合う場所は、一つの平面上にしかない。しかし、一定の許容量を認めることで、その前後にも十分にはっきりと像を結んでいるといえる範囲がある。
 前側の被写界深度を前側被写界深度Df、後側の被写界深度を後側被写界深度Dbとすると、前側被写界深度Df及び後側被写界深度Dbは、次式により算出される。
 前側被写界深度Df=(許容錯乱円径×F値×被写体距離)/(焦点距離+許容錯乱円径×F値×被写体距離)
 後側被写界深度Db=(許容錯乱円径×F値×被写体距離)/(焦点距離-許容錯乱円径×F値×被写体距離)
 上式より明らかなように、被写界深度は、許容錯乱円径、F値、被写体距離、焦点距離をパラメータとして算出される。
 ここで、錯乱円とは、撮像レンズにより点が結像された際の円形の像であり、イメージセンサがボケとして認識できない最小の大きさを特に許容錯乱円径という。許容錯乱円径は、イメージセンサの画素ピッチあるいはエアリーディスク径といわれるレンズの光学的な結像限界で決まり、画素ピッチあるいはエアリーディスク径の大きい方が許容錯乱円径となる。
 いま、撮像レンズのフォーカス位置を変位させた場合、すなわち、像距離をbからb+Δbに変位させた場合を考える。この場合、合焦する被写体距離が変わる。すなわち、合焦する被写体距離がaからa+Δaに変化する。
 フォーカス位置の変位量(Δb)は、合焦する被写体距離の変化量Δaが、前側被写界深度Df及び後側被写界深度Dbを超えないように設定する。
 このように被写界深度を考慮してフォーカス位置の変位量を設定し、変位に同期させて撮像することにより、いずれかのフレームで必ず合焦した画像を撮像できる。
 〈走査の設定例〉
 対象から1000mm離れた位置から水平に移動しながら撮像する場合において、±50mmの範囲で合焦する画像を撮像する場合を考える。
 カメラの仕様は、次のとおりとする。
  撮像レンズの焦点距離:f=42mm
  撮像レンズのF値:F=1.4
  イメージセンサの画素ピッチ:7.1um 
 図13は、フォーカシングレンズ群の位置と合焦する被写体距離との関係を示すグラフである。
 同図に示すように、±50mmの範囲で合焦する画像を撮像するには、フォーカシングレンズ群をイメージセンサの撮像面から46.1mm~45.9mmの範囲で変位させればよい。変位量は、被写界深度の幅を超えないギリギリの細かさで設定する。
 フォーカス位置を正弦波状に変位させて走査する場合は、1周期を52コマ以上のフレーム数で撮像すればよい。換言すると、カメラ側のフレームレートが30コマ/秒の場合には、走査の一周期を52/30=1.73秒以上とすれば、 被写界深度の空白範囲を生じさせずに撮像できる。
 フォーカス位置をノコギリ波状に変位させて走査する場合は、46.1~45.9mmを等速走査しながら一回を19コマ以上のフレーム数で撮像すればよい。換言すると、カメラ側のフレームレートが30コマ/秒の場合には1回の走査に19/30=0.63秒以上をかければ、 被写界深度の空白範囲を生じさせずに撮像できる。
 《無人航空機の飛行》
 無人航空機10は、あらかじめ定められたルートを自動で飛行する構成としてもよい。この場合、コントローラ12は不要となる。無人航空機10は、各種センサの情報に基づいて自律制御しながら、決められたルートを飛行する。なお、この場合も飛行速度は、上記条件の下で設定される。
 《カメラによる撮像》
 上記実施の形態では、撮像指示に応じて動画像を連続的に撮像する構成としているが、静止画像を周期的に撮像する構成としてもよい。「静止画を周期的に撮像する」とは、撮像開始が指示されてから撮像終了が指示されるまでの間、静止画を一定の周期で繰り返し撮像することをいう。
 《フォーカシング機構》
 上記実施の形態では、撮像レンズを構成するレンズ群の一部を移動させて、フォーカス位置を変位させる構成としているが、フォーカス位置を変位させる構成、すなわち、フォーカシング機構の構成は、これに限定されるものではない。この他、たとえば、撮像レンズの全体、すなわち、レンズ群の全部を光軸Lに沿って移動させて、フォーカス位置を変位させる構成とすることもできる。また、撮像レンズは固定とし、イメージセンサを光軸に沿って前後移動させて、フォーカス位置を変位させる構成とすることもできる。
 《その他》
 無人航空機10とカメラ100との間の通信の形態は、特に限定されず、無線で通信する形態としてもよい。
 ◆◆撮像装置の第2の実施の形態◆◆
 [撮像装置の装置構成]
 本実施の形態の撮像装置も無人航空機と、その無人航空機に搭載されるカメラと、を備えて構成される点で上記第1の実施の形態の撮像装置と共通する。ただし、撮像部であるカメラの構成が異なる。本実施の形態の撮像装置のカメラは、画角の異なる二つの画像を同軸上で同時に撮像できる二眼カメラで構成される。
 カメラ以外の構成は、上記第1の実施の形態の撮像装置と実質的に同じなので、ここでは、カメラの構成についてのみ説明する。
 [カメラの構成]
 図14は、カメラの概略構成を示すブロック図である。
 カメラ200は、撮像部の一例である。カメラ200は、撮像レンズ300、イメージセンサ210、アナログ信号処理部230、記録部232、カメラ側有線通信部234、カメラマイコン236等を備えて構成される。
 《撮像レンズ》
 図15は、撮像レンズの概略構成図である。
 撮像レンズ300は、画角の異なる二つの画像を同時に撮影するため、二つの光学系(第1光学系310及び第2光学系320)を有する。第1光学系310及び第2光学系320は、同軸上で撮像するため、同じ光軸Lを有する。特に、本実施の形態の撮像レンズ300は、第1光学系310及び第2光学系320が同心状に配置される。また、第1光学系310及び第2光学系320は、画角の異なる画像を撮像するため、異なる焦点距離を有する。本実施の形態では、第1光学系310が望遠の光学系で構成され、第2光学系320が、第1光学系310よりも焦点距離の短い広角の光学系で構成される。
 〈第1光学系〉
 第1光学系310は、望遠の光学系で構成される。特に、本実施の形態では、第1光学系310が、反射望遠型の光学系で構成される。
 図15に示すように、第1光学系310は、被写体側から順に第1光学系第1レンズ310a、第1光学系第1ミラー310b、第1光学系第2ミラー310c、第1光学系絞り310d、共通レンズ330が配置されて構成される。第1光学系第1レンズ310a、第1光学系第1ミラー310b、第1光学系第2ミラー310c及び第1光学系絞り310dは、それぞれリング形状を有する。
 第1光学系第1ミラー310bは、反射望遠光学系の主鏡を構成し、第1光学系第1レンズ310aを通過した光を第1光学系第2ミラー310cに向けて反射する。
 第1光学系第2ミラー310cは、反射望遠光学系の副鏡を構成し、第1光学系第1ミラー310bで反射された光を共通レンズ330に向けて反射する。
 第1光学系絞り310dは、第1光学系第2ミラー310cから共通レンズ330に入射する光の量を調整する。第1光学系絞り310dは、複数枚の絞り羽根をリング状に組み合わせて構成され、その外径を拡縮させて光量を調整する。
 共通レンズ330は、最終のレンズである。第1光学系310に入射した光は共通レンズ330から出射して、イメージセンサ210に入射する。共通レンズ330は、第2光学系320と共用される。
 図16は、第1光学系を通る光の光線軌跡を示す図である。
 同図に示すように、光は、第1光学系第1レンズ310a、第1光学系第1ミラー310b、第1光学系第2ミラー310c、第1光学系絞り310d、共通レンズ330を介してイメージセンサ210に入射する。
 〈第2光学系〉
 第2光学系320は、広角の光学系で構成される。特に、本実施の形態では、第2光学系320が、パンフォーカスでの撮像が可能な固定焦点の光学系で構成される。
 図15に示すように、第2光学系320は、被写体側から順に第2光学系第1レンズ320a、第2光学系第2レンズ320b、第2光学系絞り320c、第2光学系第3レンズ320d、第2光学系第4レンズ320e、共通レンズ330が配置される。各光学要素は、第1光学系310の内周部同軸上に配置される。第2光学系320は固定焦点であるため、各光学要素(共通レンズ330を含む)は、一定位置に固定して配置される。第2光学系絞り320cも固定絞りで構成され、一定位置に固定して配置される。
 図17は、第2光学系を通る光の光線軌跡を示す図である。
 光は、第2光学系第1レンズ320a、第2光学系第2レンズ320b、第2光学系絞り320c、第2光学系第3レンズ320d、第2光学系第4レンズ320e、共通レンズ330を介してイメージセンサ210に入射する。
 〈撮像レンズの駆動系〉
 図18は、撮像レンズの駆動系の概略構成を示すブロック図である。
 上記のように、第2光学系320は、固定焦点、固定絞りであるため、駆動系は、第1光学系310についてのみ備えられる。
 第1光学系310は、そのフォーカス位置を調整するための機構として、第1光学系フォーカシング機構を備える。
 第1光学系フォーカシング機構は、第1光学系310の一部の光学要素を軸に沿って前後移動させることにより、フォーカス位置を変位させる。
 図19は、第1光学系フォーカシング機構によって駆動される第1光学系の動作説明図である。同図(A)は、可動部を被写体側に移動させた状態を示し、同図(B)は、可動部を像面側に移動させた状態を示している。
 図19に示すように、第1光学系フォーカシング機構は、第1光学系310を構成する第1光学系第1レンズ310a、第1光学系第1ミラー310b、第1光学系第2ミラー310c及び第1光学系絞り310dを一体的に移動させて、フォーカス位置を変位させる。
 第1光学系フォーカシング機構は、第1光学系第1レンズ310a、第1光学系第1ミラー310b、第1光学系第2ミラー310c及び第1光学系絞り310d(以下、第1光学系可動部という。)を軸に沿って一体的に移動自在に支持する支持部(不図示)と、その第1光学系可動部を軸に沿って移動させる第1光学系フォーカシングモータ340と、を備えて構成される。第1光学系フォーカシングモータ340は、たとえばリニアモータで構成される。カメラマイコン236は、第1光学系フォーカシングモータドライバ340aを介して第1光学系フォーカシングモータ340の駆動を制御する。
 第1光学系310は、第1光学系可動部の位置を検出する手段として、第1光学系フォトインタラプタ342a及び第1光学系MRセンサ342bを備える。第1光学系フォトインタラプタ342aは、第1光学系可動部が、あらかじめ定められた原点に位置したことを検出する。第1光学系MRセンサ342bは、第1光学系可動部の変位量を検出する。第1光学系フォトインタラプタ342aによって第1光学系可動部が原点に位置したことを検出し、原点からの変位量を第1光学系MRセンサ342bで検出することにより、原点に対する第1光学系可動部の位置を検出できる。第1光学系フォトインタラプタ342a及び第1光学系MRセンサ342bの検出結果は、カメラマイコン236に出力される。カメラマイコン236は、第1光学系フォトインタラプタ342a及び第1光学系MRセンサ342bの出力に基づいて、第1光学系可動部の位置を検出する。
 第1光学系絞り310dは、第1光学系絞りモータ344に駆動される。カメラマイコン236は、第1光学系絞りドライバ344aを介して第1光学系絞りモータ344の駆動を制御する。
 《イメージセンサ》
 イメージセンサ210は、第1光学系310を通過した光と第2光学系320を通過した光とを選択的に受光する画素がマトリックス状に配列された指向性センサで構成される。
 図20は、イメージセンサの概略構成図である。
 同図に示すように、イメージセンサ210は、第1光学系310を通過した光を選択的に受光する第1画素212A及び第2光学系320を通過した光を選択的に受光する第2画素212Bを有する。第1画素212A及び第2画素212Bは、同一平面上に交互に配置される。
 図21は、イメージセンサの各画素が対応する光学系からの光を選択的に受光する構成の概念図である。
 同図に示すように、各画素は、フォトダイオード214と、マイクロレンズ216と、遮光マスク218と、を備えて構成される。
 マイクロレンズ216は、フォトダイオード214の前方に配置される。マイクロレンズ216は、第1光学系310及び第2光学系320の瞳像をフォトダイオード214に結像させる。
 遮光マスク218は、マイクロレンズ216とフォトダイオード214との間に配置される。遮光マスク218は、マイクロレンズ216を通過した光の一部を遮光する。第1画素212Aの遮光マスク218は、第2光学系320を通過した光L2を遮光する形状を有する。具体的には、円形状を有する。第2画素212Bの遮光マスク218は、第1光学系310を通過した光L1を遮光する形状を有する。具体的には、リング形状を有する。
 以上の構成により、第1画素212Aは、第1光学系310を通過した光L1を選択的に受光し、第2画素212Bは第2光学系320を通過した光L2を選択的に受光する。したがって、第1画素212Aの画像信号を取得することにより、第1光学系310を介して得られる画像Im1の画像信号を取得でき、第2画素212Bの画像信号を取得することにより、第2光学系320を介して得られる画像Im2の画像信号を取得できる。
 本実施の形態の撮像レンズ300は、第1光学系310が望遠の光学系で構成され、第2光学系320が広角の光学系で構成される。したがって、第1光学系310の画像Im1は、望遠の画像となり、第2光学系320の画像Im2は、広角の画像となる。また、各光学系の画像は同軸上で撮像されるため、第1光学系310の画像Im1は、第2光学系320の画像Im2の中央部分を拡大した画像となり、視差のない画像となる。
 なお、カラー画像を取得する場合には、第1画素212A及び第2画素212Bにカラーフィルタが備えられる。カラーフィルタは規定の配列で配置される。たとえば、赤(R)、緑(G)、青(B)の3色からなるカラーフィルタがベイヤー配列で配置される。これにより、カラー画像を取得できる。
 《アナログ信号処理部》
 アナログ信号処理部230は、イメージセンサ210から出力される画素ごとのアナログの画像信号を取り込み、所定の信号処理を施した後、デジタル信号に変換して出力する。アナログ信号処理部230から出力されたデジタルの画像信号は、カメラマイコン236に取り込まれる。
 《記録部》
 記録部232は、各種データの記録部である。撮像された画像データは、記録部232に記録される。なお、本実施の形態のカメラ200は、一回の撮像で二つ画像が同時に撮像されるので、一回の撮像で二つの画像が記録される。具体的には、第1光学系310で撮像された画像データと、第2光学系320で撮像された画像データとが記録される。
 《カメラ側有線通信部》
 カメラ側有線通信部234は、カメラマイコン236による制御の下、無人航空機10と有線で通信し、互いに各種信号を送受信する。
 《カメラマイコン》
 カメラマイコン236は、カメラ200の全体の動作を統括制御する制御部である。カメラマイコン236は、CPU、ROM、RAMを備え、所定のプログラムを実行することにより各種機能を実現する。プログラムは、ROMに格納される。
 図22は、カメラマイコンが実現する主な機能のブロック図である。
 同図に示すように、カメラマイコン236は、所定のプログラムを実行することにより、デジタル信号処理部236a、記録制御部236b、カメラ側有線通信制御部236c、撮像制御部236d、第1光学系絞り制御部236e、第1光学系フォーカシング制御部236f、第1光学系レンズ位置検出部236g等として機能する。
 デジタル信号処理部236aは、アナログ信号処理部230から出力されたアナログの画像信号を取り込み、所定の信号処理を施して、画像データを生成する。この際、デジタル信号処理部236aは、イメージセンサ210の第1画素212Aの画像信号に基づいて、第1画像データを生成し、第2画素212Bの画像信号に基づいて、第2画像データを生成する。第1画像データは、第1光学系310を介して撮像される第1画像の画像データであり、第2画像データは、第2光学系320を介して撮像される第2画像の画像データである。
 記録制御部236bは、記録部232へのデータの読み書き制御する。撮像により得られた画像データ(第1画像データ及び第2画像データ)は、記録制御部236bにより記録部232に記録される。
 カメラ側有線通信制御部236cは、カメラ側有線通信部234を介して、無人航空機10との間の通信を制御する。
 撮像制御部236dは、イメージセンサドライバ210aを介してイメージセンサ210の駆動を制御する。より具体的には、所定のフレームレートで動画像が撮像されるように、イメージセンサ210の駆動を制御する。
 第1光学系絞り制御部236eは、第1光学系絞りドライバ344aを介して第1光学系絞りモータ344の駆動を制御する。
 第1光学系フォーカシング制御部236fは、第1光学系フォーカシングモータドライバ340aを介して第1光学系フォーカシングモータ340の駆動を制御する。具体的には、第1光学系310のフォーカス位置が周期的に走査されるように、第1光学系フォーカシングモータ340の駆動を制御する。本実施の形態のカメラ200では、第1光学系310のフォーカス位置を至近端と無限遠端との間で正弦波状に変位させて、周期的に走査させる(図7参照)。
 第1光学系レンズ位置検出部236gは、第1光学系フォトインタラプタ342a及び第1光学系MRセンサ342bの出力に基づいて、第1光学系可動部の位置を検出する。
 第1光学系フォーカシング制御部236fは、第1光学系可動部の位置に基づいて、第1光学系フォーカシングモータ340の駆動を制御し、フォーカス位置を周期的に走査させる。
 [撮像装置の作用]
 《基本動作》
 〈無人航空機の基本動作〉
 無人航空機10は、コントローラ12の操作に基づいて大気中を飛行する。具体的には、コントローラ12による上昇の指示に応じて上昇し、下降の指示に応じて下降する。また、旋回の指示に応じて指示された方向に旋回する。
 〈カメラの基本動作〉
 カメラ200もコントローラ12の操作に基づいて撮像する。すなわち、コントローラ12による撮像開始の指示に応じて、動画像の撮像を開始する。また、コントローラ12による撮像終了の指示に応じて、動画像の撮像を終了する。撮像開始から撮像終了が指示されるまでの間、連続的に動画像が撮像される。
 ここで、本実施の形態のカメラ200では、第1光学系310による動画像と、第2光学系320による動画像とが同軸上で同時に撮像される。第1光学系310による動画像は望遠の動画像であり、第2光学系320による動画像は広角の動画像である。両者は、視差のない動画像となる。第1光学系310で撮像された動画像と、第2光学系320で撮像された動画像は、それぞれ記録部232に記録される。
 撮像中、第1光学系310については、フォーカス位置が周期的に走査される。すなわち、至近端と無限遠端との間でフォーカス位置が正弦波状に変位させられて、周期的にフォーカス位置が走査される。これにより、第1光学系310については、一回走査するたびに少なくとも一枚、合焦したフレームの画像を撮像できる。
 なお、第2光学系320による撮像は、固定焦点での撮像であり、パンフォーカスでの撮像である。
 〈撮像中の無人航空機の動作〉
 撮像中、無人航空機10は、高度をほぼ一定に保って飛行する。したがって、撮像中の操作は旋回のみが可能になる。
 移動制御部30aとして機能する無人航空機マイコン30は、センサ部24からの出力に基づいて、各プロペラ駆動モータ20の駆動を制御し、高度をほぼ一定に保って飛行する。
 また、無人航空機10は、撮像中、次のように、速度が制御されて飛行する。すなわち、第1光学系310による撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査されるように、飛行速度が制御される。
 図23は、撮像中の無人航空機の飛行速度の設定の概念図である。
 いま、一定の高度から真下に向けて撮像する場合を考える。この場合、第1光学系310によって画角θ1の範囲が撮像され、第2光学系320によって画角θ2の範囲が撮像される。
 無人航空機10の移動方向における第1光学系310の撮像範囲の幅をX1、第2光学系320の撮像範囲の幅をX2とする。この場合、無人航空機10は、距離X1移動する間に少なくとも一回走査される速度に設定される。
 図23は、距離X1移動する間に二回走査される速度に設定した場合の例を示している。この場合、一回の走査に要する時間をTとすると、無人航空機10の速度Vは、V=X/2Tと設定される。移動制御部30aとして機能する無人航空機10の無人航空機マイコン30は、撮像中、設定された速度で移動するように、各プロペラ駆動モータ20の駆動を制御する。
 《撮像された画像の処理》
 第1光学系310で撮像された動画像及び第2光学系320で撮像された動画像は、それぞれ記録部232に記録される。この動画像のうち第1光学系310で撮像された動画像は、フォーカス位置が周期的に変動した動画像となる。フォーカス位置は、一回の走査で至近端の位置から無限遠端の位置まで変位する。したがって、一回の走査で少なくとも一枚は合焦したフレームの画像を取得できる。
 第1光学系310で撮像された動画像については、動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を抽出することにより、走査単位で合焦画像を抽出できる。
 第2光学系320で撮像された動画像については、合焦画像に対応するフレームの画像を抽出する。すなわち、合焦画像として抽出されたフレームと同じタイミングで撮像されたフレームの画像を抽出する。
 この合焦画像の抽出処理は、カメラ200で行ってもよいし、専用の画像処理装置で行ってもよい。
 カメラ200で行う場合は、カメラマイコン236に上記処理を行う機能を実現させる。この場合、カメラマイコン236は、所定のプログラムを実行することにより、合焦画像抽出部として機能し、上記処理を実行する。なお、合焦画像の抽出は、リアルタイムに行ってもよいし、撮像終了後にまとめて実施してもよい。リアルタイムに実施する場合は、走査が終了するたびに合焦画像の抽出処理を実施する。
 専用の画像処理装置で行う場合は、たとえば、コンピュータを画像処理装置として機能させる。すなわち、コンピュータに所定のプログラムを実行させて、上記処理を行う装置として機能させる。
 [変形例]
 《無人航空機の速度の設定》
 上記のように、撮像中の無人航空機10の速度は、第1光学系310の撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度に設定される。これにより、第1光学系310及び第2光学系320の双方向において、重なりを持って合焦画像を撮像できる。
 一方、撮像の効率を考慮すると、撮像中の無人航空機10の速度は、第1光学系310の撮像範囲分ずれた位置に移動すると同時に一回の走査が完了する速度に設定することが好ましい。これにより、所望の範囲を短時間で撮像できる。
 図24は、走査と同時に移動を完了させる場合の無人航空機の飛行速度の設定の概念図である。
 無人航空機10の移動方向における第1光学系310の撮像範囲の幅をX1とすると、無人航空機10が、距離X1移動すると同時に一回の走査が完了するように、無人航空機10の速度が設定される。この場合、一回の走査にかかる時間をTとすると、無人航空機10の速度Vは、V=X1/Tと設定される。
 なお、ここでの「同時」は、厳密な同時性を要求するものではなく、ほぼ同時とみなせる範囲を含むものである。したがって、若干のずれは許容される。無人航空機10の速度は、撮像範囲分ずれた位置に移動するのとほぼ同じタイミングで一回の走査が完了する速度に設定すればよい。
 また、実際は、重ね合わせを考慮する必要があるので、無人航空機10が、第1光学系310の撮像範囲分ずれた位置に移動するよりも若干速く一回の走査が完了する速度に設定される。
 なお、無人航空機10の移動方向における第1光学系310の撮像範囲の幅X1は、無人航空機10の移動方向に応じて変化する。したがって、任意に方向転換しながら撮像する場合は、無人航空機10の移動方向に応じて、速度を修正することが好ましい。
 また、カメラ200の向き(撮像方向)を変えた場合にも撮像範囲は変動するので、カメラ200の向きに応じて、速度を修正することがより好ましい。
 一定の速度で飛行しながら撮像する場合は、第1光学系310の撮像範囲の短辺方向の幅分ずれた位置に移動するまでの間に少なくとも一回の走査される速度に設定する。これにより、任意の方向に飛行しながら撮像する場合であっても、第1光学系310及び第2光学系320の双方において、重なり合う合焦画像を撮像できる。この場合の最大速度は、第1光学系310の撮像範囲の短辺方向の幅分ずれた位置に移動すると同時に一回の走査が完了する速度である。
 《飛行速度の調整》
 無人航空機10が、高度センサ等の高度測定手段を備えている場合には、その高度測定手段から高度の情報を取得し、飛行速度を調整することが好ましい。すなわち、高度から被写体距離を推定し、推定した被写体距離及び画角から現在の撮像範囲を算出して、無人航空機10の速度を補正することが好ましい。
 なお、被写体距離及び画角から撮像範囲を算出する処理、並びに、算出した撮像範囲から速度の補正量を算出し、飛行速度を補正する処理は、たとえば、無人航空機マイコン30が行う。この場合、無人航空機マイコン30が、撮像範囲算出部及び飛行速度補正部として機能する。撮像範囲算出部は、現在の高度の情報を被写体距離の情報として取得し、取得した被写体距離の情報及び画角に基づいて、現在の撮像範囲を算出する。飛行速度補正部は、算出された撮像範囲に基づいて、飛行速度を補正する。たとえば、撮像範囲の変化量に応じた補正量で飛行速度を補正する。
 上記のように、被写体距離は、撮像画像から求めることもできる。撮像画像から被写体距離を検出する処理は、カメラ200で行ってもよいし、無人航空機10で行ってもよい。カメラ200が行う場合は、カメラマイコン236が被写体距離検出部として機能する。また、無人航空機10が行う場合は、無人航空機マイコン30が被写体距離検出部として機能する。無人航空機マイコン30が被写体距離検出部と機能する場合は、カメラ200から画像データを取得して処理する。
 《走査の形態》
 上記実施の形態では、フォーカス位置を正弦波状に変位させて周期的に走査させる構成としているが、走査の形態は、これに限定されるものではない。この他、たとえば、フォーカス位置をノコギリ波状に変位させて周期的に走査させる構成としてもよい(図11参照)。
 また、フォーカス位置は、間欠的に変位させてもよい。この場合、変位の周期と撮像の周期とを合わせることが好ましい。
 《無人航空機の飛行》
 無人航空機10は、あらかじめ定められたルートを自動で飛行する構成としてもよい。この場合、コントローラ12は不要となる。無人航空機10は、各種センサの情報に基づいて自律制御しながら、決められたルートを飛行する。なお、この場合も飛行速度は、上記条件の下で設定される。
 《カメラによる撮像》
 上記実施の形態では、撮像指示に応じて動画像を連続的に撮像する構成としているが、静止画像を周期的に撮像する構成としてもよい。
 《第2光学系のフォーカシング機構》
 上記実施の形態では、第2光学系320が固定焦点の光学系で構成されているが、第2光学系320についてもフォーカシング機構(第2光学系フォーカシング機構)を備えてもよい。第2光学系フォーカシング機構は、たとえば、第2光学系320を構成するレンズ群の一部又は全部を移動させて、第2光学系320のフォーカス位置を変位させる。
 また、第2光学系320にフォーカシング機構を備える場合、第2光学系320にオートフォーカス機能を備えてもよい。この場合、第2光学系320の合焦状態を検出する検出部(第2光学系合焦状態検出部)を別途備え、その第2光学系合焦状態検出部の検出結果に基づいて、第2光学系フォーカシング機構を制御する。第2光学系フォーカシング機構の制御は、カメラマイコン236が実施する。すなわち、カメラマイコン236が、第2光学系フォーカシング制御部として機能し、第2光学系合焦状態検出部の検出結果に基づいて、第2光学系フォーカシング機構を制御する。
 第2光学系合焦状態検出部の構成は、特に限定されず、公知の検出機構を採用できる。たとえば、コントラスト方式による検出機構、位相差方式による検出機構、距離センサを用いた検出機構等を採用できる。
 《第2光学系の絞り》
 上記実施の形態では、第2光学系320の絞り(第2光学系絞り320c)が固定絞りで構成されているが、光量調整可能な絞りで構成することもできる。たとえば、アイリス絞りで構成することができる。
 《撮像レンズの構成》
 上記実施の形態では、第1光学系310及び第2光学系320を同心状に配置した構成としているが、撮像レンズ300の構成は、これに限定されるものではない。たとえば、上下等に二等分割した構成とすることもできる。この場合、イメージセンサ210も撮像レンズ300の構成に対応した構成とされる。
 また、上記実施の形態では、第1光学系310及び第2光学系320を焦点距離が異なる光学系で構成しているが、焦点距離は同じで他の性質が異なる光学系で構成してもよい。あるいは、焦点距離が異なり、他の性質も異なる光学系で構成してもよい。たとえば、互いに透過波長特性の異なる光学系で構成してもよい。「透過波長特性」とは、特定の波長域の光を透過させる性質のことをいい、「透過波長特性の異なる光学系」とは、特定の波長域の光を透過させる性質が互いに異なる光学系のことをいう。たとえば、赤外光領域の光を透過させる光学系と、可視光領域の光を透過させる光学系とで撮像レンズを構成してもよい。
 《混信除去処理》
 本実施の形態のカメラのように、一つのイメージセンサで二つの光学系の画像を撮像すると、混信が発生する場合がある。混信とは、他の光学系からの光が混入して受光される現象である。混信が生じると、他の光学系の画像が重畳した画像が撮像される。混信が発生する場合は、撮像により得られた画像データに混信除去処理を施すことが好ましい。
 混信除去処理は、たとえば、次のように行われる。なお、ここでは、理解を容易にするため、すべての第1画素が同じ混信比率を有し、かつ、すべての第2画素が同じ混信比率を有するものとする。「混信比率」とは、各画素が各光学系から受光する光の割合のことをいう。
 第1画素の混信比率をC1=C11:C12とし、第2画素の混信比率をC2=C21:C22とする。ここで、第1画素について、混信比率C1がC11:C12とは、第1光学系及び第2光学系から受光する光の割合が、第1光学系:第2光学系=C11:C12、という意味である。すなわち、第1光学系からC11、第2光学系からC12の割合で光を受光する、という意味である。同様に、第2の光学系について、混信比率C2がC21:C22とは、第1光学系及び第2光学系から受光する光の割合が、第1光学系:第2光学系=C21:C22、という意味である。
 混信除去処理前の第1光学系の画像データを第1光学系一次画像データとし、混信除去処理後の第1光学系の画像データを第1光学系二次画像データとする。また、混信除去処理前の第2光学系の画像データを第2光学系一次画像データとし、混信除去処理後の第2光学系の画像データを第2光学系二次画像データとする。この場合、第1光学系一次画像データには、混信比率C1=C11:C12の割合で混信が生じる。また、第2光学系一次画像データには、混信比率C2=C21:C22の割合で混信が生じる。
 いま、ある特定の画素位置(x,y)における第1光学系一次画像データの画素値(当該画素が持つ値)をA1、第2光学系一次画像データの画素値をA2とする。また、対応する画素位置における第1光学系二次画像データの画素値をB1、第2光学系二次画像データの画素値をB2とする。
 第1光学系二次画像データ及び第2光学系二次画像データの各画素値B1、B2は、次の連立方程式を解いて求められる。
  A1 = C11*B1 + C12*B2
  A2 = C21*B1 + C22*B2
 すなわち、第1光学系一次画像データは、第1光学系二次画像データの成分(第1光学系の成分と同義)と第2光学系二次画像データの成分(第2光学系の成分と同義)とをC11:C12の割合で含むデータである。したがって、この関係を式で表わすと、A1=C11*B1+C12*B2となる。同様に、第2光学系一次画像データは、第1光学系二次画像データの成分(第1光学系の成分)と第2光学系二次画像データの成分(第2光学系の成分)をC21:C22の割合で含むデータであるので、この関係を式で表わすと、A2=C21*B1+C22*B2となる。
 画素単位で上記連立方程式を解くことにより、第1光学系二次画像データ及び第2光学系二次画像データの各画素値B1、B2を算出でき、混信の影響を除去した画像データ(第1光学系二次画像データ及び第2光学系二次画像データ)を生成できる。
 上記連立方程式については、行列を使って解くことができる。第1光学系一次画像データ及び第2光学系一次画像データの画素値A1、A2を要素とする2行1列の行列をA、第1光学系二次画像データ及び第2光学系二次画像データの画素値B1、B2を要素とする2行1列の行列をB、第1画素の混信比率C1=C11:C12及び第2画素の混信比率C2=C21:C22を要素とする2行2列の行列をCとすると、上記連立方程式は、A=C*Bと表現できる。
 そして、第1光学系二次画像データ及び第2光学系二次画像データの画素値B1、B2については、上記行列方程式A=C*Bの両辺にCの逆行列C-1を掛けることにより算出できる。すなわち、B=C-1*Aを解くことにより算出できる。
 各画素に備えられる画素の混信比率は既知なので、逆行列C-1については、あらかじめ取得できる。したがって、各一次画像データの画素値A1、A2を取得できれば、逆行列C-1を用いて、各二次画像データの画素値B1、B2を算出できる。
 以上のように、一次画像データに対して所定の演算処理(混信除去処理)を施すことにより、混信の影響を除去した二次画像データを生成できる。
 この処理は、たとえば、カメラマイコン236で実施する構成とすることができる。カメラマイコン236は、所定のプログラムを実行することにより、混信除去処理部として機能する。また、この処理は、撮像後に別の装置、たとえば、コンピュータで実施することもできる。
 ◆◆撮像装置のその他の実施の形態◆◆
 上記実施の形態では、無人航空機にカメラを搭載して撮像する場合を例に説明したが、カメラを搭載する移動体の構成は、これに限定されるものではない。この他、たとえば、自動運転車等の自動で走行する移動体にカメラを搭載して撮像する場合にも適用できる。また、有人、無人の区別も問われない。また、飛行体は、航空機に限らず、人工衛星、宇宙船等の宇宙空間を飛行する飛行体であってもよい。
 また、カメラは、必ずしも移動体に搭載する必要はなく、ユーザが手持ちで撮像する構成とすることもできる。
 さらに、カメラを雲台等に搭載し、パンニングしながら撮像する場合にも本発明を適用することができる。
 ◆◆画像合成装置の第1の実施の形態◆◆
 [画像合成装置の装置構成]
 図25は、画像合成装置のシステム構成図である。
 同図に示すように、本実施の形態の画像合成装置2は、撮像装置1及びコンピュータ3で構成される。コンピュータ3は、撮像装置1で撮像された画像を処理して合成画像を生成する。ここで生成する合成画像は、撮像装置1で撮像された画像群を繋ぎ合わせたモザイク画像である。
 《撮像装置》
 本実施の形態では、単眼のカメラ100を備えた撮像装置1を使用する。
 なお、撮像装置1には、合焦画像抽出部が備えられているものとする。上記のように、合焦画像抽出部は、記録部124に記録された動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を合焦画像として走査単位で抽出する。抽出された合焦画像は、記録部124に記録される。カメラマイコン128は、所定のプログラムを実行することにより、合焦画像抽出部として機能する。
 《コンピュータ》
 コンピュータ3は、合成画像生成部の一例である。コンピュータ3は、撮像装置1から画像群を取得し、取得した画像群を繋ぎ合わせて一枚の合成画像を生成する。なお、撮像装置1から取得する画像群は、走査単位で抽出された合焦画像群である。
 コンピュータ3は、一般的なノイマン型コンピュータで構成され、入力装置、出力装置、中央処理装置(CPU)、主記憶装置、補助記憶装置等を備えて構成される。コンピュータ3は、所定のプログラムを実行することにより、合成画像生成部として機能する。プログラムは、補助記憶装置に記憶され、主記憶装置に読み出されて中央処理装置で実行される。
 コンピュータ3は、公知のモザイク合成、ステッチングなどの手法を用いて合成画像を生成する。たとえば、隣接する画像間で対応する特徴点を抽出し、対応する特徴点同士が重なるように位置合わせして結合する手法を採用できる。
 [画像合成装置の作用]
 《撮像》
 まず、撮像装置1を用いて合成画像を生成する対象が撮像される。
 図26は、撮像の形態の一例を示す図である。同図は、太陽光発電設備500の合成画像を生成する場合の例を示している。地上に設置された太陽光発電設備500を撮像装置1によって上空から撮像し、太陽光発電設備500の全体を写した一枚の合成画像を生成する。
 太陽光発電設備500は、複数の太陽光発電ユニット510を規則的に配列して構成される。一つの太陽光発電ユニット510は、複数枚の太陽電池モジュール520を規則的に配列して構成される。図26に示す例では、45枚の太陽電池モジュール520を縦横5×9で配列して、一つの太陽光発電ユニット510を構成している。また、図26に示す例では、12個の太陽光発電ユニットを縦横4×3で配列して、太陽光発電設備500を構成している。
 図26に示す矢印Rは、撮像装置1の飛行ルートを示している。また、図26に破線で示す枠Zは、所定の高度から撮像装置1で撮像した場合の撮像範囲を示している。
 図26に示すように、撮像装置1は、太陽光発電設備500を走査するように飛行し、太陽光発電設備500を上空から撮像する。撮像中の飛行速度は、上記のように、撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度に設定される。
 《合焦画像の抽出》
 撮像中又は撮像が終了すると、合焦画像の抽出処理が行われる。合焦画像の抽出処理は、撮像された動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を走査単位で抽出することにより行われる。抽出された合焦画像は、記録部124に記録される。
 《合成画像の生成》
 図27は、合成画像の生成の概念図である。
 同図(A)は、撮像装置1がほぼ直線状に飛行して場合に得られる合焦画像群の一例を示している。特に、同図は、太陽光発電ユニット510を横方向に一列分撮像した場合に得られる合焦画像群の一例を示している。また、同図(B)は、同図(A)の合焦画像群から生成される合成画像の一例を示している。
 図27(A)に示すように、撮像装置1で撮像することにより、時系列順に走査単位で合焦画像S1、S2、…が得られる。得られる合焦画像群は、個々の画像が、隣接する画像間において、重複領域を備えた画像となる。隣接する画像とは、時系列順で隣り合う画像である。
 コンピュータ3は、公知の手法を用いて合焦画像群を処理し、合成画像を生成する。たとえば、隣接する画像間で対応する特徴点を抽出し、対応する特徴点同士が重なるように位置合わせして結合する。これにより、図27(B)に示すように、連続した一枚の合成画像を生成できる。
 [変形例]
 上記実施の形態では、単眼のカメラ100を備えた撮像装置を使用し、得られた合焦画像群を処理して合成画像を生成する場合を例に説明したが、二眼のカメラ200を備えた撮像装置を使用して合成画像を生成することもできる。この場合、第1光学系310から得られる合焦画像群を合成処理して、合成画像を生成する。第1光学系310は、望遠の光学系であるため、高精細の合成画像を生成できる。また、この場合、第2光学系320の画像を使用して、特徴点の抽出処理等を行うこともできる。第2光学系320は、第1光学系310よりも焦点距離の短い広角の光学系であるため、より広い画角の画像を撮像できる。また、第2光学系320は第1光学系310と同軸上で撮像できるため、画角のみが異なる画像を撮像できる。これにより、より多くの特徴点を抽出でき、位置合わせ等の処理を正確にできる。
 ◆◆画像合成装置の第2の実施の形態◆◆
 本実施の形態の画像合成装置は、撮像により得られた合焦画像群を解析して、各合焦画像を撮像した際のカメラの相対的な位置及び姿勢を推定し、その推定結果に基づいて、各合焦画像を配置して合成画像を生成する。特に、本実施の形態では、SfM(Structure from Motion)の手法を用いて、各合焦画像を撮像した際のカメラの相対的な位置及び姿勢を推定する。
 [画像合成装置の装置構成]
 画像合成装置の構成は、上記第1の実施の形態の画像合成装置2の構成と同じである。すなわち、撮像装置1及びコンピュータ3で構成される。
 なお、本実施の形態では、撮像装置1として、二眼のカメラ200を備えた撮像装置を使用する場合を例に説明する。撮像装置1には、合焦画像抽出部が備えられているものとする。合焦画像抽出部は、第1光学系310で撮像された動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を第1光学系310の合焦画像として抽出する。また、第2光学系320の合焦画像は、第1光学系310で抽出された合焦画像に対応するフレームの画像を合焦画像として抽出する。
 《コンピュータ》
 図28は、コンピュータが実現する機能のブロック図である。
 コンピュータ3は、所定のプログラムを実行することにより、撮像条件推定部3a及び合成画像生成部3bとして機能する。
 〈撮像条件推定部〉
 撮像条件推定部3aは、撮像装置1から撮像により得られた合焦画像群を取得し、取得した合焦画像群を解析して、各合焦画像を撮像した際のカメラ200の相対的な位置及び姿勢を撮像条件として推定する。本実施の形態では、取得した合焦画像群にSfM処理を適用して、各合焦画像を撮像した際のカメラ200の相対的な位置及び姿勢を推定する。SfM処理とは、視点の異なる複数枚の画像から被写体の三次元形状、並びに、カメラの相対的な位置及び姿勢を復元する処理である。SfM処理を行うプログラムとしては、「Bundler」、「VisualSFM」などのプログラムが知られている。これらのプログラムは、画像群を入力すると、各画像中の特徴点を抽出して画像間でのマッチングを行い、それらの特徴点の3D点座標、並びに、各カメラの相対的な位置及び姿勢を推定して出力する。
 図29は、SfM処理によって出力される結果の一例を示す図である。なお、同図において、座標系X-Y-Zは、Z軸を高さ方向とする地上座標系であり、X-Y平面が地平面を表わしている。
 同図に示すように、画像群をSfM処理することにより、各画像から抽出された特徴点FPの3D点座標、並びに、カメラ200の相対的な位置及び姿勢が推定される。
 ところで、上記のように、本実施の形態の画像合成装置では、二眼のカメラ200を備えた撮像装置1が使用される。この撮像装置1では、画角の異なる二つの画像が同軸上で同時に撮像される。具体的には、第1光学系310で望遠の画像が撮像され、第2光学系320で広角の画像が撮像される。
 撮像条件推定部3aは、二つの合焦画像群のうち第2光学系320の合焦画像群をSfM処理して、各合焦画像を撮像した際のカメラ200の相対的な位置及び姿勢を推定する。第2光学系320は、広角の光学系で構成されるため、より広域の画像を撮像できる。これにより、特徴点を抽出する際、多くの特徴点を抽出でき、相対的なカメラ200の位置及び姿勢を高精度に推定できる。
 〈合成画像生成部〉
 合成画像生成部3bは、撮像条件推定部3aの推定結果に基づいて、各合焦画像を配置し、合成画像を生成する。すなわち、推定したカメラ200の相対的な位置及び姿勢に基づいて、各合焦画像を配置する位置及び姿勢を特定し、特定した位置に特定した姿勢で合焦画像を配置して、合成画像を生成する。
 各合焦画像を撮像した際のカメラ200の相対的な位置及び姿勢が特定されることにより、各合焦画像を配置する平面上での各合焦画像の配置位置及び配置姿勢を特定できる。したがって、特定した配置位置に特定した配置姿勢で画像を配置すれば、広域の合成画像を生成できる。
 ここで、合成画像の生成には、第1光学系310の合焦画像が使用される。カメラ200の位置及び姿勢の推定には、第2光学系320の合焦画像を利用したが、第1光学系310の画像は、第2光学系320と同軸上で撮像されるため、第2光学系320と同じ推定結果を利用できる。その一方で第1光学系310の合焦画像は望遠の画像であるため、より高精細の合成画像を生成できる。
 [画像合成装置の作用]
 《撮像》
 まず、撮像装置1を用いて合成画像を生成する対象が撮像される。この際、飛行速度が、次のように制御されて撮像される。すなわち、第1光学系310の撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度で飛行するように、飛行速度が制御される。
 《合焦画像の抽出》
 撮像中又は撮像が終了すると、合焦画像の抽出処理が行われる。第1光学系310で撮像された動画像については、動画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像を合焦画像として走査単位で抽出する。第2光学系320の動画像については、第1光学系310の合焦画像に対応するフレームの画像を合焦画像として抽出する。
 《合成画像の生成》
 上記のように、まず、第2光学系320の合焦画像群をSfM処理して、各合焦画像を撮像した際のカメラ200の相対的な位置及び姿勢を推定する。次いで、その推定結果に基づいて、第1光学系310の合焦画像を配置し、広域の合成画像を生成する。
 広角の合焦画像群を用いてSfM処理することにより、カメラ200の相対的な位置及び姿勢を高精度に推定できる。一方、望遠の合焦画像群を用いて合成画像を生成することにより、より高精細な合成画像を生成できる。
 [変形例]
 上記実施の形態では、二眼のカメラ200を備えた撮像装置を使用する場合を例に説明したが、単眼のカメラ100を備えた撮像装置を使用することもできる。
 ◆◆その他の実施の形態◆◆
 上記実施の形態において、コンピュータ(マイクロコンピュータを含む)に実現させさせている機能は、各種のプロセッサに実現させることができる。各種のプロセッサには、プログラムを実行して各種の処理を行う処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるPLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 一つの機能は、同種又は異種の二つ以上のプロセッサに実現させてもよい。たとえば、複数のFPGAで実現させる構成としてもよいし、CPU及びFPGAの組み合わせで実現させる構成としてもよい。
 また、複数の機能を一つのプロセッサで構成してもよい。複数の機能を一つのプロセッサで実現する構成の例としては、第1に、クライアント、サーバなどのコンピュータに代表されるように、一つ以上のCPUとソフトウェアとの組合せで一つのプロセッサを構成し、このプロセッサに複数の機能を実現させる形態がある。第2に、システムオンチップ(SoC:System On Chip)などに代表されるように、複数の機能を一つのICチップ(IC:Integrated Circuit)で実現するプロセッサを使用する形態がある。このように、各種の機能は、ハードウェア的な構造として、上記各種のプロセッサを一つ以上用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路である。
1 撮像装置
2 画像合成装置
3 コンピュータ
3a 撮像条件推定部
3b 合成画像生成部
10 無人航空機
12 コントローラ
12a コントローラ操作部
12b コントローラ表示部
12c コントローラ側無線通信部
12d コントローラマイコン
14 本体フレーム
14A 胴部
14B アーム部
14C 脚部
16 プロペラ
20 プロペラ駆動モータ
22 モータドライバ
24 センサ部
26 機体側無線通信部
28 機体側有線通信部
30 無人航空機マイコン
30a 移動制御部
30b カメラ制御部
30c 機体側無線通信制御部
30d 機体側有線通信制御部
100 カメラ
110 撮像レンズ
110f フォーカシングレンズ群
112 絞り
114 絞りモータ
114a 絞りモータドライバ
116 フォーカシングモータ
116a フォーカシングモータドライバ
118a フォトインタラプタ
118b MRセンサ
120 イメージセンサ
120a イメージセンサドライバ
122 アナログ信号処理部
124 記録部
126 カメラ側有線通信部
128 カメラマイコン
128a デジタル信号処理部
128b 記録制御部
128c カメラ側有線通信制御部
128d 撮像制御部
128e 絞り制御部
128f フォーカシング制御部
128g レンズ位置検出部
200 カメラ
210 イメージセンサ
210a イメージセンサドライバ
212A 第1画素
212B 第2画素
214 フォトダイオード
216 マイクロレンズ
218 遮光マスク
230 アナログ信号処理部
232 記録部
234 カメラ側有線通信部
236 カメラマイコン
236a デジタル信号処理部
236b 記録制御部
236c カメラ側有線通信制御部
236d 撮像制御部
236e 第1光学系絞り制御部
236f 第1光学系フォーカシング制御部
236g 第1光学系レンズ位置検出部
300 撮像レンズ
310 第1光学系
310a 第1光学系第1レンズ
310b 第1光学系第1ミラー
310c 第1光学系第2ミラー
310d 第1光学系絞り
320 第2光学系
320a 第2光学系第1レンズ
320b 第2光学系第2レンズ
320c 第2光学系絞り
320d 第2光学系第3レンズ
320e 第2光学系第4レンズ
330 共通レンズ
340 第1光学系フォーカシングモータ
340a 第1光学系フォーカシングモータドライバ
342a 第1光学系フォトインタラプタ
342b 第1光学系MRセンサ
344 第1光学系絞りモータ
344a 第1光学系絞りドライバ
500 太陽光発電設備
510 太陽光発電ユニット
520 太陽電池モジュール
FI 動画中の各フレームの画像
FImax 動画中で最も鮮鋭度の高いフレームの画像
FP 特徴点
Im1 第1光学系で撮像される画像
Im2 第2光学系で撮像される画像
L 光軸
L1 第1光学系を通過する光
L2 第2光学系を通過する光R 撮像装置の飛行ルート
S1、S2、… 合焦画像
Z 撮像範囲を示す枠
θ 画角
θ1 第1光学系の画角
θ2 第2光学系の画角

Claims (30)

  1.  移動体と、
     前記移動体に備えられる撮像部と、
     前記撮像部に備えられるフォーカシング機構と、
     前記フォーカシング機構を制御して、フォーカス位置を周期的に走査させるフォーカシング制御部と、
     撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度で前記移動体を移動させる移動制御部と、
     前記撮像部に動画像を連続的に撮像させ又は静止画像を周期的に撮像させる撮像制御部と、
     前記撮像部で撮像された動画像又は静止画像群を記録する記録部と、
     を備えた撮像装置。
  2.  前記移動制御部は、撮像範囲分ずれた位置に移動すると同時に一回の走査が完了する速度で前記移動体を移動させる、
     請求項1に記載の撮像装置。
  3.  被写体距離及び前記撮像部の画角に基づいて、撮像範囲を算出する撮像範囲算出部と、
     を更に備えた請求項1又は2に記載の撮像装置。
  4.  前記撮像部の出力に基づいて被写体距離を検出する被写体距離検出部を更に備えた、
     請求項3に記載の撮像装置。
  5.  前記撮像部は、撮像レンズと、前記撮像レンズで結像される像を撮像するイメージセンサと、を備え、
     前記フォーカシング機構は、前記撮像レンズを構成するレンズ群の一部又は全部を移動させて、フォーカス位置を変位させる、
     請求項1から4のいずれか1項に記載の撮像装置。
  6.  前記フォーカシング制御部は、フォーカス位置を正弦波状に変位させて周期的に走査させる、
     請求項1から5のいずれか1項に記載の撮像装置。
  7.  前記フォーカシング制御部は、フォーカス位置をノコギリ波状に変位させて周期的に走査させる、
     請求項1から5のいずれか1項に記載の撮像装置。
  8.  前記記録部に記録された動画像又は静止画像群を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する合焦画像抽出部を更に備えた、
     請求項1から7のいずれか1項に記載の撮像装置。
  9.  前記撮像レンズは、第1光学系と、前記第1光学系と同じ光軸を有し、かつ、前記第1光学系よりも短い焦点距離を有する第2光学系と、を備え、
     前記イメージセンサは、前記第1光学系を通過した光と前記第2光学系を通過した光とを選択的に受光する画素が規則的に配列されて、前記第1光学系で結像される像と前記第2光学系で結像される像とを同時に撮像し、
     前記フォーカシング機構は、前記第1光学系を構成するレンズ群の一部又は全部を移動させて、前記第1光学系のフォーカス位置を変位させる第1光学系フォーカシング機構を備え、
     前記フォーカシング制御部は、前記第1光学系フォーカシング機構を制御して、前記第1光学系のフォーカス位置を周期的に走査させる第1光学系フォーカシング制御部を備え、
     前記移動制御部は、前記第1光学系による撮像範囲分ずれた位置に移動するまでの間に少なくとも一回走査される速度で前記移動体を移動させ、
     前記撮像制御部は、前記イメージセンサに動画像を連続的に撮像させ又は静止画像を周期的に撮像させ、
     前記記録部は、前記第1光学系で撮像された動画像又は静止画像群と、前記第2光学系で撮像された動画像又は静止画像群と、を記録する、
     請求項5に記載の撮像装置。
  10.  前記第2光学系が、固定焦点の光学系で構成され、パンフォーカスで撮像される、
     請求項9に記載の撮像装置。
  11.  前記第2光学系の合焦状態を検出する第2光学系合焦状態検出部を更に備え、
     前記フォーカシング機構は、前記第2光学系を構成するレンズ群の一部又は全部を移動させて、前記第2光学系のフォーカス位置を変位させる第2光学系フォーカシング機構を更に備え、
     前記フォーカシング制御部は、前記第2光学系合焦状態検出部の検出結果に基づいて、前記第2光学系フォーカシング機構を制御し、前記第2光学系を被写体に合焦させる第2光学系フォーカシング制御部を更に備える、
     請求項9に記載の撮像装置。
  12.  前記撮像レンズは、前記第1光学系と前記第2光学系とが同心状に配置される、
     請求項9から11のいずれか1項に記載の撮像装置。
  13.  前記第1光学系フォーカシング制御部は、前記第1光学系のフォーカス位置を正弦波状に変位させて周期的に走査させる、
     請求項9から12のいずれか1項に記載の撮像装置。
  14.  前記第1光学系フォーカシング制御部は、前記第1光学系のフォーカス位置をノコギリ波状に変位させて周期的に走査させる、
     請求項9から12のいずれか1項に記載の撮像装置。
  15.  前記第1光学系で撮像された動画像又は静止画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する合焦画像抽出部を更に備えた、
     請求項9から14のいずれか1項に記載の撮像装置。
  16.  前記移動体が飛行体で構成される、
     請求項1から15のいずれか1項に記載の撮像装置。
  17.  互いに同じ光軸を有し、かつ、互いに異なる性質を有する第1光学系及び第2光学系を備えた撮像レンズと、
     前記第1光学系を通過した光と前記第2光学系を通過した光とを選択的に受光する画素が規則的に配列されて、前記第1光学系で結像される像と前記第2光学系で結像される像とを同時に撮像するイメージセンサと、
     前記第1光学系を構成するレンズ群の一部又は全部を移動させて、前記第1光学系のフォーカス位置を変位させる第1光学系フォーカシング機構と、
     前記第1光学系フォーカシング機構を制御して、前記第1光学系のフォーカス位置を周期的に走査させる第1光学系フォーカシング制御部と、
     前記イメージセンサに動画像を連続的に撮像させ又は静止画像を周期的に撮像させる撮像制御部と、
     前記第1光学系で撮像された動画像又は静止画像群と、前記第2光学系で撮像された動画像又は静止画像群と、を記録する記録部と、
     を備えた撮像装置。
  18.  前記撮像レンズは、前記第2光学系が前記第1光学系よりも短い焦点距離を有する、
     請求項17に記載の撮像装置。
  19.  前記第2光学系が、固定焦点の光学系で構成され、パンフォーカスで撮像される、
     請求項18に記載の撮像装置。
  20.  前記第2光学系の合焦状態を検出する第2光学系合焦状態検出部と、
     前記第2光学系を構成するレンズ群の一部又は全部を移動させて、前記第2光学系のフォーカス位置を変位させる第2光学系フォーカシング機構と、
     前記第2光学系合焦状態検出部の検出結果に基づいて、前記第2光学系フォーカシング機構を制御し、前記第2光学系を被写体に合焦させる第2光学系フォーカシング制御部と、
     を更に備えた請求項18に記載の撮像装置。
  21.  前記撮像レンズは、前記第1光学系と前記第2光学系とが同心状に配置される、
     請求項18から20のいずれか1項に記載の撮像装置。
  22.  前記第1光学系フォーカシング制御部は、前記第1光学系のフォーカス位置を正弦波状に変位させて周期的に走査させる、
     請求項17から21のいずれか1項に記載の撮像装置。
  23.  前記第1光学系フォーカシング制御部は、前記第1光学系のフォーカス位置をノコギリ波状に変位させて周期的に走査させる、
     請求項17から21のいずれか1項に記載の撮像装置。
  24.  前記第1光学系で撮像された動画像又は静止画像を走査単位で解析し、最も鮮鋭度の高いフレームの画像又は最も鮮鋭度の高い静止画像を合焦画像として抽出する合焦画像抽出部を更に備えた、
     請求項17から23のいずれか1項に記載の撮像装置。
  25.  請求項8に記載の撮像装置と、
     前記撮像装置から複数枚の前記合焦画像を取得し、取得した複数枚の前記合焦画像を繋ぎ合わせて一枚の合成画像を生成する合成画像生成部と、
     を備えた画像合成装置。
  26.  前記撮像装置から複数枚の前記合焦画像を取得し、取得した複数枚の前記合焦画像を解析して、各前記合焦画像を撮像した際の前記撮像部の相対的な位置及び姿勢を推定する撮像条件推定部を更に備え、
     前記合成画像生成部は、前記撮像条件推定部の推定結果に基づいて、各前記合焦画像を配置し、前記合成画像を生成する、
     請求項25に記載の画像合成装置。
  27.  前記撮像条件推定部は、取得した複数枚の前記合焦画像にSfM処理を適用し、各前記合焦画像を撮像した際の前記撮像部の相対的な位置及び姿勢を推定する、
     請求項26に記載の画像合成装置。
  28.  請求項15に記載の撮像装置と、
     前記撮像装置から複数枚の前記合焦画像を取得し、取得した複数枚の前記合焦画像を繋ぎ合わせて一枚の合成画像を生成する合成画像生成部と、
     を備えた画像合成装置。
  29.  各前記合焦画像に対応する前記第2光学系の画像を前記撮像装置から取得し、取得した複数枚の前記第2光学系の画像を解析して、各前記合焦画像を撮像した際の前記撮像部の相対的な位置及び姿勢を推定する撮像条件推定部を更に備え、
     前記合成画像生成部は、前記撮像条件推定部の推定結果に基づいて、各前記合焦画像を配置し、前記合成画像を生成する、
     請求項28に記載の画像合成装置。
  30.  前記撮像条件推定部は、取得した複数枚の前記第2光学系の画像にSfM処理を適用し、各前記合焦画像を撮像した際の前記撮像部の相対的な位置及び姿勢を推定する、
     請求項29に記載の画像合成装置。
PCT/JP2018/017659 2017-05-16 2018-05-07 撮像装置及び画像合成装置 WO2018212008A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880025680.9A CN110574359B (zh) 2017-05-16 2018-05-07 摄像装置及图像合成装置
JP2019519184A JP6735917B2 (ja) 2017-05-16 2018-05-07 撮像装置及び画像合成装置
US16/601,589 US11012607B2 (en) 2017-05-16 2019-10-15 Imaging apparatus and image composition apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017097595 2017-05-16
JP2017-097595 2017-05-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/601,589 Continuation US11012607B2 (en) 2017-05-16 2019-10-15 Imaging apparatus and image composition apparatus

Publications (1)

Publication Number Publication Date
WO2018212008A1 true WO2018212008A1 (ja) 2018-11-22

Family

ID=64273650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/017659 WO2018212008A1 (ja) 2017-05-16 2018-05-07 撮像装置及び画像合成装置

Country Status (4)

Country Link
US (1) US11012607B2 (ja)
JP (1) JP6735917B2 (ja)
CN (1) CN110574359B (ja)
WO (1) WO2018212008A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005108A (ja) * 2018-06-27 2020-01-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112714236A (zh) * 2019-10-24 2021-04-27 中兴通讯股份有限公司 终端及拍摄方法、存储介质、电子装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010166519A (ja) * 2009-01-19 2010-07-29 Sony Corp 表示制御装置、表示制御方法及びプログラム
JP2011242791A (ja) * 2009-10-22 2011-12-01 Panasonic Corp フォーカスシステム、交換レンズ及び撮像装置
JP2013162185A (ja) * 2012-02-02 2013-08-19 Canon Inc 光学機器および撮像装置
JP2015154386A (ja) * 2014-02-18 2015-08-24 富士フイルム株式会社 自動追尾撮像装置
JP2016063262A (ja) * 2014-09-12 2016-04-25 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP2016194783A (ja) * 2015-03-31 2016-11-17 株式会社リコー 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3678846B2 (ja) 1996-07-18 2005-08-03 東海旅客鉄道株式会社 自動焦点カメラ
JP3968376B2 (ja) * 2005-07-29 2007-08-29 松下電器産業株式会社 撮影領域調整装置
JP5489392B2 (ja) * 2007-05-09 2014-05-14 オリンパス株式会社 光学系評価装置、光学系評価方法および光学系評価プログラム
JP6012973B2 (ja) * 2012-02-06 2016-10-25 オリンパス株式会社 焦点調節装置およびカメラシステムならびに焦点調節方法
US10203692B2 (en) * 2014-07-21 2019-02-12 King Abdullah University Of Science And Technology Structure from motion (SfM) processing for unmanned aerial vehicle (UAV)
JP2016039390A (ja) 2014-08-05 2016-03-22 株式会社日立製作所 画像生成方法および装置
EP3440830A1 (en) * 2016-04-06 2019-02-13 Biosurfit, S.A. Method and system for capturing images of a liquid sample
WO2017177465A1 (en) * 2016-04-15 2017-10-19 SZ DJI Technology Co., Ltd. Contrast detection autofocus using adaptive step
CN206095970U (zh) * 2016-10-11 2017-04-12 中国计量大学 一种abs齿圈内面缺陷镜面反射检测装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010166519A (ja) * 2009-01-19 2010-07-29 Sony Corp 表示制御装置、表示制御方法及びプログラム
JP2011242791A (ja) * 2009-10-22 2011-12-01 Panasonic Corp フォーカスシステム、交換レンズ及び撮像装置
JP2013162185A (ja) * 2012-02-02 2013-08-19 Canon Inc 光学機器および撮像装置
JP2015154386A (ja) * 2014-02-18 2015-08-24 富士フイルム株式会社 自動追尾撮像装置
JP2016063262A (ja) * 2014-09-12 2016-04-25 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP2016194783A (ja) * 2015-03-31 2016-11-17 株式会社リコー 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020005108A (ja) * 2018-06-27 2020-01-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム

Also Published As

Publication number Publication date
CN110574359B (zh) 2021-03-02
JPWO2018212008A1 (ja) 2020-05-21
US20200045235A1 (en) 2020-02-06
CN110574359A (zh) 2019-12-13
US11012607B2 (en) 2021-05-18
JP6735917B2 (ja) 2020-08-05

Similar Documents

Publication Publication Date Title
US11100671B2 (en) Image generation apparatus, image generation system, image generation method, and image generation program
US10863164B2 (en) Stereo camera and method of controlling stereo camera
JP6964772B2 (ja) 撮像装置、無人移動体、撮像方法、システム、及びプログラム
JP6205069B2 (ja) 画像化システム及び方法
CN107079106B (zh) 对焦方法和装置、图像拍摄方法和装置及摄像系统
JP2020102875A (ja) 視運動するシーンのための撮像デバイス
JP2018160228A (ja) 経路生成装置、経路制御システム、及び経路生成方法
US11226470B2 (en) Imaging apparatus and mobile imaging apparatus
JP6735917B2 (ja) 撮像装置及び画像合成装置
WO2020207411A1 (zh) 一种图像数据处理方法、装置、图像处理芯片及飞行器
US11711612B2 (en) Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program
EP3758354A1 (en) Camera module and super resolution image processing method thereof
US9307133B1 (en) System and method of imaging for increasing image resolution
US11722791B2 (en) Ranging device, image processing device and method
CN108429872A (zh) 用于校正图像渐晕的方法、成像装置及成像系统
WO2020066341A1 (ja) 合焦度検出装置、深度マップ生成装置、及び、電子機器
JP6536837B2 (ja) 極めて高い解像度および極めて大きい画像サイズを有するカメラ
JP2020182073A (ja) 撮像装置、移動体、及び制御方法
CN114600024A (zh) 装置、摄像装置、摄像系统及移动体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18801394

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019519184

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18801394

Country of ref document: EP

Kind code of ref document: A1