WO2023008102A1 - 撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラム - Google Patents

撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラム Download PDF

Info

Publication number
WO2023008102A1
WO2023008102A1 PCT/JP2022/026576 JP2022026576W WO2023008102A1 WO 2023008102 A1 WO2023008102 A1 WO 2023008102A1 JP 2022026576 W JP2022026576 W JP 2022026576W WO 2023008102 A1 WO2023008102 A1 WO 2023008102A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
photographing
shooting
information
control
Prior art date
Application number
PCT/JP2022/026576
Other languages
English (en)
French (fr)
Inventor
雅彦 杉本
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023008102A1 publication Critical patent/WO2023008102A1/ja
Priority to US18/413,032 priority Critical patent/US20240155223A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the present invention relates to a shooting control device, a shooting system, a shooting control method, and a shooting control program.
  • Patent Documents 1 to 5 describe a photographing control device that associates and manages photographing positions of cameras and photographing data for each of a plurality of cameras.
  • Patent Literature 1 describes detecting a blind spot based on image data captured by a certain camera and outputting a movement instruction signal to another camera so as to prevent the blind spot.
  • Patent Documents 6 to 10 describe camera systems in which a control device that controls a plurality of cameras determines control amounts for other cameras based on the shooting conditions of one camera.
  • Patent Literature 6 describes estimating the next position of an object based on the imaging conditions of a plurality of imaging devices, and controlling surrounding imaging devices so as to photograph the target that has moved to that position.
  • An embodiment according to the technology of the present disclosure provides a shooting control device, a shooting system, a shooting control method, and a shooting control program that can facilitate cooperative shooting using a plurality of cameras.
  • a shooting control device is a shooting control device including a memory and a processor, wherein the memory associates a shot image obtained by shooting with a first shooting device with shooting information related to the shooting.
  • the processor performs photographing control for controlling photographing by a second photographing device different from the first photographing device based on at least one of the photographed image and the photographing information.
  • An imaging system of one aspect of the present invention includes a first imaging device, a second imaging device, and an imaging control device including a communication unit capable of communicating with the first imaging device and the second imaging device,
  • the imaging control device records a photographed image obtained by photographing by the first photographing device and photographing information related to the photographing in association with each other, and based on at least one of the photographed image and the photographing information, It performs photographing control for controlling photographing by the second photographing device.
  • a photographing control method is a photographing control method by a photographing control device including a memory and a processor, wherein the memory stores a photographed image obtained by photographing by a first photographing device and photographing information relating to the photographing. and are recorded in association with each other, and the processor performs photographing control for controlling photographing by a second photographing device different from the first photographing device based on at least one of the photographed image and the photographing information. be.
  • a photography control program is a photography control program executed by a photography control device comprising a memory and a processor for recording a photographed image obtained by photographing by a first photographing device and photographing information relating to photographing in association with each other.
  • An optical observation device includes the projection device described above.
  • a photographing control device a photographing system, a photographing control method, and a photographing control program that can facilitate coordinated photographing using a plurality of cameras.
  • FIG. 1 is a diagram showing an example of an imaging system according to Embodiment 1;
  • FIG. 4 is a diagram showing an example of turning of the ground camera 10 in the pitch direction by the turning mechanism 16.
  • FIG. 4 is a diagram showing an example of turning of the ground camera 10 in the yaw direction by the turning mechanism 16.
  • FIG. 2 is a block diagram showing an example of the configuration of the optical system and electrical system of the ground camera 10;
  • FIG. 3 is a diagram showing an example of the electrical system configuration of the turning mechanism 16 and the management device 11.
  • FIG. 4 is a diagram showing an example of storage of captured images and captured information by the management device 11.
  • FIG. FIG. 2 is a diagram (Part 1) showing an example of coordinated photography by the aerial camera 2 and the ground camera 10;
  • FIG. 2 is a diagram (part 2) showing an example of coordinated photography by the aerial camera 2 and the ground camera 10; 4 is a flowchart showing a first example of assist control by the management device 11; 4 is a diagram showing an example of display of imaging target candidates of the ground camera 10 by the management device 11.
  • FIG. 7 is a diagram for explaining a second example of assist control by the management device 11;
  • FIG. 9 is a flowchart showing an example of processing of the management device 11 in a second example of assist control;
  • FIG. 3 is a diagram (part 1) showing an example of automatic photographing control by the management device 11;
  • FIG. 7 is a diagram (part 2) showing an example of automatic photographing control by the management device 11;
  • FIG. 10 is a diagram showing an example of photographing by the aerial camera 2 and the ground camera 10 of Embodiment 2;
  • FIG. 3 is a diagram (part 1) for explaining an example of controlling the shooting direction of the ground camera 10;
  • FIG. 10 is a diagram (part 2) for explaining an example of controlling the shooting direction of the ground camera 10;
  • FIG. 10 is a diagram (part 1) for explaining another example of controlling the shooting direction of the ground camera 10;
  • FIG. 11 is a diagram (part 2) for explaining another example of controlling the shooting direction of the ground camera 10;
  • FIG. 4 is a diagram showing an example of the relationship between the size of a subject and the size of an image on an imaging plane;
  • FIG. 3 is a diagram (part 1) for explaining an example of controlling the shooting direction of the ground camera 10;
  • FIG. 10 is a diagram (part 2) for explaining an example of controlling the shooting direction of the ground camera 10;
  • FIG. 10 is a diagram (part 1) for explaining another example of controlling the shooting direction of the ground camera 10;
  • FIG. 4 is a diagram showing an example of the number of pixels in an entire image and the number of pixels in a subject portion; 3 is a diagram showing an example of a manner in which a shooting control program of the embodiment is installed in the control device 60 of the management device 11 from a storage medium storing the shooting control program; FIG.
  • FIG. 1 is a diagram showing an example of an imaging system according to Embodiment 1.
  • the imaging system 1 includes an aerial camera 2, a ground camera 10, and a management device 11.
  • the aerial camera 2 is an example of the first imaging device in the present invention.
  • Ground camera 10 is an example of a second imaging device in the present invention.
  • the management device 11 is an example of a shooting control device in the present invention.
  • the aerial camera 2 is a photographing device capable of aerial photography by being mounted on the flying object 3.
  • the flying object 3 is also called a drone, and can fly under external control or fly autonomously.
  • the aerial camera 2 is capable of communicating with the management device 11 , and transmits to the management device 11 a photographed image obtained by photographing and photographing information relating to the photographing. A specific example of the shooting information will be described later (see FIG. 6, for example).
  • Communication between the aerial camera 2 and the management device 11 may be direct wireless communication between the aerial camera 2 and the management device 11, or the aerial camera 2 may communicate via a base station or the like. It may be communication via a network by connecting to the network. Communication between the aerial camera 2 and the management device 11 may be via the communication unit of the flying object 3 or may not be via the communication unit of the flying object 3 .
  • the ground camera 10 is installed on a pillar, a wall, or a part of a building (for example, a rooftop) indoors or outdoors via a turning mechanism 16, which will be described later, and photographs an object to be photographed.
  • the ground camera 10 may be installed on the ground using a tripod or the like (see FIG. 8, for example).
  • the ground camera 10 transmits a photographed image obtained by photographing and photographing information regarding the photographing to the management device 11 via the communication line 12 .
  • the management device 11 includes a display 13 and a secondary storage device 14.
  • Examples of the display 13 include a liquid crystal display, a plasma display, an organic EL (Electro-Luminescence) display, a CRT (Cathode Ray Tube) display, and the like.
  • the secondary storage device 14 is an HDD (Hard Disk Drive).
  • the secondary storage device 14 is not limited to an HDD, and may be a non-volatile memory such as flash memory, SSD (Solid State Drive), or EEPROM (Electrically Erasable and Programmable Read Only Memory).
  • the management device 11 receives captured images and captured information transmitted by the aerial camera 2 and the ground camera 10, displays the received captured images and captured information on the display 13, and stores them in the secondary storage device 14. or
  • the management device 11 associates and records the photographed image obtained by photographing by the aerial camera 2 and photographing information regarding the photographing.
  • the captured image and the captured information will be described later (see FIG. 6, for example).
  • the management device 11 performs photographing control for controlling photographing by the ground camera 10 based on at least one of the stored photographed image of the aerial camera 2 and photographing information.
  • the management device 11 performs this photographing control by communicating with the ground camera 10 via the communication line 12 .
  • the shooting control is, for example, control for setting shooting parameters for the ground camera 10 to shoot.
  • the photographer uses the terrestrial camera 10 for which the photographing parameters have been set (for example, the photographer presses the shutter button of the terrestrial camera 10).
  • the shooting control may be control for setting shooting parameters for the ground camera 10 to shoot, and causing the ground camera 10 to shoot. In this case, photographing by the ground camera 10 is automatically performed.
  • a specific example of shooting control will be described later.
  • FIG. 2 is a diagram showing an example of turning of the ground camera 10 in the pitch direction by the turning mechanism 16.
  • FIG. 3 is a diagram showing an example of turning of the ground camera 10 in the yaw direction by the turning mechanism 16.
  • a ground camera 10 is attached to the turning mechanism 16 .
  • the turning mechanism 16 enables the ground camera 10 to turn.
  • the turning mechanism 16 has a turning direction (pitch direction) that intersects the yaw direction and has the pitch axis PA as a central axis, and a yaw direction as shown in FIG. 3 as an example. It is a two-axis turning mechanism capable of turning the ground camera 10 in a turning direction (yaw direction) with the axis YA as a central axis. Note that the turning mechanism 16 according to the present embodiment has shown an example of a two-axis turning mechanism, but the technology of the present disclosure is not limited to this, and may be a three-axis turning mechanism or a one-axis turning mechanism. may be
  • FIG. 4 is a block diagram showing an example of the configuration of the optical system and electrical system of the ground camera 10.
  • the ground camera 10 includes an optical system 15 and an imaging device 25 .
  • the imaging element 25 is positioned behind the optical system 15 .
  • the optical system 15 has an objective lens 15A and a lens group 15B.
  • the objective lens 15A and the lens group 15B are arranged along the optical axis OA of the optical system 15 from the target subject side (object side) to the light receiving surface 25A side (image side) of the imaging device 25. are arranged in order.
  • the lens group 15B includes an antivibration lens 15B1, a focus lens (not shown), a zoom lens 15B2, and the like.
  • the zoom lens 15B2 is movably supported along the optical axis OA by a lens actuator 21, which will be described later.
  • the anti-vibration lens 15B1 is movably supported in a direction perpendicular to the optical axis OA by a lens actuator 17, which will be described later.
  • the ground camera 10 is on the telephoto side, so the angle of view is reduced (the shooting range is narrowed).
  • the angle of view is widened (the shooting range is widened).
  • the optical system 15 may include various lenses (not shown) in addition to the objective lens 15A and the lens group 15B. Furthermore, the optical system 15 may have an aperture. The positions of the lens, the lens group, and the diaphragm included in the optical system 15 are not limited.
  • the anti-vibration lens 15B1 is movable in a direction perpendicular to the optical axis OA, and the zoom lens 15B2 is movable along the optical axis OA.
  • the optical system 15 has lens actuators 17 and 21 .
  • the lens actuator 17 applies force to the anti-vibration lens 15B1 that fluctuates in the direction perpendicular to the optical axis of the anti-vibration lens 15B1.
  • the lens actuator 17 is controlled by an OIS (Optical Image Stabilizer) driver 23 .
  • OIS Optical Image Stabilizer
  • the lens actuator 21 applies a force to the zoom lens 15B2 to move it along the optical axis OA of the optical system 15.
  • the lens actuator 21 is controlled by a lens driver 28 .
  • the focal length of the ground camera 10 changes as the position of the zoom lens 15B2 moves along the optical axis OA.
  • the angle of view in the direction of the pitch axis PA is the direction of the yaw axis YA.
  • the angle of view is narrower than the angle of view at the , and narrower than the angle of view at the diagonal.
  • the light representing the imaging area is imaged on the light receiving surface 25A of the imaging element 25, and the imaging area is imaged by the imaging element 25.
  • the vibration given to the ground camera 10 includes, for example, vibration due to traffic of automobiles, vibration due to wind, and vibration due to road construction when outdoors, and vibration due to operation of an air conditioner and vibration due to human motion when indoors. Vibration, etc. due to entry and exit of Therefore, the ground camera 10 shakes due to the vibration applied to the ground camera 10 (hereinafter also simply referred to as "vibration").
  • shake means that the target subject image on the light receiving surface 25A of the imaging device 25 in the ground camera 10 fluctuates due to changes in the positional relationship between the optical axis OA and the light receiving surface 25A. refers to phenomena. In other words, the “shake” can also be said to be a phenomenon in which the optical image formed on the light receiving surface 25A fluctuates due to the tilt of the optical axis OA caused by the vibration applied to the ground camera 10. . Fluctuation of the optical axis OA means, for example, inclination of the optical axis OA with respect to a reference axis (for example, the optical axis OA before vibration occurs).
  • shake caused by vibration is also simply referred to as "shake”.
  • Shaking is included in the captured image as a noise component and affects the image quality of the captured image. Therefore, the ground camera 10 is provided with a lens-side vibration correction mechanism 29, an image-capturing element-side vibration correction mechanism 45, and an electronic vibration correction unit 33 in order to remove noise components contained in the captured image due to vibration. and is used for shake correction.
  • the lens-side shake correction mechanism 29 and the imaging element-side shake correction mechanism 45 are mechanical shake correction mechanisms.
  • a mechanical image stabilization mechanism applies power generated by a drive source such as a motor (e.g., voice coil motor) to an image stabilization element (e.g., an anti-vibration lens and/or an imaging element). This is a mechanism that moves in a direction perpendicular to the optical axis of the optical system, thereby correcting shake.
  • the lens-side shake correction mechanism 29 applies power generated by a driving source such as a motor (for example, a voice coil motor) to the anti-vibration lens to align the anti-vibration lens with the optical axis of the imaging optical system. It is a mechanism that moves in a direction perpendicular to the camera, thereby correcting shake.
  • the imaging element side shake correction mechanism 45 applies power generated by a drive source such as a motor (for example, a voice coil motor) to the imaging element to move the imaging element in a direction perpendicular to the optical axis of the imaging optical system. It is a mechanism that moves the lens and thereby corrects the shake.
  • the electronic shake correction unit 33 corrects shake by performing image processing on the captured image based on the amount of shake.
  • the shake correction section mechanically or electronically corrects the shake with a hardware configuration and/or a software configuration.
  • mechanical shake correction refers to mechanically moving a shake correction element such as an anti-vibration lens and/or an imaging element using power generated by a drive source such as a motor (for example, a voice coil motor).
  • Electronic shake correction refers to shake correction achieved by image processing performed by a processor, for example.
  • the lens-side vibration correction mechanism 29 includes a vibration reduction lens 15B1, a lens actuator 17, an OIS driver 23, and a position detection sensor 39.
  • a shake correction method by the lens-side shake correction mechanism 29 .
  • a method of correcting shake by moving the anti-vibration lens 15B1 based on the amount of shake detected by a shake amount detection sensor 40 (described later) is employed as a shake correction method. Specifically, the vibration is corrected by moving the anti-vibration lens 15B1 in the direction of canceling the vibration by the amount that cancels the vibration.
  • a lens actuator 17 is attached to the anti-vibration lens 15B1.
  • the lens actuator 17 is a shift mechanism equipped with a voice coil motor, and drives the voice coil motor to move the anti-vibration lens 15B1 in a direction perpendicular to the optical axis of the anti-vibration lens 15B1.
  • a shift mechanism equipped with a voice coil motor is adopted, but the technology of the present disclosure is not limited to this, and instead of the voice coil motor, a stepping motor or a piezo element Other power sources, such as, may be applied.
  • the lens actuator 17 is controlled by the OIS driver 23. Driving the lens actuator 17 under the control of the OIS driver 23 mechanically changes the position of the anti-vibration lens 15B1 within a two-dimensional plane perpendicular to the optical axis OA.
  • the position detection sensor 39 detects the current position of the anti-vibration lens 15B1 and outputs a position signal indicating the detected current position.
  • a device including a Hall element is adopted as an example of the position detection sensor 39 .
  • the current position of the anti-vibration lens 15B1 refers to the current position within the two-dimensional plane of the anti-vibration lens.
  • the anti-vibration lens two-dimensional plane refers to a two-dimensional plane perpendicular to the optical axis of the anti-vibration lens 15B1.
  • a device including a Hall element is adopted as an example of the position detection sensor 39, but the technology of the present disclosure is not limited to this. may be adopted.
  • the lens-side shake correction mechanism 29 corrects shake by moving the vibration reduction lens 15B1 along at least one of the pitch axis PA direction and the yaw axis YA direction in the range that is actually photographed. In other words, the lens-side shake correction mechanism 29 corrects the shake by moving the anti-vibration lens 15B1 within the two-dimensional plane of the anti-vibration lens by a movement amount corresponding to the amount of shake.
  • the imaging element side shake correction mechanism 45 includes an imaging element 25 , a BIS (Body Image Stabilizer) driver 22 , an imaging element actuator 27 , and a position detection sensor 47 .
  • BIS Body Image Stabilizer
  • the shake correction method by the imaging device side shake correction mechanism 45 can be adopted for the shake correction method by the imaging device side shake correction mechanism 45, similar to the shake correction method by the lens side shake correction mechanism 29.
  • a method of correcting shake a method of correcting shake by moving the imaging element 25 based on the amount of shake detected by the shake amount detection sensor 40 is employed. Specifically, the image pickup device 25 is moved in the direction of canceling the shake by the amount that cancels out the shake, thereby correcting the shake.
  • the imaging element actuator 27 is attached to the imaging element 25 .
  • the imaging element actuator 27 is a shift mechanism equipped with a voice coil motor, and drives the voice coil motor to move the imaging element 25 in the direction perpendicular to the optical axis of the anti-vibration lens 15B1.
  • a shift mechanism equipped with a voice coil motor is adopted, but the technology of the present disclosure is not limited to this, and instead of the voice coil motor, a stepping motor or a piezo actuator is used. Other power sources such as elements may be applied.
  • the imaging device actuator 27 is controlled by the BIS driver 22 .
  • the position of the imaging element 25 is mechanically changed in the direction perpendicular to the optical axis OA.
  • the position detection sensor 47 detects the current position of the imaging device 25 and outputs a position signal indicating the detected current position.
  • a device including a Hall element is adopted as an example of the position detection sensor 47 .
  • the current position of the imaging device 25 refers to the current position within the two-dimensional plane of the imaging device.
  • a two-dimensional plane of the imaging element refers to a two-dimensional plane perpendicular to the optical axis of the anti-vibration lens 15B1.
  • a device including a Hall element is adopted as an example of the position detection sensor 47, but the technology of the present disclosure is not limited to this. may be adopted.
  • the ground camera 10 includes a computer 19, a DSP (Digital Signal Processor) 31, an image memory 32, an electronic shake corrector 33, a communication I/F 34, a shake amount detection sensor 40, and a UI (User Interface) device 43.
  • the computer 19 has a memory 35 , a storage 36 and a CPU (Central Processing Unit) 37 .
  • the imaging device 25, DSP 31, image memory 32, electronic shake corrector 33, communication I/F 34, memory 35, storage 36, CPU 37, shake amount detection sensor 40, and UI device 43 are connected to a bus 38. .
  • the OIS driver 23 is also connected to the bus 38 .
  • one bus is shown as the bus 38 for convenience of illustration, but a plurality of buses may be used.
  • Bus 38 may be a serial bus or a parallel bus such as a data bus, an address bus, and a control bus.
  • the memory 35 temporarily stores various information and is used as a work memory.
  • An example of the memory 35 is a RAM (Random Access Memory), but it is not limited to this and may be another type of storage device.
  • Various programs for the ground camera 10 are stored in the storage 36 .
  • the CPU 37 controls the entire ground camera 10 by reading various programs from the storage 36 and executing the read various programs on the memory 35 .
  • Examples of the storage 36 include flash memory, SSD, EEPROM, HDD, and the like. Further, for example, instead of flash memory or in combination with flash memory, various nonvolatile memories such as magnetoresistive memory and ferroelectric memory may be used.
  • the imaging element 25 is a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging device 25 photographs the target subject at a predetermined frame rate under the instruction of the CPU 37 .
  • the "predetermined frame rate" referred to here indicates, for example, several tens of frames/second to several hundreds of frames/second.
  • the imaging device 25 itself may also have a built-in control device (imaging device control device). conduct.
  • the imaging element 25 may photograph the target subject at a predetermined frame rate under the instruction of the DSP 31. In this case, the detailed control inside the imaging element 25 is photographed according to the imaging instruction output by the DSP 31. This is done by the device controller.
  • the DSP 31 is also called an ISP (Image Signal Processor).
  • a light receiving surface 25A of the imaging device 25 is formed by a plurality of photosensitive pixels (not shown) arranged in a matrix.
  • each photosensitive pixel is exposed and photoelectric conversion is performed for each photosensitive pixel.
  • the charge obtained by performing photoelectric conversion for each photosensitive pixel is an analog photographing signal representing the target subject.
  • a plurality of photoelectric conversion elements having sensitivity to visible light for example, photoelectric conversion elements in which color filters are arranged
  • the plurality of photoelectric conversion elements include a photoelectric conversion element sensitive to R (red) light (for example, a photoelectric conversion element having an R filter corresponding to R), and a G (green) light.
  • these photosensitive pixels are used to perform imaging based on visible light (for example, light on the short wavelength side of approximately 700 nm or less).
  • imaging may be performed based on infrared light (for example, light on the longer wavelength side than approximately 700 nm).
  • a plurality of photoelectric conversion elements sensitive to infrared light may be used as the plurality of photosensitive pixels.
  • SWIR Short-wavelength infrared
  • an InGaAs sensor and/or a Type-II Quantum Well (T2SL; Simulation of Type-II Quantum Well) sensor may be used.
  • the imaging element 25 performs signal processing such as A/D (Analog/Digital) conversion on the analog imaging signal to generate a digital image, which is a digital imaging signal.
  • the imaging device 25 is connected to the DSP 31 via the bus 38 and outputs the generated digital image to the DSP 31 via the bus 38 frame by frame.
  • This digital image is an example of a "photographed image" in the present invention.
  • CMOS image sensor is described as an example of the imaging device 25, but the technology of the present disclosure is not limited to this, and a CCD (Charge Coupled Device) image sensor is applied as the imaging device 25. good too.
  • the imaging device 25 is connected to the bus 38 via an AFE (Analog Front End) (not shown) with a built-in CCD driver.
  • a digital image is generated by performing signal processing such as the above, and the generated digital image is output to the DSP 31 .
  • the CCD image sensor is driven by a CCD driver built into the AFE.
  • the CCD driver may be provided independently.
  • the DSP 31 performs various digital signal processing on the digital image.
  • Various types of digital signal processing refer to, for example, demosaic processing, noise removal processing, gradation correction processing, color correction processing, and the like.
  • the DSP 31 outputs the digital image after digital signal processing to the image memory 32 for each frame.
  • Image memory 32 stores digital images from DSP 31 .
  • the digital image stored in the image memory 32 is hereinafter also referred to as a "photographed image”.
  • the shake amount detection sensor 40 is, for example, a device including a gyro sensor, and detects the amount of shake of the ground camera 10. In other words, the shake amount detection sensor 40 detects the shake amount in each of the pair of axial directions.
  • the gyro sensor detects the amount of rotational shake around each axis (see FIG. 1) of the pitch axis PA, yaw axis YA, and roll axis RA (an axis parallel to the optical axis OA).
  • the shake amount detection sensor 40 detects the amount of rotational shake about the pitch axis PA and the amount of rotational shake about the yaw axis YA detected by the gyro sensor within a two-dimensional plane parallel to the pitch axis PA and the yaw axis YA. , the amount of shake of the ground camera 10 is detected.
  • a gyro sensor is given as an example of the shake amount detection sensor 40, but this is only an example, and the shake amount detection sensor 40 may be an acceleration sensor.
  • the acceleration sensor detects the shake amount within a two-dimensional plane parallel to the pitch axis PA and the yaw axis YA.
  • the shake amount detection sensor 40 outputs the detected shake amount to the CPU 37 .
  • the shake amount detection sensor 40 an example of a form in which the shake amount is detected by a physical sensor called the shake amount detection sensor 40 is given, but the technology of the present disclosure is not limited to this.
  • a motion vector obtained by comparing time-sequential captured images stored in the image memory 32 may be used as the shake amount.
  • the amount of shake to be finally used may be derived based on the amount of shake detected by a physical sensor and the motion vector obtained by image processing.
  • the CPU 37 acquires the shake amount detected by the shake amount detection sensor 40, and controls the lens side shake correction mechanism 29, the imaging element side shake correction mechanism 45, and the electronic shake correction unit 33 based on the acquired shake amount.
  • the shake amount detected by the shake amount detection sensor 40 is used for shake correction by the lens-side shake correction mechanism 29 and the electronic shake correction unit 33 .
  • the electronic shake correction unit 33 is a device including an ASIC (Application Specific Integrated Circuit).
  • the electronic shake correction unit 33 corrects shake by performing image processing on the captured image in the image memory 32 based on the amount of shake detected by the shake amount detection sensor 40 .
  • the electronic shake correction unit 33 may be a device including a plurality of ASICs, FPGAs, and PLDs.
  • a computer including a CPU, a storage, and a memory may be employed as the electronic shake correction section 33 .
  • the number of CPUs may be singular or plural.
  • the electronic shake correction unit 33 may be implemented by a combination of hardware and software configurations.
  • the communication I/F 34 is, for example, a network interface, and controls transmission of various information to and from the management device 11 via the network.
  • An example of a network is a WAN (Wide Area Network) such as the Internet or a public communication network. It controls communication between the ground camera 10 and the management device 11 .
  • the UI device 43 includes a reception device 43A and a display 43B.
  • the receiving device 43A is, for example, a hard key, a touch panel, or the like, and receives various instructions from the user.
  • the CPU 37 acquires various instructions accepted by the accepting device 43A and operates according to the acquired instructions.
  • the display 43B displays various information under the control of the CPU 37.
  • the various information displayed on the display 43B includes, for example, the contents of various instructions received by the reception device 43A, the captured image, and the like.
  • the configuration of the aerial camera 2 is the same as that of the ground camera 10.
  • the configuration corresponding to the communication I/F 34 in the aerial camera 2 is a wireless communication interface capable of wirelessly communicating with the management device 11 or a base station, or by communicating with the communication unit of the flying object 3
  • a communication interface capable of communicating with the management device 11 via the communication unit 3 is used.
  • the aerial camera 2 is mounted on the flying object 3, various modifications are possible, such as omitting the UI device 43 and the like.
  • FIG. 5 is a diagram showing an example of the electrical system configuration of the turning mechanism 16 and the management device 11.
  • the turning mechanism 16 includes a yaw axis turning mechanism 71, a pitch axis turning mechanism 72, a motor 73, a motor 74, a driver 75, and a driver .
  • the yaw axis turning mechanism 71 turns the ground camera 10 in the yaw direction.
  • the motor 73 generates power by being driven under the control of the driver 75 .
  • the yaw axis turning mechanism 71 receives power generated by the motor 73 to turn the ground camera 10 in the yaw direction.
  • the pitch axis turning mechanism 72 turns the ground camera 10 in the pitch direction.
  • Motor 74 generates power by being driven under the control of driver 76 .
  • the pitch axis turning mechanism 72 turns the ground camera 10 in the pitch direction by receiving power generated by the motor 74 .
  • the management device 11 includes a display 13, a control device 60, a reception device 62, and a communication I/F 66.
  • the control device 60 has a CPU 60A, a storage 60B, and a memory 60C.
  • CPU 60A is an example of a processor in the present invention.
  • Bus 70 Each of the reception device 62, the display 13, the secondary storage device 14, the CPU 60A, the storage 60B, the memory 60C, and the communication I/F 66 is connected to the bus 70.
  • one bus is shown as the bus 70 for convenience of illustration, but a plurality of buses may be used.
  • Bus 70 may be a serial bus or a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the memory 60C temporarily stores various information and is used as a work memory.
  • An example of the memory 60C is a RAM, but it is not limited to this and may be another type of storage device.
  • the storage 60B stores various programs for the management device 11 (hereinafter simply referred to as "management device programs").
  • the CPU 60A reads the management device program from the storage 60B and executes the read management device program on the memory 60C, thereby controlling the management device 11 as a whole.
  • the management device program includes a photographing control program in the present invention.
  • the communication I/F 66 is, for example, a network interface.
  • the communication I/F 66 is communicably connected to the communication I/F 34 of the terrestrial camera 10 via a network, and controls transmission of various information to and from the terrestrial camera 10 .
  • the communication I/F 66 requests the ground camera 10 to transmit the captured image and the captured information, and receives the captured image and the captured information transmitted from the communication I/F 34 of the ground camera 10 in response to the request. .
  • the communication I/F 66 is communicably connected to the aerial camera 2 via a network.
  • the communication I/F 66 may include a wireless communication interface that allows direct wireless communication with the aerial camera 2 .
  • communication I/F66 performs transmission control of various information between the aerial photography cameras 2 via a network or by radio
  • the communication I/F 66 requests the aerial camera 2 to transmit the captured image and the captured information, and receives the captured image and the captured information transmitted from the aerial camera 2 in response to the request.
  • the communication I/Fs 67 and 68 are, for example, network interfaces.
  • the communication I/F 67 is communicably connected to the driver 75 of the turning mechanism 16 via a network.
  • the CPU 60A controls the turning motion of the yaw axis turning mechanism 71 by controlling the motor 73 via the communication I/F 67 and the driver 75 .
  • the communication I/F 68 is communicably connected to the driver 76 of the turning mechanism 16 via a network.
  • the CPU 60A controls the turning motion of the pitch axis turning mechanism 72 by controlling the motor 74 via the communication I/F 68 and the driver 76 .
  • the reception device 62 is, for example, a keyboard, mouse, touch panel, etc., and receives various instructions from the user.
  • the CPU 60A acquires various instructions accepted by the accepting device 62 and operates according to the acquired instructions. For example, when the receiving device 62 receives the processing details for the ground camera 10 and/or the turning mechanism 16 , the CPU 60A operates the ground camera 10 and/or the turning mechanism 16 according to the instruction contents received by the receiving device 62 .
  • the display 13 displays various information under the control of the CPU 60A.
  • the various information displayed on the display 13 includes, for example, the contents of various instructions received by the reception device 62, the captured image and the captured information received by the communication I/F 66, and the like.
  • the management device 11 has a secondary storage device 14 .
  • the secondary storage device 14 is, for example, a non-volatile memory, and stores various information under the control of the CPU 60A.
  • Various types of information stored in the secondary storage device 14 include, for example, captured images received by the communication I/F 66 .
  • the secondary storage device 14 is an example of memory in the present invention.
  • control device 60 controls to display the captured image and the captured information received by the communication I/F 66 on the display 13, and secondary storage of the captured image and the captured information received by the communication I/F 66. It controls the device 14 to be stored.
  • control device 60 displays the captured image on the display 13 and stores the captured image received by the communication I/F 66 in the secondary storage device 14.
  • the technology disclosed is not limited to this. For example, either the display of the captured image on the display 13 or the storage of the captured image on the secondary storage device 14 may be performed.
  • FIG. 6 is a diagram showing an example of storage of photographed images and photographing information by the management device 11.
  • the control device 60 of the management device 11 stores the photographed image 81 and the photographing information table 82 in the secondary storage device 14, for example.
  • the photographed image 81 is a photographed image obtained by photographing with a plurality of cameras including the aerial camera 2 and the ground camera 10 .
  • the captured images 81 include captured images with identifiers IMG1, IMG2, IMG3, IMG4, .
  • the photographing information table 82 stores photographing information regarding the photographing of the photographed image for each identifier of the photographed image included in the photographed image 81 .
  • the shooting information includes, for example, “camera ID”, “shooting time”, “shooting parameters”, “camera position”, “camera orientation”, “camera model”, “photographer”, “shooting target”, and “shooting approach”. , “automatic photography log”, and the like.
  • Camera ID is identification information (for example, serial number) of the imaging device used to capture the corresponding captured image.
  • Camera ID is a camera ID stored in the internal memory of the imaging device.
  • Photographing time is the time (date and time) when the corresponding photographed image was photographed.
  • Camera position is the time obtained, for example, from the internal clock of the imaging device.
  • “Shooting parameters” are parameters such as exposure, aperture value, focus position, focal length (angle of view), wide balance, etc. be.
  • Camera position is the position at which the imaging device used to capture the corresponding captured image was installed at the time of the capture.
  • a “camera position” is a position measured by a GPS (Global Positioning System) unit or the like provided in the photographing device, for example.
  • Camera direction is the direction in which the imaging device used to capture the corresponding captured image was facing at the time of capturing.
  • Camera direction is a position measured by an electronic compass or the like provided in the imaging device, for example.
  • “Camera model” is the model of the imaging device used to capture the corresponding captured image.
  • “Camera model” is a model name (for example, model number) stored in the internal memory of the imaging device.
  • the “photographer” is the name or identifier of the person who took the corresponding photographed image.
  • “Photographer” is set in the imaging device by, for example, a user's operation on the imaging device.
  • Capturing target is the target of capturing the corresponding captured image.
  • the “imaging object” is a part of a certain large object indicated by a corresponding captured image, such as parts p1 to p7 to be photographed, which will be described later.
  • the "shooting approach” is the method of shooting, for example, whether it is shooting from the ground or shooting from the air.
  • the “shooting approach” may be set in the photographing device by, for example, a user's operation on the photographing device, or may be automatically set depending on the model of the photographing device.
  • Automatic shooting log is a log of automatic shooting (for example, pan, tilt, zoom and shooting log).
  • a photographing device such as the aerial camera 2 or the ground camera 10 transmits a photographed image obtained by photographing and photographing information related to the photographing to the management device 11 .
  • the management device 11 stores the received photographed image and photographing information in the secondary storage device 14 as shown in FIG.
  • the management device 11 performs photography control for controlling photography by the second photography device (for example, the ground camera 10) based on the photographed image and photography information of the first photography camera (for example, the aerial photography camera 2). Furthermore, the management device 11 may perform assist control for assisting photography by the second photography device (for example, the ground camera 10) based on the photographed image and photography information of the first photography camera (for example, the aerial photography camera 2). .
  • FIG. 7 and 8 are diagrams showing an example of coordinated photography by the aerial camera 2 and the ground camera 10.
  • FIG. 1 cooperative photography will be described in which a large subject is divided into a plurality of parts to be photographed, and the divided parts to be photographed are shared between the aerial camera 2 and the ground camera 10 . That is, photographing by the ground camera 10 is photographing of a part of the subject photographed by the aerial camera 2 that is different from the part photographed by the aerial camera 2 .
  • the transmission tower 4 and the electric wire 5 extending from the transmission tower 4 are taken as subjects, and cooperative photography is performed by the aerial camera 2 and the ground camera 10 for inspection and the like.
  • the aerial camera 2 and the ground camera 10 for inspection and the like.
  • Abnormalities in the transmission tower 4 include, for example, loose bolts of the transmission tower 4 and cracks in the transmission tower 4 .
  • the abnormality of the electric wire 5 includes, for example, a sign (damage) of breakage of the electric wire 5 and the like.
  • the aerial camera 2 and the ground camera 10 share the divided parts to be photographed, for example, the aerial camera 2 can be used to photograph a part that is difficult to photograph by bringing the ground camera 10 by a person. It is possible to flexibly photograph parts that are difficult to photograph with the aerial camera 2 due to flight prohibited areas, etc., with the ground camera 10, and the like.
  • the parts to be photographed p1 to p7 shown in FIGS. 7 and 8 are obtained by dividing the power transmission tower 4 and the electric wire 5, which are subjects, into a plurality of parts to be photographed.
  • the parts to be photographed p1 to p5 are parts to be photographed by the aerial camera 2 .
  • Parts p6 to p7 are parts that are difficult to be photographed by the aerial camera 2 due to, for example, a no-fly area or the like, and are to be photographed by the ground camera 10 .
  • This photographing may be performed by controlling the aerial camera 2 from the management device 11, may be performed by controlling the aerial camera 2 from a device different from the management device 11, or may be performed by controlling the aerial camera 2 from a device different from the management device 11. It may be performed autonomously by the camera 2 . Photographed images obtained by photographing the photographed parts p1 to p5 and photographing information are transmitted from the aerial photographing camera 2 to the management device 11 .
  • the management device 11 is a notebook computer.
  • the management device 11 stores the photographed images and photographing information transmitted from the aerial camera 2, and based on the stored photographed images and photographing information, performs photographing control for controlling the photographing of the photographed parts p6 to p7 by the ground camera 10. conduct.
  • the management device 11 sets imaging parameters for the ground camera 10 to image the imaging regions p6 to p7 based on the imaging parameters included in the imaging information of the imaging regions p1 to p5 by the aerial camera 2.
  • Setting of photographing parameters for the terrestrial camera 10 by the management device 11 is performed by the management device 11 transmitting a control signal to the terrestrial camera 10 via the communication line 12, for example.
  • the aerial camera 2 and ground camera 10 have a zoom mechanism that can change the angle of view (focal length).
  • the photographing parts p6 to p7 can be photographed at a magnification close to that of the parts p1 to p5 photographed by the aerial camera 2.
  • FIG. Therefore, it is possible to efficiently inspect the power transmission tower 4 and the electric wire 5 while referring to the photographed images of the photographed parts p1 to p5 and the photographed images of the photographed parts p6 to p7.
  • the angle of view of the ground camera 10 is set based on the angle of view of the aerial camera 2 and the like has been described.
  • the photographing parameters used when performing this are not limited to the angle of view, and may be, for example, exposure, aperture value, focus position, white balance, and the like.
  • the management device 11 controls the shooting of the ground camera 10 (for example, sets shooting parameters) based on the shooting information (shooting parameters) of the aerial camera 2, thereby performing a plurality of shots of the subject. It is possible to easily perform cooperative photographing in which the body is divided into parts and the divided photographing parts are shared by the aerial camera 2 and the ground camera 10 for photographing.
  • the management device 11 may perform assist control for assisting shooting by the ground camera 10 in addition to the shooting control of the ground camera 10 described above.
  • FIG. 9 is a flowchart showing a first example of assist control by the management device 11. As shown in FIG. The management device 11 executes, for example, the process shown in FIG. 9 as assist control.
  • the management device 11 acquires the current shooting approach by the ground camera 10 (step S901).
  • the photography approach is, for example, a method of photography such as whether it is photography from the ground or photography from the air (whether it is an aerial photography).
  • the management device 11 acquires the current shooting approach by the ground camera 10 through an operation input from the user.
  • the management device 11 acquires imaged information indicating the imaged parts that have already been imaged among the imaged parts of the subject (for example, the power transmission tower 4 and the electric wire 5) (step S902).
  • imaged information indicating the imaged parts that have already been imaged among the imaged parts of the subject (for example, the power transmission tower 4 and the electric wire 5)
  • imaging target in the imaging information table 82 shown in FIG. Get the value as captured information.
  • n is the index of the imaging part.
  • the subject is divided into imaging regions [0] to [N].
  • n is a value in the range of 0-N.
  • the management device 11 determines whether or not the imaging part [n] has been imaged based on the imaging completion information acquired in step S902 (step S904). If the imaged part [n] has not been imaged (step S904: No), the management device 11 registers the imaged part [n] as a candidate to be imaged by the ground camera 10 (step S905).
  • the management device 11 determines whether the current index n is smaller than the maximum value N (step S906). If the index n is smaller than the maximum value N (step S906: Yes), the management device 11 increments n (step S907) and returns to step S904.
  • step S904 if the imaging site [n] has been imaged (step S904: Yes), the management device 11 determines whether an NG flag is added to the captured image of the imaging site [n] (step S908).
  • the NG flag is flag information indicating that the captured image does not satisfy a predetermined condition. For example, it is added when the photographed image is not properly exposed, is blurred, is out of focus, or includes an unintended reflection of a bird or the like.
  • the NG flag may be added by the user of the management device 11 after viewing the captured image, or may be automatically added by the management device 11 through image analysis or the like.
  • step S908 if the NG flag is not added to the captured image (step S908: No), the management device 11 proceeds to step S906 without registering the imaging region [n] as an imaging target candidate. If the NG flag is added to the captured image (step S908: Yes), the management device 11 adds the current image acquired in step S901 to the past imaging approach of the imaging region [n] indicated by the imaging information table 82. It is determined whether or not the photographing approach by the ground camera 10 is different (step S909).
  • step S909 if the imaging approaches are the same (step S909: No), the management device 11 proceeds to step S906 without registering the imaging region [n] as an imaging target candidate. If the imaging approaches are different (step S909: Yes), the management device 11 determines whether the imaging performance of the current imaging with the ground camera 10 is higher than the imaging performance of the imaging region [n] in the past. It judges (step S910).
  • the shooting performance includes, for example, resolution, F value, high sensitivity performance, telephoto performance (angle of view), and the like.
  • the imaging performance of each imaging device is determined, for example, by the model of each device.
  • the management device 11 stores performance information indicating the shooting performance for each model of the shooting device, and the management device 11 stores the performance information based on the performance information and the model name included in the shooting information table 82. Determine shooting performance.
  • the imaging information table 82 may include performance information indicating the imaging performance, and the management device 11 may refer to the imaging information table 82 to determine the imaging performance.
  • step S910 if the imaging performance is not high (step S910: No), the management device 11 proceeds to step S906 without registering the imaging region [n] as an imaging target candidate. If the imaging performance is high (step S910: Yes), the management device 11 registers the imaging region [n] as an imaging target candidate for the ground camera 10 (step S911), and proceeds to step S906.
  • step S906 if the index n is not smaller than the maximum value N (step S906: No), the management device 11 displays the photographing target candidates registered in steps S905 and S911 to the photographer using the ground camera 10. (step S912), and the series of processing ends.
  • the display of imaging target candidates in step S ⁇ b>912 is performed by the display 13 provided in the management apparatus 11 .
  • the display of imaging target candidates in step S ⁇ b>912 may be performed by the management device 11 controlling the display 43 ⁇ /b>B of the ground camera 10 .
  • FIG. 10 is a diagram showing an example of a display of image capturing target candidates for the ground camera 10 by the management device 11.
  • the management device 11 displays the photographing map 100 shown in FIG. 10 to the photographer 8 using the ground camera 10, for example.
  • the photographed map 100 is a two-dimensional map of an area in which the power transmission tower 4 and the electric wire 5, which are subjects, are laid.
  • a plurality of power transmission towers 4 and power transmission towers 4 are shown on the imaging map 100 .
  • the imaging map 100 also shows imaging regions p1 to p8. In this way, the imaging region is set in advance by designating each part of the imaging map 100, for example.
  • a current location mark 101 is the current location of the management device 11 and the ground camera 10 .
  • the management device 11 superimposes and displays the current location mark 101 on the photographing map 100 based on the position information acquired by at least one of the management device 11 and the ground camera 10 using a GPS unit or the like.
  • steps S905 and S911 of FIG. 9 it is assumed that of the imaging regions p1 to p8, imaging regions p7 and p8 are registered as imaging target candidates.
  • the management device 11 highlights the imaging regions p7 and p8, which are candidates for imaging, by displaying them in a manner different from the other imaging regions p1 to p6.
  • the photographer 8 can easily recognize that the parts to be photographed by the ground camera 10 are the parts to be photographed p7 and p8, and the parts to be photographed p7 and p8 can be photographed by the ground camera 10.
  • the management device 11 may perform control for selecting a part to be photographed by the ground camera 10 from preset photographing parts of the subject as assist control for assisting photographing by the ground camera 10. good.
  • the photographing information table 82 includes photographed information indicating the parts photographed by the aerial photographing camera 2 among the photographed parts of the subject. 10 to select a region to be imaged.
  • the photographer 8 can easily recognize the part to be photographed by the ground camera 10, the subject is divided into a plurality of parts to be photographed, and the divided parts to be photographed are shared with the aerial camera 2 and the ground. It is possible to easily perform cooperative photography in which the cameras 10 share the responsibility of photographing.
  • FIG. 11 is a diagram for explaining a second example of assist control by the management device 11.
  • the first photographing device is not the aerial camera 2 but the ground camera 6 different from the ground camera 10 .
  • the photographer 9 uses the ground camera 6 to photograph portions p1 to p5 of the power transmission tower 4 and the electric wire 5.
  • FIG. At this time, the photographer 9 shoots the terrestrial camera 6 with the smartphone 7 capable of photographing the terrestrial camera 6 at a short distance.
  • the ground camera 6 transmits to the management device 11 the captured image obtained by the shooting and the shooting information including the position information of the ground camera 6 acquired by the GPS unit or the like included in the ground camera 6 as the camera position.
  • the smartphone 7 transmits the location information of the smartphone 7 acquired by the GPS unit or the like included in the smartphone 7 to the management device 11 .
  • the smartphone 7 may further transmit a photographed image obtained by photographing the ground camera 6 to the management device 11 .
  • the management device 11 may store this photographed image as an image showing the situation at the time of photographing by the ground camera 6 by including it in the photographing information received from the ground camera 6 .
  • FIG. 12 is a flowchart showing an example of processing of the management device 11 in the second example of assist control.
  • the management device 11 executes the process shown in FIG. 12, for example.
  • the processing shown in FIG. 12 is performed, for example, when controlling photography by the ground camera 10 based on the photography information of the ground camera 6 .
  • the process shown in FIG. 12 is performed when the management device 11 receives the shooting information (including the position information of the ground camera 6) transmitted by the ground camera 6 and the position information of the smartphone 7 transmitted by the smartphone 7. may be done.
  • the management device 11 acquires the position information of the ground camera 6 received from the ground camera 6 (step S1201). Next, the management device 11 acquires the location information of the smartphone 7 that captured the ground camera 6, received from the smartphone 7 (step S1202).
  • the management device 11 determines whether the difference between the pieces of location information acquired in steps S1201 and S1202 is equal to or greater than a threshold (step S1203). Specifically, the management device 11 determines whether the distance between the position of the ground camera 6 indicated by the position information of the ground camera 6 and the position of the smartphone 7 indicated by the position information of the smartphone 7 is equal to or greater than a threshold. to judge.
  • This threshold is set in advance, and is about 10 [m] as an example.
  • step S1203 if the difference is not equal to or greater than the threshold (step S1203: No), the management device 11 terminates the series of processes. If the difference is greater than or equal to the threshold (step S1203: Yes), the management device 11 outputs warning information to the user of the management device 11 (step S1204), and ends the series of processes.
  • warning information for example, when the management device 11 displays a list of captured images captured by the first image capturing device including the ground camera 6, for captured images with a large difference in position information, the position information display a warning that there is a problem with
  • the output of warning information is not limited to this, and can be performed by various methods.
  • the shooting information from the ground camera 6 includes the position information of the ground camera 6 at the time of shooting by the ground camera 6, and the management device 11 identifies the subject (the power transmission tower 4 and the electric wire 5). Control based on the difference between the position information of the smartphone 7 obtained by the smartphone 7 (third imaging device) that captured the ground camera 6 to be photographed and the position information of the ground camera 6 (control to issue a warning when the difference is large) ) may be performed.
  • the smartphone 7 has been described as an example of the third photographing device capable of photographing the ground camera 6 at a short distance
  • the third photographing device is not limited to the smartphone 7, and may be a tablet terminal, a laptop computer, a compact digital camera, or the like.
  • the third photographing device may be the management device 11 provided with a photographing function.
  • the position information of the ground camera 6 is acquired by the GPS unit or the like of the ground camera 6 has been described, but when the ground camera 6 is mounted on a moving body such as a car, the ground camera 6
  • the position information acquired by a GPS unit or the like may be acquired, and the acquired position information may be transmitted to the management device 11 as the position information of the ground camera 6 .
  • the assist control by the management device 11 is not limited to the above example, and can be various types of control based on a captured image or shooting information.
  • the management device 11 may transmit at least one of the captured image and the captured information captured by the first capturing device (the aerial camera 2 and the ground camera 6) at the time of capturing by the second capturing device (the ground camera 10).
  • assist control for displaying to the photographer (for example, the photographer 8) using the second photographing device may be performed.
  • the photographer using the second imaging device can perform imaging by referring to the imaging information and the imaging information that are imaging results of other imaging regions.
  • the management device 11 may perform automatic photography control for controlling automatic photography by the ground camera 10 in addition to the photography control of the ground camera 10 described above.
  • FIG. 13 and 14 are diagrams showing an example of automatic shooting control by the management device 11.
  • the first photographing device is not the aerial camera 2 but the ground camera 6 different from the ground camera 10 .
  • Ground camera 6 and ground camera 10 are capable of automatically photographing a plurality of parts of a subject.
  • Automatic photographing is a function of automatically photographing a plurality of parts of a subject by photographing while sequentially switching the photographing range by the pan, tilt, and zoom functions of the turning mechanism 16 .
  • the ground camera 6 automatically captured the imaged parts p1 to p7.
  • the ground camera 6 transmits an automatic photography log, which is a log of the automatic photography that has been executed, to the management device 11 as photography information together with the photographed images obtained by this automatic photography.
  • the automatic imaging log is, for example, information indicating procedures such as imaging of the imaging region p1, changing the imaging range by panning and tilting, imaging of the imaging region p2, changing the imaging range by panning and tilting, imaging of the imaging region p3, and so on. Yes, including direction and amount of pan and tilt when changing the shooting range.
  • Parameters for imaging the first imaging site p1 include, for example, the direction of the ground camera 6 (obtained by the electronic compass of the ground camera 6, for example), the drive parameter of the turning mechanism 16, the zoom position of the ground camera 6, and the like. may be included in
  • the ground camera 10 automatically takes pictures of the parts p1 to p7 to be photographed.
  • the management device 11 controls the automatic photography of the ground camera 10 based on the automatic photography log of the ground camera 6 so that the same photography as the automatic photography performed on January 7, 2021 is executed.
  • the ground camera 10 can automatically photograph the photographed parts p1 to p7.
  • the ground camera 6 is capable of automatically photographing a plurality of parts of the subject, and may transmit photographing information including automatic photographing logs to the management device 11.
  • the management device 11 may perform automatic photography control for controlling automatic photography of the same plurality of parts by the ground camera 10 based on the automatic photography log.
  • the automatic photographing control of the ground camera 6 may be performed based on the automatic photographing log of the ground camera 6. good. That is, in the examples of FIGS. 13 and 14, on July 7, 2021 in FIG. Based on the automatic shooting log of the ground camera 6 on January 7, automatic shooting control of the ground camera 6 on January 7, 2021 may be performed.
  • the second photographing device (for example, the ground camera 10) photographs a surface of the subject photographed by the first photographing device (for example, the aerial photographing camera 2), which is different from the surface photographed by the first photographing device.
  • the plane to be photographed is synonymous with the direction of photographing.
  • the sphere is photographed from a certain direction by the first photographing device, and the sphere is photographed by the second photographing device. It includes the case of shooting from another direction (e.g. opposite direction).
  • FIG. 15 is a diagram showing an example of photographing by the aerial camera 2 and the ground camera 10 of the second embodiment.
  • the aerial camera 2 and the ground camera 10 photograph the same imaging target site (near the top of the power transmission tower 4) from different directions.
  • a flying object 3 equipped with an aerial camera 2 is located on the north side (back side of the figure) of a power transmission tower 4, and a photographer 8 holding a ground camera 10 is located on the south side (front side of the figure) of the power transmission tower 4. shall be located.
  • the aerial camera 2 photographs the north side of the top of the power transmission tower 4
  • the ground camera 10 photographs the south side of the top of the power transmission tower 4 .
  • the aerial camera 2 transmits the photographed image obtained by photographing the power transmission tower 4 and the photographing information including the information indicating the position and orientation of the aerial camera 2 at the time of photographing to the management device 11. do.
  • the position and orientation of the aerial camera 2 are acquired by, for example, a GPS unit, an electronic compass, or the like provided in the aerial camera 2 or the flying object 3 .
  • the management device 11 controls the shooting of the ground camera 10 based on the shooting information of the aerial camera 2 (position and orientation of the aerial camera 2) and the position and orientation of the ground camera 10. Control orientation.
  • the position and orientation of the terrestrial camera 10 are acquired by, for example, a GPS unit, an electronic compass, or the like provided in the terrestrial camera 10 .
  • Control of the shooting direction of the ground camera 10 can be performed by driving the turning mechanism 16, for example.
  • FIGS. 16 and 17 are diagrams for explaining an example of controlling the shooting direction of the ground camera 10.
  • FIG. Let the vertical direction (the direction of gravity) be the Z direction, and let the directions perpendicular to the Z direction and perpendicular to each other be the X direction and the Y direction.
  • FIG. 16 shows the positional relationship between the aerial camera 2 and the part to be photographed (for example, near the top of the power transmission tower 4) viewed from the Z direction.
  • FIG. 17 shows the positional relationship between the aerial camera 2 and the part to be photographed on a vertical plane including the respective positions (D, T) of the aerial camera 2 and the part to be photographed.
  • the tilt direction of the ground camera 10 matches the part to be photographed, and that the part to be photographed can be photographed by the ground camera 10 by controlling the panning direction of the ground camera 10 .
  • C, D, ⁇ , ⁇ , h and ⁇ are input information that the management device 11 can acquire.
  • C is the position of the terrestrial camera 10, which is acquired by the GPS unit or the like provided in the terrestrial camera 10 and the management device 11.
  • D is the position of the aerial camera 2, which is acquired by a GPS unit or the like provided in the aerial camera 2 or the flying object 3.
  • is the current orientation of the ground camera 10 with respect to a specific direction (X direction), and is obtained by an electronic compass or the like included in the ground camera 10 .
  • is the orientation of the aerial camera 2 with respect to a specific direction (X direction) when the aerial camera 2 captures an image of the target site, and is obtained by an electronic compass or the like provided in the aerial camera 2 or the flying object 3 .
  • h is the height of the aerial camera 2 from the ground, and is obtained by a GPS unit or the like provided in the aerial camera 2 or the flying object 3;
  • is the tilt angle with respect to the horizontal direction when the aerial camera 2 captures an image of the part to be imaged, and is acquired by an angular velocity sensor or the like provided in the aerial camera 2 or the flying object 3 .
  • may be acquired from the driving state of the tilt mechanism of the aerial camera 2 or the like.
  • the management device 11 calculates ⁇ as output information based on the above input information and the following formula (1).
  • is a panning angle for the ground camera 10 to photograph the same imaging target part as the aerial camera 2 from the current state.
  • the management device 11 can direct the ground camera 10 to the same imaging target region as the aerial camera 2 . Therefore, the photographer 8 who takes an image using the ground camera 10 can take an image of the same object part as the aerial camera 2 with the ground camera 10 without worrying about the direction of the ground camera 10.
  • the management device 11 may control the ground camera 10 to perform imaging after directing the ground camera 10 toward the part to be imaged.
  • FIGS. 18 and 19 are diagrams for explaining another example of controlling the shooting direction of the ground camera 10.
  • FIG. FIG. 20 is a diagram showing an example of the relationship between the size of the subject and the size of the image on the imaging plane.
  • FIG. 21 is a diagram showing an example of the number of pixels in the entire image and the number of pixels in the subject portion.
  • 18 and 19 show the positional relationship between the aerial camera 2 and the part to be imaged as seen from the Z direction. 18 shows the case of ⁇ - ⁇ /2 [rad], and FIG. 19 shows the case of ⁇ - ⁇ /2 [rad].
  • control of the shooting direction of the ground camera 10 when the position information of the aerial camera 2 cannot be obtained will be described. That is, when the size of the flying object 3 is known, the aerial camera 2 is once photographed by the ground camera 10, and the ground camera 10 is automatically directed to the part to be photographed by the aerial camera 2. Is possible.
  • d shown in FIG. 20 is the size of the flying object 3.
  • f shown in FIG. 20 is the focal length when the ground camera 10 is photographing the flying object 3 .
  • q shown in FIG. 20 is the size of the image of the part where the flying object 3 is captured on the imaging sensor of the ground camera 10 .
  • a photographed image 210 shown in FIG. 21 is a photographed image obtained by photographing the flying object 3 with the ground camera 10 .
  • w shown in FIG. 21 is the number of horizontal pixels of the entire photographed image 210 (in the case of horizontal shooting).
  • a flying object area 211 shown in FIG. 21 is an area in which the flying object 3 appears in the captured image 210 .
  • the management device 11 identifies the flying object region 211 by image recognition processing, for example.
  • g shown in FIG. 21 is the number of horizontal pixels of the flying object region 211 (in the case of horizontal shooting).
  • p be the width of the imaging sensor of the ground camera 10 (in the case of horizontal shooting).
  • ⁇ , ⁇ , h, ⁇ , d, f, w, g, and p are input information that the management device 11 can acquire.
  • the above D position of the aerial camera 2 cannot be obtained by the management device 11, or even if it can be obtained, it is not accurate and cannot be used.
  • the management device 11 calculates ⁇ as output information as follows.
  • is a panning angle for photographing the same object part as that of the aerial camera 2 from the current state of the ground camera 10 (in this case, the state of photographing the flying object 3).
  • the size of the image of the part where the flying object 3 is captured on the imaging sensor of the ground camera 10 is q. Also, the width of the imaging sensor of the ground camera 10 (for horizontal shooting) is p. Therefore, the following formula (3) holds.
  • the management device 11 drives the turning mechanism 16 based on ⁇ calculated by the above equation (5), and pans the ground camera 10 by ⁇ . can be directed. Therefore, even if the management device 11 cannot acquire the position (D) of the aerial camera 2 , the ground camera 10 can photograph the same part to be photographed as the aerial camera 2 . Furthermore, the management device 11 may control the ground camera 10 to perform imaging after directing the ground camera 10 toward the part to be imaged.
  • the management device 11 controls the position of the aerial camera 2 (the first camera) during shooting.
  • Shooting control may be performed to control the shooting direction of the camera 10 .
  • the management device 11 can calculate the relative position of the aerial camera 2 with respect to the ground camera 10 based on, for example, the captured image 210 obtained by capturing the aerial camera 2 with the ground camera 10 . As a result, once the aerial camera 2 is photographed by the ground camera 10, the ground camera 10 can be automatically directed to the part to be photographed by the aerial camera 2. - ⁇
  • the pan angle ( ⁇ ) of the ground camera 10 is calculated and the ground camera 10 is panned to point the management device 11 at the imaging target site.
  • a tilt angle for directing the ground camera 10 toward the imaging target site may be calculated, and the rotation mechanism 16 may be driven based on the calculated tilt angle to tilt the ground camera 10 .
  • the management device 11 calculates the distance (
  • the ground camera 10 has been described as an example of the second imaging device, the second imaging device may be an aerial camera.
  • the flying object 3 has been described as the moving object on which the first imaging device is mounted, the moving object on which the first imaging device is mounted may be an automobile, a ship, an autonomous mobile robot, or the like. Moreover, it is good also as a structure which mounts a 2nd imaging device in a mobile body.
  • the means for acquiring position information is not limited to the GPS unit, but may be an RTK (Real Time Kinematic) unit, or a combination of the GPS unit and the RTK unit. There may be.
  • RTK Real Time Kinematic
  • ⁇ Modification 5> A configuration has been described in which the management device 11 performs imaging control and assist control of the second imaging device based on the captured image and imaging information obtained by the first imaging device.
  • a configuration may be adopted in which assist control of the second photographing device is performed without performing photographing control of the second photographing device based on the obtained photographed image and photographing information.
  • the storage 60B of the management device 11 stores the imaging control program of each embodiment, and the CPU 60A of the management device 11 executes the imaging control program in the memory 60C.
  • the technology is not limited to this.
  • FIG. 22 is a diagram showing an example of how the shooting control program of the embodiment is installed in the control device 60 of the management device 11 from the storage medium storing the shooting control program.
  • an imaging control program 221 may be stored in a storage medium 220, which is a non-temporary storage medium.
  • the shooting control program 221 stored in the storage medium 220 is installed in the control device 60, and the CPU 60A executes the above-described shooting control and the like according to the shooting control program 221.
  • FIG. 21 is a diagram showing an example of how the shooting control program of the embodiment is installed in the control device 60 of the management device 11 from the storage medium storing the shooting control program.
  • an imaging control program 221 may be stored in a storage medium 220, which is a non-temporary storage medium.
  • the shooting control program 221 stored in the storage medium 220 is installed in the control device 60, and the CPU 60A executes the above-described shooting control and the like according to the shooting control program 221.
  • FIG. 21 is a diagram showing
  • the CPU 60A is a single CPU, but the technology of the present disclosure is not limited to this, and multiple CPUs may be employed.
  • An example of the storage medium 220 is any portable storage medium such as an SSD or USB (Universal Serial Bus) memory.
  • the photographing control program 221 is stored in a storage unit such as another computer or server device connected to the control device 60 via a communication network (not shown), and photographing is performed in response to a request from the management device 11 described above.
  • the control program 221 may be downloaded to the control device 60 . In this case, the downloaded shooting control program 221 is executed by the CPU 60A of the control device 60.
  • the shape of the aerial camera 2 and the ground camera 10 is not limited to those shown in the drawings, and various shapes can be used. Also, the aerial camera 2 and the ground camera 10 may be smartphones, tablet terminals, notebook computers, compact digital cameras, and the like.
  • An imaging control device comprising a memory and a processor, the memory stores a photographed image obtained by photographing by the first photographing device and photographing information relating to the photographing in association with each other;
  • the processor performs imaging control for controlling imaging by a second imaging device different from the first imaging device, based on at least one of the captured image and the imaging information.
  • Shooting control device comprising a memory and a processor, the memory stores a photographed image obtained by photographing by the first photographing device and photographing information relating to the photographing in association with each other;
  • the processor performs imaging control for controlling imaging by a second imaging device different from the first imaging device, based on at least one of the captured image and the imaging information.
  • the imaging control device according to (1), The photographing by the second photographing device is photographing of a part of the subject photographed by the first photographing device that is different from the part photographed by the first photographing device. Shooting control device.
  • the imaging control device includes setting shooting parameters by the second shooting device based on the shooting information. Shooting control device.
  • the imaging control device includes position information of the first imaging device at the time of imaging by the first imaging device
  • the processor performs control based on the difference between the position information of the third photographing device obtained by the third photographing device that photographed the first photographing device photographing the subject and the position information of the first photographing device. I do, Shooting control device.
  • the imaging control device according to any one of (2) to (4), The processor performs control to select a part to be imaged by the second imaging device from preset parts of the subject. Shooting control device.
  • the imaging control device includes photographed information indicating a portion of the subject photographed by the first photographing device, The processor performs control to select a part to be imaged by the second imaging device based on the imaging completion information. Shooting control device.
  • the imaging control device includes flag information indicating whether the corresponding photographed image satisfies a predetermined condition
  • the processor performs control to select a region to be imaged by the second imaging device based on the flag information.
  • Shooting control device .
  • the imaging control device according to any one of (5) to (7),
  • the shooting information includes flag information indicating whether or not the shooting of the corresponding shot image is an aerial shot,
  • the processor performs control to select a region to be imaged by the second imaging device based on the flag information.
  • Shooting control device
  • the imaging control device according to any one of (5) to (8),
  • the imaging information includes performance information indicating the model or imaging performance of the first imaging device,
  • the processor performs control to select a region to be imaged by the second imaging device based on the performance information and the model or imaging performance of the second imaging device.
  • Shooting control device
  • the imaging control device according to any one of (1) to (9),
  • the first photographing device is capable of automatically photographing a plurality of parts of a subject
  • the shooting information includes a log of the automatic shooting
  • the processor performs automatic imaging control for controlling automatic imaging of the plurality of parts by the first imaging device or the second imaging device based on the imaging information.
  • Shooting control device
  • the imaging control device according to (1), The photographing of the subject by the second photographing device is photographing in a direction different from the photographing direction of the subject by the first photographing device, Shooting control device.
  • the imaging control device according to (11),
  • the imaging information includes information indicating the position and orientation of the first imaging device at the time of imaging by the first imaging device,
  • the shooting control includes controlling the orientation of shooting by the second shooting device based on the shooting information and the position and orientation of the second shooting device.
  • Shooting control device
  • the imaging control device according to (11),
  • the photographing information includes information indicating the relative position of the first photographing device with respect to the second photographing device and the orientation of the first photographing device at the time of photographing by the first photographing device,
  • the shooting control includes controlling the orientation of shooting by the second shooting device based on the shooting information and the position and orientation of the second shooting device. Shooting control device.
  • the imaging control device according to The relative position is calculated based on a photographed image obtained by photographing the first photographing device by the second photographing device, Shooting control device.
  • the imaging control device according to any one of (1) to (14), At least one of the first imaging device and the second imaging device includes an imaging device mounted on a moving object, Shooting control device.
  • the imaging control device according to The moving object is a flying object, Shooting control device.
  • a first imaging device a second imaging device; an imaging control device including a communication unit capable of communicating with the first imaging device and the second imaging device,
  • the photographing control device associates and records a photographed image obtained by photographing by the first photographing device and photographing information regarding the photographing, and based on at least one of the photographed image and the photographing information, Performing shooting control for controlling shooting by the second shooting device, shooting system.
  • a shooting control method by a shooting control device comprising a memory and a processor, the memory stores a photographed image obtained by photographing by the first photographing device and photographing information relating to the photographing in association with each other;
  • the processor performs imaging control for controlling imaging by a second imaging device different from the first imaging device, based on at least one of the captured image and the imaging information.
  • Shooting control method
  • a photographing control program executed by a photographing control device comprising a memory and a processor for recording a photographed image obtained by photographing by a first photographing device and photographing information relating to photographing in association with each other,
  • the processor performs photographing control for controlling photographing by a second photographing device different from the first photographing device, based on at least one of the photographed image and the photographing information;
  • a shooting control program for executing processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

複数のカメラを用いた連携撮影を容易にすることのできる撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラムを提供する。 管理装置(11)は、空撮カメラ(2)による撮影で得られた撮影画像と、その撮影に関する撮影情報と、を対応付けて記録する。また、管理装置(11)は、記憶した撮影画像及び撮影情報の少なくともいずれかに基づいて、空撮カメラ(2)と異なる地上カメラ(10)による撮影を制御する撮影制御を行う。

Description

撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラム
 本発明は、撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラムに関する。
 特許文献1-5には、複数のカメラのそれぞれについて、カメラの撮影位置と撮影データとを紐づけて管理する撮影制御装置が記載されている。例えば、特許文献1には、あるカメラの撮影映像データに基づいて死角を検出し、死角を防止するように他のカメラに移動指示信号を出力することが記載されている。
 特許文献6-10には、複数のカメラを制御する制御装置が、あるカメラの撮影条件に基づいて他のカメラの制御量を決定するカメラシステムが記載されている。例えば、特許文献6には、複数の撮像装置の撮影条件に基づいて対象の次の位置を推定し、その位置に移動した対象を撮影するように周囲の撮像装置を制御することが記載されている。
再表2018-043225号公報 日本国特開2015-204512号公報 日本国特開2015-035686号公報 日本国特開2001-251608号公報 日本国特開2018-125699号公報 再表2019-065757号公報 日本国特開2018-129577号公報 日本国特開2000-083246号公報 日本国特開2005-057592号公報 日本国特開2006-041611号公報
 本開示の技術に係る1つの実施形態は、複数のカメラを用いた連携撮影を容易にすることができる撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラムを提供する。
 本発明の一態様の撮影制御装置は、メモリ及びプロセッサを備える撮影制御装置であって、上記メモリは、第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録し、上記プロセッサは、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行うものである。
 本発明の一態様の撮影システムは、第1撮影装置と、第2撮影装置と、上記第1撮影装置及び上記第2撮影装置と通信可能な通信部を備える撮影制御装置と、を含み、上記撮影制御装置は、上記第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録し、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第2撮影装置による撮影を制御する撮影制御を行うものである。
 本発明の一態様の撮影制御方法は、メモリ及びプロセッサを備える撮影制御装置による撮影制御方法であって、上記メモリは、第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録し、上記プロセッサは、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行うものである。
 本発明の一態様の撮影制御プログラムは、第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録するメモリ及びプロセッサを備える撮影制御装置が実行する撮影制御プログラムであって、上記プロセッサに、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、処理を実行させるためのものである。
 本発明の一態様の光学観察装置は、上記の投影装置を備えるものである。
 本発明によれば、複数のカメラを用いた連携撮影を容易にすることのできる撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラムを提供することができる。
実施形態1の撮影システムの一例を示す図である。 旋回機構16による地上カメラ10のピッチ方向の旋回の一例を示す図である。 旋回機構16による地上カメラ10のヨー方向の旋回の一例を示す図である。 地上カメラ10の光学系及び電気系の構成の一例を示すブロック図である。 旋回機構16及び管理装置11の電気系の構成の一例を示す図である。 管理装置11による撮影画像及び撮影情報の記憶の一例を示す図である。 空撮カメラ2及び地上カメラ10による連携撮影の一例を示す図(その1)である。 空撮カメラ2及び地上カメラ10による連携撮影の一例を示す図(その2)である。 管理装置11によるアシスト制御の第1の例を示すフローチャートである。 管理装置11による地上カメラ10の撮影対象候補の表示の一例を示す図である。 管理装置11によるアシスト制御の第2の例を説明するための図である。 アシスト制御の第2の例における管理装置11の処理の一例を示すフローチャートである。 管理装置11による自動撮影制御の一例を示す図(その1)である。 管理装置11による自動撮影制御の一例を示す図(その2)である。 実施形態2の空撮カメラ2及び地上カメラ10による撮影の一例を示す図である。 地上カメラ10による撮影の向きの制御の一例を説明するための図(その1)である。 地上カメラ10による撮影の向きの制御の一例を説明するための図(その2)である。 地上カメラ10による撮影の向きの制御の他の一例を説明するための図(その1)である。 地上カメラ10による撮影の向きの制御の他の一例を説明するための図(その2)である。 被写体の大きさと撮像面上での像の大きさの関係の一例を示す図である。 画像全体の画素数と被写体部分の画素数の一例を示す図である。 実施形態の撮影制御プログラムが記憶された記憶媒体から、撮影制御プログラムが管理装置11の制御装置60にインストールされる態様の一例を示す図である。
 以下、本発明の実施形態の一例について、図面を参照して説明する。
(実施形態1)
<実施形態の撮影システム>
 図1は、実施形態1の撮影システムの一例を示す図である。一例として図1に示すように、撮影システム1は、空撮カメラ2と、地上カメラ10と、管理装置11と、を含む。空撮カメラ2は、本発明における第1撮影装置の一例である。地上カメラ10は、本発明における第2撮影装置の一例である。管理装置11は、本発明における撮影制御装置の一例である。
 空撮カメラ2は、飛翔体3に搭載されることにより空撮が可能な撮影装置である。飛翔体3は、ドローンとも呼ばれ、外部からの制御による飛翔、あるいは自律的な飛翔が可能である。空撮カメラ2は、管理装置11と通信可能であり、撮影により得られた撮影画像と、その撮影に関する撮影情報を管理装置11に送信する。撮影情報の具体例については後述する(例えば図6参照)。
 空撮カメラ2と管理装置11との間の通信は、空撮カメラ2と管理装置11との間の直接的な無線通信であってもよいし、空撮カメラ2が基地局等を介してネットワークに接続することによる、ネットワークを介した通信であってもよい。また、空撮カメラ2と管理装置11との間の通信は、飛翔体3の通信部を介したものであってもよいし、飛翔体3の通信部を介さないものであってもよい。
 地上カメラ10は、屋内外の柱、壁又は建物の一部(例えば屋上)等に、後述する旋回機構16を介して設置され、被写体である撮影対象を撮影する。又は、地上カメラ10は、三脚等によって地上に設置されてもよい(例えば図8参照)。また、地上カメラ10は、撮影により得られた撮影画像と、その撮影に関する撮影情報を、通信ライン12を介して管理装置11に送信する。
 管理装置11は、ディスプレイ13及び二次記憶装置14を備えている。ディスプレイ13としては、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等が挙げられる。
 二次記憶装置14の一例としては、HDD(Hard Disk Drive)が挙げられる。二次記憶装置14は、HDDに限らず、フラッシュメモリ、SSD(Solid State Drive)、又はEEPROM(Electrically Erasable and Programmable Read Only Memory)などの不揮発性のメモリであればよい。
 管理装置11は、空撮カメラ2や地上カメラ10によって送信された撮影画像や撮影情報を受信し、受信した撮影画像や撮影情報を、ディスプレイ13に表示したり、二次記憶装置14に記憶したりする。
 管理装置11は、例えば、空撮カメラ2による撮影で得られた撮影画像と、その撮影に関する撮影情報と、を対応付けて記録する。撮影画像及び撮影情報については後述する(例えば図6参照)。そして、管理装置11は、記憶した空撮カメラ2の撮影画像及び撮影情報の少なくともいずれかに基づいて、地上カメラ10による撮影を制御する撮影制御を行う。例えば、管理装置11は、通信ライン12を介して地上カメラ10と通信を行うことによりこの撮影制御を行う。
 撮影制御は、例えば、地上カメラ10が撮影を行うための撮影パラメータを地上カメラ10に設定する制御である。この場合は、撮影パラメータが設定された地上カメラ10を用いて撮影者が撮影を行う(例えば撮影者が地上カメラ10のシャッターボタンを押下する)ことになる。又は、撮影制御は、地上カメラ10が撮影を行うための撮影パラメータを地上カメラ10に設定し、さらに地上カメラ10に撮影を実行させる制御であってもよい。この場合は地上カメラ10による撮影が自動で行われることになる。撮影制御の具体例については後述する。
<旋回機構16による地上カメラ10の旋回>
 図2は、旋回機構16による地上カメラ10のピッチ方向の旋回の一例を示す図である。図3は、旋回機構16による地上カメラ10のヨー方向の旋回の一例を示す図である。旋回機構16には、地上カメラ10が取り付けられる。旋回機構16は、地上カメラ10を旋回可能とする。
 具体的には、一例として図2に示すように、旋回機構16は、ヨー方向と交差しピッチ軸PAを中心軸とした旋回方向(ピッチ方向)と、一例として図3に示すように、ヨー軸YAを中心軸とした旋回方向(ヨー方向)と、に地上カメラ10を旋回可能な2軸旋回機構である。なお、本実施形態に係る旋回機構16では、2軸旋回機構である例を示したが、本開示の技術はこれに限定されず、3軸旋回機構であってもよいし、1軸旋回機構であってもよい。
<地上カメラ10の光学系及び電気系の構成>
 図4は、地上カメラ10の光学系及び電気系の構成の一例を示すブロック図である。一例として図4に示すように、地上カメラ10は、光学系15及び撮影素子25を備えている。撮影素子25は、光学系15の後段に位置している。光学系15は、対物レンズ15A及びレンズ群15Bを備えている。対物レンズ15A及びレンズ群15Bは、対象被写体側(物体側)から撮影素子25の受光面25A側(像側)にかけて、光学系15の光軸OAに沿って、対物レンズ15A及びレンズ群15Bの順に配置されている。レンズ群15Bには、防振レンズ15B1、フォーカスレンズ(不図示)及びズームレンズ15B2等が含まれている。ズームレンズ15B2は後述するレンズアクチュエータ21によって、光軸OAに沿って移動可能に支持されている。防振レンズ15B1は、後述するレンズアクチュエータ17によって、光軸OAと直交する方向に移動可能に支持されている。
 ズームレンズ15B2により焦点距離を長くすることで、地上カメラ10は望遠側となるので、画角は小さくなる(撮影範囲は狭くなる)。ズームレンズ15B2により焦点距離を短くすることで広角側となるので、画角は大きくなる(撮影範囲は広くなる)。
 なお、光学系15としては、対物レンズ15A及びレンズ群15B以外にも不図示の各種レンズを備えていてもよい。さらに、光学系15は、絞りを備えていてもよい。光学系15に含まれるレンズ、レンズ群及び絞りの位置は限定されず、例えば、図4に示す位置と異なる位置であっても、本開示の技術は成立する。
 防振レンズ15B1は、光軸OAに対して垂直な方向に移動可能であり、ズームレンズ15B2は、光軸OAに沿って移動可能である。
 光学系15は、レンズアクチュエータ17,21を備えている。レンズアクチュエータ17は、防振レンズ15B1に対し、防振レンズ15B1の光軸に対して垂直方向に変動する力を作用させる。レンズアクチュエータ17は、OIS(Optical Image Stabilizer)ドライバ23により制御される。レンズアクチュエータ17がOISドライバ23の制御下で駆動することで、防振レンズ15B1の位置が光軸OAに対して垂直な方向に変動する。
 レンズアクチュエータ21は、ズームレンズ15B2に、光学系15の光軸OAに沿って移動するための力を作用させる。レンズアクチュエータ21は、レンズドライバ28により制御される。レンズアクチュエータ21がレンズドライバ28の制御下で駆動することで、ズームレンズ15B2の位置が光軸OAに沿って移動する。ズームレンズ15B2の位置が光軸OAに沿って移動することで地上カメラ10の焦点距離が変化する。
 なお、撮影画像の輪郭が、例えばピッチ軸PA方向に短辺を有し、かつ、ヨー軸YA方向に長辺を有する長方形の場合は、ピッチ軸PA方向での画角が、ヨー軸YA方向での画角よりも狭く、かつ、対角線の画角よりも狭い。
 このように構成された光学系15によって、撮影領域を示す光は、撮影素子25の受光面25Aに結像され、撮影素子25によって撮影領域が撮影される。
 ところで、地上カメラ10に与えられる振動には、屋外であれば、自動車の通行による振動、風による振動、及び道路工事による振動等があり、屋内であれば、エアコンディショナーの動作による振動、及び人の出入りによる振動等がある。そのため、地上カメラ10では、地上カメラ10に与えられた振動(以下、単に「振動」とも称する)に起因して振れが生じる。
 なお、本実施形態において、「振れ」とは、地上カメラ10において、撮影素子25の受光面25Aでの対象被写体画像が、光軸OAと受光面25Aとの位置関係が変化することで変動する現象を指す。換言すると、「振れ」とは、地上カメラ10に与えられた振動に起因して光軸OAが傾くことによって、受光面25Aに結像されることで得られた光学像が変動する現象とも言える。光軸OAの変動とは、例えば、基準軸(例えば、振れが発生する前の光軸OA)に対して光軸OAが傾くことを意味する。以下では、振動に起因して生じる振れを、単に「振れ」とも称する。
 振れは、撮影画像にノイズ成分として含まれ、撮影画像の画質に影響を与える。そこで、振れに起因して撮影画像内に含まれるノイズ成分を除去するために、地上カメラ10は、レンズ側振れ補正機構29、撮影素子側振れ補正機構45及び電子式振れ補正部33を備えており、振れの補正に供される。
 レンズ側振れ補正機構29及び撮影素子側振れ補正機構45は、機械式振れ補正機構である。機械式振れ補正機構は、モータ(例えば、ボイスコイルモータ)等の駆動源によって生成された動力を振れ補正素子(例えば、防振レンズ及び/又は撮影素子)に付与することで振れ補正素子を撮影光学系の光軸に対して垂直な方向に移動させ、これによって振れを補正する機構である。
 具体的には、レンズ側振れ補正機構29は、モータ(例えば、ボイスコイルモータ)等の駆動源によって生成された動力を防振レンズに付与することで防振レンズを撮影光学系の光軸に対して垂直な方向に移動させ、これによって振れを補正する機構である。撮影素子側振れ補正機構45は、モータ(例えば、ボイスコイルモータ)等の駆動源によって生成された動力を撮影素子に付与することで撮影素子を撮影光学系の光軸に対して垂直な方向に移動させ、これによって振れを補正する機構である。電子式振れ補正部33は、振れ量に基づいて撮影画像に対して画像処理を施すことで振れを補正する。つまり、振れ補正部(振れ補正コンポーネント)は、ハードウェア構成及び/又はソフトウェア構成で機械的又は電子的に振れの補正を行う。ここで、機械的な振れの補正とは、モータ(例えば、ボイスコイルモータ)等の駆動源によって生成された動力を用いて防振レンズ及び/又は撮影素子等の振れ補正素子を機械的に動かすことにより実現される振れの補正を指し、電子的な振れの補正とは、例えば、プロセッサによって画像処理が行われることで実現される振れの補正を指す。
 一例として図4に示すように、レンズ側振れ補正機構29は、防振レンズ15B1、レンズアクチュエータ17、OISドライバ23、及び位置検出センサ39を備えている。
 レンズ側振れ補正機構29による振れの補正方法としては、周知の種々の方法を採用することができる。本実施形態では、振れの補正方法として、振れ量検出センサ40(後述)によって検出された振れ量に基づいて防振レンズ15B1を移動させることで振れを補正する方法が採用されている。具体的には、振れを打ち消す方向に、振れを打ち消す量だけ防振レンズ15B1を移動させることで振れの補正が行われるようにしている。
 防振レンズ15B1にはレンズアクチュエータ17が取り付けられている。レンズアクチュエータ17は、ボイスコイルモータが搭載されたシフト機構であり、ボイスコイルモータを駆動させることで防振レンズ15B1を、防振レンズ15B1の光軸に対して垂直な方向に変動させる。なお、ここでは、レンズアクチュエータ17としては、ボイスコイルモータが搭載されたシフト機構が採用されているが、本開示の技術はこれに限定されず、ボイスコイルモータに代えて、ステッピングモータ又はピエゾ素子等の他の動力源を適用してもよい。
 レンズアクチュエータ17は、OISドライバ23により制御される。レンズアクチュエータ17がOISドライバ23の制御下で駆動することで、防振レンズ15B1の位置が光軸OAに対して垂直な二次元平面内で機械的に変動する。
 位置検出センサ39は、防振レンズ15B1の現在位置を検出し、検出した現在位置を示す位置信号を出力する。ここでは、位置検出センサ39の一例として、ホール素子を含むデバイスが採用されている。ここで、防振レンズ15B1の現在位置とは、防振レンズ二次元平面内の現在位置を指す。防振レンズ二次元平面とは、防振レンズ15B1の光軸に対して垂直な二次元平面を指す。なお、本実施形態では、位置検出センサ39の一例として、ホール素子を含むデバイスが採用されているが、本開示の技術はこれに限定されず、ホール素子に代えて、磁気センサ又はフォトセンサなどを採用してもよい。
 レンズ側振れ補正機構29は、実際に撮影される範囲を、ピッチ軸PA方向及びヨー軸YA方向のうちの少なくとも一方に沿って防振レンズ15B1を移動させることで振れを補正する。つまり、レンズ側振れ補正機構29は、防振レンズ二次元平面内において防振レンズ15B1を振れ量に応じた移動量で移動させることで振れを補正する。
 撮影素子側振れ補正機構45は、撮影素子25、BIS(Body Image Stabilizer)ドライバ22、撮影素子アクチュエータ27、及び位置検出センサ47を備えている。
 レンズ側振れ補正機構29による振れの補正方法と同様に、撮影素子側振れ補正機構45による振れの補正方法も、周知の種々の方法を採用することができる。本実施形態では、振れの補正方法として、振れ量検出センサ40によって検出された振れ量に基づいて撮影素子25を移動させることで振れを補正する方法が採用されている。具体的には、振れを打ち消す方向に、振れを打ち消す量だけ撮影素子25を移動させることで振れの補正が行われるようにしている。
 撮影素子25には撮影素子アクチュエータ27が取り付けられている。撮影素子アクチュエータ27は、ボイスコイルモータが搭載されたシフト機構であり、ボイスコイルモータを駆動させることで撮影素子25を、防振レンズ15B1の光軸に対して垂直方向に変動させる。なお、ここでは、撮影素子アクチュエータ27としては、ボイスコイルモータが搭載されたシフト機構が採用されているが、本開示の技術はこれに限定されず、ボイスコイルモータに代えて、ステッピングモータ又はピエゾ素子等の他の動力源を適用してもよい。
 撮影素子アクチュエータ27は、BISドライバ22により制御される。撮影素子アクチュエータ27がBISドライバ22の制御下で駆動することで、撮影素子25の位置が光軸OAに対して垂直な方向に機械的に変動する。
 位置検出センサ47は、撮影素子25の現在位置を検出し、検出した現在位置を示す位置信号を出力する。ここでは、位置検出センサ47の一例として、ホール素子を含むデバイスが採用されている。ここで、撮影素子25の現在位置とは、撮影素子二次元平面内の現在位置を指す。撮影素子二次元平面とは、防振レンズ15B1の光軸に対して垂直な二次元平面を指す。なお、本実施形態では、位置検出センサ47の一例として、ホール素子を含むデバイスが採用されているが、本開示の技術はこれに限定されず、ホール素子に代えて、磁気センサ又はフォトセンサなどを採用してもよい。
 地上カメラ10は、コンピュータ19、DSP(Digital Signal Processor)31、画像メモリ32、電子式振れ補正部33、通信I/F34、振れ量検出センサ40、及びUI(User Interface)系デバイス43を備えている。コンピュータ19は、メモリ35、ストレージ36、及びCPU(Central Processing Unit)37を備えている。
 撮影素子25、DSP31、画像メモリ32、電子式振れ補正部33、通信I/F34、メモリ35、ストレージ36、CPU37、振れ量検出センサ40、及びUI系デバイス43は、バス38に接続されている。また、OISドライバ23もバス38に接続されている。なお、図4に示す例では、図示の都合上、バス38として1本のバスが図示されているが、複数本のバスであってもよい。バス38は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等のパラレルバスであってもよい。
 メモリ35は、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ35の一例としては、RAM(Random Access Memory)が挙げられるが、これに限らず、他の種類の記憶装置であってもよい。ストレージ36には、地上カメラ10用の各種プログラムが記憶されている。CPU37は、ストレージ36から各種プログラムを読み出し、読み出した各種プログラムをメモリ35上で実行することで、地上カメラ10の全体を制御する。ストレージ36としては、例えば、フラッシュメモリ、SSD、EEPROM、又はHDD等が挙げられる。また、例えば、フラッシュメモリに代えて、あるいはフラッシュメモリと併用して、磁気抵抗メモリ、強誘電体メモリ等の各種の不揮発性メモリを用いてもよい。
 撮影素子25は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮影素子25は、CPU37の指示の下、既定のフレームレートで対象被写体を撮影する。ここで言う「既定のフレームレート」とは、例えば、数十フレーム/秒から数百フレーム/秒を指す。なお、撮影素子25そのものにも制御装置(撮影素子制御装置)が内蔵されていてもよく、その場合はCPU37が出力する撮影指示に応じて撮影素子25内部の詳細な制御を撮影素子制御装置が行う。また、撮影素子25が、DSP31の指示の下に既定のフレームレートで対象被写体を撮影してもよく、この場合は、DSP31が出力する撮影指示に応じて撮影素子25内部の詳細な制御を撮影素子制御装置が行う。なお、DSP31はISP(Image Signal Processor)と呼ばれることもある。
 撮影素子25の受光面25Aは、マトリクス状に配置された複数の感光画素(図示省略)によって形成されている。撮影素子25では、各感光画素が露光され、感光画素毎に光電変換が行われる。感光画素毎に光電変換が行われることで得られた電荷は、対象被写体を示すアナログの撮影信号である。ここでは、複数の感光画素として、可視光に感度を有する複数の光電変換素子(一例として、カラーフィルタが配置された光電変換素子)が採用されている。撮影素子25において、複数の光電変換素子としては、R(赤)の光に感度を有する光電変換素子(例えば、Rに対応するRフィルタが配置された光電変換素子)、G(緑)の光に感度を有する光電変換素子(例えば、Gに対応するGフィルタが配置された光電変換素子)、及びB(青)の光に感度を有する光電変換素子(例えば、Bに対応するBフィルタが配置された光電変換素子)が採用されている。地上カメラ10では、これらの感光画素を用いることによって、可視光(例えば、約700ナノメートル以下の短波長側の光)に基づく撮影が行われている。但し、本実施形態はこれに限定されず、赤外光(例えば、約700ナノメートルよりも長波長側の光)に基づく撮影が行われるようにしてもよい。この場合、複数の感光画素として、赤外光に感度を有する複数の光電変換素子を用いればよい。特に、SWIR(Short-wavelength infrared)についての撮影に対しては、例えば、InGaAsセンサ及び/又はタイプ2型量子井戸(T2SL;Simulation of Type-II Quantum Well)センサ等を用いればよい。
 撮影素子25は、アナログの撮影信号に対してA/D(Analog/Digital)変換等の信号処理を行い、デジタルの撮影信号であるデジタル画像を生成する。撮影素子25は、バス38を介してDSP31に接続されており、生成したデジタル画像を、バス38を介してフレーム単位でDSP31に出力する。このデジタル画像は、本発明における「撮影画像」の一例である。
 なお、ここでは、撮影素子25の一例としてCMOSイメージセンサを挙げて説明しているが、本開示の技術はこれに限定されず、撮影素子25としてCCD(Charge Coupled Device)イメージセンサを適用してもよい。この場合、撮影素子25はCCDドライバ内蔵の不図示のAFE(Analog Front End)を介してバス38に接続され、AFEは、撮影素子25によって得られたアナログの撮影信号に対してA/D変換等の信号処理を施すことでデジタル画像を生成し、生成したデジタル画像をDSP31に出力する。CCDイメージセンサはAFEに内蔵されたCCDドライバによって駆動される。もちろんCCDドライバは単独に設けられてもよい。
 DSP31は、デジタル画像に対して、各種デジタル信号処理を施す。各種デジタル信号処理とは、例えば、デモザイク処理、ノイズ除去処理、階調補正処理、及び色補正処理等を指す。
 DSP31は、1フレーム毎に、デジタル信号処理後のデジタル画像を画像メモリ32に出力する。画像メモリ32は、DSP31からのデジタル画像を記憶する。なお、以下では、説明の便宜上、画像メモリ32に記憶されたデジタル画像を「撮影画像」とも称する。
 振れ量検出センサ40は、例えば、ジャイロセンサを含むデバイスであり、地上カメラ10の振れ量を検出する。換言すると、振れ量検出センサ40は、一対の軸方向の各々について振れ量を検出する。ジャイロセンサは、ピッチ軸PA、ヨー軸YA、及びロール軸RA(光軸OAに平行な軸)の各軸(図1参照)周りの回転振れの量を検出する。振れ量検出センサ40は、ジャイロセンサによって検出されたピッチ軸PA周りの回転振れの量及びヨー軸YA周りの回転振れの量をピッチ軸PA及びヨー軸YAに平行な2次元状の面内での振れ量に変換することで、地上カメラ10の振れ量を検出する。
 ここでは、振れ量検出センサ40の一例としてジャイロセンサを挙げているが、これはあくまでも一例であり、振れ量検出センサ40は、加速度センサであってもよい。加速度センサは、ピッチ軸PAとヨー軸YAに平行な2次元状の面内での振れ量を検出する。振れ量検出センサ40は、検出した振れ量をCPU37に出力する。
 また、ここでは、振れ量検出センサ40という物理的なセンサによって振れ量が検出される形態例を挙げているが、本開示の技術はこれに限定されない。例えば、画像メモリ32に記憶された時系列的に前後する撮影画像を比較することで得た動きベクトルを振れ量として用いてもよい。また、物理的なセンサによって検出された振れ量と、画像処理によって得られた動きベクトルとに基づいて最終的に使用される振れ量が導出されるようにしてもよい。
 CPU37は、振れ量検出センサ40によって検出された振れ量を取得し、取得した振れ量に基づいてレンズ側振れ補正機構29、撮影素子側振れ補正機構45及び電子式振れ補正部33を制御する。振れ量検出センサ40によって検出された振れ量は、レンズ側振れ補正機構29及び電子式振れ補正部33の各々による振れの補正に用いられる。
 電子式振れ補正部33は、ASIC(Application Specific Integrated Circuit)を含むデバイスである。電子式振れ補正部33は、振れ量検出センサ40によって検出された振れ量に基づいて、画像メモリ32内の撮影画像に対して画像処理を施すことで振れを補正する。
 なお、ここでは、電子式振れ補正部33として、ASICを含むデバイスを例示しているが、本開示の技術はこれに限定されるものではなく、例えば、FPGA(Field Programmable Gate Array)又はPLD(Programmable Logic Device)を含むデバイスであってもよい。また、例えば、電子式振れ補正部33は、ASIC、FPGA、及びPLDのうちの複数を含むデバイスであってもよい。また、電子式振れ補正部33として、CPU、ストレージ、及びメモリを含むコンピュータが採用されてもよい。CPUは、単数であってもよいし、複数であってもよい。また、電子式振れ補正部33は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 通信I/F34は、例えば、ネットワークインターフェースであり、ネットワークを介して、管理装置11との間で各種情報の伝送制御を行う。ネットワークの一例としては、インターネット又は公衆通信網等のWAN(Wide Area Network)が挙げられる。地上カメラ10と管理装置11との間の通信を司る。
 UI系デバイス43は、受付デバイス43A及びディスプレイ43Bを備えている。受付デバイス43Aは、例えば、ハードキー及びタッチパネル等であり、ユーザからの各種指示を受け付ける。CPU37は、受付デバイス43Aによって受け付けられた各種指示を取得し、取得した指示に従って動作する。
 ディスプレイ43Bは、CPU37の制御下で、各種情報を表示する。ディスプレイ43Bに表示される各種情報としては、例えば、受付デバイス43Aによって受け付けられた各種指示の内容、及び撮影画像等が挙げられる。
<空撮カメラ2の構成>
 図4において地上カメラ10の構成について説明したが、空撮カメラ2の構成についても地上カメラ10の構成と同様である。ただし、空撮カメラ2において通信I/F34に相当する構成は、管理装置11や基地局と無線通信が可能な無線通信インターフェースとするか、又は飛翔体3の通信部と通信することにより飛翔体3の通信部を介して管理装置11と通信可能な通信インターフェースとする。また、空撮カメラ2は飛翔体3に搭載されるため、UI系デバイス43等を省く等、各種の変形が可能である。
<旋回機構16及び管理装置11の電気系の構成>
 図5は、旋回機構16及び管理装置11の電気系の構成の一例を示す図である。一例として図5に示すように、旋回機構16は、ヨー軸旋回機構71、ピッチ軸旋回機構72、モータ73、モータ74、ドライバ75、及びドライバ76を備えている。ヨー軸旋回機構71は、地上カメラ10をヨー方向に旋回させる。モータ73は、ドライバ75の制御下で駆動することで動力を生成する。ヨー軸旋回機構71は、モータ73によって生成された動力を受けることで地上カメラ10をヨー方向に旋回させる。ピッチ軸旋回機構72は、地上カメラ10をピッチ方向に旋回させる。モータ74は、ドライバ76の制御下で駆動することで動力を生成する。ピッチ軸旋回機構72は、モータ74によって生成された動力を受けることで地上カメラ10をピッチ方向に旋回させる。
 一例として図5に示すように、管理装置11は、ディスプレイ13、制御装置60、受付デバイス62、及び通信I/F66を備えている。制御装置60は、CPU60A、ストレージ60B、及びメモリ60Cを備えている。CPU60Aは、本発明におけるプロセッサの一例である。
 受付デバイス62、ディスプレイ13、二次記憶装置14、CPU60A、ストレージ60B、メモリ60C、及び通信I/F66の各々は、バス70に接続されている。なお、図5に示す例では、図示の都合上、バス70として1本のバスが図示されているが、複数本のバスであってもよい。バス70は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 メモリ60Cは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ60Cの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。ストレージ60Bには、管理装置11用の各種プログラム(以下、単に「管理装置用プログラム」と称する)が記憶されている。CPU60Aは、ストレージ60Bから管理装置用プログラムを読み出し、読み出した管理装置用プログラムをメモリ60C上で実行することで、管理装置11の全体を制御する。管理装置用プログラムには、本発明における撮影制御プログラムが含まれる。
 通信I/F66は、例えば、ネットワークインターフェースである。通信I/F66は、ネットワークを介して、地上カメラ10の通信I/F34に対して通信可能に接続されており、地上カメラ10との間で各種情報の伝送制御を行う。例えば、通信I/F66は、地上カメラ10に対して撮影画像と撮影情報の送信を要求し、その要求に応じて地上カメラ10の通信I/F34から送信された撮影画像と撮影情報を受信する。
 また、通信I/F66は、ネットワークを介して、空撮カメラ2に対して通信可能に接続されている。又は、通信I/F66は、空撮カメラ2との間で直接無線通信が可能な無線通信インターフェースを含んでもよい。そして、通信I/F66は、ネットワークを介して、又は無線通信により、空撮カメラ2との間で各種情報の伝送制御を行う。例えば、通信I/F66は、空撮カメラ2に対して撮影画像と撮影情報の送信を要求し、その要求に応じて空撮カメラ2から送信された撮影画像と撮影情報を受信する。
 通信I/F67,68は、例えば、ネットワークインターフェースである。通信I/F67は、ネットワークを介して、旋回機構16のドライバ75に対して通信可能に接続されている。CPU60Aは、通信I/F67及びドライバ75を介して、モータ73を制御することで、ヨー軸旋回機構71の旋回動作を制御する。通信I/F68は、ネットワークを介して、旋回機構16のドライバ76に対して通信可能に接続されている。CPU60Aは、通信I/F68及びドライバ76を介して、モータ74を制御することで、ピッチ軸旋回機構72の旋回動作を制御する。
 受付デバイス62は、例えば、キーボード、マウス、及びタッチパネル等であり、ユーザからの各種指示を受け付ける。CPU60Aは、受付デバイス62によって受け付けられた各種指示を取得し、取得した指示に従って動作する。例えば、地上カメラ10及び/又は旋回機構16に対する処理内容を受付デバイス62で受け付けた場合、CPU60Aは、受付デバイス62で受け付けた指示内容に従って、地上カメラ10及び/又は旋回機構16を作動させる。
 ディスプレイ13は、CPU60Aの制御下で、各種情報を表示する。ディスプレイ13に表示される各種情報としては、例えば、受付デバイス62によって受け付けられた各種指示の内容、及び通信I/F66によって受信された撮影画像や撮影情報等が挙げられる。
 管理装置11は、二次記憶装置14を備えている。二次記憶装置14は、例えば不揮発性のメモリであり、CPU60Aの制御下で、各種情報を記憶する。二次記憶装置14に記憶される各種情報としては、例えば、通信I/F66によって受信された撮影画像等が挙げられる。二次記憶装置14は、本発明におけるメモリの一例である。
 このように、制御装置60は、通信I/F66によって受信された撮影画像や撮影情報をディスプレイ13に対して表示させる制御、及び通信I/F66によって受信された撮影画像や撮影情報を二次記憶装置14に対して記憶させる制御を行う。
 なお、ここでは、制御装置60が撮影画像をディスプレイ13に対して表示させ、かつ、通信I/F66によって受信された撮影画像を二次記憶装置14に対して記憶させるようにしているが、本開示の技術はこれに限定されない。例えば、撮影画像のディスプレイ13に対する表示と撮影画像の二次記憶装置14に対する記憶とのいずれかが行われるようにしてもよい。
<管理装置11による撮影画像及び撮影情報の記憶>
 図6は、管理装置11による撮影画像及び撮影情報の記憶の一例を示す図である。管理装置11の制御装置60は、例えば二次記憶装置14に、撮影画像81と、撮影情報テーブル82と、を記憶する。撮影画像81は、空撮カメラ2及び地上カメラ10を含む複数のカメラによる撮影で得られた撮影画像である。図6に示す例では、撮影画像81には、識別子がIMG1,IMG2,IMG3,IMG4,…の各撮影画像が含まれている。
 撮影情報テーブル82には、撮影画像81に含まれる撮影画像の識別子毎に、その撮影画像の撮影に関する撮影情報が格納されている。撮影情報には、例えば「カメラID」、「撮影時刻」、「撮影パラメータ」、「カメラ位置」、「カメラ向き」、「カメラ機種」、「撮影者」、「撮影対象」、「撮影アプローチ」、「自動撮影ログ」等が含まれる。
 「カメラID」は、対応する撮影画像の撮影に用いられた撮影装置の識別情報(例えばシリアル番号)である。「カメラID」は、撮影装置の内部メモリに記憶されたカメラIDである。「撮影時刻」は、対応する撮影画像の撮影が行われた時刻(日時)である。「カメラ位置」は、例えば撮影装置の内部時計により得られた時刻である。
 「撮影パラメータ」は、対応する撮影画像の撮影に用いられた撮影装置に、その撮影時に設定されていた、露出、絞り値、ピント位置、焦点距離(画角)、ホワイドバランス等のパラメータである。
 「カメラ位置」は、対応する撮影画像の撮影に用いられた撮影装置がその撮影時に設置されていた位置である。「カメラ位置」は、例えば撮影装置が備えるGPS(Global Positioning System)ユニット等によって測定された位置である。「カメラ向き」は、対応する撮影画像の撮影に用いられた撮影装置がその撮影時に向いていた方向である。「カメラ向き」は、例えば撮影装置が備える電子コンパス等によって測定された位置である。
 「カメラ機種」は、対応する撮影画像の撮影に用いられた撮影装置の機種である。「カメラ機種」は、撮影装置の内部メモリに記憶された機種名(例えば型番)である。「撮影者」は、対応する撮影画像の撮影を行った者の名前や識別子などである。「撮影者」は、例えば撮影装置に対するユーザ操作によって撮影装置に設定される。
 「撮影対象」は、対応する撮影画像の撮影の対象である。例えば、「撮影対象」は、後述の撮影部位p1~p7のように、ある大きな被写体のうち、対応する撮影画像が示す部位である。
 「撮影アプローチ」は、例えば、地上からの撮影及び空撮のいずれであるか等の、撮影の手法である。「撮影アプローチ」は、例えば撮影装置に対するユーザ操作によって撮影装置に設定されてもよいし、撮影装置の機種等によって自動的に設定されてもよい。
 「自動撮影ログ」は、対応する撮影画像の撮影が、例えば地上カメラ10のようなPTZ(Pan・Tilt・Zoom)による自動撮影である場合における、その自動撮影のログ(例えばパン、チルト、ズーム及び撮影のログ)である。
 空撮カメラ2や地上カメラ10などの撮影装置は、撮影により得られた撮影画像と、その撮影に関する撮影情報と、を管理装置11へ送信する。管理装置11は、受信した撮影画像と撮影情報とを、図6に示すように二次記憶装置14に記憶する。
 そして、管理装置11は、第1撮影カメラ(例えば空撮カメラ2)の撮影画像や撮影情報に基づいて、第2撮影装置(例えば地上カメラ10)による撮影を制御する撮影制御を行う。さらに、管理装置11は、第1撮影カメラ(例えば空撮カメラ2)の撮影画像や撮影情報に基づいて、第2撮影装置(例えば地上カメラ10)による撮影をアシストするアシスト制御を行ってもよい。
<空撮カメラ2及び地上カメラ10による連携撮影>
 図7及び図8は、空撮カメラ2及び地上カメラ10による連携撮影の一例を示す図である。ここでは、大きな被写体を複数の撮影部位に分割し、分割した撮影部位を空撮カメラ2と地上カメラ10で分担して撮影する連携撮影について説明する。すなわち、地上カメラ10による撮影は、空撮カメラ2による撮影の被写体における、空撮カメラ2により撮影された部位と異なる部位の撮影である。
 例えば、図7,図8に示すように、送電塔4及び送電塔4から延びる電線5を被写体とし、点検等のために空撮カメラ2及び地上カメラ10による連携撮影を行う場合について説明する。送電塔4や電線5のように大きな被写体を撮影する場合、例えば広角レンズを有する撮影装置により被写体をまとめて撮影しても、解像度の限界により送電塔4や電線5の細かな異常を判別可能な撮影画像を得ることができない。送電塔4の異常とは、例えば送電塔4のボルトの緩みや送電塔4の亀裂などが挙げられる。電線5の異常とは、例えば電線5の断裂の予兆(損傷)などが挙げられる。
 そこで、送電塔4や電線5を複数の撮影部位に分割して撮影することにより、送電塔4や電線5の各部について高解像度な撮影画像が得られ、送電塔4や電線5の細かな異常を判別することが可能になる。さらに、分割した撮影部位を空撮カメラ2と地上カメラ10で分担して撮影する連携撮影を行うことにより、例えば人間が地上カメラ10を持ち込んでの撮影が困難な撮影部位は空撮カメラ2で撮影し、飛行禁止エリア等により空撮カメラ2での撮影が困難な撮影部位は地上カメラ10で撮影する等の柔軟な撮影が可能である。
 図7,図8に示す撮影部位p1~p7は、被写体である送電塔4と電線5を複数の撮影部位に分割したものである。撮影部位p1~p5は、空撮カメラ2が撮影を行う部位である。撮影部位p6~p7は、例えば飛行禁止エリア等により空撮カメラ2による撮影が困難であり、地上カメラ10が撮影を行う部位である。
 まず、図7に示すように、空撮カメラ2によって撮影部位p1~p5の撮影が行われたとする。この撮影は、管理装置11から空撮カメラ2を制御することによって行われてもよいし、管理装置11とは異なる装置から空撮カメラ2を制御することによって行われてもよいし、空撮カメラ2によって自律的に行われてもよい。撮影部位p1~p5を撮影して得られた撮影画像及び撮影情報が、空撮カメラ2から管理装置11へ送信される。
 図8に示す撮影者8は、地上カメラ10及び管理装置11を所持し、地上カメラ10による撮影を行う者である。図8の例では、管理装置11はノート型パソコンとなっている。管理装置11は、空撮カメラ2から送信された撮影画像及び撮影情報を記憶し、記憶した撮影画像及び撮影情報に基づいて、地上カメラ10による撮影部位p6~p7の撮影を制御する撮影制御を行う。
 例えば、管理装置11は、空撮カメラ2による撮影部位p1~p5の撮影情報に含まれる撮影パラメータに基づいて、地上カメラ10が撮影部位p6~p7を撮影する際の撮影パラメータを設定する。管理装置11による地上カメラ10への撮影パラメータの設定は、例えば通信ライン12を介して管理装置11が地上カメラ10へ制御信号を送信することにより行われる。
 空撮カメラ2及び地上カメラ10が画角(焦点距離)を変更可能なズーム機構を有するものとする。管理装置11は、例えば、空撮カメラ2による撮影部位p1~p5の撮影の際の空撮カメラ2の画角や空撮カメラ2の位置と、地上カメラ10の位置と、に基づいて、地上カメラ10の画角を設定する。これにより、空撮カメラ2による撮影部位p1~p5の撮影に近い倍率で撮影部位p6~p7の撮影を行うことができる。このため、撮影部位p1~p5の撮影画像と、撮影部位p6~p7の撮影画像と、を参照しながらの送電塔4や電線5の点検等を効率よく行うことができる。
 ここでは空撮カメラ2の画角等に基づいて地上カメラ10の画角を設定する場合について説明したが、空撮カメラ2の撮影パラメータに基づいて地上カメラ10の撮影パラメータを設定する撮影制御を行う際における撮影パラメータは、画角に限らず、例えば露出、絞り値、ピント位置、ホワイドバランス等であってもよい。
 このように、管理装置11は、空撮カメラ2の撮影情報(撮影パラメータ)に基づいて地上カメラ10の撮影を制御(例えば撮影パラメータを設定)する撮影制御を行うことで、被写体を複数の撮影部位に分割し、分割した撮影部位を空撮カメラ2と地上カメラ10で分担して撮影する連携撮影を容易に行うことができる。
<管理装置11によるアシスト制御>
 管理装置11は、上記の地上カメラ10の撮影制御に加えて、地上カメラ10による撮影をアシストするアシスト制御を行ってもよい。
<管理装置11によるアシスト制御の第1の例>
 図9は、管理装置11によるアシスト制御の第1の例を示すフローチャートである。管理装置11は、アシスト制御として、例えば図9に示す処理を実行する。
 まず、管理装置11は、今回の地上カメラ10による撮影アプローチを取得する(ステップS901)。撮影アプローチとは、例えば、地上からの撮影及び空撮のいずれであるか(空撮か否か)等の、撮影の手法である。例えば、管理装置11は、今回の地上カメラ10による撮影アプローチを、ユーザからの操作入力によって取得する。
 次に、管理装置11は、被写体(例えば送電塔4及び電線5)の各撮影部位のうち撮影済みの撮影部位を示す撮影済み情報を取得する(ステップS902)。例えば、図6に示した撮影情報テーブル82の「撮影対象」は、被写体の各撮影部位のうち撮影対象の部位を示しており、管理装置11は、撮影情報テーブル82の「撮影対象」の各値を撮影済み情報として取得する。
 次に、管理装置11は、nを0(初期値)に設定する(ステップS903)。nは、撮影部位のインデックスである。例えば、被写体は、撮影部位[0]~[N]に分割されている。この場合、nは0~Nの範囲の値となる。
 次に、管理装置11は、ステップS902により取得した撮影済み情報に基づいて、撮影部位[n]が撮影済みであるか否かを判断する(ステップS904)。撮影部位[n]が撮影済みでない場合(ステップS904:No)は、管理装置11は、撮影部位[n]を地上カメラ10による撮影対象候補として登録する(ステップS905)。
 次に、管理装置11は、現在のインデックスnが最大値Nより小さいか否かを判断する(ステップS906)。インデックスnが最大値Nより小さい場合(ステップS906:Yes)は、管理装置11は、nをインクリメントし(ステップS907)、ステップS904へ戻る。
 ステップS904において、撮影部位[n]が撮影済みである場合(ステップS904:Yes)は、管理装置11は、撮影部位[n]の撮影画像にNGフラグが付加されているか否かを判断する(ステップS908)。NGフラグは、撮影画像が所定の条件を満たさないことを示すフラグ情報である。例えば、撮影画像が、適正露出でなかったり、ぶれていたり、ピントが外れていたり、意図しない鳥等の映り込みがあったりするものである場合に付加される。例えば、NGフラグは、管理装置11のユーザが撮影画像を見て付加したものであってもよいし、管理装置11が画像解析等によって自動的に付加したものであってもよい。
 ステップS908において、撮影画像にNGフラグが付加されていない場合(ステップS908:No)は、管理装置11は、撮影部位[n]を撮影対象候補として登録せずに、ステップS906へ移行する。撮影画像にNGフラグが付加されている場合(ステップS908:Yes)は、管理装置11は、撮影情報テーブル82が示す撮影部位[n]の過去の撮影アプローチに対して、ステップS901によって取得した今回の地上カメラ10による撮影アプローチが異なるか否かを判断する(ステップS909)。
 ステップS909において、撮影アプローチが同一である場合(ステップS909:No)は、管理装置11は、撮影部位[n]を撮影対象候補として登録せずに、ステップS906へ移行する。撮影アプローチが異なる場合(ステップS909:Yes)は、管理装置11は、撮影部位[n]の過去の撮影における撮影性能に対して、今回の地上カメラ10による撮影の撮影性能が高いか否かを判断する(ステップS910)。撮影性能は、例えば、解像度、F値、高感度性能、望遠性能(画角)等である。
 各撮影装置の撮影性能は、例えば各装置の機種によって判別される。例えば、管理装置11には、撮影装置の機種毎に撮影性能を示す性能情報が記憶されており、管理装置11は、この性能情報と、撮影情報テーブル82に含まれる機種名と、に基づいて撮影性能を判別する。又は、撮影情報テーブル82には撮影性能を示す性能情報が含まれており、管理装置11はこの撮影情報テーブル82を参照して撮影性能を判別してもよい。
 ステップS910において、撮影性能が高くない場合(ステップS910:No)は、管理装置11は、撮影部位[n]を撮影対象候補として登録せずに、ステップS906へ移行する。撮影性能が高い場合(ステップS910:Yes)は、管理装置11は、撮影部位[n]を地上カメラ10による撮影対象候補として登録し(ステップS911)、ステップS906へ移行する。
 ステップS906において、インデックスnが最大値Nより小さくない場合(ステップS906:No)は、管理装置11は、ステップS905,S911によって登録された撮影対象候補を、地上カメラ10による撮影者に対して表示し(ステップS912)、一連の処理を終了する。ステップS912における撮影対象候補の表示は、管理装置11が備えるディスプレイ13によって行われる。又は、ステップS912における撮影対象候補の表示は、管理装置11が地上カメラ10のディスプレイ43Bを制御することによって行われてもよい。
<管理装置11による地上カメラ10の撮影対象候補の表示>
 図10は、管理装置11による地上カメラ10の撮影対象候補の表示の一例を示す図である。管理装置11は、図9のステップS912において、例えば地上カメラ10による撮影者8に図10に示す撮影マップ100を表示する。撮影マップ100は、被写体である送電塔4及び電線5が敷設された地域の2次元マップである。
 撮影マップ100には、複数の送電塔4と送電塔4が示されている。また、撮影マップ100には、撮影部位p1~p8も示されている。このように、撮影部位は、例えば撮影マップ100の各部分を指定することにより予め設定される。現在地マーク101は、管理装置11及び地上カメラ10の現在位置である。例えば、管理装置11は、管理装置11及び地上カメラ10の少なくともいずれかがGPSユニット等により取得した位置情報に基づいて撮影マップ100に現在地マーク101を重畳して表示する。
 例えば、図9のステップS905,S911において、撮影部位p1~p8のうち撮影部位p7,p8が撮影対象候補として登録されたとする。この場合に、図9のステップS912において、管理装置11は、撮影対象候補である撮影部位p7,p8を、他の撮影部位p1~p6とは別の態様とすることにより強調表示する。これにより、撮影者8は、自身が地上カメラ10により撮影すべき撮影部位が撮影部位p7,p8であることを容易に認識し、地上カメラ10により撮影部位p7,p8を撮影することができる。
 このように、管理装置11は、地上カメラ10による撮影をアシストするアシスト制御として、予め設定された被写体の各撮影部位の中から、地上カメラ10による撮影対象の部位を選択する制御を行ってもよい。具体的には、上記の撮影情報テーブル82は、被写体の各撮影部位のうち空撮カメラ2が撮影した部位を示す撮影済み情報を含み、管理装置11は、その撮影済み情報に基づいて地上カメラ10による撮影対象の部位を選択する制御を行う。
 これにより、撮影者8は、自身が地上カメラ10により撮影すべき撮影部位を容易に認識することができるため、被写体を複数の撮影部位に分割し、分割した撮影部位を空撮カメラ2と地上カメラ10で分担して撮影する連携撮影を容易に行うことができる。
<管理装置11によるアシスト制御の第2の例>
 図11は、管理装置11によるアシスト制御の第2の例を説明するための図である。ここでは、第1撮影装置が、空撮カメラ2ではなく、地上カメラ10とは異なる地上カメラ6であるとする。地上カメラ10による撮影の前に、撮影者9が、地上カメラ6を用いて送電塔4及び電線5の撮影部位p1~p5を撮影するものとする。このとき、撮影者9は、地上カメラ6を近距離で撮影可能なスマートフォン7により地上カメラ6を撮影する。
 地上カメラ6は、撮影により得られた撮影画像と、地上カメラ6が備えるGPSユニット等により取得した地上カメラ6の位置情報をカメラ位置として含む撮影情報と、を管理装置11へ送信する。また、スマートフォン7は、スマートフォン7が備えるGPSユニット等により取得したスマートフォン7の位置情報を管理装置11へ送信する。
 なお、スマートフォン7は、地上カメラ6を撮影して得られた撮影画像をさらに管理装置11へ送信してもよい。管理装置11は、この撮影画像を、地上カメラ6による撮影時の様子を示す画像として、地上カメラ6から受信した撮影情報に含めて記憶してもよい。
<アシスト制御の第2の例における管理装置11の処理>
 図12は、アシスト制御の第2の例における管理装置11の処理の一例を示すフローチャートである。管理装置11は、アシスト制御の第2の例として、例えば図12に示す処理を実行する。図12に示す処理は、例えば、地上カメラ6の撮影情報に基づいて地上カメラ10による撮影を制御する際に行われる。又は、図12に示す処理は、地上カメラ6が送信した撮影情報(地上カメラ6の位置情報を含む)と、スマートフォン7が送信したスマートフォン7の位置情報と、を管理装置11が受信した際に行われてもよい。
 まず、管理装置11は、地上カメラ6から受信した、地上カメラ6の位置情報を取得する(ステップS1201)。次に、管理装置11は、スマートフォン7から受信した、地上カメラ6を撮影したスマートフォン7の位置情報を取得する(ステップS1202)。
 次に、管理装置11は、ステップS1201,S1202によって取得した各位置情報の差が閾値以上であるか否かを判断する(ステップS1203)。具体的には、管理装置11は、地上カメラ6の位置情報が示す地上カメラ6の位置と、スマートフォン7の位置情報がスマートフォン7の位置と、の間の距離が、閾値以上であるか否かを判断する。この閾値は、予め設定され、一例としては10[m]程度である。
 ステップS1203において、差が閾値以上でない場合(ステップS1203:No)は、管理装置11は、一連の処理を終了する。差が閾値以上である場合(ステップS1203:Yes)は、管理装置11は、管理装置11のユーザに対して警告情報を出力し(ステップS1204)、一連の処理を終了する。
 警告情報の例として、例えば、管理装置11は、地上カメラ6を含む第1撮影装置により撮影された撮影画像を一覧表示する際に、上記の位置情報の差が大きい撮影画像については、位置情報に問題がある旨の警告表示を行う。ただし、警告情報を出力はこれに限らず、各種の方法によって行うことができる。
 このように、地上カメラ6(第1撮影装置)からの撮影情報は、地上カメラ6による撮影時の地上カメラ6の位置情報を含み、管理装置11は、被写体(送電塔4や電線5)を撮影する地上カメラ6を撮影したスマートフォン7(第3撮影装置)により得られたスマートフォン7の位置情報と、地上カメラ6の位置情報と、の差分に基づく制御(差が大きい場合に警告を出す制御)を行ってもよい。
 これにより、例えば撮影部位p6が備えるGPSユニット等の不調等によって地上カメラ6の位置情報が正確でない場合は、警告情報を出力する等の対応が可能になる。このため、地上カメラ6の位置情報が正確でないことによって連携撮影が困難になることを抑制することができる。
 なお、地上カメラ6を近距離で撮影可能な第3撮影装置としてスマートフォン7を例に説明したが、第3撮影装置は、スマートフォン7に限らず、タブレット端末、ノートパソコン、コンパクトデジタルカメラ等であってもよい。また、第3撮影装置は、撮影機能が設けられた管理装置11であってもよい。
 また、地上カメラ6の位置情報を地上カメラ6のGPSユニット等により取得する場合について説明したが、地上カメラ6が自動車等に移動体に搭載されている場合、地上カメラ6は、その移動体のGPSユニット等により取得された位置情報を取得し、取得した位置情報を地上カメラ6の位置情報として管理装置11へ送信してもよい。
<アシスト制御の他の例>
 管理装置11によるアシスト制御は、上記の例に限らず、撮影画像や撮影情報に基づく各種の制御とすることができる。例えば、管理装置11は、第1撮影装置(空撮カメラ2や地上カメラ6)による撮影により得られた撮影画像及び撮影情報の少なくともいずれかを、第2撮影装置(地上カメラ10)による撮影時に、第2撮影装置による撮影者(例えば撮影者8)に対して表示するアシスト制御を行ってもよい。これにより、第2撮影装置による撮影者は、他の撮影部位の撮影結果である撮影画像や撮影情報を参考にして撮影を行うことができる。
<管理装置11による自動撮影制御>
 管理装置11は、上記の地上カメラ10の撮影制御に加えて、地上カメラ10による自動撮影を制御する自動撮影制御を行ってもよい。
 図13及び図14は、管理装置11による自動撮影制御の一例を示す図である。ここでも、第1撮影装置が、空撮カメラ2ではなく、地上カメラ10とは異なる地上カメラ6であるとする。地上カメラ6及び地上カメラ10は、被写体の複数の部位の自動撮影が可能である。自動撮影とは、旋回機構16によるパン及びチルトやズーム機能によって自動的に撮影範囲を順次切り替えながら撮影を行うことで、被写体の複数の部位を自動的に撮影する機能である。
 例えば、2021年1月7日に、地上カメラ6によって撮影部位p1~p7の自動撮影が実行されたとする。この場合、地上カメラ6は、実行した自動撮影のログである自動撮影ログを、この自動撮影により得られた撮影画像とともに、撮影情報として管理装置11へ送信する。
 自動撮影ログは、例えば、撮影部位p1の撮影、パン及びチルトによる撮影範囲の変更、撮影部位p2の撮影、パン及びチルトによる撮影範囲の変更、撮影部位p3の撮影、…といった手順を示す情報であり、撮影範囲の変更時のパン及びチルトの方向や量を含む。最初の撮影部位p1の撮影するためのパラメータとしては、例えば地上カメラ6の向き(例えば地上カメラ6の電子コンパスで取得)、旋回機構16の駆動パラメータ、地上カメラ6のズーム位置などが自動撮影ログに含まれてもよい。
 次に、2021年7月7日に、地上カメラ10によって撮影部位p1~p7の自動撮影を実行するとする。この場合、管理装置11は、2021年1月7日により行われた自動撮影と同じ撮影が実行されるように、地上カメラ6の自動撮影ログに基づいて地上カメラ10の自動撮影を制御する。これにより、地上カメラ10によって撮影部位p1~p7の自動撮影を行うことができる。
 このように、地上カメラ6は、被写体の複数の部位の自動撮影が可能であり、自動撮影ログを含む撮影情報を管理装置11に送信してもよい。管理装置11は、その自動撮影ログに基づいて、地上カメラ10による同じ複数の部位の自動撮影を制御する自動撮影制御を行ってもよい。これにより、異なる時刻(例えば2021年1月7日と2021年7月7日)において撮影部位p1~p7を撮影した各撮影画像を得ることができ、被写体の経時変化等を効率よく観察することが可能になる。
 なお、地上カメラ6の自動撮影ログに基づいて地上カメラ10の自動撮影制御を行う場合について説明したが、地上カメラ6の自動撮影ログに基づいて地上カメラ6の自動撮影制御を行うようにしてもよい。すなわち、図13,図14の例において、図14の2021年7月7日においても、図13の2021年1月7日と同様に地上カメラ6によって撮影部位p1~p7を撮影し、2021年1月7日の地上カメラ6の自動撮影ログに基づいて、2021年1月7日の地上カメラ6の自動撮影制御を行うようにしてもよい。
(実施形態2)
 実施形態2について、実施形態1と異なる部分について説明する。実施形態2においては、第2撮影装置(例えば地上カメラ10)が、第1撮影装置(例えば空撮カメラ2)による撮影の被写体における、第1撮影装置により撮影された面と異なる面の撮影を行う場合について説明する。なお、撮影する面とは撮影する方向と同義である。例えば、球体を被写体とし、第1撮影装置と第2撮影装置で球体の異なる面を撮影する場合には、その球体を第1撮影装置によりある方向から撮影し、その球体を第2撮影装置により別の方向(例えば反対の方向)から撮影する場合が含まれる。
<実施形態2の空撮カメラ2及び地上カメラ10による撮影>
 図15は、実施形態2の空撮カメラ2及び地上カメラ10による撮影の一例を示す図である。例えば、同一の撮影対象部位(送電塔4の頂上付近)について、空撮カメラ2と地上カメラ10とで互いに異なる方向から撮影する。
 例えば、空撮カメラ2を搭載した飛翔体3は送電塔4の北側(図の奥側)に位置し、地上カメラ10を所持する撮影者8が送電塔4の南側(図の手前側)に位置しているものとする。この場合、空撮カメラ2は送電塔4の頂上の北側の面を撮影し、地上カメラ10は送電塔4の南側の頂上の面を撮影する。
 このような場合に、空撮カメラ2は、送電塔4の撮影により得られた撮影画像とともに、その撮影時における空撮カメラ2の位置及び向きを示す情報を含む撮影情報を管理装置11へ送信する。空撮カメラ2の位置及び向きは、例えば空撮カメラ2又は飛翔体3が備えるGPSユニットや電子コンパス等によって取得される。
 管理装置11は、地上カメラ10の撮影制御として、空撮カメラ2の撮影情報(空撮カメラ2の位置及び向き)と、地上カメラ10の位置及び向きと、に基づいて地上カメラ10による撮影の向きを制御する。地上カメラ10の位置及び向きは、例えば地上カメラ10が備えるGPSユニットや電子コンパス等によって取得される。地上カメラ10による撮影の向きの制御は、例えば旋回機構16の駆動によって行うことができる。
<地上カメラ10による撮影の向きの制御>
 図16及び図17は、地上カメラ10による撮影の向きの制御の一例を説明するための図である。垂直方向(重力方向)をZ方向とし、Z方向と直交しかつ互いに直交する各方向をX方向及びY方向とする。
 図16は、Z方向から見た空撮カメラ2と撮影対象部位(例えば送電塔4の頂上付近)の位置関係を示している。図17は、空撮カメラ2及び撮影対象部位の各位置(D,T)を含み垂直な面における、空撮カメラ2と撮影対象部位の位置関係を示している。なお、この例では、地上カメラ10のチルト方向は撮影対象部位に合っており、地上カメラ10のパン方向を制御すれば地上カメラ10によって撮影対象部位を撮影可能であるとする。
 C、D、β、α、h及びθは、管理装置11が取得可能な入力情報である。
 Cは、地上カメラ10の位置であり、地上カメラ10や管理装置11が備えるGPSユニット等により取得される。Dは、空撮カメラ2の位置であり、空撮カメラ2又は飛翔体3が備えるGPSユニット等により取得される。
 βは、特定方向(X方向)に対する地上カメラ10の現在の向きであり、地上カメラ10が備える電子コンパス等によって取得される。αは、空撮カメラ2による撮影対象部位の撮影時における、特定方向(X方向)に対する空撮カメラ2の向きであり、空撮カメラ2又は飛翔体3が備える電子コンパス等によって取得される。
 hは、空撮カメラ2の地上からの高さであり、空撮カメラ2や飛翔体3が備えるGPSユニット等により取得される。θは、空撮カメラ2が撮影対象部位を撮影する時の水平方向に対するチルト角であり、空撮カメラ2や飛翔体3が備える角速度センサ等によって取得される。また、空撮カメラ2がチルト機構を有する場合、θは、空撮カメラ2のチルト機構の駆動状態等から取得されてもよい。
 管理装置11は、上記の入力情報と下記(1)式に基づいて、出力情報としてωを算出する。ωは、地上カメラ10が現在の状態から空撮カメラ2と同一の撮影対象部位を撮影するためのパン角である。
 D+r=T
 Dx+r・cosα=Tx Dy+r・sinα=Ty
 C+s=T
 s=(sx,sy)=T-C=(Tx-Cx,Ty-Cy)
 s=|s|=(Sx+Sy0.5
 tanφ=sy/sx
 φ=Arctan(sy/sx)
 ω=φ-β                      …(1)
 管理装置11は、算出したωに基づいて旋回機構16を駆動し、地上カメラ10をωだけパンさせることで、地上カメラ10を空撮カメラ2と同一の撮影対象部位に向けることができる。このため、地上カメラ10を用いて撮影を行う撮影者8は、地上カメラ10の向きを気にしなくても、空撮カメラ2と同一の撮影対象部位を地上カメラ10により撮影することができる。さらに、管理装置11は、地上カメラ10を撮影対象部位に向けた後に、地上カメラ10に対して撮影を実行させる制御を行ってもよい。
<地上カメラ10による撮影の向きの制御の他の例>
 図18及び図19は、地上カメラ10による撮影の向きの制御の他の一例を説明するための図である。図20は、被写体の大きさと撮像面上での像の大きさの関係の一例を示す図である。図21は、画像全体の画素数と被写体部分の画素数の一例を示す図である。図18,図19は、Z方向から見た空撮カメラ2と撮影対象部位の位置関係を示している。また、図18はβ-α≧π/2[rad]の場合を示し、図19はβ-α<π/2[rad]の場合を示している。
 この例では、空撮カメラ2の位置情報が取得できない場合における、地上カメラ10による撮影の向きの制御について説明する。すなわち、飛翔体3の大きさが既知である場合、地上カメラ10で空撮カメラ2を一旦撮影することで、空撮カメラ2が撮影した撮影対象部位に対して、自動で地上カメラ10を向けることが可能である。
 図20に示すdは、飛翔体3の大きさである。図20に示すfは、地上カメラ10が飛翔体3を撮影しているときの焦点距離である。図20に示すqは、地上カメラ10の撮像センサ上での飛翔体3が写っている部分の像の大きさである。
 図21に示す撮影画像210は、地上カメラ10で飛翔体3を撮影して得られた撮影画像である。図21に示すwは、撮影画像210の全体の横幅画素数(横撮りの場合)である。図21に示す飛翔体領域211は、撮影画像210において飛翔体3が写り込んだ領域である。管理装置11は、例えば画像認識処理によって飛翔体領域211を特定する。図21に示すgは、飛翔体領域211の横幅画素数(横撮りの場合)である。
 また、地上カメラ10の撮像センサの幅長(横撮りの場合)をpとする。
 β、α、h、θ、d、f、w、g、及びpは、管理装置11が取得可能な入力情報である。一方で、上記のD(空撮カメラ2の位置)は管理装置11が取得できないか、取得できても正確でなく使用できないものとする。
 管理装置11は、上記の入力情報に基づいて、下記のように出力情報としてωを算出する。ωは、地上カメラ10が現在の状態(この場合は飛翔体3を撮影した状態)から空撮カメラ2と同一の撮影対象部位を撮影するためのパン角である。
 撮影された撮影画像210の全体の中の飛翔体3の大きさ比率をuとすると、下記(2)式が成り立つ。
 u=g/w   …(2)
 上記のように、地上カメラ10の撮像センサ上での飛翔体3が写っている部分の像の大きさはqである。また、地上カメラ10の撮像センサの幅長(横撮りの場合)はpである。このため、下記(3)式が成り立つ。
 q=p・u   …(3)
 地上カメラ10と飛翔体3のカメラのXY平面上での距離をAとすると、下記(4)式が成り立つ。
 A:d=f:q
 A=d・f/q=(d・f)/(p・u)   …(4)
 地上カメラ10が飛翔体3を撮影する方向と、飛翔体3に搭載された空撮カメラ2が撮影対象部位を撮影する方向のなす角をψとすると、下記(5)式が成り立つ。
 ψ=π-β+α(β-α≧π/2[rad]のとき)
 ψ=β-α(β-α<π/2[rad]のとき)
 s=|s|=((A+r・cosψ)+(A+r・cosψ)0.5
 s・sinω=r・sinψ
 ω=Arcsin((r・sinψ)/s)        …(5)
 管理装置11は、上記(5)式により算出したωに基づいて旋回機構16を駆動し、地上カメラ10をωだけパンさせることで、管理装置11を空撮カメラ2と同一の撮影対象部位に向けることができる。このため、空撮カメラ2の位置(D)を管理装置11が取得できない場合であっても、空撮カメラ2と同一の撮影対象部位を地上カメラ10により撮影することができる。さらに、管理装置11は、地上カメラ10を撮影対象部位に向けた後に、地上カメラ10に対して撮影を実行させる制御を行ってもよい。
 図18~図21において説明したように、管理装置11は、空撮カメラ2の位置(D)を取得できない場合に、空撮カメラ2(第1撮影装置)による撮影時における、空撮カメラ2の地上カメラ10(第2撮影装置)に対する相対位置と空撮カメラ2の向きとを示す情報を撮影情報として受信し、これらの撮影情報と、地上カメラ10の位置及び向きと、に基づいて地上カメラ10による撮影の向きを制御する撮影制御を行ってもよい。
 また、管理装置11は、空撮カメラ2の地上カメラ10に対する相対位置として、例えば空撮カメラ2を地上カメラ10が撮影して得られた撮影画像210に基づいて算出することができる。これにより、地上カメラ10で空撮カメラ2を一旦撮影することで、空撮カメラ2が撮影した撮影対象部位に対して、自動で地上カメラ10を向けることが可能である。
 実施形態2において、地上カメラ10のパン角(ω)を算出して地上カメラ10をパンさせることで管理装置11を撮影対象部位に向ける場合について説明したが、さらに、管理装置11は、上記の入力情報に基づいて、地上カメラ10を撮影対象部位に向けるためのチルト角を算出し、算出したチルト角に基づいて旋回機構16を駆動して地上カメラ10をチルトさせてもよい。これにより、地上カメラ10のチルト方向が撮影対象部と合っていなくても、管理装置11を撮影対象部位に向けることができる。
 また、管理装置11は、上記の入力情報に基づいて、地上カメラ10と撮影対象部位との間の距離(|s|)を算出し、算出した距離に基づいて地上カメラ10のフォーカス機構を制御することにより、地上カメラ10の撮影におけるピント位置を撮影対象部位に合わせてもよい。
<変形例1>
 第1撮影装置として空撮カメラ2又は地上カメラ6を例に挙げて説明したが、第1撮影装置は複数存在してもよい。すなわち、管理装置11は、複数の第1撮影装置によって得られた撮影画像や撮影情報に基づいて、第2撮影装置(例えば地上カメラ10)の撮影制御やアシスト制御等を行ってもよい。
<変形例2>
 第2撮影装置として地上カメラ10を例に挙げて説明したが、第2撮影装置は空撮カメラであってもよい。
<変形例3>
 第1撮影装置を搭載する移動体として飛翔体3について説明したが、第1撮影装置を搭載する移動体は自動車、船舶、自律移動ロボットなどであってもよい。また、第2撮影装置を移動体に搭載する構成としてもよい。
<変形例4>
 位置情報の取得手段としてGPSユニット等について説明したが、位置情報の取得手段はGPSユニットに限らず、RTK(Real Time Kinematic)ユニットであってもよいし、GPSユニット及びRTKユニットを組み合わせたものであってもよい。
<変形例5>
 管理装置11が、第1撮影装置によって得られた撮影画像や撮影情報に基づいて、第2撮影装置の撮影制御やアシスト制御を行う構成について説明したが、管理装置11は、第1撮影装置によって得られた撮影画像や撮影情報に基づいて、第2撮影装置の撮影制御を行わずに第2撮影装置のアシスト制御を行う構成としてもよい。
<変形例6>
 上記各実施形態では、管理装置11のストレージ60Bに各実施形態の撮影制御プログラムが記憶され、管理装置11のCPU60Aがメモリ60Cで撮影制御プログラムを実行する例を挙げて説明したが、本開示の技術はこれに限定されない。
 図22は、実施形態の撮影制御プログラムが記憶された記憶媒体から、撮影制御プログラムが管理装置11の制御装置60にインストールされる態様の一例を示す図である。例えば、一例として図21に示すように、撮影制御プログラム221を、非一時的記憶媒体である記憶媒体220に記憶させておいてもよい。図21に示す例の場合、記憶媒体220に記憶されている撮影制御プログラム221は、制御装置60にインストールされ、CPU60Aは、撮影制御プログラム221に従って、上述した撮影制御等を実行する。
 図21に示す例では、CPU60Aは、単数のCPUであるが、本開示の技術はこれに限定されず、複数のCPUを採用してもよい。なお、記憶媒体220の一例としては、SSD又はUSB(Universal Serial Bus)メモリなどの任意の可搬型の記憶媒体が挙げられる。また、通信網(図示省略)を介して制御装置60に接続される他のコンピュータ又はサーバ装置等の記憶部に撮影制御プログラム221を記憶させておき、上述の管理装置11の要求に応じて撮影制御プログラム221が制御装置60にダウンロードされるようにしてもよい。この場合、ダウンロードされた撮影制御プログラム221が制御装置60のCPU60Aによって実行される。
<変形例7>
 空撮カメラ2や地上カメラ10は、図示した形状のものに限らず、各種の形状のものとすることができる。また、空撮カメラ2や地上カメラ10は、スマートフォン、タブレット端末、ノートパソコン、コンパクトデジタルカメラ等であってもよい。
 本明細書には少なくとも以下の事項が記載されている。
(1)
 メモリ及びプロセッサを備える撮影制御装置であって、
 上記メモリは、第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録し、
 上記プロセッサは、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、
 撮影制御装置。
(2)
 (1)に記載の撮影制御装置であって、
 上記第2撮影装置による撮影は、上記第1撮影装置による撮影の被写体における、上記第1撮影装置により撮影された部位と異なる部位の撮影である、
 撮影制御装置。
(3)
 (2)に記載の撮影制御装置であって、
 上記撮影制御は、上記撮影情報に基づく、上記第2撮影装置による撮影パラメータの設定を含む、
 撮影制御装置。
(4)
 (2)又は(3)に記載の撮影制御装置であって、
 上記撮影情報は、上記第1撮影装置による撮影時の上記第1撮影装置の位置情報を含み、
 上記プロセッサは、上記被写体を撮影する上記第1撮影装置を撮影した第3撮影装置により得られた上記第3撮影装置の位置情報と、上記第1撮影装置の位置情報と、の差分に基づく制御を行う、
 撮影制御装置。
(5)
 (2)から(4)のいずれか1項に記載の撮影制御装置であって、
 上記プロセッサは、予め設定された上記被写体の部位の中から、上記第2撮影装置による撮影対象の部位を選択する制御を行う、
 撮影制御装置。
(6)
 (5)に記載の撮影制御装置であって、
 上記撮影情報は、上記被写体の部位のうち上記第1撮影装置が撮影した部位を示す撮影済み情報を含み、
 上記プロセッサは、上記撮影済み情報に基づいて上記第2撮影装置による撮影対象の部位を選択する制御を行う、
 撮影制御装置。
(7)
 (5)又は(6)に記載の撮影制御装置であって、
 上記撮影情報は、対応する上記撮影画像が所定の条件を満たすか否かを示すフラグ情報を含み、
 上記プロセッサは、上記フラグ情報に基づいて上記第2撮影装置による撮影対象の部位を選択する制御を行う、
 撮影制御装置。
(8)
 (5)から(7)のいずれか1項に記載の撮影制御装置であって、
 上記撮影情報は、対応する上記撮影画像の撮影が空撮か否かを示すフラグ情報を含み、
 上記プロセッサは、上記フラグ情報に基づいて上記第2撮影装置による撮影対象の部位を選択する制御を行う、
 撮影制御装置。
(9)
 (5)から(8)のいずれか1項に記載の撮影制御装置であって、
 上記撮影情報は、上記第1撮影装置の機種又は撮影性能を示す性能情報を含み、
 上記プロセッサは、上記性能情報と、上記第2撮影装置の機種又は撮影性能と、に基づいて上記第2撮影装置による撮影対象の部位を選択する制御を行う、
 撮影制御装置。
(10)
 (1)~(9)のいずれか1項に記載の撮影制御装置であって、
 上記第1撮影装置は、被写体の複数の部位の自動撮影が可能であり、
 上記撮影情報は、上記自動撮影のログを含み、
 上記プロセッサは、上記撮影情報に基づいて、上記第1撮影装置又は上記第2撮影装置による上記複数の部位の自動撮影を制御する自動撮影制御を行う、
 撮影制御装置。
(11)
 (1)に記載の撮影制御装置であって、
 上記第2撮影装置による被写体の撮影は、上記第1撮影装置による上記被写体の撮影の向きとは異なる向きの撮影である、
 撮影制御装置。
(12)
 (11)に記載の撮影制御装置であって、
 上記撮影情報は、上記第1撮影装置による撮影時における上記第1撮影装置の位置及び向きを示す情報を含み、
 上記撮影制御は、上記撮影情報と、上記第2撮影装置の位置及び向きと、に基づく上記第2撮影装置による撮影の向きの制御を含む、
 撮影制御装置。
(13)
 (11)に記載の撮影制御装置であって、
 上記撮影情報は、上記第1撮影装置による撮影時における、上記第1撮影装置の上記第2撮影装置に対する相対位置と上記第1撮影装置の向きとを示す情報を含み、
 上記撮影制御は、上記撮影情報と、上記第2撮影装置の位置及び向きと、に基づく上記第2撮影装置による撮影の向きの制御を含む、
 撮影制御装置。
(14)
 (13)に記載の撮影制御装置であって、
 上記相対位置は、上記第1撮影装置を上記第2撮影装置が撮影して得られた撮影画像に基づいて算出される、
 撮影制御装置。
(15)
 (1)から(14)のいずれか1項に記載の撮影制御装置であって、
 上記第1撮影装置及び上記第2撮影装置のうち少なくともいずれかは、移動体に搭載された撮影装置を含む、
 撮影制御装置。
(16)
 (15)に記載の撮影制御装置であって、
 上記移動体は飛翔体である、
 撮影制御装置。
(17)
 第1撮影装置と、
 第2撮影装置と、
 上記第1撮影装置及び上記第2撮影装置と通信可能な通信部を備える撮影制御装置と、を含み、
 上記撮影制御装置は、上記第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録し、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第2撮影装置による撮影を制御する撮影制御を行う、
 撮影システム。
(18)
 メモリ及びプロセッサを備える撮影制御装置による撮影制御方法であって、
 上記メモリは、第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録し、
 上記プロセッサは、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、
 撮影制御方法。
(19)
 第1撮影装置による撮影で得られた撮影画像と、上記撮影に関する撮影情報と、を対応付けて記録するメモリ及びプロセッサを備える撮影制御装置が実行する撮影制御プログラムであって、
 上記プロセッサに、上記撮影画像及び上記撮影情報の少なくともいずれかに基づいて、上記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、
 処理を実行させるための撮影制御プログラム。
 以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2021年7月29日出願の日本特許出願(特願2021-124856)に基づくものであり、その内容は本出願の中に参照として援用される。
 1 撮影システム
 2 空撮カメラ
 3 飛翔体
 4 送電塔
 5 電線
 6,10 地上カメラ
 7 スマートフォン
 8,9 撮影者
 11 管理装置
 12 通信ライン
 13,43B ディスプレイ
 14 二次記憶装置
 15 光学系
 15B レンズ群
 15B1 防振レンズ
 15B2 ズームレンズ
 16 旋回機構
 17,21 レンズアクチュエータ
 19 コンピュータ
 22 BISドライバ
 23 OISドライバ
 25 撮影素子
 25A 受光面
 27 撮影素子アクチュエータ
 28 レンズドライバ
 29 レンズ側振れ補正機構
 31 DSP
 32 画像メモリ
 33 電子式振れ補正部
 34,66~68 通信I/F
 35,60C メモリ
 36,60B ストレージ
 37,60A CPU
 38,70 バス
 39,47 位置検出センサ
 40 振れ量検出センサ
 43 UI系デバイス
 43A,62 受付デバイス
 45 撮影素子側振れ補正機構
 60 制御装置
 71 ヨー軸旋回機構
 72 ピッチ軸旋回機構
 73,74 モータ
 75,76 ドライバ
 81,210 撮影画像
 82 撮影情報テーブル
 100 撮影マップ
 101 現在地マーク
 211 飛翔体領域
 220 記憶媒体
 221 撮影制御プログラム
 p1~p8 撮影部位

Claims (19)

  1.  メモリ及びプロセッサを備える撮影制御装置であって、
     前記メモリは、第1撮影装置による撮影で得られた撮影画像と、前記撮影に関する撮影情報と、を対応付けて記録し、
     前記プロセッサは、前記撮影画像及び前記撮影情報の少なくともいずれかに基づいて、前記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、
     撮影制御装置。
  2.  請求項1に記載の撮影制御装置であって、
     前記第2撮影装置による撮影は、前記第1撮影装置による撮影の被写体における、前記第1撮影装置により撮影された部位と異なる部位の撮影である、
     撮影制御装置。
  3.  請求項2に記載の撮影制御装置であって、
     前記撮影制御は、前記撮影情報に基づく、前記第2撮影装置による撮影パラメータの設定を含む、
     撮影制御装置。
  4.  請求項2又は3に記載の撮影制御装置であって、
     前記撮影情報は、前記第1撮影装置による撮影時の前記第1撮影装置の位置情報を含み、
     前記プロセッサは、前記被写体を撮影する前記第1撮影装置を撮影した第3撮影装置により得られた前記第3撮影装置の位置情報と、前記第1撮影装置の位置情報と、の差分に基づく制御を行う、
     撮影制御装置。
  5.  請求項2から4のいずれか1項に記載の撮影制御装置であって、
     前記プロセッサは、予め設定された前記被写体の部位の中から、前記第2撮影装置による撮影対象の部位を選択する制御を行う、
     撮影制御装置。
  6.  請求項5に記載の撮影制御装置であって、
     前記撮影情報は、前記被写体の部位のうち前記第1撮影装置が撮影した部位を示す撮影済み情報を含み、
     前記プロセッサは、前記撮影済み情報に基づいて前記第2撮影装置による撮影対象の部位を選択する制御を行う、
     撮影制御装置。
  7.  請求項5又は6に記載の撮影制御装置であって、
     前記撮影情報は、対応する前記撮影画像が所定の条件を満たすか否かを示すフラグ情報を含み、
     前記プロセッサは、前記フラグ情報に基づいて前記第2撮影装置による撮影対象の部位を選択する制御を行う、
     撮影制御装置。
  8.  請求項5から7のいずれか1項に記載の撮影制御装置であって、
     前記撮影情報は、対応する前記撮影画像の撮影が空撮か否かを示すフラグ情報を含み、
     前記プロセッサは、前記フラグ情報に基づいて前記第2撮影装置による撮影対象の部位を選択する制御を行う、
     撮影制御装置。
  9.  請求項5から8のいずれか1項に記載の撮影制御装置であって、
     前記撮影情報は、前記第1撮影装置の機種又は撮影性能を示す性能情報を含み、
     前記プロセッサは、前記性能情報と、前記第2撮影装置の機種又は撮影性能と、に基づいて前記第2撮影装置による撮影対象の部位を選択する制御を行う、
     撮影制御装置。
  10.  請求項1~9のいずれか1項に記載の撮影制御装置であって、
     前記第1撮影装置は、被写体の複数の部位の自動撮影が可能であり、
     前記撮影情報は、前記自動撮影のログを含み、
     前記プロセッサは、前記撮影情報に基づいて、前記第1撮影装置又は前記第2撮影装置による前記複数の部位の自動撮影を制御する自動撮影制御を行う、
     撮影制御装置。
  11.  請求項1に記載の撮影制御装置であって、
     前記第2撮影装置による被写体の撮影は、前記第1撮影装置による前記被写体の撮影の向きとは異なる向きの撮影である、
     撮影制御装置。
  12.  請求項11に記載の撮影制御装置であって、
     前記撮影情報は、前記第1撮影装置による撮影時における前記第1撮影装置の位置及び向きを示す情報を含み、
     前記撮影制御は、前記撮影情報と、前記第2撮影装置の位置及び向きと、に基づく前記第2撮影装置による撮影の向きの制御を含む、
     撮影制御装置。
  13.  請求項11に記載の撮影制御装置であって、
     前記撮影情報は、前記第1撮影装置による撮影時における、前記第1撮影装置の前記第2撮影装置に対する相対位置と前記第1撮影装置の向きとを示す情報を含み、
     前記撮影制御は、前記撮影情報と、前記第2撮影装置の位置及び向きと、に基づく前記第2撮影装置による撮影の向きの制御を含む、
     撮影制御装置。
  14.  請求項13に記載の撮影制御装置であって、
     前記相対位置は、前記第1撮影装置を前記第2撮影装置が撮影して得られた撮影画像に基づいて算出される、
     撮影制御装置。
  15.  請求項1から14のいずれか1項に記載の撮影制御装置であって、
     前記第1撮影装置及び前記第2撮影装置のうち少なくともいずれかは、移動体に搭載された撮影装置を含む、
     撮影制御装置。
  16.  請求項15に記載の撮影制御装置であって、
     前記移動体は飛翔体である、
     撮影制御装置。
  17.  第1撮影装置と、
     第2撮影装置と、
     前記第1撮影装置及び前記第2撮影装置と通信可能な通信部を備える撮影制御装置と、を含み、
     前記撮影制御装置は、前記第1撮影装置による撮影で得られた撮影画像と、前記撮影に関する撮影情報と、を対応付けて記録し、前記撮影画像及び前記撮影情報の少なくともいずれかに基づいて、前記第2撮影装置による撮影を制御する撮影制御を行う、
     撮影システム。
  18.  メモリ及びプロセッサを備える撮影制御装置による撮影制御方法であって、
     前記メモリは、第1撮影装置による撮影で得られた撮影画像と、前記撮影に関する撮影情報と、を対応付けて記録し、
     前記プロセッサは、前記撮影画像及び前記撮影情報の少なくともいずれかに基づいて、前記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、
     撮影制御方法。
  19.  第1撮影装置による撮影で得られた撮影画像と、前記撮影に関する撮影情報と、を対応付けて記録するメモリ及びプロセッサを備える撮影制御装置が実行する撮影制御プログラムであって、
     前記プロセッサに、前記撮影画像及び前記撮影情報の少なくともいずれかに基づいて、前記第1撮影装置と異なる第2撮影装置による撮影を制御する撮影制御を行う、
     処理を実行させるための撮影制御プログラム。
PCT/JP2022/026576 2021-07-29 2022-07-04 撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラム WO2023008102A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/413,032 US20240155223A1 (en) 2021-07-29 2024-01-16 Imaging control device, imaging system, imaging control method, and imaging control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021124856 2021-07-29
JP2021-124856 2021-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/413,032 Continuation US20240155223A1 (en) 2021-07-29 2024-01-16 Imaging control device, imaging system, imaging control method, and imaging control program

Publications (1)

Publication Number Publication Date
WO2023008102A1 true WO2023008102A1 (ja) 2023-02-02

Family

ID=85086794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/026576 WO2023008102A1 (ja) 2021-07-29 2022-07-04 撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラム

Country Status (2)

Country Link
US (1) US20240155223A1 (ja)
WO (1) WO2023008102A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118136A (ja) * 2019-03-15 2019-07-18 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JP2020198477A (ja) * 2019-05-30 2020-12-10 ソフトバンク株式会社 監視システム、画像管理装置、飛翔体、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118136A (ja) * 2019-03-15 2019-07-18 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JP2020198477A (ja) * 2019-05-30 2020-12-10 ソフトバンク株式会社 監視システム、画像管理装置、飛翔体、及びプログラム

Also Published As

Publication number Publication date
US20240155223A1 (en) 2024-05-09

Similar Documents

Publication Publication Date Title
CN109952755B (zh) 飞行路径生成方法、飞行路径生成系统、飞行体以及记录介质
WO2018072657A1 (zh) 图像处理的方法、处理图像的装置、多目摄像装置以及飞行器
CN104052923B (zh) 拍摄设备、图像显示设备和图像显示设备的显示控制方法
US11042997B2 (en) Panoramic photographing method for unmanned aerial vehicle and unmanned aerial vehicle using the same
CN112425148B (zh) 摄像装置、无人移动体、摄像方法、系统及记录介质
CN105592262A (zh) 摄像装置
JP2001257920A (ja) カメラシステム
JP6785412B2 (ja) 無人航空機システム
CN105956081B (zh) 地面站地图更新方法及装置
JP6257439B2 (ja) 撮像装置及び撮像方法
JP2020095069A (ja) 撮像装置
WO2016002355A1 (ja) 撮影装置及び撮影方法
CN105704393A (zh) 摄影装置以及摄影方向的控制方法
CN114631056A (zh) 摄像支援装置、摄像支援系统、摄像系统、摄像支援方法及程序
WO2023008102A1 (ja) 撮影制御装置、撮影システム、撮影制御方法、及び撮影制御プログラム
JP2020050261A (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP6684507B1 (ja) 橋梁検査方法及び橋梁検査システム
JP7017961B2 (ja) ぶれ補正装置及びぶれ補正方法
WO2021035525A1 (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
WO2021014598A1 (ja) 撮像装置、撮像システム、画像処理装置、撮像方法、画像処理方法およびプログラム
JP2018197825A (ja) 制御装置及び方法、及び撮像装置
WO2024070263A1 (ja) 管理装置、撮像システム、管理方法、及び管理プログラム
JP6402640B2 (ja) 撮影システム
JP7209107B2 (ja) 撮像支援装置、撮像装置、撮像システム、撮像支援システム、撮像支援方法、及びプログラム
WO2023233882A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023538373

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE