WO2019189370A1 - 撮像システムおよび移動体 - Google Patents

撮像システムおよび移動体 Download PDF

Info

Publication number
WO2019189370A1
WO2019189370A1 PCT/JP2019/013216 JP2019013216W WO2019189370A1 WO 2019189370 A1 WO2019189370 A1 WO 2019189370A1 JP 2019013216 W JP2019013216 W JP 2019013216W WO 2019189370 A1 WO2019189370 A1 WO 2019189370A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
moving body
subject
imaging
charge
Prior art date
Application number
PCT/JP2019/013216
Other languages
English (en)
French (fr)
Inventor
徹 岩岡
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2019189370A1 publication Critical patent/WO2019189370A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Definitions

  • the present invention relates to an imaging system and a moving body.
  • the illumination assist device includes an illumination unit that assists illumination of a subject, an instruction acquisition unit that acquires an illumination instruction for assisting the illumination unit from the main imaging device, and a moving unit that moves the illumination unit (for example, , See Patent Document 1 below).
  • an illumination assist device cannot automatically adjust the shooting position of the camera, it cannot automatically adjust the positional relationship between the shooting position of the camera and the illumination irradiation position.
  • An imaging system disclosed in the present application captures an image of the subject by a plurality of moving bodies including a moving body having an imaging unit that images the subject and a moving body having an irradiation unit that irradiates the subject with light.
  • the system is a first moving body that is in charge of imaging the subject from among the plurality of moving bodies, and is in charge of light irradiation to the subject based on information on the positions of the plurality of moving bodies.
  • a determination process for determining a second moving body, and the subject is irradiated with light by the irradiation unit of the second moving body determined by the determination process, and the subject is detected by the imaging unit of the first moving body.
  • an imaging process for imaging is performed by a plurality of moving bodies including a moving body having an imaging unit that images the subject and a moving body having an irradiation unit that irradiates the subject with light.
  • the system is a first moving body that is in charge of imaging the subject from among the plurality of moving
  • the mobile body disclosed in the present application has an imaging unit that captures an image of a subject, and is a mobile body that can communicate with another mobile body, and receives an instruction in charge of imaging the subject from the other mobile body.
  • an imaging unit that captures an image of a subject
  • a setting process for setting the moving body in charge of imaging the subject and an imaging process for imaging the subject by the imaging unit are executed.
  • the second moving body disclosed in the present application has an irradiating unit that irradiates light to the subject, and is a moving body that can communicate with other moving bodies, and is instructed to take a role of irradiating the subject with light.
  • a receiving process received from the other moving object and a setting process for setting the moving object responsible for irradiating the subject with light when the instruction is received by the receiving process are executed.
  • a third moving body disclosed in the present application is a moving body having an imaging unit that images a subject, and transmits video data of the subject imaged by the imaging unit to a terminal that can communicate with the moving body.
  • a transmission process and a setting process for receiving an instruction in charge of imaging of the subject from the terminal and setting the mobile object in charge of imaging of the subject are executed.
  • the third moving body disclosed in the present application is a moving body having an imaging unit that images a subject and an irradiation unit that irradiates the subject with light, and is connected to a terminal that can communicate with the moving body by the imaging unit.
  • Transmission processing for transmitting image data of the imaged subject, and setting processing for receiving an instruction in charge of irradiating the subject with light from the terminal and setting the mobile body in charge of irradiating the subject with light And execute.
  • FIG. 1 is an explanatory diagram illustrating an example of use of an imaging system.
  • FIG. 2 is an explanatory diagram illustrating an example of a drone arrangement.
  • FIG. 3 is an explanatory view showing an example of development of a reflector by a reflective drone.
  • FIG. 4 is a block diagram illustrating a hardware configuration example of the drone.
  • FIG. 5 is a sequence diagram illustrating imaging example 1 using the drone group.
  • FIG. 6 is a flowchart showing a detailed processing procedure example of the save setting (step S513) shown in FIG.
  • FIG. 7 is a sequence diagram illustrating an imaging example 2 by the drone group.
  • FIG. 8 is a flowchart showing a detailed processing procedure example of the save setting (step S709) shown in FIG.
  • FIG. 9 is an explanatory diagram showing a first example of evacuation of a non-charged drone.
  • FIG. 10 is an explanatory diagram showing a second example of evacuation of a non-charged drone (state before evacuation).
  • FIG. 11 is an explanatory diagram showing a second example of evacuation of a drone outside charge (state after evacuation).
  • FIG. 12 is an explanatory diagram showing a configuration example of the reflection charge drone group.
  • FIG. 13 is an explanatory diagram illustrating an example of a movement instruction on the xy plane of the reflection charge drone.
  • FIG. 14 is an explanatory diagram showing an example of a rotation instruction about the z axis on the xy plane of the drone in charge of reflection.
  • FIG. 15 is an explanatory diagram illustrating an example of an elevating instruction in the z-axis direction on the xy plane of the drone in charge of reflection.
  • FIG. 1 is an explanatory diagram illustrating an example of use of an imaging system.
  • the imaging system 100 includes a plurality of moving objects.
  • the drone 101 that flies and floats in the air will be described as an example of the moving body, but other flying bodies may be used. Further, as another moving body, a vehicle or a robot that moves on land may be used.
  • the horizontal position of the drone 101 is a position (x, y) on the XY plane stretched by the X axis and the Y axis orthogonal to the X axis
  • the height of the drone 101 is on the Z axis orthogonal to the XY plane. The height is z.
  • the plurality of drones 101 constituting the drone group 101s can communicate with each other by, for example, wireless communication.
  • the plurality of drones 101 can also communicate with the terminal 121 of the operator 120.
  • the plurality of drones 101 includes at least one camera drone 101C and at least one irradiation drone 101LR.
  • the camera drone 101C is a drone 101 equipped with a camera.
  • the camera can capture still images and / or moving images.
  • the camera drone 101C may include an irradiation unit in addition to the camera.
  • the irradiating unit is at least one of an illuminating unit (illuminating lamp, illuminating device, light bulb, LED, strobe, etc.) or a reflecting plate (also referred to as a reflex plate).
  • the drone 101 in charge of photographing the subject 110 is determined from the camera drone 101C.
  • the drone 101 in charge of photographing the subject 110 is referred to as a camera charge drone 101C.
  • the irradiation drone 101LR is a drone 101 equipped with an irradiation unit.
  • the drone 101 equipped with the illumination unit is referred to as an illumination drone 101L.
  • the illumination drone 101L may be mounted with a camera and a reflector in addition to the illumination unit.
  • the drone 101 equipped with the reflector is referred to as a reflective drone 101R.
  • the reflective drone 101R may be mounted with a camera and an illumination unit in addition to the reflector.
  • the drone 101 equipped with a camera and an illumination unit is both a camera drone 101C and an illumination drone 101L.
  • the drone 101 that is responsible for irradiating the subject 110 with illumination light is determined from among the illumination drone 101L, and the drone 101 that is responsible for irradiating the subject 110 with reflected light is determined from among the reflective drone 101R.
  • the drone 101 in charge of irradiating the subject 110 with illumination light is referred to as an illumination charge drone 101L.
  • the drone 101 in charge of irradiating the subject 110 with reflected light is referred to as a reflection drone 101R.
  • the plurality of drones 101 determine the person in charge of photographing and the person in charge of irradiation by communicating with each other.
  • the camera drone 101C images the subject 110, and the irradiation drone 101LR irradiates the subject 110 with light.
  • the combination of the person in charge of photographing and the person in charge of irradiation at the time of photographing is as follows.
  • Camera drone 101C and lighting drone 101L (2) Camera drone 101C and reflective drone 101R (3) Camera drone 101C, lighting drone 101L, and reflective drone 101R
  • the imaging system 100 does not include the reflective drone 101R. That is, the illumination drone 101L irradiates the subject 110 with illumination light, and the camera drone 101C images the subject 110 irradiated with the illumination light.
  • the imaging system 100 does not include the illumination drone 101L. That is, light from the sun or an external light source is used as illumination light, the reflective drone 101R reflects the illumination light to the subject 110, and the camera drone 101C images the subject 110 irradiated with the illumination light and the reflected light.
  • the illumination drone 101L irradiates the subject 110 with illumination light
  • the reflection drone 101R reflects the illumination light or the light from the sun or an external light source to the subject 110
  • the camera drone 101C the subject 110 irradiated with the illumination light and the reflected light is imaged.
  • the operator 120 operates a terminal 121 that can communicate with a plurality of drones 101.
  • the terminal 121 can select the drone 101 in charge of shooting, lighting, and reflection, adjust the position of the drone 101, and send a shooting instruction to the camera drone 101C by the operation of the operator 120. It is.
  • FIG. 2 is an explanatory view showing an arrangement example of the drone 101.
  • FIG. 2 shows an example in which the subject 110 is photographed from the front in the combination (3).
  • the position of the subject 110 is the origin O
  • the front direction is the positive direction of the X axis
  • the left side direction is the positive direction of the Y axis
  • the vertically upward direction is the positive direction of the Z axis.
  • the height of each drone 101 is the same (that is, the Z coordinate value of each drone 101 is fixed). It is assumed that the optical axis of the camera arranged in the camera charge drone 101C is arranged so that the angle with respect to the Z axis is 90 degrees.
  • the camera drone 101C is located a predetermined distance dc away from the subject 110 in the positive direction of the X axis (positioned a predetermined distance dc away from the front of the subject 110) and floats with the camera facing the subject 110.
  • the floating means so-called hovering, for example, a flying state that is stationary at one point in the air.
  • the illumination drone 101L floats at a position away from the subject 110 by a distance dl so that the incident angle of the illumination light emitted from the illumination unit arranged in the illumination drone 101L toward the subject 110 is ⁇ 1 with respect to the X axis. To do.
  • the reflective drone 101R floats at a position away from the subject 110 by a distance dr so that the incident angle of the reflected light emitted toward the subject 110 from the reflecting portion arranged in the reflective drone 101R is ⁇ 2 with respect to the X axis. To do.
  • the reflected light is light that is reflected by the reflecting portion and emitted to the subject 110.
  • the floating positions of the lighting drone 101L and the reflective drone 101R may be switched.
  • the floating position relationship (dc, dl, dr, ⁇ 1, ⁇ 2) of each drone 101 is information set in advance, and for example, each drone 101 is held as a table in a storage device 403 described later. .
  • the height of each drone 101 in the Z-axis direction and the angles of the camera, the illumination unit, and the reflection unit with respect to the Z-axis are also included in the floating positional relationship for each assigned drone.
  • the drone group 101s has a camera and is positioned in front of the subject 110.
  • the drone 101 to be operated is determined to be the camera charge drone 101C.
  • the master drone 101 receives position information from the other drones 101, and based on a predetermined positional relationship (floating positional relationship (dc, dl, dr, ⁇ 1, ⁇ 2)), Decide which drone to use for shooting.
  • the drone 101 serving as the master may acquire the face recognition result of the subject 110 from the other drone 101 and determine the drone 101 positioned in the forefront as the drone for camera 101C. The distance between the camera drone 101C and the subject 110 is determined as the distance dc.
  • the camera-in-charge drone 101C When the camera-in-charge drone 101C is determined, among the other drones 101, when the drone 101 that is optimal for the floating position relationship, that is, the camera-in-charge drone 101C is located at a distance dc in front of the subject 110, The drone 101 has an illumination unit, and the drone 101 closest to the conditions of the incident angle ⁇ 1 and the subject distance dl is determined as the lighting charge drone 101L.
  • the drone 101 that is most suitable for the floating position relationship that is, the drone 101C in charge of the camera is located at a predetermined distance dc in front of the subject 110, it has a reflecting portion, and The drone 101 that is closest to the conditions of the incident angle ⁇ 2 and the subject distance dr is determined as the reflection charge drone 101R.
  • the camera drone 101C, the lighting drone 101L, and the reflection drone 101R can be determined, and the adjustment of the floating position relationship can be made more efficient.
  • the master drone 101 determines each responsible drone. Instead, for example, the drone 101 determined as the camera drone 101C may determine the lighting drone 101L and the reflection drone 101R.
  • the camera drone 101C, the lighting drone 101L, and the reflection drone 101R may be determined by communication between the drones 101.
  • the first assigned drone to be determined may be determined by the operator 120 in accordance with an instruction from the terminal 121. Thereby, the floating position relationship reflecting the intention of the operator 120 can be set.
  • the reflection charge drone 101R is not involved in the shooting.
  • one of the camera charge drone 101C and the lighting charge drone 101L is determined first, and as described above, the other charge drone 101 is determined thereafter.
  • the illumination drone 101L is not involved in shooting and irradiates illumination light at an incident angle ⁇ 1 of light from the sun or an external light source.
  • the lighting charge drone 101L is virtually determined, and then the camera charge drone 101C and the reflection charge drone 101R are determined as described above.
  • FIG. 3 is an explanatory diagram showing an example of development of the reflector plate by the reflective drone 101R.
  • the reflective plate 300 of (A) is a bellows type, and is normally stored in a state in which a plurality of reflecting pieces constituting the bellows are folded.
  • the reflection plate 300 is configured by developing a plurality of folded reflection pieces 301 downward.
  • the reflection plate 300 of (B) is a winding type, and is normally stored in a state where the reflection sheet 302 is wound.
  • the reflection plate 300 is configured by unwinding and unfolding the roll-shaped reflection sheet 302 downward.
  • the reflective drone 101R is stored in a state where the reflective sheet 302 is wound up again.
  • the bellows type and the winding type described above are examples of the reflector 300, and the reflector 300 is housed so as not to affect the flight in a normal flight state.
  • the reflecting plate 300 is not limited to the bellows type or the winding type as long as it can be arranged in a usable state at the time of photographing.
  • FIG. 4 is a block diagram illustrating a hardware configuration example of the drone 101.
  • the drone 101 includes a processor 401, an LSI (Large Scale Integration) 402, a storage device 403, a motor 404, a propeller 405, a reflector 300, a communication IF (Interface) 407, and a GPS (Global Positioning System) module.
  • the processor 401 controls the drone 101.
  • the LSI 402 is an integrated circuit necessary for controlling the drone 101.
  • the LSI 402 includes, for example, a flight controller and a speed controller.
  • the flight controller controls the drone 101 to have a stable posture based on a detection signal from the gyro sensor 409.
  • the speed controller supplies the motor 404 with an output command value indicating the moving amount and moving direction of the drone 101 from the processor 401, the flight controller, or the terminal 121.
  • the storage device 403 serves as a work area for the processor 401.
  • the storage device 403 is a non-temporary or temporary recording medium that stores various programs and data.
  • the storage device 403 holds the above-described floating positional relationship as a table.
  • Examples of the storage device 403 include a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), and a flash memory.
  • the motor 404 controls the rotation of the propeller 405 according to the output command value from the flight controller. Further, the motor 404 controls to unfold or store the reflecting plate 300 according to an instruction from the processor 401 or the terminal 121.
  • the propeller 405 is rotated by the motor 404 to move or float the drone 101.
  • the communication IF 407 receives signals from the terminal 121 and GPS satellites and transmits them to the processor 401, LSI 402, and GPS module 408. The communication IF 407 transmits a signal from the processor 401 or the LSI 402 to the terminal 121.
  • the GPS module 408 specifies the horizontal position (x, y) of the drone 101 based on a signal from a GPS satellite received via the communication IF 407.
  • the gyro sensor 409 detects the attitude of the drone 101 as an angular velocity.
  • the compass 410 detects the geomagnetism and identifies the direction in which the drone 101 is facing.
  • Altimeter 411 detects the altitude z of the drone 101.
  • the altimeter 411 for example, an atmospheric pressure sensor or an ultrasonic sensor is used.
  • the three-dimensional position (x, y, z) of the drone 101 is specified by the GPS module 408 and the altimeter 411.
  • a camera may be used as the altimeter 411.
  • a change in altitude can be acquired from a change in the acquired image by imaging the ground surface with a camera oriented in the negative Z-axis direction.
  • the camera 412 captures the subject 110 as video data that is a still image or a moving image in accordance with an instruction from the processor 401 or the terminal 121.
  • the camera 412 can also specify the subject distance.
  • the drone 101 may be provided with a separate distance measuring sensor, and the subject distance may be specified by the distance measuring sensor.
  • Video data generated by the camera 412 is stored in the storage device 403.
  • the illumination unit 413 is turned on or off according to an instruction from the processor 401 or the terminal 121.
  • the processor 401 or the LSI 402 may function as an optical flow sensor.
  • the optical flow sensor is image processing that detects the direction and amount of movement of the apparent movement of the subject image due to the relative motion between the drone 101 and the subject reflected in the camera 412. As a result, the flight of the drone 101 can be stabilized and the subject can be tracked.
  • FIG. 5 is a sequence diagram illustrating an imaging example 1 by the drone group 101s.
  • FIG. 5 shows a sequence of photographing the subject 110 in cooperation with the terminal 121 by determining the camera charge drone 101C, the illumination charge drone 101L, and the reflection charge drone 101R from the drone group 101s.
  • Each drone 101 transmits video data captured by the camera 412 to the terminal 121 (step S501).
  • the terminal 121 selects the drone 101 by the operation of the operator 120 and displays the video data from the selected drone 101 on the display screen of the terminal 121. Further, the terminal 121 may simultaneously display the video data transmitted from each drone 101 on the display screen of the terminal 121.
  • the operator 120 can select the most appropriate drone for the camera charge drone 101C by viewing the displayed video data. Note that the terminal 121 may acquire an image data after turning by sending an instruction to the drone 101 to turn in the horizontal direction.
  • the terminal 121 selects the camera charge drone 101C by a selection input from the operator 120 (step S502). Further, at this time, the terminal 121 may select which of the configurations (1) to (3) described above is to be used for shooting based on a selection input from the operator 120. Then, the terminal 121 transmits a camera charge selection notification to the camera charge drone 101C (step S503).
  • the camera charge selection notification may include information indicating the configuration selected from (1) to (3).
  • the camera charge drone 101C When the camera charge drone 101C receives the camera charge selection notification, the camera charge drone 101C specifies the subject distance dc (step S504).
  • the camera-in-charge drone 101C transmits a position information request to another drone 101 in accordance with the configuration selected from (1) to (3) (step S504).
  • the location information request can be transmitted by broadcast transmission, for example.
  • Each drone 101 that has received the position information request returns its current position information to the camera charge drone 101C.
  • the camera-in-charge drone 101C may transmit the position information request to all other drones 101, but may limit the transmission destination drone 101 of the position information request.
  • the camera drone 101C transmits a position information request to the lighting drone 101L (step S505).
  • the camera drone 101C transmits a position information request to the reflective drone 101R.
  • the camera charge drone 101C transmits a position information request to the illumination drone 101L and the reflection drone 101R.
  • Each drone 101 recognizes whether the other drone 101 corresponds to the drone type of the camera drone 101C, the lighting drone 101L, or the reflective drone 101R. That is, each drone 101 stores information indicating the drone type of the other drone 101 in the storage device 403. Thereby, the transmission destination of a positional information request
  • the location information request transmission destination drone 101 When the location information request transmission destination drone 101 receives the location information request (step S504), it acquires its current location information and transmits the acquired location information to the camera charge drone 101C (step S506).
  • the location information request destination drone 101 receives a signal from a GPS satellite via the communication IF 407, specifies the current horizontal position (x, y) by the GPS module 408, and determines the altitude z by the altimeter 411. By specifying, the current three-dimensional position (x, y, z) is acquired.
  • the transmission destination drone 101 of the position information request transmits position information indicating the acquired three-dimensional position (x, y, z) to the camera charge drone 101C (step S506).
  • each drone 101 uses a common coordinate system.
  • the common coordinate system is a coordinate system with the position of the subject 110 as the origin and the orientation of the subject 110 as a reference (for example, the position of the subject 110 is the origin O, the front direction is the positive direction of the X axis, and the left side. It is possible to adopt a coordinate system in which the surface direction is the positive direction of the Y axis and the vertically upward direction is the positive direction of the Z axis.
  • Each drone 101 can recognize the position of the subject 110 based on, for example, video data captured by the camera 412. Further, each drone 101 can recognize its own angle with respect to the front direction of the subject 110 based on, for example, video data captured by the camera 412.
  • the own angle is a unit vector v from the origin O toward the drone.
  • each drone 101 can specify the distance to the subject based on the video data captured by the camera 412, for example.
  • each drone 101 can also specify the distance to the subject using, for example, a distance measuring sensor. By integrating the unit vector v with the distance from the origin O to the drone (the distance to the subject), the current three-dimensional position (x, y, z) of the drone in the common coordinate system can be acquired.
  • the camera charge drone 101C determines the role (step S507). Specifically, for example, when the configuration (1) is selected, the camera charge drone 101C determines one of the illumination drones 101L as the illumination charge drone 101L from among the illumination drones 101L. In this case, as described with reference to FIG. 2, the position of the lighting charge drone 101 ⁇ / b> L is determined by the floating position relationship.
  • the camera drone 101C is an ideal position of the lighting drone 101L based on its own position (x, y, z), subject distance dc, subject position (xt, yt, zt), and incident angle ⁇ 1. Specify (xl, yl, zl). Therefore, the camera drone 101C determines the lighting drone 101L closest to the ideal position (xl, yl, zl) among the transmission destination drones 101 of the position information request as the lighting drone 101L.
  • the camera drone 101C determines one of the reflection drones 101R from the lighting drone 101L as the reflection drone 101R. In this case, as described with reference to FIG. 2, the position of the reflective drone 101R is determined by the floating positional relationship.
  • the camera drone 101C is an ideal position of the reflection drone 101R based on its own position (x, y, z), subject distance dc, subject position (xt, yt, zt), and incident angle ⁇ 2. (Xr, yr, zr) is specified. Therefore, the camera-in-charge drone 101C determines the reflection drone 101R closest to the ideal position (xr, yr, zr) among the transmission destination drones 101 of the position information request as the reflection-in-charge drone 101R.
  • the camera drone 101C illuminates the closest position to the ideal position (xl, yl, zl) from the location information request destination drone 101 as described above.
  • the drone 101L is determined to be the lighting charge drone 101L
  • the reflection drone 101R closest to the ideal position (xr, yr, zr) is determined to be the reflection charge drone 101R. In this way, the role of each drone 101 is determined.
  • the camera drone 101C transmits a lighting charge selection notification to the lighting drone 101L (step S508) (in the case of configurations (1) and (3)). Further, the camera charge drone 101C transmits a reflection charge selection notification to the reflection charge drone 101R (step S509) (in the case of configurations (2) and (3)).
  • the lighting charge drone 101L sets the lighting (step S510). Specifically, for example, the lighting drone 101L moves to an ideal position (xl, yl, zl) and irradiates the subject 110 with illumination light from the illumination unit 413 at an incident angle ⁇ 1.
  • the reflection charge drone 101R sets the reflection (step S511). Specifically, for example, the drone 101R in charge of reflection moves to an ideal position (xr, yr, zr), expands the reflecting plate 300, and sets the reflecting surface of the subject 110 so as to have an incident angle ⁇ 2. Turn to. Thereafter, the lighting charge drone 101L and the reflection charge drone 101R transmit a setting completion notification to the camera charge drone 101C (step S512).
  • the camera charge drone 101C Upon receiving the setting completion notification, the camera charge drone 101C executes the evacuation setting (step S513).
  • the save setting (step S513) will be described later with reference to FIG.
  • the camera charge drone 101C transmits a setting completion notification to the terminal 121 (step S514).
  • the terminal 121 transmits an imaging instruction to the camera charge drone 101C by the operation of the operator 120 (step S515).
  • the camera drone 101C may transmit video data of the subject 110 to the terminal 121 when the imaging instruction is given, and the terminal 121 may display the video data on the display screen of the terminal 121.
  • the camera charge drone 101C images the subject 110 (step S516).
  • the camera drone 101C obtains image data as a still image by releasing the shutter, and in the case of moving image shooting, the camera drone 101C starts moving image shooting and takes time-series images. Get the data.
  • the camera charge drone 101C transmits the captured image data to the terminal 121 (step S517).
  • the camera drone 101C is configured to capture shooting conditions such as brightness (aperture value), exposure time (charge storage time, so-called shutter speed), amplification factor (ISO sensitivity), and frame rate. You may perform the setting. Further, the camera charge drone 101 ⁇ / b> C focuses on the subject 110 by the autofocus function of the camera 412. In the shooting condition setting, the camera drone 101C may set the shooting condition according to an instruction from the terminal 121 by the operation of the operator 120.
  • the camera drone 101C may move while tracking the subject 110.
  • the lighting charge drone 101L and the reflection charge drone 101R may move following the movement so that the positional relationship before the movement is maintained.
  • the camera charge drone 101C transmits the movement amount and the movement direction to the lighting charge drone 101L and the reflection charge drone 101R.
  • the camera charge drone 101C is determined and then the lighting charge drone 101L and the reflection charge drone 101R are determined. However, after the lighting charge drone 101L is determined, the camera charge drone 101C and the reflection charge drone are determined. 101R may be determined, and the camera charge drone 101C and the lighting charge drone 101L may be determined after the reflection charge drone 101R is determined.
  • the camera charge drone 101C is determined by the terminal 121 (step S502), but the camera charge drone 101C may be determined by communication between the drones 101.
  • each drone 101 performs a position information request and reception of position information (steps S505 and S506), whereby each drone 101 obtains position information of another drone, and each drone 101 A drone suitable as the camera charge drone 101C may be determined in consideration of the position of another drone.
  • FIG. 6 is a flowchart showing a detailed processing procedure example of the save setting (step S513) shown in FIG.
  • the camera charge drone 101C determines whether there is another drone 101 in the shooting space (step S601).
  • the shooting space is a space that is reflected in an image shot within the range of the angle of view of the camera 412 of the drone 101C in charge of the camera. If there is no other drone 101 (step S601: No), the camera charge drone 101C ends the save setting (step S513).
  • step S601 the camera-in-charge drone 101C specifies another drone 101 in the imaging space (hereinafter referred to as the evacuation target drone 101OS) and its position information (step S602). If the evacuation target drone 101OS is a drone 101 that has not transmitted a location information request in step S505, the camera-in-charge drone 101C transmits a location information request to the evacuation target drone 101OS in the same manner as in steps S505 and S506. Position information is received from the drone 101.
  • the evacuation target drone 101OS is a drone 101 that has not transmitted a location information request in step S505
  • the camera-in-charge drone 101C transmits a location information request to the evacuation target drone 101OS in the same manner as in steps S505 and S506. Position information is received from the drone 101.
  • the camera drone 101C generates evacuation instruction information for the evacuation target drone 101OS (step S603), and transmits the evacuation instruction information to the evacuation target drone 101OS (step S604).
  • the evacuation instruction information includes, for example, position information of the camera drone 101C and information indicating the shooting space.
  • the camera charge drone 101C waits for the evacuation completion information from the evacuation target drone 101OS (step S605: No). Step S513) is terminated.
  • the evacuation target drone 101OS waits for evacuation instruction information from the camera charge drone 101C (step S606: No).
  • the save target drone 101OS calculates the save position of the camera charge drone 101C outside the shooting space (step S607).
  • the evacuation target drone 101OS acquires the position information of the camera drone 101C and the subject 110 from the camera drone 101C, and calculates the evacuation position outside the imaging space. For example, an arbitrary position in the space on the opposite side of the subject 110 of the camera drone 101C is calculated as the retracted position outside the imaging space.
  • the evacuation target drone 101OS is evacuated from the shooting space of the camera charge drone 101C by moving to the calculated evacuation position (step S608). Thereafter, the evacuation target drone 101OS generates evacuation completion information (step S609) and transmits it to the camera charge drone 101C (step S610). Thereby, it is possible to suppress the reflection of the evacuation target drone 101OS in the image data.
  • the camera charge drone 101C is the position information of the drone outside the imaging space (the evacuation target drone 101OS may be included). , The role may be determined again (step S507).
  • the evacuation target drone 101OS is the lighting charge drone 101L
  • the lighting charge drone 101L moves away from the subject 110 while maintaining the incident angle ⁇ 1 at which the illumination unit 413 irradiates the subject 110 with illumination light. fall back.
  • the evacuation target drone 101OS is the reflective drone 101R
  • the reflective drone 101R leaves the subject 110 while maintaining the incident angle ⁇ 2 at which the reflected light from the reflector 300 is incident on the subject 110, for example.
  • Treatment in the direction This eliminates the need to reset the incident angles ⁇ 1 and ⁇ 2, can suppress the retry of the role determination 507, and can suppress an increase in imaging time.
  • FIG. 7 is a sequence diagram showing an imaging example 2 by the drone group 101s.
  • the imaging example 1 in FIG. 5 the example in which the subject 110 is imaged in cooperation with the terminal 121 has been described.
  • master drone 101M a certain drone 101 in the drone group 101s is used as a master
  • the remaining drone 101 is used as a slave (hereinafter referred to as a slave drone 101S), and the autonomous shooting is performed without going through the terminal 121.
  • which of the configurations (1) to (3) is to be realized may be set in the master drone 101M in advance.
  • Each slave drone 101S transmits the position specifying information to the master drone 101M (step S701).
  • the position specifying information is position information of the slave drone 101S.
  • the position specifying information may include a face recognition result in a through image obtained from the camera 412 of the slave drone 101S.
  • Each slave drone 101S does not transmit the position specifying information to the master drone 101M, but the master drone 101M transmits a position information request to each slave drone 101S as in the imaging example 1, and receives the position information as a response. You may make it receive (step S505, S506).
  • the master drone 101M executes the role determination (step S702). Specifically, for example, the master drone 101M determines the camera charge drone 101C, the lighting charge drone 101L, and the reflection charge drone 101R from the slave drone 101S based on the position specifying information. For example, the master drone 101M specifies the shooting angle of the slave drone 101S to the subject 110 from the face recognition result included in the position specifying information, and the slave drone 101S existing closer to the front is used as the camera drone 101C. decide.
  • the face information of the specific person is stored in the storage device 403 of each slave drone 101S, and the slave drone 101S that transmitted the position specifying information including the face recognition result of the specific person is determined to be the camera drone 101C. Good. Further, when the master drone 101M determines the camera-in-charge drone 101C, the master drone 101M determines the lighting-in charge drone 101L and the reflection-in charge drone 101R as in the imaging example 1 of FIG.
  • the reflective drone 101R is not selected, and in the configuration (2), the lighting drone 101L is not selected.
  • which of the configurations (1) to (3) is to be realized is determined in advance if the master drone 101M is not set in the master drone 101M. Based on the brightness, it may be determined which of the configurations (1) to (3) is used for imaging. Further, based on the type of subject to be photographed, it may be determined which of the configurations (1) to (3) is used for capturing an image.
  • the master drone 101M transmits a lighting charge selection notification to the lighting charge drone 101L (step S703), transmits a camera charge selection notification to the camera charge drone 101C (step S704), and the reflection charge drone.
  • a reflection charge selection notification is transmitted to 101R (step S705).
  • the lighting charge drone 101L When the lighting charge drone 101L receives the lighting charge selection notification from the master drone 101M, the lighting charge drone 101L sets the lighting (step S706). Specifically, for example, the lighting drone 101L moves to an ideal position (xl, yl, zl) and irradiates the subject 110 with illumination light from the illumination unit 413 at an incident angle ⁇ 1.
  • the reflection charge drone 101R receives the reflection charge selection notification from the master drone 101M
  • the reflection charge drone 101R sets the reflection (step S707). Specifically, for example, the drone 101R in charge of reflection moves to an ideal position (xr, yr, zr), expands the reflecting plate 300, and sets the reflecting surface of the subject 110 so as to have an incident angle ⁇ 2. Turn to. Thereafter, the lighting charge drone 101L and the reflection charge drone 101R transmit a setting completion notification to the camera charge drone 101C (step S708).
  • the camera charge drone 101C Upon receiving the setting completion notification, the camera charge drone 101C executes the evacuation setting (step S709). Details of the save setting (step S709) will be described with reference to FIG.
  • the camera drone 101C images the subject 110 (step S710). In the case of still image shooting, the camera drone 101C obtains image data as a still image by releasing the shutter, and in the case of moving image shooting, the camera drone 101C starts moving image shooting and takes time-series images. Get the data.
  • the camera drone 101C is configured to capture shooting conditions such as brightness (aperture value), exposure time (charge accumulation time, so-called shutter speed), amplification factor (ISO sensitivity), and frame rate. You may perform the setting. Further, the camera charge drone 101 ⁇ / b> C focuses on the subject 110 by the autofocus function of the camera 412.
  • the camera drone 101C may move while tracking the subject 110.
  • the lighting charge drone 101L and the reflection charge drone 101R may move following the movement so that the positional relationship before the movement is maintained.
  • the camera charge drone 101C transmits the movement amount and the movement direction to the lighting charge drone 101L and the reflection charge drone 101R.
  • FIG. 8 is a flowchart showing a detailed processing procedure example of the save setting (step S709) shown in FIG.
  • the camera charge drone 101C determines whether there is another drone 101 in the shooting space (step S801). If there is no other drone 101 (step S801: No), the camera charge drone 101C ends the save setting (step S709).
  • step S801 the camera charge drone 101C generates a save request for the other drone 101 (hereinafter, save target drone 101OS) (step S802) and transmits it to the master drone 101M (step S802). S803).
  • the evacuation request includes, for example, position information of the camera drone 101C and information indicating the shooting space.
  • the camera charge drone 101C waits for the evacuation completion information from the master drone 101M (step S804: No).
  • the evacuation completion information is received from the master drone 101M (step S804: Yes)
  • the evacuation setting (step S709) ends. .
  • the master drone 101M waits for an evacuation request from the camera-in-charge drone 101C (step S805: No), and when receiving the evacuation request (step S805: Yes), specifies the evacuation target drone 101OS and its position information (step S806). . Then, the master drone 101M generates evacuation instruction information for the evacuation target drone 101OS (step S807), and transmits the evacuation instruction information to the evacuation target drone 101OS (step S808).
  • the master drone 101M waits for evacuation completion information from the evacuation target drone 101OS (step S809: No).
  • the master drone 101M transmits the evacuation completion information to the camera charge drone 101C (step S810).
  • the evacuation target drone 101OS waits for evacuation instruction information from the master drone 101M (step S811: No).
  • the save target drone 101OS calculates the save position of the camera charge drone 101C outside the shooting space (step S812).
  • the evacuation target drone 101OS acquires the position information of the camera drone 101C and the subject 110 from the camera drone 101C via the master drone 101M, and sets it as the outside of the shooting space, for example, the camera drone 101C.
  • An arbitrary position in the space opposite to the subject 110 is calculated as the retreat position.
  • the retreat target drone 101OS retreats from the shooting space of the camera charge drone 101C by moving to the calculated retreat position (step S813). Thereafter, the evacuation target drone 101OS generates evacuation completion information (step S814) and transmits it to the master drone 101M (step S815). Thereby, it is possible to suppress the reflection of the evacuation target drone 101OS in the image data.
  • the master drone 101M transmits the evacuation instruction information to the evacuation target drone 101OS.
  • the camera drone 101C directly transmits the evacuation instruction information to the evacuation target drone 101OS without going through the master drone 101M. You may make it transmit.
  • the evacuation target drone 101OS generates evacuation completion information after evacuation, and transmits the evacuation completion information to the camera charge drone 101C.
  • FIG. 9 is an explanatory diagram illustrating a save example 1 of the save target drone 101OS.
  • the imaging space CP is a three-dimensional space determined by the current position (x, y, z) of the camera charge drone 101C and the angle of view set in the camera 412. That is, the imaging space CP is an internal space in which the inside of the cone is viewed from the apex angle when rotated with the angle of view as the apex angle and the optical axis as the rotation axis.
  • the evacuation target drone 101OS is two evacuation target drones 101OS1 and 101OS2.
  • the evacuation target drone 101OS1 is an evacuation target drone 101OS that exists in the imaging space CP
  • the evacuation target drone 101OS2 is an evacuation target drone 101OS that exists at the boundary of the imaging space CP.
  • the evacuation target drones 101OS1 and 101OS2 are not distinguished, they are described as the evacuation target drone 101OS.
  • the camera charge drone 101C calculates information indicating the imaging space CP (steps S603 and S802) and transmits the information to the evacuation target drone 101OS (steps S604 and S808). Then, the evacuation target drone 101OS calculates a evacuation position outside the imaging space CP (steps S607 and S812) and evacuates from the imaging space CP (steps S608 and S813). In the case of the example in FIG. 9, the evacuation target drones 101OS1 and 101OS2 are evacuated from the imaging space CP.
  • the camera-in-charge drone 101C and the master drone 101M distribute (broadcast or multicast) the evacuation instruction information to other drones 101 without specifying the evacuation target drone 101OS, and the other drones 101
  • Steps S607 and S812 may be saved from the imaging space CP (Steps S608 and S813).
  • FIG. 10 is an explanatory diagram showing a evacuation example 2 (state before evacuation) of the evacuation target drone 101OS
  • FIG. 11 is an explanatory diagram showing an evacuation example 2 (state after evacuation) of the evacuation target drone 101OS.
  • the evacuation example 1 the example in which the evacuation target drone 101OS is evacuated outside the imaging space CP when the evacuation target drone 101OS exists in the imaging space CP has been described.
  • An example in which the evacuation target drone 101OS is evacuated outside the photographic space CP when is included in the photographic space CP will be described.
  • the camera drone 101C acquires the position information and the shadow position information from the drone 101, and the shadow position is photographed even if the drone 101 itself is outside the photographing space CP. If it is in the space CP, the drone is handled as an evacuation target drone. This will be specifically described below.
  • each drone 101 stores in the storage device 403 a table that stores the altitude and azimuth of the sun for each date and time (however, latitude and longitude are variables). The other drone 101 reads the altitude and azimuth angle of the sun corresponding to the current date time from the table.
  • the other drone 101 gives the latitude and longitude indicating the current position calculated by the GPS module 408 to the latitude and longitude which are variables in the read sun altitude and azimuth. Then, the other drone 101 has the incident direction of the incident light from the sun to the other drone 101 based on the obtained altitude and azimuth angle of the sun and the current position (x, y, z) of the other drone 101. And the incident angle is calculated.
  • the other drone 101 based on the detected incident direction and incident angle and its current position (x, y, z), the position of the shadow of the other drone 101 projected on the ground in the incident direction and incident angle. And calculate the range.
  • the other drone 101 transmits information indicating the calculated shadow position and range to the camera drone 101C, and the camera drone 101C determines the shadow position and range.
  • the save setting is executed using the indicated information (step S513). That is, the camera-in-charge drone 101C specifies the evacuation target drone 101OS from the other drone 101 and the position and range of its shadow (step S602).
  • the camera charge drone 101C generates evacuation instruction information for the evacuation target drone 101OS in which the drone 101 main body or its shadow exists in the imaging space CP (step S603).
  • the evacuation target drone 101OS calculates the evacuation position where the drone 101 main body and its shadow are outside the imaging space CP (step S607). Thereby, it is possible to suppress the shadow of the evacuation target drone 101OS from being reflected in the video imaged by the camera drone 101C.
  • the slave drone 101S includes the information indicating the calculated shadow position and range in the position specifying information and transmits the information to the master drone 101M (step S701).
  • Information indicating the shadow position and range of the drone 101S is transmitted to the drone 101C in charge of the camera.
  • the camera charge drone 101C executes the evacuation setting using the information indicating the position and range of the shadow received from the master drone 101M (step S709). That is, the camera charge drone 101C specifies the evacuation target drone 101OS from the slave drone 101S and the position and range of its shadow (step S602).
  • the camera charge drone 101C generates an evacuation request for the evacuation target drone 101OS (step S802). Further, the retreat target drone 101OS calculates a retreat position where the drone 101 main body and its shadow are outside the imaging space CP (step S812). Thereby, it is possible to suppress the shadow of the evacuation target drone 101OS from being reflected in the video imaged by the camera drone 101C.
  • the lighting charge drone 101L and the reflection charge drone 101R can be the evacuation target drone 101OS.
  • the camera charge drone 101C identifies the lighting charge drone 101L as the evacuation target drone 101OS. Therefore, the lighting charge drone 101L is evacuated out of the imaging space CP, like the other evacuation target drones 101OS1 and 101OS2.
  • the irradiation drone 101LR is retracted so that the irradiation angle to the subject 110 is maintained before and after retraction. Thereby, it is possible to prevent the shadow of the irradiation charge drone 101LR from appearing in the video imaged by the camera charge drone 101C.
  • FIG. 12 is an explanatory diagram showing a configuration example of the reflection charge drone group.
  • a plurality of reflecting drones 101R may be determined.
  • (A) is an example in which a plurality of reflective drones 101R having a winding-type reflector 300 (see FIG. 3B) are selected to form a reflective drone group 101Rs.
  • the drone 101R in charge of reflection is arranged in a floating manner in 2 rows and 3 columns on the YZ plane.
  • (B) is an example in which the reflection charge drone 101R provided with the reflection plate 300 on the side surface of the drone 101 main body is floated in 6 rows and 3 columns on the YZ plane.
  • the number of matrices of the reflection charge drone 101R in FIG. 12 is an example.
  • the reflection plates 300 may be arranged close to each other so that the reflection angles thereof are the same angle.
  • the number of evacuation target drones 101OS is reduced, and the number of drones 101 existing in the imaging space CP can be suppressed.
  • the assigned drone 101 to be instructed may be the camera drone 101C or the lighting drone 101L.
  • the xy plane stretched by the x-axis corresponding to the X-axis and the y-axis corresponding to the Y-axis is set as the display surface, and is orthogonal to the xy plane, and the operator 120 sets the xy plane as the display surface.
  • the position of the icon of the drone 101 specified above is set as the z axis.
  • FIG. 13 is an explanatory diagram showing an example of a movement instruction on the xy plane of the reflective drone 101R.
  • (A) shows the display screen 1301 of the terminal 121 before movement
  • (B) shows the display screen 1302 of the terminal 121 after movement.
  • the terminal 121 acquires information on the current position (x, y, z) and information on the subject position from each assigned drone 101, and icons 101 Ci, 101 Li, 101 Ri for each assigned drone 101 and icons for the subject 110.
  • a display screen 1301 showing 110i and the positional relationship between them is generated and displayed on the display 1300.
  • the operator 120 selects the icon 101Ri of the reflective drone 101R whose position is to be changed with the finger 1310, and flicks in the direction in which the operator wants to move.
  • the icon 101Ri of the drone 101R in charge of reflection is selected and flicked.
  • the icon 101Ri of the drone 101R in charge of reflection is moved to the position after the flick.
  • the terminal 121 transmits the position information after the flick (may be the amount of movement or the movement direction from the position before the flick) to the drone 101R in charge of reflection corresponding to the flicked icon 101Ri.
  • the reflective drone 101R that has received the position information after the flick moves so as to have the position and direction after the flick. As a result, the operation of moving the reflection drone 101R in the XY plane direction can be easily realized.
  • FIG. 14 is an explanatory diagram showing an example of a rotation instruction about the z-axis on the xy plane of the reflective drone 101R.
  • FIG. 14 shows an example in which the icon 101Ri of the reflective drone 101R after flicking in FIG. 13 is rotated around the z axis.
  • (C) shows the display screen 1401 of the terminal 121 before rotation around the z axis
  • (D) shows the display screen 1401 of the terminal 121 after rotation.
  • the operator 120 selects the icon 101Ri of the drone 101R in charge of reflection to be rotated with the finger 1310, and flicks in the direction to be rotated.
  • the icon 101Ri of the drone 101R in charge of reflection is rotated in the direction after the flick.
  • the terminal 121 transmits the rotation information after the flick (may be the rotation amount or the rotation direction at the position before the flick) to the reflection charge drone 101R corresponding to the flicked icon 101Ri.
  • the reflective drone 101R that has received the rotation information after the flick rotates so as to be in the position and direction after the flick. Thereby, the operation of the rotation instruction about the Z axis of the drone 101R in charge of reflection in the XY plane direction can be easily realized.
  • the rotation of the icon 101Ri of the reflective drone 101R may be automatically rotated by the terminal 121 instead of manually as shown in FIG. In this case, the terminal 121 rotates the icon 101Ri of the reflection charge drone 101R so that the reflection surface of the reflection charge drone 101R faces the subject 110.
  • the operator 120 simply flicks the icon 101Ri of the reflection charge drone 101R in the xy plane direction as shown in FIG. Can be rotated. Therefore, the rotation operation shown in FIG. 14 is not necessary, and the ease of operation can be improved.
  • FIG. 15 is an explanatory diagram showing an example of an elevating instruction in the z-axis direction on the xy plane of the reflective drone 101R.
  • FIG. 15 shows an example of moving (raising or lowering) the icon 101Ri of the drone 101R in charge of reflection after the flick of FIG. 14 in the z-axis direction.
  • E shows the display screen 1501 of the terminal 121 when ascending in the z-axis direction
  • F shows the display screen 1502 of the terminal 121 when descending in the z-axis direction.
  • the operator 120 selects the icon 101Ri of the reflective drone 101R to be moved up and down with two fingers 1310 and 1500, and (E) To pinch out 1310,1500 and (F) to lower it, pinch in two fingers 1310,1500.
  • the amount of increase is proportional to the width of the two fingers 1310, 1500 after pinching out.
  • the descending amount is proportional to the width of the two fingers 1310 and 1500 after pinching in.
  • the terminal 121 changes the position information after pinching (may be an ascending or descending amount according to the width of the two fingers 1310, 1500 from before the pinch) to the pinched icon. It transmits to the corresponding reflection charge drone 101R.
  • the reflective drone 101R that has received the post-pinch position information moves so as to be in the post-pinch position. Thereby, the operation of the movement instruction in the Z-axis direction can be easily realized.
  • the movement instruction is not limited to flicking or pinching operation, and other gesture operations such as dragging may be used. Good.
  • the imaging system 100 includes a moving body (for example, the camera drone 101C) having an imaging unit (camera 412) that images a subject, and an irradiation unit that irradiates light to the subject 110 (
  • a subject is imaged by a plurality of moving bodies (for example, drone group 101s) including a moving body (for example, irradiation drone 101LR) having an illumination unit 413 and a reflecting plate 300).
  • the imaging system 100 includes a first moving body (for example, a camera-in-charge drone 101 ⁇ / b> C) that is responsible for imaging a subject and a light to the subject 110 from among the plurality of moving bodies based on information regarding the positions of the plurality of moving bodies.
  • a second moving body for example, irradiation drone 101LR
  • the imaging system 100 determines when one of the first moving body and the second moving body is determined from the plurality of moving bodies. Based on the information relating to the position of the moving body, the other moving body is determined from the first moving body and the second moving body. Accordingly, the irradiation unit can be positioned after the imaging unit is positioned, and the imaging unit can be positioned after the irradiation unit is positioned.
  • the imaging system 100 includes a plurality of moving bodies in response to an instruction to select one of the moving bodies from the terminal 121 that can communicate with at least one of the plurality of moving bodies.
  • One of the moving objects is determined from among the above.
  • the terminal 121 displays video data captured and transmitted by a mobile body having an imaging unit.
  • the operator 120 of the terminal 121 can determine a moving body that is a selection instruction target from the terminal 121 while viewing the displayed video data.
  • the imaging system 100 of (1) determines the first moving body based on video data captured by the moving body having the imaging unit. Thereby, a 1st moving body can be determined automatically with video data.
  • the imaging system 100 of (1) performs a transmission process of transmitting a movement instruction to another moving body when the other moving body is included in the video data captured by the first moving body. Execute. Thereby, other moving bodies can be withdrawn from the imaging space CP, and reflection of other moving bodies in the captured image can be suppressed.
  • the imaging system 100 transmits a movement instruction to another moving body when the video data captured by the first moving body includes a shadow of the other moving body. Execute the process. Thereby, other moving bodies can be withdrawn from the imaging space CP, and reflection of shadows of other moving bodies on the captured image can be suppressed.
  • the determination process is executed by a specific moving body among the plurality of moving bodies, and the specific moving body relates to the position of the moving body from the plurality of moving bodies. Receive information. Thereby, autonomous imaging and positioning of irradiation can be executed by using a specific moving body as a master and other moving bodies as slaves.
  • the specific moving body receives information on the subject from at least one of the plurality of moving bodies. Thereby, autonomous imaging and positioning of irradiation can be executed by using a specific moving body as a master and other moving bodies as slaves.
  • the first mobile body when the first mobile body includes other mobile bodies in the video data captured by the first mobile body, the first mobile body sends a movement request to a specific mobile body. And a second transmission process for transmitting a movement instruction to another mobile body when the specific mobile body receives a movement request from the first mobile body.
  • the first moving body specifies the movement request.
  • a first transmission process for transmitting to a mobile body and a second transmission process for transmitting a movement instruction to another mobile body when a specific mobile body receives a movement request from the first mobile body are executed.
  • the irradiating unit is an illuminating unit that irradiates the subject with light.
  • the illumination part which irradiates light to a to-be-photographed object can be positioned automatically.
  • the irradiating unit irradiates the subject with light from a direction different from the direction of light irradiation from the light source.
  • the irradiation part which irradiates a reflected light to a to-be-photographed object from the direction different from the irradiation direction of the light from a light source can be positioned automatically.
  • the irradiating unit is a reflecting unit that reflects light from the light source. As a result, it is possible to automatically position the reflecting portion that irradiates the subject with the reflected light.
  • the light source is another second moving body that is an illuminating unit that irradiates the subject with light.
  • the illumination unit that irradiates the subject with light can be automatically positioned.
  • the reflecting unit is a reflecting plate that reflects light from the light source to the subject. Thereby, it is possible to automatically position the reflector that irradiates the subject with the reflected light.
  • the second moving body having the reflecting portion is determined based on the position of the light source. As a result, it is possible to automatically and appropriately position the reflecting portion that irradiates the subject with the reflected light.
  • the moving body for example, the drone 101
  • the moving body is a moving body that has an imaging unit that images a subject and can communicate with other moving bodies, and is in charge of imaging the subject.
  • Receiving processing from another moving body, setting processing for setting the moving body in charge of imaging of the subject when an instruction is received by the receiving processing, and imaging processing for imaging the subject by the imaging unit Execute. Accordingly, it is possible to automatically set a moving body in charge of imaging that captures an image of a subject.
  • the mobile body for example, the drone 101
  • the mobile body has a radiating unit that irradiates light to the subject, and is a mobile body that can communicate with other mobile bodies.
  • the moving body for example, the drone 101
  • the moving body is a moving body having an imaging unit that captures an image of a subject, and the subject captured by the imaging unit is captured by a terminal that can communicate with the moving body.
  • a transmission process for transmitting video data and a setting process for receiving an instruction in charge of imaging of the subject from the terminal and setting the moving object in charge of imaging of the subject are executed. Thereby, the moving body in charge of imaging can be set according to an instruction after the video data is confirmed by the operator 120.
  • the moving body (for example, the drone 101) according to the present embodiment is a moving body having an imaging unit that images a subject and an irradiation unit that irradiates light to the subject, and is a terminal that can communicate with the moving body.
  • a transmission process for transmitting video data of the subject imaged by the imaging unit and an instruction in charge of irradiating the subject with light are received from the terminal, and the setting is set for the mobile body in charge of irradiating the subject with light. And processing.
  • the irradiation body in charge of irradiating light to the subject can be set according to an instruction after confirmation of the video data by the operator 120.
  • the positional relationship between the shooting position of the camera and the irradiation position of the illumination unit can be automatically adjusted.
  • the moving body that plays the role of imaging and irradiation can be determined autonomously, and the efficiency of the shooting work can be improved.
  • 100 imaging system 101 drone, 101C camera drone / camera drone, 101L lighting drone / lighting drone, 101LR irradiation drone / irradiation drone, 101M master drone, 101OS evacuation target drone, 101R reflective drone / reflection drone, 101s drone Group, 110 subject, 120 operator, 121 terminal, 300 reflector, 412 camera, 413 illumination unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Studio Devices (AREA)

Abstract

被写体を撮像する撮像部を有する移動体と、前記被写体に光を照射する照射部を有する移動体と、を含む複数の移動体により、前記被写体を撮像する撮像システムは、前記複数の移動体の位置に関する情報に基づいて、前記複数の移動体の中から、前記被写体の撮像を担当する第1移動体と、前記被写体への光の照射を担当する第2移動体とを決定する決定処理と、前記決定処理によって決定された前記第2移動体の前記照射部により前記被写体に光を照射し、前記第1移動体の前記撮像部により前記被写体を撮像する撮像処理と、を実行する。

Description

撮像システムおよび移動体 参照による取り込み
 本出願は、平成30年(2018年)3月30日に出願された日本出願である特願2018-67851の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、撮像システムおよび移動体に関する。
 撮像者の操作により被写体を撮像する主撮像装置と通信する照明補助装置がある。この照明補助装置は、被写体への照明を補助する照明部と、照明部に照明を補助させる照明指示を主撮像装置から取得する指示取得部と、照明部を移動する移動部とを備える(たとえば、下記特許文献1を参照。)。しかしながら、上述した照明補助装置は、カメラの撮影位置を自動的に調整することができないため、カメラの撮影位置と照明の照射位置との位置関係を自動的に調整することができない。
特開2014-85437号公報
 本願において開示される撮像システムは、被写体を撮像する撮像部を有する移動体と、前記被写体に光を照射する照射部を有する移動体と、を含む複数の移動体により、前記被写体を撮像する撮像システムであって、前記複数の移動体の位置に関する情報に基づいて、前記複数の移動体の中から、前記被写体の撮像を担当する第1移動体と、前記被写体への光の照射を担当する第2移動体とを決定する決定処理と、前記決定処理によって決定された前記第2移動体の前記照射部により前記被写体に光を照射し、前記第1移動体の前記撮像部により前記被写体を撮像する撮像処理と、を実行する。
 本願において開示される移動体は、被写体を撮像する撮像部を有し、他の移動体と通信可能な移動体であって、前記被写体の撮像を担当する指示を前記他の移動体から受信する受信処理と、前記受信処理によって前記指示が受信された場合に、前記被写体の撮像を担当する移動体に設定する設定処理と、前記撮像部により前記被写体を撮像する撮像処理と、を実行する。
 本願において開示される第2移動体は、被写体に光を照射する照射部を有し、他の移動体と通信可能な移動体であって、前記被写体に光を照射する役割を担当する指示を前記他の移動体から受信する受信処理と、前記受信処理によって前記指示が受信された場合に、前記被写体に光を照射する役割を担当する移動体に設定する設定処理と、を実行する。
 本願において開示される第3移動体は、被写体を撮像する撮像部を有する移動体であって、前記移動体と通信可能な端末に、前記撮像部によって撮像された前記被写体の映像データを送信する送信処理と、前記被写体の撮像を担当する指示を前記端末から受信し、前記被写体の撮像を担当する移動体に設定する設定処理と、を実行する。
 本願において開示される第3移動体は、被写体を撮像する撮像部と前記被写体に光を照射する照射部とを有する移動体であって、前記移動体と通信可能な端末に、前記撮像部によって撮像された前記被写体の映像データを送信する送信処理と、前記被写体への光の照射を担当する指示を前記端末から受信し、前記被写体への光の照射を担当する移動体に設定する設定処理と、を実行する。
図1は、撮像システムの利用例を示す説明図である。 図2は、ドローンの配置例を示す説明図である。 図3は、反射ドローンによる反射板の展開例を示す説明図である。 図4は、ドローンのハードウェア構成例を示すブロック図である。 図5は、ドローン群による撮像例1を示すシーケンス図である。 図6は、図5に示した退避設定(ステップS513)の詳細な処理手順例を示すフローチャートである。 図7は、ドローン群による撮像例2を示すシーケンス図である。 図8は、図7に示した退避設定(ステップS709)の詳細な処理手順例を示すフローチャートである。 図9は、担当外ドローンの退避例1を示す説明図である。 図10は、担当外ドローンの退避例2(退避前の状態)を示す説明図である。 図11は、担当外ドローンの退避例2(退避後の状態)を示す説明図である。 図12は、反射担当ドローン群の構成例を示す説明図である。 図13は、反射担当ドローンのxy平面上での移動指示例を示す説明図である。 図14は、反射担当ドローンのxy平面上でのz軸回りの回転指示例を示す説明図である。 図15は、反射担当ドローンのxy平面上でのz軸方向の昇降指示例を示す説明図である。
 <撮像システムの利用例>
 図1は、撮像システムの利用例を示す説明図である。撮像システム100は、複数の移動体により構成される。本実施例では、移動体として、空中を飛行、浮遊するドローン101を例に挙げて説明するが、他の飛翔体でもよい。また、他の移動体として、陸上を移動する車両やロボットでもよい。なお、ドローン101の水平位置を、X軸とX軸に直交するY軸で張られたXY平面上の位置(x、y)とし、ドローン101の高さをXY平面に直交するZ軸上の高さzとする。
 ドローン群101sを構成する複数のドローン101は、互いにたとえば無線通信によって通信可能である。複数のドローン101は、操作者120の端末121とも通信可能である。複数のドローン101は、少なくとも1台のカメラドローン101Cと少なくとも1台の照射ドローン101LRとを含む。
 カメラドローン101Cとは、カメラを搭載したドローン101である。カメラは、静止画または/および動画の撮影が可能である。カメラドローン101Cは、カメラのほか、照射部を搭載してもよい。照射部とは、照明部(照明灯、照明装置、電球、LED、ストロボなど)または反射板(レフ板ともいう)のうち少なくとも一方である。被写体110の撮影を担当するドローン101は、カメラドローン101Cの中から決定される。被写体110の撮影を担当するドローン101をカメラ担当ドローン101Cと称す。
 照射ドローン101LRとは、照射部を搭載したドローン101である。照射ドローン101LRのうち、照明部を搭載したドローン101を照明ドローン101Lと称す。照明ドローン101Lは、照明部のほか、カメラや反射板を搭載してもよい。照射ドローン101LRのうち、反射板を搭載したドローン101を反射ドローン101Rと称す。反射ドローン101Rは、反射板のほか、カメラや照明部を搭載してもよい。上記の例では、たとえば、カメラと照明部とを搭載したドローン101は、カメラドローン101Cでもあり、照明ドローン101Lでもある。
 被写体110への照明光の照射を担当するドローン101は、照明ドローン101Lの中から決定され、被写体110への反射光の照射を担当するドローン101は、反射ドローン101Rの中から決定される。被写体110への照明光の照射を担当するドローン101を照明担当ドローン101Lと称す。被写体110への反射光の照射を担当するドローン101を反射担当ドローン101Rと称す。
 複数のドローン101は、互いに通信することにより、撮影担当と照射担当とを決定する。カメラドローン101Cは、被写体110を撮像し、照射ドローン101LRは、被写体110へ光を照射する。撮影時における撮影担当と照射担当の組み合わせは、以下の通りである。
(1)カメラドローン101Cと照明ドローン101L
(2)カメラドローン101Cと反射ドローン101R
(3)カメラドローン101Cと照明ドローン101Lと反射ドローン101R
 (1)の組み合わせで示した構成の場合、撮像システム100は、反射ドローン101Rを含まない。すなわち、照明ドローン101Lが被写体110に照明光を照射して、カメラドローン101Cが、照明光が照射された被写体110を撮像する。
 (2)の組み合わせで示した構成の場合、撮像システム100は、照明ドローン101Lを含まない。すなわち、太陽または外部光源からの光を照明光とし、反射ドローン101Rがその照明光を被写体110に反射させ、カメラドローン101Cが、その照明光および反射光が照射された被写体110を撮像する。
 (3)の組み合わせで示した構成の場合、照明ドローン101Lが被写体110に照明光を照射し、反射ドローン101Rがその照明光または太陽もしくは外部光源からの光を被写体110に反射させ、カメラドローン101Cが、その照明光および反射光が照射された被写体110を撮像する。
 操作者120は、複数のドローン101と通信可能な端末121を操作する。端末121は、操作者120の操作により、撮影担当、照明担当、反射担当のドローン101を選択したり、ドローン101の位置を調整したり、撮影指示をカメラドローン101Cに送信したりすることが可能である。
 図2は、ドローン101の配置例を示す説明図である。図2では、(3)の組み合わせにおいて、被写体110を正面から撮影する例を示す。図2では、被写体110の位置を原点Oとし、正面方向をX軸の正方向、左側面方向をY軸の正方向、鉛直上方向をZ軸の正方向とする。また、説明を単純化するため、各ドローン101の高さは同一(すなわち、各ドローン101のZ座標値は固定)とする。なお、カメラ担当ドローン101Cに配置されたカメラの光軸は、Z軸に対する角度が90度になるように配置されているとする。
 カメラドローン101Cは、被写体110からX軸正方向に所定距離dc離れて位置(被写体110の正面に所定距離dc離れて位置)し、被写体110にカメラを向けた状態で浮遊する。なお、浮遊とはいわゆるホバリングのことであり、たとえば空中の一点に静止した飛行状態のことである。照明ドローン101Lは、照明ドローン101Lに配置された照明部から被写体110に向かって照射された照明光の入射角がX軸に対してθ1となるように、被写体110から距離dl離れた位置で浮遊する。
 反射ドローン101Rは、反射ドローン101Rに配置された反射部から被写体110に向かって出射された反射光の入射角がX軸に対してθ2となるように、被写体110から距離dr離れた位置で浮遊する。反射光は、照明光を反射部で反射して被写体110に出射する光である。照明ドローン101Lと反射ドローン101Rとの浮遊位置は、入れ替わってもよい。
 この各ドローン101の浮遊位置関係(dc、dl、dr、θ1、θ2)は、あらかじめ設定された情報であり、たとえば、各ドローン101が後述する記憶デバイス403にテーブルとして保持しているものとする。なお、本例では、各ドローン101のZ軸方向の高さおよびZ軸に対するカメラ、照明部、反射部の角度も、担当ドローンごとに浮遊位置関係に含まれているものとする。
 カメラ担当ドローン101C、照明担当ドローン101Lおよび反射担当ドローン101Rを決定する場合において、たとえば、カメラ担当ドローン101Cを決定する場合、ドローン群101sのうち、カメラを有し、かつ、被写体110の正面に位置するドローン101がカメラ担当ドローン101Cに決定される。
 当該決定については、マスタとなるドローン101が他のドローン101から位置情報を受信することによって、あらかじめ決められた位置関係(浮遊位置関係(dc、dl、dr、θ1、θ2))に基づいて、撮影に用いるドローンを決定する。また、当該決定については、マスタとなるドローン101が他のドローン101からの被写体110の顔認識結果を取得した上で最も正面に位置するドローン101をカメラ担当ドローン101Cに決定してもよい。カメラ担当ドローン101Cと被写体110との距離が距離dcに決定される。
 カメラ担当ドローン101Cが決定された場合、他のドローン101のうち、浮遊位置関係に最適なドローン101、すなわち、カメラ担当ドローン101Cが被写体110の正面に距離dcに位置している場合に、マスタとなるドローン101は、照明部を有し、かつ、入射角θ1および被写体距離dlの条件に最も近いドローン101が照明担当ドローン101Lに決定する。
 同様に、他のドローン101のうち、浮遊位置関係に最適なドローン101、すなわち、カメラ担当ドローン101Cが被写体110の正面に所定距離dcに位置している場合に、反射部を有し、かつ、入射角θ2および被写体距離drの条件に最も近いドローン101を、反射担当ドローン101Rに決定する。
 これにより、カメラ担当ドローン101C、照明担当ドローン101Lおよび反射担当ドローン101Rを決定することができ、浮遊位置関係の調整の効率化を図ることができるまた、マスタとなるドローン101が各担当ドローンを決定するのではなく、たとえば、カメラ担当ドローン101Cに決定されたドローン101が、照明担当ドローン101Lおよび反射担当ドローン101Rを決定してもよい。
 また、特定のドローン101が各担当ドローンを決定するのではなく、ドローン101間通信により、カメラ担当ドローン101C、照明担当ドローン101Lおよび反射担当ドローン101Rを決定してもよい。また、決定される最初の担当ドローンについては、操作者120が端末121からの指示により、決定してもよい。これにより、操作者120の意向が反映された浮遊位置関係を設定することができる。
 なお、上述した(1)の組み合わせの場合、反射担当ドローン101Rは撮影には関与していないことになる。この場合、カメラ担当ドローン101Cおよび照明担当ドローン101Lのいずれか一方が最初に決定され、上述したように、他方の担当ドローン101がそのあとに決定される。
 また、上述した(2)の組み合わせの場合、照明ドローン101Lは撮影には関与しておらず、太陽または外部光源からの光の入射角θ1で照明光を照射する。この場合、実質的に照明担当ドローン101Lが仮想的に決定されたものとし、その後、上述のように、カメラ担当ドローン101Cおよび反射担当ドローン101Rが決定される。
 図3は、反射ドローン101Rによる反射板の展開例を示す説明図である。(A)の反射板300は、蛇腹型であり、通常は蛇腹を構成する複数の反射片が折り畳まれた状態で収納される。この反射ドローン101Rが反射担当に決定されると、折りたたまれた複数の反射片301を下方に展開することで反射板300を構成する。
 撮影が終了すると、反射ドローン101Rは、再度複数の反射片301が折り畳まれた状態で収納する。(B)の反射板300は巻き取り型であり、通常は反射シート302が巻き取られた状態で収納される。この反射ドローン101Rが反射担当に決定されると、ロール状の反射シート302を下方に繰り出して展開することで反射板300を構成する。撮影が終了すると、反射ドローン101Rは、再度反射シート302が巻き取られた状態で収納する。
 なお、上述した蛇腹型や巻き取り型は、反射板300の一例であり、通常の飛行状態においては反射板300が飛行に影響を与えないように収納されている。反射板300は、撮影時に使用可能な状態に配置できれば、蛇腹型や巻き取り型に限定されない。
 <ドローン101のハードウェア構成例>
 図4は、ドローン101のハードウェア構成例を示すブロック図である。図4では、カメラ、照明部413、反射板300を搭載した例について説明する。ドローン101は、プロセッサ401と、LSI(Large Scale Integration)402と、記憶デバイス403と、モータ404と、プロペラ405と、反射板300と、通信IF(Interface)407と、GPS(Global Positioning System)モジュール408と、ジャイロセンサ409と、コンパス410と、高度計411と、カメラ412と、照明部413と、を有する。これらは、バス415により接続されている。
 プロセッサ401は、ドローン101を制御する。LSI402は、ドローン101の制御に必要な集積回路である。LSI402は、たとえば、フライトコントローラと、スピードコントローラと、を含む。フライトコントローラは、ジャイロセンサ409からの検出信号によりドローン101の姿勢を安定な姿勢となるよう制御する。スピードコントローラは、プロセッサ401、フライトコントローラ、または端末121からのドローン101の移動量および移動方向を示す出力指令値を、モータ404に供給する。
 記憶デバイス403は、プロセッサ401の作業エリアとなる。また、記憶デバイス403は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。記憶デバイス403は、たとえば、上述した浮遊位置関係をテーブルとして保持する。記憶デバイス403としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。
 モータ404は、フライトコントローラからの出力指令値により、プロペラ405を回転制御する。また、モータ404は、プロセッサ401または端末121からの指示により、反射板300を展開または収納するよう制御する。プロペラ405は、モータ404により回転し、ドローン101を移動または浮遊させる。通信IF407は、端末121やGPS衛星からの信号を受信して、プロセッサ401やLSI402、GPSモジュール408に送信する。また、通信IF407は、プロセッサ401またはLSI402からの信号を端末121に送信する。
 GPSモジュール408は、通信IF407を介して受信したGPS衛星からの信号により、ドローン101の水平位置(x,y)を特定する。ジャイロセンサ409は、ドローン101の姿勢を角速度として検出する。コンパス410は、地磁気を検出して、ドローン101が向いている方向を特定する。
 高度計411は、ドローン101の高度zを検出する。高度計411としては、たとえば、気圧センサや超音波センサが用いられる。GPSモジュール408と高度計411とにより、ドローン101の3次元位置(x,y,z)が特定される。また、高度計411としては、たとえば、カメラを用いてもよい。Z軸負方向を向いたカメラで地表面を撮像することにより、取得された画像の変化から高度の変化を取得することができる。カメラ412は、プロセッサ401または端末121からの指示により、被写体110を、静止画または動画である映像データとして撮像する。カメラ412は、被写体距離を特定することもできる。
 なお、ドローン101は、別途測距センサを備え、測距センサにより被写体距離を特定してもよい。カメラ412によって生成された映像データは、記憶デバイス403に保存される。照明部413は、プロセッサ401または端末121からの指示により、点灯または消灯する。
 また、プロセッサ401またはLSI402は、オプティカルフローセンサとして機能してもよい。オプティカルフローセンサは、ドローン101とカメラ412に映っている被写体との間の相対運動による被写体画像の見かけの動きの方向と移動量とを検出する画像処理である。これにより、ドローン101の飛行を安定させたり、被写体の追跡が可能となる。
 <ドローン群101sの連携シーケンス>
 図5は、ドローン群101sによる撮像例1を示すシーケンス図である。図5では、端末121と連携して、ドローン群101sから、カメラ担当ドローン101C、照明担当ドローン101L、および反射担当ドローン101Rを決定して被写体110を撮影するシーケンスを示す。
 各ドローン101は、カメラ412で撮像した映像データを端末121に送信する(ステップS501)。端末121は、操作者120の操作により、ドローン101を選択し、選択したドローン101からの映像データを端末121の表示画面に表示する。また、端末121は、各ドローン101から送信された映像データを端末121の表示画面に同時に表示してもよい。操作者120は、表示された映像データを見ることによって、カメラ担当ドローン101Cに最も適切なドローンを選択することができる。なお、端末121は、ドローン101に対し、当向きを水平方向に旋回する指示を送信して、旋回後の映像データを取得してもよい。
 端末121は、操作者120からの選択入力により、カメラ担当ドローン101Cを選択する(ステップS502)。また、このときに、端末121は、操作者120からの選択入力により、上述した(1)~(3)のいずれの構成で撮影を行うかを選択してもよい。そして、端末121は、カメラ担当ドローン101Cにカメラ担当選択通知を送信する(ステップS503)。カメラ担当選択通知は、(1)~(3)から選択された構成を示す情報を含んでもよい。
 カメラ担当ドローン101Cは、カメラ担当選択通知を受信すると、被写体距離dcを特定する(ステップS504)。カメラ担当ドローン101Cは、(1)~(3)から選択された構成に応じて、他のドローン101に位置情報要求を送信する(ステップS504)。位置情報要求の送信は、たとえばブロードキャスト送信によって行うことができる。位置情報要求を受信した各ドローン101は、カメラ担当ドローン101Cに、自身の現在の位置情報を返信する。カメラ担当ドローン101Cは、他のすべてのドローン101に位置情報要求を送信してもよいが、位置情報要求の送信先ドローン101を限定してもよい。
 具体的には、たとえば、構成(1)が選択された場合、カメラ担当ドローン101Cは、照明ドローン101Lに位置情報要求を送信する(ステップS505)。また、構成(2)が選択された場合、カメラ担当ドローン101Cは、反射ドローン101Rに位置情報要求を送信する。さらに、構成(3)が選択された場合、カメラ担当ドローン101Cは、照明ドローン101Lおよび反射ドローン101Rに位置情報要求を送信する。
 各ドローン101は、他のドローン101がカメラドローン101C、照明ドローン101L、および反射ドローン101Rのいずれのドローン種に該当するかを認識している。すなわち、各ドローン101は、他のドローン101のドローン種を示す情報を、記憶デバイス403に記憶している。これにより、位置情報要求の送信先が制限され、ドローン101間の無駄な通信が抑制される。
 位置情報要求の送信先ドローン101は、位置情報要求を受信する(ステップS504)と、自身の現在の位置情報を取得して、取得した位置情報をカメラ担当ドローン101Cに送信する(ステップS506)。位置情報要求の送信先ドローン101は、たとえば、通信IF407を介してGPS衛星からの信号を受信し、GPSモジュール408により現在の水平位置(x,y)を特定するとともに、高度計411により高度zを特定することにより、現在の3次元位置(x,y,z)を取得する。位置情報要求の送信先ドローン101は、取得した3次元位置(x,y,z)を示す位置情報をカメラ担当ドローン101Cに送信する(ステップS506)。
 位置情報の取得に際して、各ドローン101は、共通の座標系を使用する。共通座標系としては、上述したように、被写体110の位置を原点として被写体110の向きを基準とした座標系(たとえば、被写体110の位置を原点Oとし、正面方向をX軸の正方向、左側面方向をY軸の正方向、鉛直上方向をZ軸の正方向とする座標系)を採用することができる。
 各ドローン101は、たとえば、カメラ412で撮像した映像データに基づいて、被写体110の位置を認識することができる。また、各ドローン101は、たとえば、カメラ412で撮像した映像データに基づいて、被写体110の正面方向に対する自身の角度を認識することができる。ここで、自身の角度とは、原点Oから当該ドローンに向かう単位ベクトルvのことである。
 また、各ドローン101は、たとえば、カメラ412で撮像した映像データに基づいて、被写体までの距離を特定することもできる。また、各ドローン101は、たとえば、測距センサにより、被写体までの距離を特定することもできる。単位ベクトルvに原点Oから当該ドローンまでの距離(被写体までの距離)を積算することによって、共通座標系における当該ドローンの現在の3次元位置(x,y,z)を取得することができる。
 カメラ担当ドローン101Cは、位置情報を受信すると、役割を決定する(ステップS507)。具体的には、たとえば、構成(1)が選択された場合、カメラ担当ドローン101Cは、照明ドローン101Lの中からいずれかの照明ドローン101Lを照明担当ドローン101Lに決定する。またこの場合、図2で説明したように、照明担当ドローン101Lの位置は、浮遊位置関係により決定される。
 カメラ担当ドローン101Cは、自身の位置(x,y,z)と、被写体距離dcと、被写体位置(xt,yt,zt)と、入射角θ1と、により、照明担当ドローン101Lの理想的な位置(xl,yl,zl)を特定する。したがって、カメラ担当ドローン101Cは、位置情報要求の送信先ドローン101の中から、理想的な位置(xl,yl,zl)に最も近い照明ドローン101Lを、照明担当ドローン101Lに決定する。
 また、構成(2)が選択された場合、カメラ担当ドローン101Cは、照明ドローン101Lの中からいずれかの反射ドローン101Rを反射担当ドローン101Rに決定する。またこの場合、図2に説明したように、反射担当ドローン101Rの位置は、浮遊位置関係により決定される。
 カメラ担当ドローン101Cは、自身の位置(x,y,z)と、被写体距離dcと、被写体位置(xt,yt,zt)と、入射角θ2と、により、反射担当ドローン101Rの理想的な位置(xr,yr,zr)を特定する。したがって、カメラ担当ドローン101Cは、位置情報要求の送信先ドローン101の中から、理想的な位置(xr,yr,zr)に最も近い反射ドローン101Rを、反射担当ドローン101Rに決定する。
 また、構成(3)が選択された場合、カメラ担当ドローン101Cは、上述したように、位置情報要求の送信先ドローン101の中から、理想的な位置(xl,yl,zl)に最も近い照明ドローン101Lを、照明担当ドローン101Lに決定するとともに、理想的な位置(xr,yr,zr)に最も近い反射ドローン101Rを、反射担当ドローン101Rに決定する。このようにして、各ドローン101の役割が決定される。
 役割決定(ステップS507)後、カメラ担当ドローン101Cは、照明担当ドローン101Lに、照明担当選択通知を送信する(ステップS508)(構成(1)、(3)の場合)。また、カメラ担当ドローン101Cは、反射担当ドローン101Rに、反射担当選択通知を送信する(ステップS509)(構成(2)、(3)の場合)。
 照明担当ドローン101Lは、照明担当選択通知を受信すると、照明設定する(ステップS510)。具体的には、たとえば、照明担当ドローン101Lは、理想的な位置(xl,yl,zl)に移動して、照明部413から照明光を入射角θ1で被写体110に照射する。
 また、反射担当ドローン101Rは、反射担当選択通知を受信すると、反射設定する(ステップS511)。具体的には、たとえば、反射担当ドローン101Rは、理想的な位置(xr,yr,zr)に移動して、反射板300を展開して、入射角θ2となるようにその反射面を被写体110に向ける。このあと、照明担当ドローン101Lおよび反射担当ドローン101Rは、設定完了通知をカメラ担当ドローン101Cに送信する(ステップS512)。
 カメラ担当ドローン101Cは、設定完了通知を受信すると、退避設定を実行する(ステップS513)。退避設定(ステップS513)については、図6で後述する。カメラ担当ドローン101Cは、退避設定(ステップS513)が完了した場合、設定完了通知を端末121に送信する(ステップS514)。
 そして、端末121は、操作者120の操作により、カメラ担当ドローン101Cに撮像指示を送信する(ステップS515)。なお、撮像指示に際し、カメラ担当ドローン101Cは、被写体110の映像データを端末121に送信し、端末121は、その映像データを端末121の表示画面に表示してもよい。カメラ担当ドローン101Cは、撮像指示を受信すると、被写体110を撮像する(ステップS516)。
 静止画撮影の場合は、カメラ担当ドローン101Cはシャッターを切ることにより、静止画である画像データを取得し、動画撮影の場合は、カメラ担当ドローン101Cは、動画撮影を開始して時系列な画像データを取得する。カメラ担当ドローン101Cは、撮像した画像データを端末121に送信する(ステップS517)。
 なお、撮像(ステップS516)に際しては、カメラ担当ドローン101Cは、明るさ(絞り値)、露光時間(電荷蓄積時間であり、いわゆるシャッタースピード)、増幅率(ISO感度)、フレームレートなどの撮影条件の設定を実行してもよい。また、カメラ担当ドローン101Cは、カメラ412のオートフォーカス機能により被写体110にピントを合わせる。なお、撮影条件設定では、カメラ担当ドローン101Cは、操作者120の操作による端末121からの指示により、撮影条件を設定してもよい。
 なお、上述したシーケンスにおいて、被写体110が移動した場合、カメラ担当ドローン101Cは被写体110を追尾しながら移動してもよい。この場合、カメラ担当ドローン101Cが移動すると、その移動に追従して照明担当ドローン101Lおよび反射担当ドローン101Rが、移動前の位置関係を保持するように追従して移動してもよい。この場合、カメラ担当ドローン101Cは、移動量および移動方向を照明担当ドローン101Lおよび反射担当ドローン101Rに送信することになる。
 また、上述のシーケンスにおいては、カメラ担当ドローン101Cを決定してから、照明担当ドローン101Lおよび反射担当ドローン101Rを決定したが、照明担当ドローン101Lを決定してから、カメラ担当ドローン101Cおよび反射担当ドローン101Rを決定してもよく、反射担当ドローン101Rを決定してから、カメラ担当ドローン101Cおよび照明担当ドローン101Lを決定してもよい。
 また、上述のシーケンスにおいては、端末121によってカメラ担当ドローン101Cが決定されている(ステップS502)が、ドローン101間通信により、カメラ担当ドローン101Cが決定されてもよい。ドローン101間通信としては、たとえば、位置情報要求と位置情報の受信(ステップS505、S506)を各ドローン101が行うことにより、各ドローン101が他のドローンの位置情報を取得し、各ドローン101が他のドローンの位置を考慮して、カメラ担当ドローン101Cとして適したドローンを決定してもよい。
 図6は、図5に示した退避設定(ステップS513)の詳細な処理手順例を示すフローチャートである。カメラ担当ドローン101Cは、撮影空間に他のドローン101が存在するか否かを判断する(ステップS601)。撮影空間とは、カメラ担当ドローン101Cのカメラ412の画角の範囲内で撮影した画像に映り込む空間である。他のドローン101が存在しない場合(ステップS601:No)、カメラ担当ドローン101Cは、退避設定(ステップS513)を終了する。
 一方、存在する場合(ステップS601:Yes)、カメラ担当ドローン101Cは、当該撮影空間内の他のドローン101(以下、退避対象ドローン101OS)とその位置情報を特定する(ステップS602)。退避対象ドローン101OSがステップS505で位置情報要求を送信していないドローン101であれば、カメラ担当ドローン101Cは、ステップS505、S506と同様、退避対象ドローン101OSに対し位置情報要求を送信し、当該他のドローン101から位置情報を受信する。
 そして、カメラ担当ドローン101Cは、退避対象ドローン101OSへの退避指示情報を生成して(ステップS603)、退避対象ドローン101OSに退避指示情報を送信する(ステップS604)。退避指示情報には、たとえば、カメラ担当ドローン101Cの位置情報と撮影空間を示す情報が含まれる。このあと、カメラ担当ドローン101Cは、退避対象ドローン101OSからの退避完了情報を待ち受け(ステップS605:No)、退避完了情報を受信した場合(ステップS605:Yes)、カメラ担当ドローン101Cは、退避設定(ステップS513)を終了する。
 退避対象ドローン101OSは、カメラ担当ドローン101Cからの退避指示情報を待ち受ける(ステップS606:No)。退避指示情報を受信すると(ステップS606:Yes)、退避対象ドローン101OSは、カメラ担当ドローン101Cの撮影空間外への退避位置を算出する(ステップS607)。
 具体的には、たとえば、退避対象ドローン101OSは、カメラ担当ドローン101Cから、カメラ担当ドローン101Cと被写体110の位置情報を取得し、撮影空間外の退避位置を算出する。たとえば、カメラ担当ドローン101Cの被写体110とは反対側の空間内の任意の位置を撮影空間外として退避位置として算出する。
 そして、退避対象ドローン101OSは、算出した退避位置に移動することにより、カメラ担当ドローン101Cの撮影空間から退避する(ステップS608)。このあと、退避対象ドローン101OSは、退避完了情報を生成して(ステップS609)、カメラ担当ドローン101Cに送信する(ステップS610)。これにより、退避対象ドローン101OSの画像データへの映り込みを抑制することができる。
 なお、退避対象ドローン101OSが、照明担当ドローン101Lや反射担当ドローン101Rである場合、カメラ担当ドローン101Cは、撮影空間外のドローン(退避させた退避対象ドローン101OSが含まれてもよい)の位置情報を参照して、再度役割を決定してもよい(ステップS507)。
 また、退避対象ドローン101OSが、照明担当ドローン101Lである場合、照明担当ドローン101Lは、たとえば、照明部413が被写体110に照明光を照射する入射角θ1を維持したまま、被写体110から離れる方向に後退する。同様に、退避対象ドローン101OSが、反射担当ドローン101Rである場合、反射担当ドローン101Rは、たとえば、反射板300からの反射光を被写体110に入射する入射角θ2を維持したまま、被写体110から離れる方向に後退する。これにより、入射角θ1、θ2の再設定が不要となり、役割決定507の再試行を抑制することができ、撮影時間の長期化を抑制することができる。
 図7は、ドローン群101sによる撮像例2を示すシーケンス図である。図5の撮像例1は、端末121と連携して被写体110を撮像する例について説明したが、図7の撮像例2は、ドローン群101s内のあるドローン101をマスタとし(以下、マスタドローン101M)、残余のドローン101をスレーブとして(以下、スレーブドローン101S)、端末121を介さずに自律的に撮影する例である。なお、構成(1)~(3)のうちどの構成を実現するかは、事前にマスタドローン101Mに設定されていてもよい。
 各スレーブドローン101Sは、位置特定情報をマスタドローン101Mに送信する(ステップS701)。位置特定情報とは、スレーブドローン101Sの位置情報である。また、スレーブドローン101Sがカメラ412を搭載している場合は、位置特定情報は、スレーブドローン101Sのカメラ412から得られるスルー画での顔認識結果を含んでもよい。
 なお、各スレーブドローン101Sは、位置特定情報をマスタドローン101Mに送信するのではなく、撮像例1のようにマスタドローン101Mは位置情報要求を各スレーブドローン101Sに送信し、その応答として位置情報を受信(ステップS505、S506)するようにしてもよい。
 マスタドローン101Mは、各スレーブドローン101Sから位置特定情報を受信した場合、役割決定を実行する(ステップS702)。具体的には、たとえば、マスタドローン101Mは、位置特定情報に基づいて、スレーブドローン101Sから、カメラ担当ドローン101C、照明担当ドローン101L、および反射担当ドローン101Rを決定する。たとえば、マスタドローン101Mは、位置特定情報に含まれている顔認識結果からスレーブドローン101Sの被写体110への撮影角度を特定し、より正面に近い位置に存在するスレーブドローン101Sをカメラ担当ドローン101Cに決定する。
 また、特定人物の顔情報が各スレーブドローン101Sの記憶デバイス403に記憶されており、当該特定人物の顔認識結果を含む位置特定情報を送信したスレーブドローン101Sをカメラ担当ドローン101Cに決定してもよい。また、マスタドローン101Mは、カメラ担当ドローン101Cを決定すると、図5の撮像例1と同様に、照明担当ドローン101Lおよび反射担当ドローン101Rを決定する。
 なお、構成(1)の場合は、反射担当ドローン101Rは選択されず、構成(2)の場合は、照明担当ドローン101Lは選択されない。
 また、構成(1)~(3)のうちどの構成を実現するかは、事前にマスタドローン101Mに設定されていない場合は、マスタドローン101Mが環境光(太陽光など)の状況や、被写体の明るさに基づいて、構成(1)~(3)のうちどの構成で撮像するかを判断してもよい。また、撮影しようとしている被写体の種類に基づいて、構成(1)~(3)のうちどの構成で撮像するかを判断してもよい。
 役割決定(ステップS702)後、マスタドローン101Mは、照明担当ドローン101Lに照明担当選択通知を送信し(ステップS703)、カメラ担当ドローン101Cにカメラ担当選択通知を送信し(ステップS704)、反射担当ドローン101Rに反射担当選択通知を送信する(ステップS705)。
 照明担当ドローン101Lは、マスタドローン101Mから照明担当選択通知を受信すると、照明設定する(ステップS706)。具体的には、たとえば、照明担当ドローン101Lは、理想的な位置(xl,yl,zl)に移動して、照明部413から照明光を入射角θ1で被写体110に照射する。
 また、反射担当ドローン101Rは、マスタドローン101Mから反射担当選択通知を受信すると、反射設定する(ステップS707)。具体的には、たとえば、反射担当ドローン101Rは、理想的な位置(xr,yr,zr)に移動して、反射板300を展開して、入射角θ2となるようにその反射面を被写体110に向ける。このあと、照明担当ドローン101Lおよび反射担当ドローン101Rは、設定完了通知をカメラ担当ドローン101Cに送信する(ステップS708)。
 カメラ担当ドローン101Cは、設定完了通知を受信すると、退避設定を実行する(ステップS709)。退避設定(ステップS709)の詳細については、図8で説明する。カメラ担当ドローン101Cは、退避設定(ステップS709)が完了した場合、被写体110を撮像する(ステップS710)。静止画撮影の場合は、カメラ担当ドローン101Cはシャッターを切ることにより、静止画である画像データを取得し、動画撮影の場合は、カメラ担当ドローン101Cは、動画撮影を開始して時系列な画像データを取得する。
 なお、撮像(ステップS710)に際しては、カメラ担当ドローン101Cは、明るさ(絞り値)、露光時間(電荷蓄積時間であり、いわゆるシャッタースピード)、増幅率(ISO感度)、フレームレートなどの撮影条件の設定を実行してもよい。また、カメラ担当ドローン101Cは、カメラ412のオートフォーカス機能により被写体110にピントを合わせる。
 なお、上述したシーケンスにおいて、被写体110が移動した場合、カメラ担当ドローン101Cは被写体110を追尾しながら移動してもよい。この場合、カメラ担当ドローン101Cが移動すると、その移動に追従して照明担当ドローン101Lおよび反射担当ドローン101Rが、移動前の位置関係を保持するように追従して移動してもよい。この場合、カメラ担当ドローン101Cは、移動量および移動方向を照明担当ドローン101Lおよび反射担当ドローン101Rに送信することになる。
 図8は、図7に示した退避設定(ステップS709)の詳細な処理手順例を示すフローチャートである。カメラ担当ドローン101Cは、撮影空間に他のドローン101が存在するか否かを判断する(ステップS801)。他のドローン101が存在しない場合(ステップS801:No)、カメラ担当ドローン101Cは、退避設定(ステップS709)を終了する。
 一方、存在する場合(ステップS801:Yes)、カメラ担当ドローン101Cは、当該他のドローン101(以下、退避対象ドローン101OS)の退避要求を生成し(ステップS802)、マスタドローン101Mに送信する(ステップS803)。退避要求には、たとえば、カメラ担当ドローン101Cの位置情報と撮影空間を示す情報が含まれる。カメラ担当ドローン101Cは、マスタドローン101Mから退避完了情報を待ち受け(ステップS804:No)、マスタドローン101Mから退避完了情報が受信された場合(ステップS804:Yes)、退避設定(ステップS709)を終了する。
 マスタドローン101Mは、カメラ担当ドローン101Cからの退避要求を待ち受け(ステップS805:No)、退避要求を受信した場合(ステップS805:Yes)、退避対象ドローン101OSとその位置情報を特定する(ステップS806)。そして、マスタドローン101Mは、退避対象ドローン101OSへの退避指示情報を生成して(ステップS807)、退避対象ドローン101OSに退避指示情報を送信する(ステップS808)。
 このあと、マスタドローン101Mは、退避対象ドローン101OSからの退避完了情報を待ち受ける(ステップS809:No)。すべての退避対象ドローン101OSから退避完了情報を受信した場合(ステップS809:Yes)、マスタドローン101Mは、退避完了情報をカメラ担当ドローン101Cに送信する(ステップS810)。
 退避対象ドローン101OSは、マスタドローン101Mからの退避指示情報を待ち受ける(ステップS811:No)。退避指示情報を受信すると(ステップS811:Yes)、退避対象ドローン101OSは、カメラ担当ドローン101Cの撮影空間外への退避位置を算出する(ステップS812)。
 具体的には、たとえば、退避対象ドローン101OSは、カメラ担当ドローン101Cから、マスタドローン101Mを介してカメラ担当ドローン101Cと被写体110の位置情報を取得し、撮影空間外として、たとえば、カメラ担当ドローン101Cの被写体110とは反対側の空間内の任意の位置を退避位置として算出する。
 そして、退避対象ドローン101OSは、算出した退避位置に移動することにより、カメラ担当ドローン101Cの撮影空間から退避する(ステップS813)。このあと、退避対象ドローン101OSは、退避完了情報を生成して(ステップS814)、マスタドローン101Mに送信する(ステップS815)。これにより、退避対象ドローン101OSの画像データへの映り込みを抑制することができる。
 上記の説明では、マスタドローン101Mが退避対象ドローン101OSに対して退避指示情報を送信したが、カメラ担当ドローン101Cは、マスタドローン101Mを介さずに、直接退避対象ドローン101OSに対して退避指示情報を送信するようにしてもよい。この場合、退避対象ドローン101OSは、退避を行った後に、退避完了情報を生成して、カメラ担当ドローン101Cに送信する。
 <退避対象ドローン101OSの退避例>
 図9は、退避対象ドローン101OSの退避例1を示す説明図である。撮影空間CPは、カメラ担当ドローン101Cの現在位置(x,y,z)と、カメラ412に設定された画角と、により決定される3次元空間である。すなわち、撮影空間CPは、画角を頂角、光軸を回転軸として回転した場合の円錐の内部を頂角から覗いた内部空間となる。
 図9では、退避対象ドローン101OSを、2台の退避対象ドローン101OS1,101OS2とする。退避対象ドローン101OS1は、撮影空間CP内に存在する退避対象ドローン101OSであり、退避対象ドローン101OS2は、撮影空間CPの境界に存在する退避対象ドローン101OSである。なお、退避対象ドローン101OS1,101OS2を区別しない場合は、退避対象ドローン101OSと表記する。
 カメラ担当ドローン101Cは、この撮影空間CPを示す情報を算出して(ステップS603、S802)、退避対象ドローン101OSに送信する(ステップS604、S808)。そして、退避対象ドローン101OSは、撮影空間CP外の退避位置を算出して(ステップS607、S812)、撮影空間CPから退避する(ステップS608、S813)。図9の例の場合、退避対象ドローン101OS1,101OS2が撮影空間CPから退避する。
 同様に、図6および図8において、カメラ担当ドローン101Cやマスタドローン101Mが退避対象ドローン101OSを特定せずに、他のドローン101に退避指示情報を配信(ブロードキャストまたはマルチキャスト)し、他のドローン101が、退避指示情報から自身の現在位置(x,y,z)が撮影空間CP内であるか否かを判断し、撮影空間CP内であれば、撮影空間CP外の退避位置を算出して(ステップS607、S812)、撮影空間CPから退避してもよい(ステップS608、S813)。
 図10は、退避対象ドローン101OSの退避例2(退避前の状態)を示す説明図であり、図11は、退避対象ドローン101OSの退避例2(退避後の状態)を示す説明図である。退避例1では、退避対象ドローン101OSが撮影空間CPに存在する場合に撮影空間CP外に当該退避対象ドローン101OSを退避させる例について説明したが、退避例2では、さらに、退避対象ドローン101OSの影が撮影空間CPに含まれている場合に当該退避対象ドローン101OSを撮影空間CP外に退避させる例について説明する。
 なお、ドローン101自体は撮影空間CP外であるが、その影が撮影空間CP内に存在する場合がある。カメラ担当ドローン101Cは、ステップS601、S602、S801、S802において、当該ドローン101からその位置情報および影の位置情報を取得し、当該ドローン101自身が撮影空間CP外であっても影の位置が撮影空間内CP内であれば、当該ドローンを退避対象ドローンとして扱うことになる。以下具体的に説明する。
 カメラ担当ドローン101C以外の他のドローン101は、太陽からの入射光の入射方向および入射角度を検出する。具体的には、たとえば、各ドローン101は、日付時刻ごとの太陽の高度および方位角(ただし、緯度および経度は変数)を記憶するテーブルを記憶デバイス403に記憶している。他のドローン101は、現在の日付時刻に対応する太陽の高度および方位角をテーブルから読み出す。
 また、他のドローン101は、読み出した太陽の高度および方位角内の変数である緯度および経度に、GPSモジュール408で算出された現在位置を示す緯度および経度を与える。そして、他のドローン101は、求められた太陽の高度および方位角と、他のドローン101の現在位置(x,y,z)とにより、太陽から当該他のドローン101への入射光の入射方向および入射角度を算出する。
 つぎに、他のドローン101は、検出した入射方向および入射角度と自身の現在位置(x,y,z)とにより、入射方向および入射角度で地面に投影される他のドローン101の影の位置と範囲を算出する。
 そして、たとえば、図5の撮像例1の場合、他のドローン101は、算出した影の位置および範囲を示す情報をカメラ担当ドローン101Cに送信し、カメラ担当ドローン101Cは、影の位置および範囲を示す情報を用いて退避設定を実行する(ステップS513)。すなわち、カメラ担当ドローン101Cは、他のドローン101とその影の位置および範囲から、退避対象ドローン101OSを特定する(ステップS602)。
 カメラ担当ドローン101Cは、ドローン101本体またはその影が撮影空間CPに存在する退避対象ドローン101OSに対し、退避指示情報を生成する(ステップS603)。退避対象ドローン101OSは、ドローン101本体およびその影が撮影空間CP外となる退避位置を算出する(ステップS607)。これにより、退避対象ドローン101OSの影が、カメラ担当ドローン101Cが撮影した映像に映りこむのを抑制することができる。
 また、図7の撮像例2の場合、スレーブドローン101Sは、算出した影の位置および範囲を示す情報を位置特定情報に含めてマスタドローン101Mに送信し(ステップS701)、マスタドローン101Mは、スレーブドローン101Sの影の位置および範囲を示す情報をカメラ担当ドローン101Cに送信する。
 そして、カメラ担当ドローン101Cは、マスタドローン101Mから受信した影の位置および範囲を示す情報を用いて退避設定を実行する(ステップS709)。すなわち、カメラ担当ドローン101Cは、スレーブドローン101Sとその影の位置および範囲から、退避対象ドローン101OSを特定する(ステップS602)。
 カメラ担当ドローン101Cは、退避対象ドローン101OSに対し、退避要求を生成する(ステップS802)。また、退避対象ドローン101OSは、ドローン101本体およびその影が撮影空間CP外となる退避位置を算出する(ステップS812)。これにより、退避対象ドローン101OSの影が、カメラ担当ドローン101Cが撮影した映像に映りこむのを抑制することができる。
 また、照明担当ドローン101Lや反射担当ドローン101Rも退避対象ドローン101OSになり得る。図10では、照明担当ドローン101Lの影が撮影空間内に存在するため、カメラ担当ドローン101Cは、照明担当ドローン101Lを退避対象ドローン101OSとして特定することになる。したがって、照明担当ドローン101Lは、他の退避対象ドローン101OS1,101OS2と同様、撮影空間CP外に退避される。
 ただし、この場合、被写体110への照射角度が退避前後で維持されるように、照射担当ドローン101LRは退避する。これにより、照射担当ドローン101LRの影が、カメラ担当ドローン101Cが撮影した映像に映りこむのを抑制することができる。
 <反射担当ドローン群の構成例>
 図12は、反射担当ドローン群の構成例を示す説明図である。上述した例では、反射担当ドローン101Rが1台である場合について説明したが、反射面をより広く確保したい場合、複数台の反射担当ドローン101Rが決定されてもよい。(A)は、巻き取り型の反射板300(図3(B)を参照)を有する反射ドローン101Rを複数台選択して反射担当ドローン群101Rsとした例である。
 (A)では、反射担当ドローン101Rは、YZ平面において2行3列で浮遊配置される。(B)は、ドローン101本体の側面に反射板300が設けられた反射担当ドローン101RをYZ平面において6行3列で浮遊配置した例である。なお、図12での反射担当ドローン101Rの行列数は一例である。
 このように、反射担当ドローン101Rが複数台存在する場合は、反射板300の反射角度が同一角度となるように近接配置すればよい。これにより、退避対象ドローン101OSの台数が減少し、撮影空間CP内に存在するドローン101の台数を抑制することができる。また、上述した例では、照明担当ドローン101Lが1台である場合について説明したが、反射ドローン101Lを複数台選択してもよい。
 <端末121からの担当ドローン101の移動指示例>
 つぎに、端末121からの担当ドローン101の移動指示例について説明する。カメラ担当ドローン101C、照明担当ドローン101Lおよび反射担当ドローン101Rの理想的な位置は、あらかじめ設定されるが、操作者120がその都度いずれかの担当ドローン101を容易に移動させることにより、撮影の自由度の向上を図る。
 以下の図13~図15では、反射担当ドローン101Rに対する指示を例に挙げて説明するが、指示対象となる担当ドローン101は、カメラ担当ドローン101Cや照明担当ドローン101Lでもよい。なお、端末121では、X軸に対応するx軸、Y軸に対応するy軸で張られるxy平面をディスプレイの面とし、xy平面に直交し、かつ、操作者120がxy平面をディスプレイの面上で指定したドローン101のアイコンの位置をz軸とする。
 図13は、反射担当ドローン101Rのxy平面上での移動指示例を示す説明図である。(A)は移動前の端末121の表示画面1301、(B)は移動後の端末121の表示画面1302を示す。(A)において、端末121は、各担当ドローン101から現在位置(x,y,z)の情報と被写体位置の情報を取得し、各担当ドローン101のアイコン101Ci、101Li、101Riおよび被写体110のアイコン110iとそれらの位置関係を示す表示画面1301を生成して、ディスプレイ1300に表示する。
 操作者120は、位置を変えたい反射担当ドローン101Rのアイコン101Riを指1310で選択して、移動させたい方向にフリックする。(A)では、反射担当ドローン101Rのアイコン101Riが選択されフリックされる。これにより、(B)の表示画面1302では、反射担当ドローン101Rのアイコン101Riはフリック後の位置に移動させられる。
 (B)の移動指示後、端末121は、フリック後の位置情報(フリック前の位置からの移動量や移動方向でもよい)を、フリックしたアイコン101Riに対応する反射担当ドローン101Rに送信する。フリック後の位置情報を受信した反射担当ドローン101Rは、フリック後の位置および方向となるように移動する。これにより、XY平面方向への反射担当ドローン101Rの移動指示の操作を容易に実現することができる。
 図14は、反射担当ドローン101Rのxy平面上でのz軸回りの回転指示例を示す説明図である。図14では、図13のフリック後の反射担当ドローン101Rのアイコン101Riをz軸回りに回転させる例を示す。
 (C)はz軸回りの回転前の端末121の表示画面1401を示し、(D)は回転後の端末121の表示画面1401を示す。(C)において、操作者120は、回転させたい反射担当ドローン101Rのアイコン101Riを指1310で選択して、回転させたい方向にフリックする。これにより、(D)の表示画面1400では、反射担当ドローン101Rのアイコン101Riはフリック後の方向に回転させられる。
 (D)の回転指示後、端末121は、フリック後の回転情報(フリック前の位置での回転量や回転方向でもよい)を、フリックしたアイコン101Riに対応する反射担当ドローン101Rに送信する。フリック後の回転情報を受信した反射担当ドローン101Rは、フリック後の位置および方向となるように回転する。これにより、XY平面方向への反射担当ドローン101RのZ軸回りの回転指示の操作を容易に実現することができる。
 なお、反射担当ドローン101Rのアイコン101Riの回転は、図14のような手動ではなく、端末121が自動で回転させてもよい。この場合、端末121は、反射担当ドローン101Rの反射面を被写体110に正対するよう、反射担当ドローン101Rのアイコン101Riを回転させる。
 これにより、操作者120は、図13に示したように反射担当ドローン101Rのアイコン101Riをxy平面方向にフリックするだけで、反射担当ドローン101Rのアイコン101Riを、その反射板300が被写体110に向くように回転させることができる。したがって、図14に示した回転操作が不要となり、操作の容易性の向上を図ることができる。
 図15は、反射担当ドローン101Rのxy平面上でのz軸方向の昇降指示例を示す説明図である。図15では、図14のフリック後の反射担当ドローン101Rのアイコン101Riをz軸方向に移動(上昇または下降)させる例を示す。(E)はz軸方向の上昇時の端末121の表示画面1501を示し、(F)はz軸方向の下降時の端末121の表示画面1502を示す。
 (E)および(F)において、操作者120は、昇降させたい反射担当ドローン101Rのアイコン101Riを2本の指1310,1500で選択して、(E)上昇させたい場合は、2本の指1310,1500をピンチアウトし、(F)下降させたい場合は、2本の指1310,1500をピンチインする。上昇量は、ピンチアウト後の2本の指1310,1500の幅に比例する。同様に、下降量は、ピンチイン後の2本の指1310,1500の幅に比例する。
 ピンチインにより反射担当ドローン101Rのアイコン101Riが拡大するため、他の担当ドローン101よりも高度が高くなることが直感的に把握することができる。同様に、ピンチインにより反射担当ドローン101Rのアイコン101Riが縮小するため、他の担当ドローン101よりも高度が低くなることが直感的に把握することができる。なお、(E)上昇時にピントインとし、(F)下降時にピンチアウトとしてもよい。
 (E)上昇または(F)下降後、端末121は、ピンチ後の位置情報(ピンチ前からの2本の指1310,1500の幅に応じた上昇または下降量でもよい)を、ピンチしたアイコンに対応する反射担当ドローン101Rに送信する。ピンチ後の位置情報を受信した反射担当ドローン101Rは、ピンチ後の位置となるように移動する。これにより、Z軸方向の移動指示の操作を容易に実現することができる。
 なお、上述の移動指示例では、操作者120の指によるフリックやピンチ操作で移動指示を行う場合を例に挙げて説明したが、フリックやピンチ操作に限らず、ドラッグなどの他のゼスチャ操作でもよい。
 (1)このように、本実施例にかかる撮像システム100は、被写体を撮像する撮像部(カメラ412)を有する移動体(たとえば、カメラドローン101C)と、被写体110に光を照射する照射部(たとえば、照明部413、反射板300)を有する移動体(たとえば、照射ドローン101LR)と、を含む複数の移動体(たとえば、ドローン群101s)により、被写体を撮像する。撮像システム100は、複数の移動体の位置に関する情報に基づいて、複数の移動体の中から、被写体の撮像を担当する第1移動体(たとえば、カメラ担当ドローン101C)と、被写体110への光の照射を担当する第2移動体(たとえば、照射担当ドローン101LR)とを決定する決定処理と、決定処理によって決定された第2移動体の照射部により被写体に光を照射し、第1移動体の撮像部により被写体を撮像する撮像処理と、を実行する。
 これにより、第1移動体と第2移動体との自律的な位置決めにより、それぞれ別角度から撮像部からの撮像と被写体への光の照射とを実行することができる。したがって、撮影作業の効率化を図ることができる。
 (2)また、上記(1)の撮像システム100は、決定処理では、複数の移動体の中から第1移動体および第2移動体のうちいずれか一方の移動体が決定されると、決定された移動体の位置に関する情報に基づいて、第1移動体および第2移動体のうち他方の移動体を決定する。これにより、撮像部が位置決めしてから照射部が位置決めすることができ、また、照射部を位置決めしてから撮像部を位置決めすることができる。
 (3)また、上記(2)の撮像システム100は、決定処理では、複数の移動体の少なくとも一つと通信可能な端末121からのいずれか一方の移動体の選択の指示により、複数の移動体の中からいずれか一方の移動体を決定する。これにより、撮像部を有する移動体を端末121からの指示により位置決めしてから、照射部を有する移動体が位置決めすることができ、また、照射部を有する移動体を端末からの指示により位置決めしてから、撮像部を有する移動体が位置決めすることができる。
 (4)また、上記(3)の撮像システム100では、端末121は、撮像部を有する移動体によって撮像され送信された映像データを表示する。これにより、端末121の操作者120は、表示された映像データを見ながら、端末121からの選択指示対象となる移動体を決定することができる。
 (5)また、上記(1)の撮像システム100は、決定処理では、撮像部を有する移動体が撮像した映像データに基づいて第1移動体を決定する。これにより、映像データにより自動的に第1移動体を決定することができる。
 (6)また、上記(1)の撮像システム100は、第1移動体が撮像した映像データに他の移動体が含まれている場合に、移動指示を他の移動体に送信する送信処理を実行する。これにより、他の移動体を撮影空間CPから退避させ、撮影画像への他の移動体の映り込みを抑制することができる。
 (7)また、上記(1)の撮像システム100は、第1移動体が撮像した映像データに他の移動体の影が含まれている場合に、移動指示を他の移動体に送信する送信処理を実行する。これにより、他の移動体を撮影空間CPから退避させ、撮影画像への他の移動体の影の映り込みを抑制することができる。
 (8)また、上記(1)の撮像システム100では、決定処理は、複数の移動体の中の特定の移動体によって実行され、特定の移動体は、複数の移動体から移動体の位置に関する情報を受信する。これにより、特定の移動体をマスタとし、他の移動体をスレーブとして、自律的な撮像および照射の位置決めを実行することができる。
 (9)また、上記(8)の撮像システム100では、特定の移動体は、複数の移動体の少なくとも一つから被写体に関する情報を受信する。これにより、特定の移動体をマスタとし、他の移動体をスレーブとして、自律的な撮像および照射の位置決めを実行することができる。
 (10)また、上記(8)の撮像システム100では、第1移動体が撮像した映像データに他の移動体が含まれている場合に、第1移動体が、移動要求を特定の移動体に送信する第1送信処理と、特定の移動体が、第1移動体から移動要求を受信した場合に、移動指示を他の移動体に送信する第2送信処理と、を実行する。これにより、マスタの統括制御により、他の移動体を撮影空間CPから退避させ、撮影画像への他の移動体の映り込みを抑制することができる。
 (11)また、上記(8)の撮像システム100では、第1移動体が撮像した映像データに他の移動体の影が含まれている場合に、第1移動体が、移動要求を特定の移動体に送信する第1送信処理と、特定の移動体が、第1移動体から移動要求を受信した場合に、移動指示を他の移動体に送信する第2送信処理と、を実行する。これにより、マスタの統括制御により、他の移動体を撮影空間CPから退避させ、撮影画像への他の移動体の影の映り込みを抑制することができる。
 (12)また、上記(1)の撮像システム100では、照射部は、被写体に光を照射する照明部である。これにより、被写体に光を照射する照明部を自動的に位置決めすることができる。
 (13)また、上記(1)の撮像システム100では、照射部は、光源からの光の照射方向とは異なる方向から被写体に光を照射する。これにより、光源からの光の照射方向とは異なる方向から被写体に反射光を照射する照射部を自動的に位置決めすることができる。
 (14)また、上記(1)の撮像システム100では、照射部は、光源からの光を反射する反射部である。これにより、被写体に反射光を照射する反射部を自動的に位置決めすることができる。
 (15)また、上記(13)または(14)の撮像システム100では、光源は、照射部が被写体に光を照射する照明部である他の第2移動体である。れにより、被写体に光を照射する照明部を自動的に位置決めすることができる。
 (16)また、上記(14)の撮像システム100では、反射部は、光源からの光を被写体に反射する反射板である。これにより、被写体に反射光を照射する反射板を自動的に位置決めすることができる。
 (17)また、上記(14)の撮像システム100では、決定処理では、光源の位置に基づいて、反射部を有する第2移動体を決定する。これにより、被写体に反射光を照射する反射部を自動的かつ適切に位置決めすることができる。
 (18)また、本実施例にかかる移動体(たとえば、ドローン101)は、被写体を撮像する撮像部を有し、他の移動体と通信可能な移動体であり、被写体の撮像を担当する指示を他の移動体から受信する受信処理と、受信処理によって指示が受信された場合に、被写体の撮像を担当する移動体に設定する設定処理と、撮像部により被写体を撮像する撮像処理と、を実行する。これにより、被写体を撮像する撮像担当の移動体を自動的に設定することができる。
 (19)また、本実施例にかかる移動体(たとえば、ドローン101)は、被写体に光を照射する照射部を有し、他の移動体と通信可能な移動体であって、被写体に光を照射する役割を担当する指示を他の移動体から受信する受信処理と、受信処理によって指示が受信された場合に、被写体に光を照射する役割を担当する移動体に設定する設定処理と、を実行する。これにより、被写体に光を照射する照射担当の移動体を自動的に設定することができる。
 (20)また、本実施例にかかる移動体(たとえば、ドローン101)は、被写体を撮像する撮像部を有する移動体であり、移動体と通信可能な端末に、撮像部によって撮像された被写体の映像データを送信する送信処理と、被写体の撮像を担当する指示を端末から受信し、被写体の撮像を担当する移動体に設定する設定処理と、を実行する。これにより、操作者120による映像データの確認後の指示により、被写体を撮像する撮像担当の移動体を設定することができる。
 (21)また、本実施例にかかる移動体(たとえば、ドローン101)は、被写体を撮像する撮像部と被写体に光を照射する照射部とを有する移動体であり、移動体と通信可能な端末に、撮像部によって撮像された被写体の映像データを送信する送信処理と、被写体への光の照射を担当する指示を端末から受信し、被写体への光の照射を担当する移動体に設定する設定処理と、を実行する。これにより、操作者120による映像データの確認後の指示により、被写体に光を照射する照射担当の移動体を設定することができる。
 以上説明したように、本実施例によれば、カメラの撮影位置と照明部の照射位置との位置関係を自動的に調整することができる。また、複数の移動体において、撮像および照射の役割を担う移動体を自律的に決定することができ、撮影作業の効率化を図ることができる。
100 撮像システム、101 ドローン、101C カメラドローン/カメラ担当ドローン、101L 照明ドローン/照明担当ドローン、101LR 照射ドローン/照射担当ドローン、101M マスタドローン、101OS 退避対象ドローン、101R 反射ドローン/反射担当ドローン、101s ドローン群、110 被写体、120 操作者、121 端末、300 反射板、412 カメラ、413 照明部
 

Claims (19)

  1.  被写体を撮像する撮像部を有する移動体と、前記被写体に光を照射する照射部を有する移動体と、を含む複数の移動体により、前記被写体を撮像する撮像システムであって、
     前記複数の移動体の位置に関する情報に基づいて、前記複数の移動体の中から、前記被写体を撮像する第1移動体と、前記被写体へ光を照射する第2移動体とを決定する決定処理と、
     前記決定処理によって決定された前記第2移動体の前記照射部により前記被写体に光を照射し、前記第1移動体の前記撮像部により前記被写体を撮像する撮像処理と、
     を実行する撮像システム。
  2.  請求項1に記載の撮像システムにおいて、
     前記決定処理では、前記複数の移動体の中から前記第1移動体および前記第2移動体のうちいずれか一方の移動体が決定されると、前記いずれか一方の移動体の位置に関する情報に基づいて、前記第1移動体および前記第2移動体のうち他方の移動体を決定する、撮像システム。
  3.  請求項2に記載の撮像システムであって、
     前記決定処理では、前記複数の移動体の少なくとも一つと通信可能な端末からの前記いずれか一方の移動体の選択の指示により、前記複数の移動体の中から前記いずれか一方の移動体を決定する、撮像システム。
  4.  請求項3に記載の撮像システムであって、
     前記端末は、前記撮像部を有する移動体によって撮像され送信された映像データを表示する、撮像システム。
  5.  請求項1に記載の撮像システムであって、
     前記決定処理では、前記撮像部を有する移動体が撮像した映像データに基づいて前記第1移動体を決定する、撮像システム。
  6.  請求項1に記載の撮像システムであって、
     前記第1移動体が撮像した映像データに他の移動体が含まれている場合に、移動指示を前記他の移動体に送信する送信処理を実行する、撮像システム。
  7.  請求項1に記載の撮像システムであって、
     前記第1移動体が撮像した映像データに他の移動体の影が含まれている場合に、移動指示を前記他の移動体に送信する送信処理を実行する、撮像システム。
  8.  請求項1に記載の撮像システムであって、
     前記決定処理は、前記複数の移動体の中の特定の移動体によって実行され、
     前記特定の移動体は、前記複数の移動体から前記移動体の位置に関する情報を受信する、撮像システム。
  9.  請求項8に記載のシステムであって、
     前記特定の移動体は、前記複数の移動体の少なくとも一つから前記被写体に関する情報を受信する、撮像システム。
  10.  請求項8に記載の撮像システムであって、
     前記第1移動体が撮像した映像データに他の移動体が含まれている場合に、前記第1移動体が、移動要求を前記特定の移動体に送信する第1送信処理と、
     前記特定の移動体が、前記第1移動体から前記移動要求を受信した場合に、移動指示を前記他の移動体に送信する第2送信処理と、
     を実行する、撮像システム。
  11.  請求項8に記載の撮像システムであって、
     前記第1移動体が撮像した映像データに他の移動体の影が含まれている場合に、前記第1移動体が、移動要求を前記特定の移動体に送信する第1送信処理と、
     前記特定の移動体が、前記第1移動体から前記移動要求を受信した場合に、移動指示を前記他の移動体に送信する第2送信処理と、
     を実行する、撮像システム。
  12.  請求項1に記載の撮像システムであって、
     前記照射部は、前記被写体に光を照射する照明部である、撮像システム。
  13.  請求項1に記載の撮像システムであって、
     前記照射部は、光源からの光を反射する反射部である、撮像システム。
  14.  請求項13に記載の撮像システムであって、
     前記反射部は、前記光源からの光を前記被写体に反射する反射板である、撮像システム。
  15.  請求項13に記載の撮像システムであって、
     前記決定処理では、前記光源の位置に基づいて、前記反射部を有する前記第2移動体を決定する、撮像システム。
  16.  被写体を撮像する撮像部を有し、他の移動体と通信可能な移動体であって、
     前記被写体の撮像を担当する指示を前記他の移動体から受信する受信処理と、
     前記受信処理によって前記指示が受信された場合に、前記被写体を撮像する移動体に設定する設定処理と、
     前記撮像部により前記被写体を撮像する撮像処理と、
     を実行する移動体。
  17.  被写体に光を照射する照射部を有し、他の移動体と通信可能な移動体であって、
     前記被写体への光の照射を担当する指示を前記他の移動体から受信する受信処理部と、
     前記受信処理部によって前記指示が受信された場合に、前記被写体に光を照射する移動体に設定する設定処理部と、
     を有する移動体。
  18.  被写体を撮像する撮像部を有する移動体であって、
     前記移動体と通信可能な端末に、前記撮像部によって撮像された前記被写体の映像データを送信する送信処理部と、
     前記被写体の撮像を担当する指示を前記端末から受信し、前記被写体を撮像する移動体に設定する設定処理部と、
     を有する移動体。
  19.  被写体を撮像する撮像部と前記被写体に光を照射する照射部とを有する移動体であって、
     前記移動体と通信可能な端末に、前記撮像部によって撮像された前記被写体の映像データを送信する送信処理部と、
     前記被写体への光の照射を担当する指示を前記端末から受信し、前記被写体に光を照射する移動体に設定する設定処理部と、
     を有する移動体。
     
PCT/JP2019/013216 2018-03-30 2019-03-27 撮像システムおよび移動体 WO2019189370A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018067851 2018-03-30
JP2018-067851 2018-03-30

Publications (1)

Publication Number Publication Date
WO2019189370A1 true WO2019189370A1 (ja) 2019-10-03

Family

ID=68062021

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/013216 WO2019189370A1 (ja) 2018-03-30 2019-03-27 撮像システムおよび移動体

Country Status (1)

Country Link
WO (1) WO2019189370A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110401A1 (ja) * 2018-11-29 2020-06-04 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006304A (ja) * 2012-06-21 2014-01-16 Nikon Corp 撮像装置、撮像システム、及び照明方法
JP2015191254A (ja) * 2014-03-27 2015-11-02 日本電気株式会社 無人航空機、無人航空機の制御方法、および、管制システム
WO2016143256A1 (ja) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 飛行体
WO2017061589A1 (ja) * 2015-10-07 2017-04-13 ブルーイノベーション株式会社 飛行体の飛行管理システム
JP2017204835A (ja) * 2016-05-13 2017-11-16 株式会社リコー 撮影制御システム、制御方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006304A (ja) * 2012-06-21 2014-01-16 Nikon Corp 撮像装置、撮像システム、及び照明方法
JP2015191254A (ja) * 2014-03-27 2015-11-02 日本電気株式会社 無人航空機、無人航空機の制御方法、および、管制システム
WO2016143256A1 (ja) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 飛行体
WO2017061589A1 (ja) * 2015-10-07 2017-04-13 ブルーイノベーション株式会社 飛行体の飛行管理システム
JP2017204835A (ja) * 2016-05-13 2017-11-16 株式会社リコー 撮影制御システム、制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110401A1 (ja) * 2018-11-29 2020-06-04 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム

Similar Documents

Publication Publication Date Title
CN109074101B (zh) 使用多个无人机的成像
KR102397946B1 (ko) 촬상 장치, 이를 채용한 원격 제어 비행체 및 촬상 장치의 자세 제어 방법
US20220086362A1 (en) Focusing method and apparatus, aerial camera and unmanned aerial vehicle
JP6281720B2 (ja) 撮像システム
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
CN111034172B (zh) 控制设备、控制系统、控制方法及存储介质
US11061412B2 (en) Information processing device and information processing method
CN111567032B (zh) 确定装置、移动体、确定方法以及计算机可读记录介质
US20150036042A1 (en) Method for adjusting illumination direction angle of strobe device, strobe device, and imaging device equipped with strobe device
JP2017169170A (ja) 撮像装置、移動装置、撮像システム、撮像方法およびプログラム
WO2019189370A1 (ja) 撮像システムおよび移動体
JP6265576B1 (ja) 撮像制御装置、影位置特定装置、撮像システム、移動体、撮像制御方法、影位置特定方法、及びプログラム
JP2018078433A (ja) 移動撮像装置およびその制御方法、ならびに撮像装置およびその制御方法、無人機、プログラム、記憶媒体
WO2020139466A1 (en) Unmanned aerial vehicle light flash synchronization
JP2017112438A (ja) 撮像システムおよびその制御方法、通信装置、移動撮像装置、プログラム
US11265456B2 (en) Control device, photographing device, mobile object, control method, and program for image acquisition
JP6733981B2 (ja) 構造体
WO2022000211A1 (zh) 拍摄系统的控制方法、设备、及可移动平台、存储介质
WO2019061887A1 (zh) 控制装置、摄像装置、飞行体、控制方法以及程序
JP6471272B1 (ja) 長尺画像生成システム、方法及びプログラム
WO2021026754A1 (zh) 一种拍摄装置的对焦控制方法、装置及无人飞行器
CN112154371A (zh) 控制装置、摄像装置、移动体、控制方法以及程序
JP2021142819A (ja) 飛行体、車両監視システム、飛行体の制御方法、及び、飛行制御プログラム
WO2019080805A1 (zh) 控制装置、摄像装置、飞行体、控制方法以及程序
JP2019145947A (ja) 撮影システム及び撮影制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19778047

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19778047

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP