WO2021005876A1 - 情報処理装置、情報処理方法、プログラム及び情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム及び情報処理システム Download PDF

Info

Publication number
WO2021005876A1
WO2021005876A1 PCT/JP2020/018552 JP2020018552W WO2021005876A1 WO 2021005876 A1 WO2021005876 A1 WO 2021005876A1 JP 2020018552 W JP2020018552 W JP 2020018552W WO 2021005876 A1 WO2021005876 A1 WO 2021005876A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
information processing
processing device
aircraft
maximum
Prior art date
Application number
PCT/JP2020/018552
Other languages
English (en)
French (fr)
Inventor
厚 岡森
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP20836110.5A priority Critical patent/EP3995396A4/en
Priority to JP2021530501A priority patent/JP7452543B2/ja
Priority to US17/615,844 priority patent/US20220309699A1/en
Priority to CN202080047801.7A priority patent/CN114072333A/zh
Publication of WO2021005876A1 publication Critical patent/WO2021005876A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • G05D1/1064Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones specially adapted for avoiding collisions with other aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/20UAVs specially adapted for particular uses or applications for use as communications relays, e.g. high-altitude platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Definitions

  • This technology relates to information processing devices, information processing methods, programs and information processing systems.
  • Patent Documents 1 and 2 In recent years, it has been proposed to utilize a system composed of a plurality of moving objects, for example, when taking aerial photographs of scenery or the like or when performing remote patrol security. In such a system, techniques for avoiding collisions between moving objects are adopted (for example, Patent Documents 1 and 2).
  • the information processing device has a control unit.
  • the control unit Based on the captured image of the second moving body captured by the first moving body and the position information of the first moving body, the relative position of the second moving body with respect to the first moving body is determined. Calculate and The movable area of the second moving body is calculated based on the relative position.
  • the control unit may specify the identification information for identifying the second moving body by performing image processing on the captured image.
  • the control unit Estimate the distance between the second moving body and the first moving body, Even if the position information of the second moving body is calculated from the estimated distance, the position information of the first moving body, and the relative direction of the second moving body with respect to the first moving body. Good.
  • the control unit calculates the movable area of the second mobile body based on the position information of the second mobile body and the aircraft performance of the second mobile body associated with the identification information. You may.
  • the control unit includes at least one of the maximum speed, the maximum ascending speed, the maximum descending speed, the maximum acceleration, the maximum ascending acceleration or the maximum descending acceleration of the second moving body associated with the identification information, and the second one.
  • the movable area of the second moving body may be calculated based on the position information of the moving body.
  • the control unit outputs the calculation result of the movable area to the first moving body, and outputs the calculation result to the first moving body.
  • the first moving body may generate a moving path of the first moving body that does not intersect the movable region.
  • the control unit newly creates a movable region of the second mobile body based on the position information of the second mobile body after a certain period of time has elapsed since the movement path of the first mobile body was generated. It may be calculated.
  • the control unit outputs the calculation result of newly calculating the movable area of the second moving body to the first moving body.
  • the first moving body may newly generate a moving path of the first moving body that does not intersect with the newly calculated movable region.
  • At least one of the first moving body and the second moving body may be a flying body.
  • the information processing device may be a server.
  • the information processing device is Based on the captured image of the moving body captured by the information processing device and the position information of the information processing device, the relative position of the moving body with respect to the information processing device is calculated. The movable area of the moving body is calculated based on the relative position.
  • the information processing device may be a moving body or a flying body.
  • the information processing method of the information processing device is Based on the captured image of the second moving body captured by the first moving body and the position information of the first moving body, the relative position of the second moving body with respect to the first moving body is determined. It is calculated. The movable region of the second moving body is calculated based on the relative position.
  • the program according to one form of the present technology causes the information processing apparatus to execute the following steps. Based on the captured image of the second moving body captured by the first moving body and the position information of the first moving body, the relative position of the second moving body with respect to the first moving body is determined. Steps to calculate. A step of calculating the movable area of the second moving body based on the relative position.
  • the information processing system includes an information processing device and a first mobile body.
  • the above information processing device The relative position of the second moving body with respect to the first moving body based on the captured image of the second moving body captured by the first moving body and the position information of the first moving body. Is calculated and The movable area of the second moving body is calculated based on the relative position. The calculation result of the movable area is output to the first moving body.
  • the first moving body generates a moving path of the first moving body that does not intersect with the movable region.
  • FIG. 1 is a diagram showing the drone aircraft 10 and another aircraft 20 which is a drone aircraft different from the drone aircraft 10 together.
  • the other aircraft 20 is an example of a "second mobile body" within the scope of claims.
  • the X, Y and Z-axis directions shown in FIG. 1 are three-axis directions orthogonal to each other, and are also common in the following figures.
  • FIG. 2 is a schematic diagram showing a configuration example of the information processing system 1 of the first embodiment
  • FIG. 3 is a block diagram showing a configuration example of the information processing system 1.
  • the information processing system 1 includes a drone machine 10, an information processing device 30, and a controller 40.
  • the drone machine 10 and the information processing device 30 are connected to each other so as to be able to communicate with each other via the network N.
  • the network N may be the Internet, a mobile communication network, a local area network, or the like, or may be a network in which these plurality of types of networks are combined.
  • the drone body 10 and the controller 40 are connected by wireless communication.
  • the communication standard for connecting the drone body 10 and the controller 40 is typically LTE (Long Term Evolution) communication, but the communication standard is not limited to this, and the type is not limited, for example, Wi-Fi.
  • the drone body 10 includes a camera 101, a GPS sensor 102, a barometric pressure sensor 103, an acceleration sensor 104, a camera control unit 105, a control unit 106, a communication unit 107, and a storage unit 108. And have.
  • the drone body 10 is an example of the "first mobile body" in the claims.
  • the camera 101 actually uses various members such as an image pickup device such as CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device) and a lens for controlling the image formation of a subject image on the image pickup device. It is a device that captures a space and generates an captured image. The camera 101 may capture a still image or may capture a moving image.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the GPS sensor 102 receives a signal from a GPS satellite and measures the current latitude and longitude of the drone aircraft 10.
  • the GPS sensor 102 outputs sensor data relating to the latitude and longitude of the drone aircraft 10 calculated based on signals acquired from GPS satellites to the relative position calculation unit 3021.
  • the barometric pressure sensor 103 is a pressure sensor that measures the barometric pressure and measures the flight altitude (barometric altitude) of the drone aircraft 10 by converting it to altitude.
  • the pressure sensor 103 detects the total pressure including the influence of the wind on the drone body 10 and the atmospheric pressure on the drone body 10, and determines the flight speed (airspeed) of the drone body 10 based on these differences. measure.
  • the barometric pressure sensor 103 outputs the sensor data obtained by measuring the flight altitude and flight speed of the drone body 10 to the relative position calculation unit 3021.
  • the barometric pressure sensor 103 may be, for example, a piezoresistive pressure sensor, and its type is not limited.
  • the acceleration sensor 104 detects the acceleration of the drone body 10.
  • the acceleration sensor 104 detects various movements such as tilt and vibration of the drone body 10.
  • the acceleration sensor 104 outputs the sensor data obtained by detecting the acceleration of the drone body 10 to the relative position calculation unit 3021.
  • the acceleration sensor 104 may be, for example, a piezoelectric type acceleration sensor, a servo type acceleration sensor, a strain type acceleration sensor, a semiconductor type acceleration sensor, or the like, and the type thereof does not matter.
  • the camera control unit 105 generates a control signal for changing the shooting direction, posture, and shooting magnification of the camera 101 based on the control of the control unit 106, and outputs this signal to the camera 101 and the control unit 302.
  • the camera control unit 105 controls the pan and tilt direction movements of the camera 101 via a pan head (not shown) incorporating a motor such as a 3-axis gimbal, and controls the current posture (for example, pan angle and pan angle) of the camera 101.
  • the control signals related to the tilt angle) and the shooting magnification are output to the relative position calculation unit 3021.
  • the control unit 106 controls the entire operation of the drone machine 10 or a part thereof according to the program stored in the storage unit 108.
  • the control unit 106 functionally has a movement route generation unit 1061.
  • the movement route generation unit 1061 sets a waypoint P, which is an intermediate target point of the drone aircraft 10, based on the maximum movable area E of the other aircraft 20, and the movement route of the drone aircraft 10 via the set waypoint P. Generate R (see FIG. 10).
  • the maximum movable area E is an example of the “movable area” in the claims.
  • the communication unit 107 communicates with the information processing device 30 via the network N.
  • the communication unit 107 functions as a communication interface for the drone body 10.
  • the storage unit 108 stores the sensor data output from the GPS sensor 102, the pressure sensor 103, and the acceleration sensor 104, and the control signal output from the camera control unit 105.
  • the information processing device 30 includes a communication unit 301, a control unit 302, and a storage unit 303.
  • the information processing device 30 is typically a cloud server, but is not limited to this, and may be any other computer such as a PC.
  • the information processing device 30 may be a control control device that gives instructions to the drone body 10 and executes flight control to guide the drone body 10.
  • the communication unit 301 communicates with the drone machine 10 via the network N.
  • the communication unit 301 functions as a communication interface of the information processing device 30.
  • the control unit 302 controls the entire operation of the information processing device 30 or a part thereof according to the program stored in the storage unit 303.
  • the control unit 302 corresponds to the "control unit" in the claims.
  • the control unit 302 functionally has a relative position calculation unit 3021 and a movable area calculation unit 3022.
  • the relative position calculation unit 3021 calculates the current position (position information) of the drone body 10 from the sensor data acquired from the GPS sensor 102 and the barometric pressure sensor 103. The relative position calculation unit 3021 with respect to the drone machine 10 based on the captured image acquired from the camera 101, the control signal regarding the current posture of the camera 101 acquired from the camera control unit 105, and the current position of the drone machine 10. The relative position of the other aircraft 20 is calculated.
  • the movable area calculation unit 3022 calculates the maximum movable area E of the other aircraft 20 based on the relative position of the other aircraft 20 and the aircraft performance.
  • the storage unit 303 stores data in which the model name or model number of each of the plurality of drone aircraft is associated with the aircraft performance.
  • the model name or model number is an example of "identification information" in the claims.
  • the storage unit 303 stores the set interval of the waypoint P (hereinafter, t 1 for a certain period of time) and the local feature amount of each of the plurality of drone aircraft.
  • FIG. 4 is an example of a data table in which the model number of the drone aircraft and the aircraft performance are associated with each other. It should be noted that the specific numerical values shown in FIG. 4 are merely examples, and it goes without saying that the numerical values are not limited to these numerical values.
  • the controller 40 is a control device for controlling the drone body 10, and has a display unit 41.
  • the display unit 41 is, for example, a display device such as an LCD or an organic EL display.
  • the display unit 41 displays an image taken by the camera 101. As a result, the user can operate the drone machine 10 while watching the image displayed on the display unit 41.
  • FIG. 5 is a block diagram showing a hardware configuration example of the drone machine 10 and the information processing device 30.
  • the drone machine 10 and the information processing device 30 may be the information processing device 100 shown in FIG.
  • the information processing device 100 has a CPU (Central Processing unit) 109, a ROM (Read Only Memory) 110, and a RAM (Random Access Memory) 111.
  • the control units 106 and 302 may be the CPU 109.
  • the information processing device 100 may have a host bus 112, a bridge 113, an external bus 114, an interface 115, an input device 116, an output device 117, a storage device 118, a drive 119, a connection port 120, and a communication device 121. ..
  • the information processing device 100 may have a configuration including an image pickup device 122 and a sensor 123, if necessary. Further, the information processing apparatus 100 replaces or together with the CPU 109 for processing such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a GPU (Graphics Processing Unit). It may have a circuit.
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • GPU Graphics Processing Unit
  • the CPU 109 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 100 according to various programs recorded in the ROM 110, the RAM 111, the storage device 118, or the removable recording medium 50.
  • the storage units 108 and 303 may be the ROM 110, the RAM 111, the storage device 118, or the removable recording medium 50.
  • the ROM 110 stores programs and calculation parameters used by the CPU 109.
  • the RAM 111 primarily stores a program used in the execution of the CPU 109, parameters that are appropriately changed in the execution, and the like.
  • the CPU 109, ROM 110, and RAM 111 are connected to each other by a host bus 112 composed of an internal bus such as a CPU bus. Further, the host bus 112 is connected to an external bus 114 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 113.
  • a PCI Peripheral Component Interconnect / Interface
  • the input device 116 is a device operated by a user, such as a mouse, keyboard, touch panel, buttons, switches, and levers.
  • the input device 116 may be, for example, a remote control device using infrared rays or other radio waves, or an externally connected device 60 such as a mobile phone corresponding to the operation of the information processing device 100.
  • the input device 116 includes an input control circuit that generates an input signal based on the information input by the user and outputs the input signal to the CPU 109. By operating the input device 116, the user inputs various data to the information processing device 100 and instructs the processing operation.
  • the output device 117 is composed of a device capable of notifying the user of the acquired information using sensations such as sight, hearing, and touch.
  • the output device 117 may be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, an audio output device such as a speaker or headphones, or a vibrator.
  • the output device 117 outputs the result obtained by the processing of the information processing device 100 as a video such as text or an image, a voice such as voice or sound, or a vibration.
  • the storage device 118 is a data storage device configured as an example of the storage unit of the information processing device 100.
  • the storage device 118 is composed of, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • the storage device 118 stores, for example, a program executed by the CPU 109, various data, various data acquired from the outside, and the like.
  • the drive 119 is a reader / writer for a removable recording medium 50 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing device 100.
  • the drive 119 reads the information recorded on the mounted removable recording medium 50 and outputs the information to the RAM 111. Further, the drive 119 writes a record on the removable recording medium 50 mounted on the drive 119.
  • connection port 120 is a port for connecting the device to the information processing device 100.
  • the connection port 120 may be, for example, a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • connection port 120 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 121 is, for example, a communication interface composed of a communication device for connecting to the network N.
  • the communication device 121 may be, for example, a communication card for LAN (Local Area Network), Bluetooth (registered trademark), Wi-Fi, WUSB (Wireless USB), LTE (Long Term Evolution), or the like.
  • the communication device 121 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communications, or the like.
  • the communication device 121 transmits / receives a signal or the like to / from the Internet or another communication device using a predetermined protocol such as TCP / IP.
  • the network N connected to the communication device 121 is a network connected by radio, and may include, for example, the Internet, infrared communication, radio wave communication, short-range wireless communication, satellite communication, and the like.
  • the communication units 107 and 301 may be the communication device 121.
  • the image pickup device 122 is a device that captures an image of the real space and generates an captured image.
  • the camera 101 corresponds to the image pickup device 122.
  • the sensor 123 is, for example, various sensors such as an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, a pressure sensor, or a sound sensor (microphone).
  • various sensors such as an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, an illuminance sensor, a temperature sensor, a pressure sensor, or a sound sensor (microphone).
  • the sensor 123 acquires information on the state of the information processing device 100 itself, such as the posture of the housing of the information processing device 100, and information on the surrounding environment of the information processing device 100, such as the brightness and noise around the information processing device 100. To do. Further, the sensor 123 may include a GPS receiver that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the device. The GPS sensor 102, the barometric pressure sensor 103, and the acceleration sensor 104 correspond to the sensor 123.
  • GPS Global Positioning System
  • Each of the above components may be configured by using a general-purpose member, or may be composed of a member specialized in the function of each component. Such a configuration can be appropriately changed depending on the technical level at the time of implementation.
  • FIG. 6 is a flowchart showing a typical operation flow of the information processing system 1. Hereinafter, the operation of the information processing system 1 will be described with reference to FIG. 6 as appropriate.
  • the camera 101 mounted on the drone aircraft 10 images the real space (hereinafter, three-dimensional space) in which the other aircraft 20 exists. At this time, when the other aircraft 20 is within the shooting range of the camera 101 (YES in step S101), the camera 101 increases the magnification until the other aircraft 20 fills the screen.
  • the shooting range (field of view size) of the camera 101 becomes almost the same as the size of the other aircraft 20.
  • the camera 101 takes an image of the other machine 20 in a state where the shooting range and the size of the other machine 20 are substantially the same (step S102), and outputs this captured image to the relative position calculation unit 3021.
  • the camera control unit 105 generates a control signal for changing the shooting direction, posture, and shooting magnification of the camera 101 based on the control of the control unit 106, and sends this signal to the camera 101 and the control unit 302 (relative position calculation unit 3021). Output (step S103).
  • the camera control unit 105 controls the pan and tilt direction movements of the camera 101 via a pan head (not shown) incorporating a motor such as a 3-axis gimbal, and controls the current posture (for example, pan angle and pan angle) of the camera 101.
  • a control signal related to the tilt angle) and the shooting magnification is output to the relative position calculation unit 3021 (step S103).
  • the GPS sensor 102 outputs sensor data related to the latitude and longitude of the drone aircraft 10 calculated based on signals acquired from GPS satellites to the relative position calculation unit 3021 (step S103).
  • the acceleration sensor 104 outputs the sensor data obtained by detecting the acceleration of the drone body 10 to the relative position calculation unit 3021.
  • the barometric pressure sensor 103 outputs the sensor data obtained by measuring the flight altitude and the flight speed of the drone body 10 to the relative position calculation unit 3021 (step S103).
  • the relative position calculation unit 3021 performs predetermined image processing on the captured image acquired from the camera 101, and specifies the model name or model number of the other aircraft 20 (YES in step S104). Specifically, the relative position calculation unit 3021 extracts the local feature amount of the 3D shape of the other aircraft 20 from the captured image captured by the other aircraft 20.
  • the local features include, for example, SIFT (scale invariant features transform), SURF (speed-up robust features), RIFF (rotation invariant fast features), BREIF (binary robust independent elementary features), BRISK (binary robust invariant scalable key). It is a feature amount calculated by ORB (oriented FAST and rotated BRIEF) or CARD (compact and real-time descriptors).
  • the relative position calculation unit 3021 detects the other aircraft 20 by feature amount matching that compares the 3D-shaped local feature amount of the other aircraft 20 with the local feature amount of each of the plurality of drone aircraft stored in advance in the storage unit 303. Then, specify the model name or model number of the other aircraft 20.
  • step S105 when the relative position calculation unit 3021 cannot specify the model name or model number of the other aircraft 20 from the 3D shape of the other aircraft 20 (NO in step S104), the default model preset in step S108 described later is used. Refer to the aircraft performance (maximum speed, maximum ascending speed, maximum descending speed, maximum acceleration, maximum ascending acceleration, maximum descending acceleration) (step S105).
  • FIG. 7 is a schematic diagram illustrating the optical system and the image sensor of the camera 101 in a simplified manner.
  • the estimated distance L between the other aircraft 20 and the drone aircraft 10 is calculated by, for example, the following equation (1) (step S106).
  • the estimated distance L corresponds to the work distance (working distance), which is the distance from the tip of the lens to the other aircraft 20 when the lens is in focus on the other aircraft 20.
  • the relative position calculation unit 3021 is based on the sensor data acquired from the GPS sensor 102 and the barometric pressure sensor 103, and the three-dimensional coordinate position (x 1 , y 1 , z 1 ) of the drone aircraft 10 with reference to the world coordinate system. Is calculated.
  • This three-dimensional coordinate position is a coordinate position indicating the current position (position information) of the drone body 10.
  • the camera control unit 105 has a pan angle ⁇ P (rotation angle in the pan direction) and a tilt angle ⁇ t (tilt direction) of the camera 101 (gimbal) when the other aircraft 20 is within the shooting range of the camera 101.
  • the control signal is output to the relative position calculation unit 3021 as to how many times the rotation angle) is controlled.
  • the relative position calculation unit 3021 calculates the relative direction of the other aircraft 20 with respect to the drone aircraft 10 based on the control signal acquired from the camera control unit 105.
  • the relative position calculation unit 3021 determines the current three-dimensional coordinate position (x 1 , y 1 , z 1 ) of the drone machine 10, the estimated distance L between the drone machine 10 and the other machine 20, and the drone machine.
  • the three-dimensional coordinate position (x 2 , y 2 , z 2 ) of the other aircraft 20 with respect to the world coordinate system is calculated from the relative directions (pan angle ⁇ P and tilt angle ⁇ t ) of the other aircraft 20 with respect to 10. (Step S107).
  • the pan angle, the tilt angle, and the estimated distance between the drone machine 10 and the other machine 20 are set to ⁇ P , ⁇ t , and L, respectively.
  • the relative position calculation unit 3021 sets the three-dimensional coordinate positions (x 2 ′, y 2 ′, z 2 ′) of the other aircraft 20 in the coordinate system, for example, by the following equations (2), (3), (4). ).
  • the relative position calculation unit 3021 converts the three-dimensional coordinate position (x 2 ′, y 2 ′, z 2 ′) into the world coordinate system by using the current position (x 1 , y 1 , z 1 ) of the drone aircraft 10. calculating the 3-dimensional coordinate position (x 2, y 2, z 2) by.
  • This three-dimensional coordinate position is a coordinate position indicating the current position (position information) of the other aircraft 20.
  • FIG. 8 is a diagram showing the drone aircraft 10 and the other aircraft 20 together in a coordinate system with the current position of the drone aircraft 10 as the origin position.
  • the relative position calculation unit 3021 of the other aircraft 20 associated with the model name or model number specified in the previous step S104 by referring to the data table (FIG. 4) stored in the storage unit 303.
  • the aircraft performance (maximum speed, maximum ascending speed, maximum descending speed, maximum acceleration, maximum ascending acceleration, maximum descending acceleration) and t 1 for a certain period of time are read out from the storage unit 303.
  • the relative position calculation unit 3021 accelerates at the maximum acceleration from the center with the three-dimensional coordinate position (x 2 , y 2 , z 2 ) of the other aircraft 20 calculated in the previous step S107 as the upper limit.
  • the maximum movement range E1 in the horizontal direction (XY plane direction) is calculated.
  • FIG. 9a is a conceptual diagram showing the maximum movement range E1 of the other aircraft 20 in the horizontal direction.
  • the maximum movement range E1 is calculated by, for example, the following equations (5) and (6), where V h , a h , and L h are the maximum speed, the maximum acceleration, and the maximum movement distance, respectively.
  • the relative position calculating unit 3021 the highest rise around the three-dimensional coordinate position of the other aircraft 20 calculated in the previous step S107 (x 2, y 2, z 2), the maximum increase rate from the center as the upper limit
  • the maximum ascending range E2 in the vertical plane direction (XZ plane direction) when ascending by acceleration is calculated.
  • FIG. 9b is a conceptual diagram showing the maximum movement range of the other aircraft 20 in the vertical plane direction.
  • the maximum ascending range E2 is calculated by, for example, the following equations (7) and (8), where the maximum ascending speed, the maximum ascending acceleration, and the maximum ascending distance are V up , a up , and L up , respectively.
  • the relative position calculating unit 3021 about a three-dimensional coordinate position of the other aircraft 20 (x 2, y 2, z 2), in the case of lowering the highest falling acceleration maximum lowering speed upper limit from the central vertical
  • the maximum descending range E3 in the plane direction is calculated.
  • the maximum descent range E3 is calculated by, for example, the following equations (9) and (10) when the maximum descent speed, the maximum descent acceleration, and the maximum descent distance are V down , a down , and L down , respectively.
  • the relative position calculation unit 3021 outputs the calculation results of calculating the maximum movement range E1, the maximum ascent range E2, and the maximum descent range E3 to the movable area calculation unit 3022.
  • the movable area calculation unit 3022 combines the maximum movable range E1, the maximum ascending range E2, and the maximum descending range E3, calculates the maximum movable area E defined by these, and calculates the maximum movable area E of the other aircraft 20 in the three-dimensional space. Region E is calculated (step S108).
  • the movable area calculation unit 3022 outputs the calculation result of calculating the maximum movable area E to the movement route generation unit 1061 and the controller 40 (step S109).
  • the display unit 41 of the controller 40 displays the maximum movable area E of the other aircraft 20.
  • the display unit 41 generates an overlay image in which the maximum movable area E is virtually superimposed on the image captured by the camera 101, and displays this image.
  • the user can confirm the maximum movable area E of the other aircraft 20 as visualized information.
  • the maximum movable area E may be defined as a cylinder calculated by the following equation (11), for example, when the maximum moving distance, the maximum ascending distance, and the maximum descending distance are L h , L up , and L down , respectively. Good.
  • the maximum movable region E may be defined as an elliptical sphere calculated by, for example, the following formula (12).
  • FIG. 10 is a diagram showing a situation in which the drone aircraft 10 flies so as not to intersect the maximum movable area E of the other aircraft 20.
  • the movement route generation unit 1061 sets a waypoint P (intermediate target point) so as not to be included in the virtual obstacle, using the maximum movable area E of the other aircraft 20 as a virtual obstacle, and passes through the waypoint P.
  • the movement path R is generated (step S110).
  • the movement route generation unit 1061 generates the movement route R according to a path search algorithm such as A * (A star) or D * (D star).
  • the movement path generation unit 1061 has three-dimensional coordinates of the waypoint P based on the three-dimensional coordinate position of each point of the point cloud data constituting the maximum movable area E and the body width L2 of the drone machine 10.
  • the position (x p , y p , z p ) is calculated, and the movement path R via this coordinate position is generated.
  • the movement path generation section 1061 for example, when the movement path R passes through the widthwise center of the drone aircraft 10, the coordinate position of any point P a group of data points constituting the outermost periphery of the maximum movable region E (x a, y a, z a) the coordinate position (x p, y p, z p) such that the distance L3 between the is larger than the body width L2, the coordinate position (x p, y p, z p ) Is set.
  • the body width L2 is, for example, the dimension from the center of the drone body 10 in the width direction to the end in the width direction.
  • FIG. 11 is a diagram showing the drone aircraft 10 and the other aircraft 20 together in the world coordinate system, and is a diagram showing a situation in which the waypoint P and the movement route R are changed from the new maximum movable area E'. ..
  • the movable area calculation unit 3022 determines that when the drone aircraft 10 cannot reach the waypoint P within a certain time t 1 due to some external factor such as a strong wind, the other aircraft 20 after a certain time t 1 elapses. From the current position (x 2 ", y 2 ", z 2 ") of, the maximum movable area E'that can be taken within a certain time t 1 of the other aircraft 20 is newly calculated. Then, the movement route generation unit 1061 is the maximum. The waypoint P may be changed based on the movable area E'.
  • the movement route generation unit 1061 changes the movement route from the current flight position of the drone aircraft 10 toward the waypoint P to the coordinate position (x p ′, y p ′, z) of the changed waypoint P ′. Change to the movement route R'via p '). As a result, even if a shortage situation occurs such that the drone aircraft 10 cannot reach the waypoint P within a certain period of time t 1 , it is possible to avoid a collision with another aircraft 20.
  • FIG. 12 is a diagram showing the drone aircraft 10 and the other aircraft 20 together in the world coordinate system, and is a diagram showing a situation in which a movement path R'is generated from a new maximum movable area E'.
  • the information processing system 1 repeatedly executes a series of steps up to the previous step S102 ⁇ step S110 at predetermined time intervals t 1.
  • waypoints P passing through drone aircraft 10 is intermittently set to a predetermined time t 1 intervals.
  • the movable area calculation unit 3022 keeps the other aircraft 20 constant from the current position (x 2 ", y 2 ", z 2 ") of the other aircraft 20 after a certain period of time t 1 has elapsed.
  • the maximum movable area E'that can be taken within the time t 1 is newly calculated.
  • the movement route generation unit 1061 sets a new waypoint P'based on the maximum movable area E', and moves via the coordinate positions (x p ', y p ', z p ') of the waypoint P '.
  • a new path R' is generated.
  • the movable region calculation section 3022 if the drone aircraft 10 can not be reached from the waypoint P waypoint P'within a predetermined time t 1, the current position of the predetermined time t 1 has elapsed after the other aircraft 20 , newly calculated a certain time up to the movable region E'can take in t 1 of the other body 20, the movement path generation section 1061 changing the waypoint P'on the basis of the maximum displacement region E' Good.
  • the movement route generation unit 1061 changes the movement route from the current flight position to the waypoint P'to the movement route R'via the three-dimensional coordinate position of the changed waypoint.
  • the information processing apparatus 30 calculates the maximum movable area E is a range that can be maximally moved to another machine body 20 is within a predetermined time t 1. Then, the drone aircraft 10 generates a movement path R that does not intersect with the maximum movable area E.
  • drone aircraft 10 is the maximum movable area E intersect If the vehicle moves according to the movement route R, the collision with the other aircraft 20 within t 1 for a certain period of time is surely avoided.
  • the information processing apparatus 30 based on the moving route R is generated in the current position of the predetermined time t 1 has elapsed after the other body 20, the information processing apparatus 30 is newly calculated maximum movable area E'. Then, the drone aircraft 10 newly generates a movement path R'that does not intersect with the maximum movable area E'. As a result, no matter what movement route the other aircraft 20 takes, the collision between the drone aircraft 10 and the other aircraft 20 is avoided.
  • the information processing device 30 executes an arithmetic process for calculating the maximum movable area E of the drone machine 10. That is, the information processing device 30 plays a part in the arithmetic processing to be executed by the drone machine 10 in order to avoid the collision between the drone machine 10 and the other machine 20. As a result, the calculation load of the drone machine 10 can be significantly reduced. Further, since it is not necessary to increase the arithmetic processing capacity of the drone machine 10, the design cost of the drone machine 10 can be suppressed.
  • FIG. 13 is a block diagram showing a configuration example of the drone machine 10 according to the second embodiment of the present technology.
  • the same configurations as those of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the drone machine 10 when the arithmetic processing capacity of the drone machine 10 itself is improved, or when the drone machine 10 cannot communicate with the information processing device 30, the drone machine 10 sets the maximum movable area of the other machine 20. It differs from the first embodiment in that the process of calculating and generating its own movement path that does not intersect with the maximum movable area is consistently executed.
  • the control unit 106 of the drone body 10 of the second embodiment functionally includes a movement route generation unit 1061, a relative position calculation unit 3021, and a movable area calculation unit 3022.
  • FIG. 14 is a flowchart showing a typical operation of the drone machine 10 of the second embodiment.
  • the drone aircraft 10 executes an operation according to the flowchart shown in FIG.
  • the same operations as those of the information processing system 1 of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the movement path R of the drone aircraft 10 is generated based on the maximum movable area E calculated from the current position of the other aircraft 20 and the aircraft performance, but the model of the other aircraft 20 is not limited to this.
  • the movement route of the drone aircraft 10 may be generated based on the maximum movable area of the other aircraft 20 calculated in advance for each name or model number.
  • the overlay image is displayed on the display unit 41, but the present invention is not limited to this, and information that calls attention to the user may be displayed on the display unit 41 in place of or together with the overlay image.
  • the model name or model number of the other aircraft 20 is specified from the 3D shape of the other aircraft 20, but the model name or model number is not limited to this.
  • the other aircraft 20 is specified from the logo or marker on the surface of the other aircraft 20.
  • the model name or model number of the model may be specified.
  • the maximum moving range E1, the maximum ascending range E2, and the maximum ascending range E2 are utilized by utilizing all of the maximum speed, the maximum ascending speed, the maximum descending speed, the maximum acceleration, the maximum ascending acceleration, and the maximum descending acceleration of the other aircraft 20.
  • the maximum descent range E3 is calculated, but not limited to this, and at least one of the maximum speed, the maximum ascent speed, the maximum descent speed, the maximum acceleration, the maximum ascent acceleration or the maximum descent acceleration is the maximum movement range E1, the maximum ascent range E2 or the maximum descent. It may be used to calculate the range E3.
  • the information processing device 30 calculates the maximum movable area of the other aircraft 20 and generates its own movement path in which the drone aircraft 10 does not intersect with the maximum movable area, but the present invention is not limited to this.
  • the drone aircraft 10 may generate its own movement path in place of or in combination with the maximum movable area of the other aircraft 20 based on the movable area that can be taken at t 1 of the other aircraft 20 for a certain period of time.
  • an information processing device for example, an information processing device, a system, an information processing method executed by the information processing device or the system, a program for operating the information processing device, and a program are recorded as described above. It can include tangible media that is not temporary.
  • airframes include aircraft, unmanned aerial vehicles, unmanned helicopters, and the like.
  • the relative position of the second moving body with respect to the first moving body is determined.
  • Calculate and An information processing device including a control unit that calculates a movable region of the second moving body based on the relative position.
  • the control unit identifies identification information for identifying the second moving body by performing image processing on the captured image.
  • the control unit Estimate the distance between the second moving body and the first moving body, The position information of the second moving body is calculated from the estimated distance, the position information of the first moving body, and the relative direction of the second moving body with respect to the first moving body.
  • the control unit calculates the movable area of the second mobile body based on the position information of the second mobile body and the aircraft performance of the second mobile body associated with the identification information. , The information processing apparatus according to (3) above. (5) The control unit includes at least one of the maximum speed, the maximum ascending speed, the maximum descending speed, the maximum acceleration, the maximum ascending acceleration or the maximum descending acceleration of the second moving body associated with the identification information, and the second. The information processing apparatus according to (3) or (4) above, which calculates the movable area of the second moving body based on the position information of the moving body. (6) The control unit outputs the calculation result of the movable area to the first moving body, and outputs the calculation result to the first moving body.
  • the information processing device according to (5) above, wherein the first moving body generates a moving path of the first moving body that does not intersect with the movable region.
  • the control unit newly creates a movable region of the second mobile body based on the position information of the second mobile body after a certain period of time has elapsed since the movement path of the first mobile body was generated.
  • the information processing device according to (5) or (6) above, which is calculated.
  • the control unit outputs the calculation result of newly calculating the movable area of the second moving body to the first moving body.
  • the information processing device according to (7) above, wherein the first moving body newly generates a moving path of the first moving body that does not intersect with the newly calculated movable region.
  • the information processing apparatus according to any one of (1) to (8) above, wherein at least one of the first mobile body and the second mobile body is a flying body.
  • the information processing device according to any one of (1) to (9) above, which is a server.
  • (11) Based on the captured image of the moving body captured by the information processing device and the position information of the information processing device, the relative position of the moving body with respect to the information processing device is calculated.
  • the information processing device that calculates the movable area of the moving body based on the relative position.
  • (12) The information processing device according to (11) above, wherein the information processing device is a moving body or a flying body.
  • Information processing device Based on the captured image of the second moving body captured by the first moving body and the position information of the first moving body, the relative position of the second moving body with respect to the first moving body is determined. Calculate and An information processing method for calculating a movable region of the second moving body based on the relative position. (14) Based on the captured image of the second moving body captured by the first moving body and the position information of the first moving body, the relative position of the second moving body with respect to the first moving body is determined. Steps to calculate and A program that causes an information processing device to execute a step of calculating a movable area of the second moving body based on the relative position.
  • the relative position of the second moving body with respect to the first moving body is determined.
  • Calculate and The movable area of the second moving body is calculated based on the relative position.
  • An information processing device that outputs the calculation result of the movable area to the first mobile body, and
  • An information processing system including the first moving body that generates a moving path of the first moving body that does not intersect with the movable area.
  • Information information system ⁇ ⁇ ⁇ 1 Drone aircraft ... 10 Other aircraft ... 20 Information processing device ⁇ ⁇ ⁇ 50 Controller ⁇ ⁇ ⁇ 60 Control unit: 106, 302 Maximum movable area: E, E' Movement route: R, R'

Abstract

本技術の情報処理装置は、制御部を有する。上記制御部は、第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出し、上記相対位置に基づき上記第2の移動体の移動可能領域を算出する。

Description

情報処理装置、情報処理方法、プログラム及び情報処理システム
 本技術は、情報処理装置、情報処理方法、プログラム及び情報処理システムに関する。
 近年、例えば景色等を空撮する場合や遠隔巡廻警備等をする場合に、複数の移動体で構成されるシステムを活用することが提案されている。このようなシステムにおいては、移動体同士の衝突を回避する技術が採用される(例えば、特許文献1及び2)。
特開2012-131484号公報 特開2007-034714号公報
 複数の移動体で構成されるシステムでは、一方の移動体に対して他方の移動体がどのように動くのか不明であったり、他方の移動体の移動速度や移動方向等を把握することが困難であったりすることによって、移動体同士の衝突を回避する上での十分な確度が得られない場合がある。
 そこで、本技術では、移動体同士の衝突を回避する確度を向上させることが可能な情報処理装置、情報処理方法、プログラム及び情報処理システムを提案する。
 上記課題を解決するため、本技術の一形態に係る情報処理装置は、制御部を有する。
 上記制御部は、
  第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出し、
  上記相対位置に基づき上記第2の移動体の移動可能領域を算出する。
 上記制御部は、上記撮像画像を画像処理することにより、上記第2の移動体を識別する識別情報を特定してもよい。
 上記制御部は、
  上記第2の移動体と上記第1の移動体との間の距離を推定し、
  上記推定距離と、上記第1の移動体の位置情報と、上記第1の移動体に対する上記第2の移動体の相対的な方角から、上記第2の移動体の位置情報を算出してもよい。
 上記制御部は、上記第2の移動体の位置情報と、上記識別情報に対応づけられた上記第2の移動体の機体性能とに基づき、上記第2の移動体の移動可能領域を算出してもよい。
 上記制御部は、上記識別情報に対応づけられた上記第2の移動体の最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度又は最高下降加速度の少なくとも1つと、上記第2の移動体の位置情報とに基づき、上記第2の移動体の移動可能領域を算出してもよい。
 上記制御部は、上記移動可能領域の算出結果を上記第1の移動体に出力し、
 上記第1の移動体は、上記移動可能領域と交差しない、上記第1の移動体の移動経路を生成してもよい。
 上記制御部は、上記第1の移動体の移動経路が生成されてから一定時間経過後の上記第2の移動体の位置情報に基づいて、上記第2の移動体の移動可能領域を新たに算出してもよい。
 上記制御部は、上記第2の移動体の移動可能領域を新たに算出した算出結果を上記第1の移動体に出力し、
 上記第1の移動体は、上記新たに算出された移動可能領域と交差しない、上記第1の移動体の移動経路を新たに生成してもよい。
 上記第1の移動体又は上記第2の移動体の少なくとも一方は、飛行体であってもよい。
 上記情報処理装置は、サーバであってもよい。
 上記課題を解決するため、本技術の一形態に係る情報処理装置は、
 上記情報処理装置により撮像された移動体の撮像画像と、上記情報処理装置の位置情報とに基づいて、上記情報処理装置に対する上記移動体の相対位置を算出し、
 上記相対位置に基づき上記移動体の移動可能領域を算出する。
 上記情報処理装置は、移動体又は飛行体であってもよい。
 上記課題を解決するため、本技術の一形態に係る情報処理装置の情報処理方法は、
 第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置が算出される。
 上記相対位置に基づき上記第2の移動体の移動可能領域が算出される。
 上記課題を解決するため、本技術の一形態に係るプログラムは、情報処理装置に以下のステップを実行させる。
 第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出するステップ。
 上記相対位置に基づき上記第2の移動体の移動可能領域を算出するステップ。
 上記課題を解決するため、本技術の一形態に係る情報処理システムは、情報処理装置と、第1の移動体とを有する。
 上記情報処理装置は、
  上記第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出し、
  上記相対位置に基づき上記第2の移動体の移動可能領域を算出し、
  上記移動可能領域の算出結果を上記第1の移動体に出力する。
 上記第1の移動体は、上記移動可能領域と交差しない、上記第1の移動体の移動経路を生成する。
ドローン機体と他機体とを併記して示す図である。 本技術の第1の実施形態の情報処理システムの構成例を示す模式図である。 上記情報処理システムの構成例を示すブロック図である。 ドローン機体の型番と機体性能とが対応づけられたデータテーブルの一例を示す図である。 ドローン機体及び情報処理装置のハードウェア構成例を示すブロック図である 上記情報処理システムの典型的な動作の流れを示すフローチャートである。 カメラの光学系及び撮像素子を簡略的に示す模式図である。 ドローン機体と他機体とを併記して示す図である。 他機体の水平方向及び垂直平面方向の最大移動範囲を示す概念図である。 ドローン機体が他機体の最大移動可能領域と交差しないように飛行する状況を示す図である。 ドローン機体と他機体とを併記して示す図である。 ドローン機体と他機体とを併記して示す図である。 本技術の第2の実施形態のドローン機体の構成例を示すブロック図である。 上記ドローン機体の典型的な動作の流れを示すフローチャートである。
 以下、図面を参照しながら、本技術の実施形態を説明する。
 <第1の実施形態>
 図1は、ドローン機体10と、ドローン機体10とは異なるドローン機体である他機体20とを併記して示す図である。他機体20は、特許請求の範囲の「第2の移動体」の一例である。
 以下の実施形態では、ドローン機体10と他機体20との衝突を回避する上で、ドローン機体10が他機体20との衝突を回避する実施形態について説明する。なお、図1に示すX,Y及びZ軸方向は相互に直交する3軸方向であり、以下の図においても共通である。
 [情報処理システムの構成]
 図2は第1の実施形態の情報処理システム1の構成例を示す模式図であり、図3は情報処理システム1の構成例を示すブロック図である。情報処理システム1は、図2に示すように、ドローン機体10と、情報処理装置30と、コントローラ40とを有する。
 ドローン機体10と情報処理装置30は、ネットワークNを介して相互に通信可能に接続されている。ネットワークNは、インターネットや移動体通信網、あるいはローカルエリアネットワーク等であってもよく、これら複数種類のネットワークが組み合わされたネットワークであってもよい。
 ドローン機体10とコントローラ40は、無線通信により接続されている。ドローン機体10とコントローラ40とを接続する通信規格は典型的にはLTE(Long Term Evolution)通信であるがこれに限られず、例えばWi-Fi等、その種類は問わない。
 (ドローン機体)
 ドローン機体10は、図3に示すように、カメラ101と、GPSセンサ102と、気圧センサ103と、加速度センサ104と、カメラ制御部105と、制御部106と、通信部107と、記憶部108とを有する。ドローン機体10は、特許請求の範囲の「第1の移動体」の一例である。
 カメラ101は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。カメラ101は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
 GPSセンサ102は、GPS衛星から信号を受信し、ドローン機体10の現在の緯度及び経度を測定する。GPSセンサ102は、GPS衛星から取得した信号に基づき算出した、ドローン機体10の緯度及び経度に関するセンサデータを相対位置算出部3021に出力する。
 気圧センサ103は、気圧を測定し、これを高度に変換することによってドローン機体10の飛行高度(気圧高度)を計測する圧力センサである。気圧センサ103は、ドローン機体10が受ける風の影響も含めた総圧と、ドローン機体10が受ける大気圧とを検出し、これらの差分に基づいてドローン機体10の飛行速度(対気速度)を計測する。
 気圧センサ103は、ドローン機体10の飛行高度及び飛行速度を計測することにより得られたセンサデータを相対位置算出部3021に出力する。気圧センサ103は、例えばピエゾ抵抗方式の圧力センサであってもよく、その種類は問わない。
 加速度センサ104は、ドローン機体10の加速度を検出する。加速度センサ104は、ドローン機体10の傾きや振動等といった種々の動きを検出する。加速度センサ104は、ドローン機体10の加速度を検出することにより得られたセンサデータを相対位置算出部3021に出力する。
 加速度センサ104は、例えば、圧電型加速度センサ、サーボ型加速度センサ、ひずみ型加速度センサ又は半導体式加速度センサ等であってもよく、その種類は問わない。
 カメラ制御部105は、制御部106の制御に基づき、カメラ101の撮影方向、姿勢及び撮影倍率を変更する制御信号を生成し、この信号をカメラ101及び制御部302に出力する。
 カメラ制御部105は、例えば3軸ジンバル等のモータが内蔵された雲台(図示略)を介してカメラ101のパン及びチルト方向の可動を制御し、カメラ101の現在の姿勢(例えばパン角及びチルト角)や撮影倍率に関する制御信号を相対位置算出部3021に出力する。
 制御部106は、記憶部108に格納されたプログラムに従って、ドローン機体10の動作全般またはその一部を制御する。制御部106は、機能的に、移動経路生成部1061を有する。
 移動経路生成部1061は、他機体20の最大移動可能領域Eに基づき、ドローン機体10の中間目標地点であるウェイポイントPを設定し、設定されたウェイポイントPを経由するドローン機体10の移動経路Rを生成する(図10参照)。最大移動可能領域Eは、特許請求の範囲の「移動可能領域」の一例である。
 通信部107は、ネットワークNを介して、情報処理装置30と通信を行う。通信部107は、ドローン機体10の通信インターフェースとして機能する。
 記憶部108は、GPSセンサ102、気圧センサ103及び加速度センサ104から出力されたセンサデータや、カメラ制御部105から出力された制御信号を記憶する。
 (情報処理装置)
 情報処理装置30は、図3に示すように、通信部301と、制御部302と、記憶部303とを有する。情報処理装置30は、典型的にはクラウドサーバであるがこれに限られず、PC等の他の任意のコンピュータであってもよい。
 あるいは、情報処理装置30は、ドローン機体10に指示を与え、誘導する飛行管制を実行する管制制御装置であってもよい。
 通信部301は、ネットワークNを介してドローン機体10と通信を行う。通信部301は、情報処理装置30の通信インターフェースとして機能する。
 制御部302は、記憶部303に格納されたプログラムに従って、情報処理装置30の動作全般またはその一部を制御する。制御部302は、特許請求の範囲の「制御部」に相当する。
 制御部302は、機能的に、相対位置算出部3021と、移動可能領域算出部3022とを有する。
 相対位置算出部3021は、GPSセンサ102及び気圧センサ103から取得したセンサデータから、ドローン機体10の現在位置(位置情報)を算出する。相対位置算出部3021は、カメラ101から取得した撮像画像と、カメラ制御部105から取得した、カメラ101の現在の姿勢に関する制御信号と、ドローン機体10の現在位置とに基づいて、ドローン機体10に対する他機体20の相対位置を算出する。
 移動可能領域算出部3022は、他機体20の相対位置と機体性能とに基づき、他機体20の最大移動可能領域Eを算出する。
 記憶部303は、複数のドローン機体各々の機種名又は型番と機体性能とが対応づけられたデータを記憶する。機種名又は型番は、特許請求の範囲の「識別情報」の一例である。
 記憶部303は、ウェイポイントPの設定間隔(以下、一定時間t)と、複数のドローン機体各々の局所特徴量とを記憶する。図4は、ドローン機体の型番と機体性能とが対応づけられたデータテーブルの一例である。なお、図4に記載の具体的な数値はあくまで一例であり、この数値に限定されないのは勿論である。
 (コントローラ)
 コントローラ40は、ドローン機体10を操縦する操縦装置であり、表示部41を有する。表示部41は、例えば、LCDまたは有機ELディスプレイなどの表示装置である。
 表示部41は、カメラ101により撮影された映像を表示する。これにより、ユーザは、表示部41に表示された映像を見ながらドローン機体10を操作することができる。
 (ハードウェア構成)
 図5は、ドローン機体10及び情報処理装置30のハードウェア構成例を示すブロック図である。ドローン機体10及び情報処理装置30は、図5に示す情報処理装置100であってもよい。
 情報処理装置100は、CPU(Central Processing unit)109、ROM(Read Only Memory)110、およびRAM(Random Access Memory)111を有する。制御部106,302は、CPU109であってもよい。
 情報処理装置100は、ホストバス112、ブリッジ113、外部バス114、インターフェース115、入力装置116、出力装置117、ストレージ装置118、ドライブ119、接続ポート120、通信装置121を有する構成であってもよい。
 また、情報処理装置100は、必要に応じて、撮像装置122、およびセンサ123を有する構成であってもよい。さらに、情報処理装置100は、CPU109に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはGPU(Graphics Processing Unit)などの処理回路を有してもよい。
 CPU109は、演算処理装置および制御装置として機能し、ROM110、RAM111、ストレージ装置118、またはリムーバブル記録媒体50に記録された各種プログラムに従って、情報処理装置100内の動作全般またはその一部を制御する。記憶部108,303は、ROM110、RAM111、ストレージ装置118又はリムーバブル記録媒体50であってもよい。
 ROM110は、CPU109が使用するプログラムや演算パラメータなどを記憶する。RAM111は、CPU109の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。
 CPU109、ROM110、およびRAM111は、CPUバスなどの内部バスにより構成されるホストバス112により相互に接続されている。さらに、ホストバス112は、ブリッジ113を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス114に接続されている。
 入力装置116は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置116は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置100の操作に対応した携帯電話などの外部接続機器60であってもよい。
 入力装置116は、ユーザが入力した情報に基づいて入力信号を生成してCPU109に出力する入力制御回路を含む。ユーザは、この入力装置116を操作することによって、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりする。
 出力装置117は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置117は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカー又はヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。
 出力装置117は、情報処理装置100の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
 ストレージ装置118は、情報処理装置100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置118は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置118は、例えばCPU109が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ119は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体50のためのリーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ119は、装着されているリムーバブル記録媒体50に記録されている情報を読み出して、RAM111に出力する。また、ドライブ119は、装着されているリムーバブル記録媒体50に記録を書き込む。
 接続ポート120は、機器を情報処理装置100に接続するためのポートである。接続ポート120は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。
 また、接続ポート120は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート120に外部接続機器60を接続することで、情報処理装置100と外部接続機器60との間で各種のデータが交換されうる。
 通信装置121は、例えば、ネットワークNに接続するための通信デバイスなどで構成された通信インターフェースである。通信装置121は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi、WUSB(Wireless USB)用またはLTE(Long Term Evolution)用の通信カードなどでありうる。また、通信装置121は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。
 通信装置121は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置121に接続されるネットワークNは、無線によって接続されたネットワークであり、例えば、インターネット、赤外線通信、ラジオ波通信、近距離無線通信または衛星通信などを含みうる。通信部107,301は、通信装置121であってもよい。
 撮像装置122は、実空間を撮像し、撮像画像を生成する装置である。カメラ101は、撮像装置122に相当する。
 センサ123は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロフォン)などの各種のセンサである。
 センサ123は、例えば情報処理装置100の筐体の姿勢など、情報処理装置100自体の状態に関する情報や、情報処理装置100の周辺の明るさや騒音など、情報処理装置100の周辺環境に関する情報を取得する。また、センサ123は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。GPSセンサ102,気圧センサ103及び加速度センサ104は、センサ123に相当する。
 以上、情報処理システム1の構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化した部材により構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 [情報処理システムの動作]
 図6は、情報処理システム1の典型的な動作の流れを示すフローチャートである。以下、情報処理システム1の動作について、図6を適宜参照しながら説明する。
 先ず、ドローン機体10に搭載されたカメラ101が、他機体20が存在する実空間(以下、3次元空間)を撮像する。この際、カメラ101の撮影範囲に他機体20が収まっている場合(ステップS101のYES)、カメラ101は、他機体20が画面いっぱいになるまで倍率を拡大する。
 これにより、カメラ101の撮影範囲(視野サイズ)が、他機体20の大きさとほぼ同等となる。カメラ101は、撮影範囲と他機体20の大きさがほぼ同等である状態で他機体20を撮像し(ステップS102)、この撮像画像を相対位置算出部3021に出力する。
 カメラ制御部105は、制御部106の制御に基づき、カメラ101の撮影方向、姿勢及び撮影倍率を変更する制御信号を生成し、この信号をカメラ101及び制御部302(相対位置算出部3021)に出力する(ステップS103)。
 カメラ制御部105は、例えば3軸ジンバル等のモータが内蔵された雲台(図示略)を介してカメラ101のパン及びチルト方向の可動を制御し、カメラ101の現在の姿勢(例えばパン角及びチルト角)や撮影倍率に関する制御信号を相対位置算出部3021に出力する(ステップS103)。
 GPSセンサ102は、GPS衛星から取得した信号に基づき算出した、ドローン機体10の緯度及び経度に関するセンサデータを相対位置算出部3021に出力する(ステップS103)。
 加速度センサ104は、ドローン機体10の加速度を検出することにより得られたセンサデータを相対位置算出部3021に出力する。気圧センサ103は、ドローン機体10の飛行高度及び飛行速度を計測することにより得られたセンサデータを相対位置算出部3021に出力する(ステップS103)。
 次に、相対位置算出部3021は、カメラ101から取得した撮像画像に対して所定の画像処理を施し、他機体20の機種名又は型番を特定する(ステップS104のYES)。具体的には、相対位置算出部3021は、他機体20が撮像された撮像画像から他機体20の3D形状の局所特徴量を抽出する。
 局所特徴量は、例えば、SIFT(scale invariant feature transform)、SURF(speed-up robust features)、RIFF(rotation invariant fast feature)、BREIF(binary robust independent elementary features)、BRISK(binary robust invariant scalable keypoints)、ORB(oriented FAST and rotated BRIEF)又はCARD(compact and real-time descriptors)等により算出された特徴量である。
 相対位置算出部3021は、他機体20の3D形状の局所特徴量と、記憶部303に予め記憶されている複数のドローン機体各々の局所特徴量とを比較する特徴量マッチングによって他機体20を検出し、他機体20の機種名又は型番を特定する。
 一方、相対位置算出部3021は、他機体20の3D形状から他機体20の機種名又は型番を特定できなかった場合(ステップS104のNO)、後述のステップS108において予め設定されているデフォルト機種の機体性能(最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度、最高下降加速度)を参照する(ステップS105)。
 図7は、カメラ101の光学系及び撮像素子を簡略的に示す模式図である。相対位置算出部3021は、カメラ101の画面いっぱいに他機体20が拡大された時のカメラ101の視野サイズ(撮影範囲)をF、カメラ101のレンズの焦点距離をF、カメラ101の撮像素子のサイズをDとした場合に、他機体20とドローン機体10との間の推定距離Lを例えば下記式(1)により算出する(ステップS106)。
 L=(F・F)/D・・・(1)
 推定距離Lは、図7に示すように、他機体20にレンズの焦点が合っているときの、レンズの先端から他機体20までの距離であるワークディスタンス(作動距離)に相当する。
 続いて、相対位置算出部3021は、GPSセンサ102及び気圧センサ103から取得したセンサデータに基づき、世界座標系を基準としたドローン機体10の3次元座標位置(x,y,z)を算出する。この3次元座標位置は、ドローン機体10の現在位置(位置情報)を示す座標位置である。
 次に、カメラ制御部105は、他機体20がカメラ101の撮影範囲に収まっている時のカメラ101(ジンバル)のパン角θ(パン方向へ回転角度)及びチルト角θ(チルト方向への回転角度)が何度に制御されているのか、その制御信号を相対位置算出部3021に出力する。相対位置算出部3021は、カメラ制御部105から取得した制御信号に基づき、ドローン機体10に対する他機体20の相対的な方角を算出する。
 続いて、相対位置算出部3021は、ドローン機体10の現在の3次元座標位置(x,y,z)と、ドローン機体10と他機体20との間の推定距離Lと、ドローン機体10に対する他機体20の相対的な方角(パン角θ及びチルト角θ)から、世界座標系を基準とした他機体20の3次元座標位置(x,y,z)を算出する(ステップS107)。
 具体的には、ドローン機体10の現在位置を原点位置とする座標系において、パン角、チルト角、ドローン機体10と他機体20との間の推定距離をそれぞれ、θ、θ、Lとした場合に、相対位置算出部3021は、当該座標系における他機体20の3次元座標位置(x´,y´,z´)を例えば下記式(2),(3),(4)により算出する。
 x´=L*cos(θ)*cos(θ)・・・(2)
 y´=L*sin(θ)*cos(θ)・・・(3)
 z´=L*sin(θ)・・・(4)
 相対位置算出部3021は、ドローン機体10の現在位置(x,y,z)を用いて3次元座標位置(x´,y´,z´)を世界座標系に座標変換することにより3次元座標位置(x,y,z)を算出する。この3次元座標位置は、他機体20の現在位置(位置情報)を示す座標位置である。図8は、ドローン機体10の現在位置を原点位置とする座標系において、ドローン機体10と他機体20とを併記して示す図である。
 次に、相対位置算出部3021は、記憶部303に記憶されているデータテーブル(図4)を参照することによって、先のステップS104において特定した機種名又は型番に対応づけられた他機体20の機体性能(最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度、最高下降加速度)と一定時間tを記憶部303から読み出す。
 次いで、相対位置算出部3021は、先のステップS107において算出した他機体20の3次元座標位置(x,y,z)を中心として、この中心から最高速度を上限として最高加速度で加速した場合の水平方向(XY平面方向)における最大移動範囲E1を算出する。
 図9aは、他機体20の水平方向における最大移動範囲E1を示す概念図である。最大移動範囲E1は、最高速度、最高加速度、最大移動距離をそれぞれV,a,Lとした場合に、例えば下記式(5),(6)により算出される。
 L=V+(a )/2・・・(5)
 E1=(Lπ・・・(6)
 次に、相対位置算出部3021は、先のステップS107において算出した他機体20の3次元座標位置(x,y,z)を中心として、この中心から最高上昇速度を上限として最高上昇加速度で上昇した場合の垂直平面方向(XZ平面方向)における最大上昇範囲E2を算出する。
 図9bは、他機体20の垂直平面方向における最大移動範囲を示す概念図である。最大上昇範囲E2は、最高上昇速度、最高上昇加速度,最大上昇距離をそれぞれVup,aup,Lupとした場合に、例えば下記式(7),(8)により算出される。
 Lup=Vup+(aup )/2・・・(7)
 E2={(Lupπ}/2・・・(8)
 同様に、相対位置算出部3021は、他機体20の3次元座標位置(x,y,z)を中心として、この中心から最高下降速度を上限として最高下降加速度で下降した場合の垂直平面方向における最大下降範囲E3を算出する。
 最大下降範囲E3は、最高下降速度、最高下降加速度,最大下降距離をそれぞれVdown,adown,Ldownとした場合に、例えば下記式(9),(10)により算出される。相対位置算出部3021は、最大移動範囲E1,最大上昇範囲E2及び最大下降範囲E3を算出した算出結果を移動可能領域算出部3022に出力する。
 Ldown=Vdown+(adown )/2・・・(9)
 E3={(Ldownπ}/2・・・(10)
 移動可能領域算出部3022は、最大移動範囲E1、最大上昇範囲E2及び最大下降範囲E3を組み合わせ、これらにより規定される最大移動可能領域Eを算出し、3次元空間における他機体20の最大移動可能領域Eを算出する(ステップS108)。
 移動可能領域算出部3022は、最大移動可能領域Eを算出した算出結果を移動経路生成部1061及びコントローラ40に出力する(ステップS109)。
 コントローラ40の表示部41は、他機体20の最大移動可能領域Eを表示する。この際、表示部41は、カメラ101により撮影された映像に、最大移動可能領域Eが仮想的に重畳されたオーバーレイ画像を生成し、この画像を表示する。これにより、ユーザは、他機体20の最大移動可能領域Eを可視化された情報として確認することができる。
 最大移動可能領域Eは、最大移動距離、最大上昇距離、最大下降距離をそれぞれ、L、Lup、Ldownとした場合に、例えば下記式(11)により算出される円柱として規定されてもよい。
 E={Lup+Ldown}・(L・π ・・・(11)
 あるいは、最大移動可能領域Eは、図1に示すように、例えば下記式(12)により算出される楕円球体として規定されてもよい。
 E=4/3・π・〔(L・{(Lup+Ldown)/2}〕・・・(12)
 図10は、ドローン機体10が他機体20の最大移動可能領域Eと交差しないように飛行する状況を示す図である。移動経路生成部1061は、他機体20の最大移動可能領域Eを仮想障害物として、この仮想障害物に含まれないようにウェイポイントP(中間目標地点)を設定し、ウェイポイントPを経由する移動経路Rを生成する(ステップS110)。この際、移動経路生成部1061は、例えばA*(Aスター)やD*(Dスター)等のパス探索アルゴリズムに従って、移動経路Rを生成する。
 具体的には、例えば移動経路生成部1061は、最大移動可能領域Eを構成する点群データの各点の3次元座標位置とドローン機体10の機体幅L2に基づき、ウェイポイントPの3次元座標位置(x,y,z)を算出し、この座標位置を経由する移動経路Rを生成する。
 この際、移動経路生成部1061は、例えば、移動経路Rがドローン機体10の幅方向中央を通る場合に、最大移動可能領域Eの最外周を構成する点群データの任意点Pの座標位置(x,y,z)と座標位置(x,y,z)との間の距離L3が機体幅L2より大きくなるように、座標位置(x,y,z)を設定する。なお、機体幅L2は、例えば、ドローン機体10の幅方向中央から幅方向端部までの寸法である。
 図11は、世界座標系においてドローン機体10と他機体20とを併記して示す図であり、新たな最大移動可能領域E´からウェイポイントP及び移動経路Rを変更する状況を示す図である。
 移動可能領域算出部3022は、例えば強風等の何等かの外的要因によってドローン機体10が一定時間t内にウェイポイントPに到達できなかった場合に、一定時間t経過後の他機体20の現在位置(x",y",z")から他機体20の一定時間t内に取り得る最大移動可能領域E´を新たに算出する。そして、移動経路生成部1061が最大移動可能領域E´に基づいてウェイポイントPを変更してもよい。
 この場合、移動経路生成部1061は、ドローン機体10の現在の飛行位置からウェイポイントPに向かうまでの移動経路を、変更後のウェイポイントP´の座標位置(x´,y´,z´)を経由する移動経路R´に変更する。これにより、ドローン機体10が一定時間t内にウェイポイントPに到達できない等の不足の事態が発生したとしても、他機体20との衝突を回避することができる。
 図12は、世界座標系においてドローン機体10と他機体20とを併記して示す図であり、新たな最大移動可能領域E´から移動経路R´を生成する状況を示す図である。
 情報処理システム1は、先のステップS102~ステップS110までの一連の工程を一定時間t毎に繰り返し実行する。これにより、ドローン機体10が経由するウェイポイントPが一定時間tおきに間欠的に設定される。
 この際、移動可能領域算出部3022は、図12に示すように、一定時間t経過後の他機体20の現在位置(x",y",z")から他機体20の一定時間t内に取り得る最大移動可能領域E´を新たに算出する。
 移動経路生成部1061は、最大移動可能領域E´に基づいて新たなウェイポイントP´を設定し、ウェイポイントP´の座標位置(x´,y´,z´)を経由する移動経路R´を新たに生成する。
 さらに、移動可能領域算出部3022は、一定時間t内にドローン機体10がウェイポイントPからウェイポイントP´に到達できなかった場合に、一定時間t経過後の他機体20の現在位置から、他機体20の一定時間t内に取り得る最大移動可能領域E´を新たに算出し、移動経路生成部1061が当該最大移動可能領域E´に基づいてウェイポイントP´を変更してもよい。
 この場合、移動経路生成部1061は、現在の自身の飛行位置からウェイポイントP´に向かうまでの移動経路を、変更後のウェイポイントの3次元座標位置を経由する移動経路R´に変更する。
 [作用・効果]
 情報処理システム1では、他機体20が一定時間t内に最大限移動できる範囲である最大移動可能領域Eを情報処理装置30が算出する。そして、ドローン機体10は、最大移動可能領域Eと交差しない移動経路Rを生成する。
 これにより、他機体20が一定時間t内に急上昇や急下降等の予期しない動作を取ったとしてもこの動作が最大移動可能領域Eに収まるので、ドローン機体10が最大移動可能領域Eと交差しない移動経路Rに従って移動すれば、一定時間t内での他機体20との衝突が確実に回避される。
 また、情報処理システム1では、移動経路Rが生成されてから一定時間t経過後の他機体20の現在位置に基づいて、情報処理装置30が最大移動可能領域E´を新たに算出する。そして、ドローン機体10は、最大移動可能領域E´と交差しない移動経路R´を新たに生成する。これにより、他機体20がどのような移動経路を取ろうとも、ドローン機体10と他機体20との衝突が回避される。
 さらに、情報処理システム1では、ドローン機体10の最大移動可能領域Eを算出する演算処理を情報処理装置30が実行する。即ち、ドローン機体10と他機体20との衝突を回避する上で、ドローン機体10が実行すべき演算処理の一端を情報処理装置30が担う。これにより、ドローン機体10の計算負荷を大幅に減らすことができる。さらに、ドローン機体10の演算処理能力を上げる必要がなくなるのでドローン機体10の設計コストが抑えられる。
 <第2の実施形態>
 図13は本技術の第2の実施形態のドローン機体10の構成例を示すブロック図である。以下、第1の実施形態と同様の構成については同様の符号を付し、その説明を省略する。
 第2の実施形態では、ドローン機体10の演算処理能力そのものが向上した場合や、ドローン機体10が情報処理装置30と通信ができない場合などに、ドローン機体10が他機体20の最大移動可能領域を算出し、この最大移動可能領域と交差しない自身の移動経路を生成する処理を一貫して実行する点で、第1の実施形態と異なる。
 [ドローン機体の構成]
 第2の実施形態のドローン機体10の制御部106は、図13に示すように、機能的に、移動経路生成部1061、相対位置算出部3021及び移動可能領域算出部3022を有する。
 [ドローン機体の動作]
 図14は、第2の実施形態のドローン機体10の典型的な動作を示すフローチャートである。当該ドローン機体10は、図14に示すフローチャートに従った動作を実行する。なお、第1の実施形態の情報処理システム1と同様の動作については同様の符号を付し、その説明を省略する。
 <変形例>
 以上、本技術の実施形態について説明したが、本技術は上述の実施形態に限定されるものではなく種々変更を加え得ることは勿論である。
 例えば、上記実施形態では、他機体20の現在位置と機体性能から算出された最大移動可能領域Eに基づいてドローン機体10の移動経路Rが生成されるがこれに限られず、他機体20の機種名又は型番毎に予め計算された他機体20の最大移動可能領域に基づいてドローン機体10の移動経路が生成されてもよい。
 また、上記実施形態では、オーバーレイ画像が表示部41に表示されるがこれに限られず、オーバーレイ画像に代えてまたはこれとともに、ユーザに注意喚起を促す情報が表示部41に表示されてもよい。
 さらに、上記実施形態では、他機体20の3D形状から、他機体20の機種名又は型番が特定されるがこれに限られず、例えば、他機体20の機体表面のロゴやマーカーなどから他機体20の機種名又は型番が特定されてもよい。
 加えて、上記実施形態では、他機体20の最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度及び最高下降加速度の全てを利用して、最大移動範囲E1、最大上昇範囲E2及び最大下降範囲E3を算出するがこれに限られず、最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度又は最高下降加速度の少なくとも1つが最大移動範囲E1、最大上昇範囲E2又は最大下降範囲E3の算出に利用されてもよい。
 さらに、上記実施形態では、情報処理装置30が他機体20の最大移動可能領域を算出し、ドローン機体10が最大移動可能領域と交差しない、自身の移動経路を生成するがこれに限られない。ドローン機体10は、他機体20の最大移動可能領域に代えて、またはこれとともに、他機体20の一定時間tに取り得る移動可能領域に基づいて、自身の移動経路を生成してもよい。
 <補足>
 本技術の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 また、上記実施形態では、ドローン機体10及び他機体20が飛行体であることを前提として説明したがこれに限られず、ドローン機体10又は他機体20の少なくとも一方が飛行体であってもよい。さらに、本技術は、飛行体以外の他の移動体(例えばロボット等)に適用されてもよく、その用途は特に限定されない。なお、飛行体には、ドローン機体の他に、航空機、無人飛行機及び無人ヘリコプター等が含まれる。
 さらに、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 以上、添付図面を参照しながら本技術の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本技術の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本技術の技術的範囲に属するものと了解される。
 なお、本技術は以下のような構成もとることができる。
 (1)
 第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出し、
 上記相対位置に基づき上記第2の移動体の移動可能領域を算出する制御部を備える、情報処理装置。
 (2)
 上記制御部は、上記撮像画像を画像処理することにより、上記第2の移動体を識別する識別情報を特定する、上記(1)に記載の情報処理装置。
 (3)
 上記制御部は、
  上記第2の移動体と上記第1の移動体との間の距離を推定し、
  上記推定距離と、上記第1の移動体の位置情報と、上記第1の移動体に対する上記第2の移動体の相対的な方角から、上記第2の移動体の位置情報を算出する、上記(2)に記載の情報処理装置。
 (4)
 上記制御部は、上記第2の移動体の位置情報と、上記識別情報に対応づけられた上記第2の移動体の機体性能とに基づき、上記第2の移動体の移動可能領域を算出する、上記(3)に記載の情報処理装置。
 (5)
 上記制御部は、上記識別情報に対応づけられた、上記第2の移動体の最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度又は最高下降加速度の少なくとも1つと、上記第2の移動体の位置情報とに基づき、上記第2の移動体の移動可能領域を算出する、上記(3)又は(4)に記載の情報処理装置。
 (6)
 上記制御部は、上記移動可能領域の算出結果を上記第1の移動体に出力し、
 上記第1の移動体は、上記移動可能領域と交差しない、上記第1の移動体の移動経路を生成する、上記(5)に記載の情報処理装置。
 (7)
 上記制御部は、上記第1の移動体の移動経路が生成されてから一定時間経過後の上記第2の移動体の位置情報に基づいて、上記第2の移動体の移動可能領域を新たに算出する、上記(5)又は(6)に記載の情報処理装置。
 (8)
 上記制御部は、上記第2の移動体の移動可能領域を新たに算出した算出結果を上記第1の移動体に出力し、
 上記第1の移動体は、上記新たに算出された移動可能領域と交差しない、上記第1の移動体の移動経路を新たに生成する、上記(7)に記載の情報処理装置。
 (9)
 上記第1の移動体又は上記第2の移動体の少なくとも一方は、飛行体である、上記(1)から(8)のいずれか1つに記載の情報処理装置。
 (10)
 上記情報処理装置は、サーバである、上記(1)から(9)のいずれか1つに記載の情報処理装置。
 (11)
 情報処理装置により撮像された移動体の撮像画像と、上記情報処理装置の位置情報とに基づいて、上記情報処理装置に対する上記移動体の相対位置を算出し、
 上記相対位置に基づき上記移動体の移動可能領域を算出する、上記情報処理装置。
 (12)
 上記情報処理装置は、移動体又は飛行体である、上記(11)に記載の情報処理装置。
 (13)
 情報処理装置が、
 第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出し、
 上記相対位置に基づき上記第2の移動体の移動可能領域を算出する、情報処理方法。
 (14)
 第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出するステップと、
 上記相対位置に基づき上記第2の移動体の移動可能領域を算出するステップと
 を情報処理装置に実行させるプログラム。
 (15)
 第1の移動体により撮像された第2の移動体の撮像画像と、上記第1の移動体の位置情報とに基づいて、上記第1の移動体に対する上記第2の移動体の相対位置を算出し、
  上記相対位置に基づき上記第2の移動体の移動可能領域を算出し、
  上記移動可能領域の算出結果を上記第1の移動体に出力する、情報処理装置と、
 上記移動可能領域と交差しない、上記第1の移動体の移動経路を生成する、上記第1の移動体と
 を具備する情報処理システム。
 情報処理システム・・・1
 ドローン機体・・・10
 他機体・・・20
 情報処理装置・・・50
 コントローラ・・・60
 制御部・・・106,302
 最大移動可能領域・・・E,E´
 移動経路・・・R,R´

Claims (15)

  1.  第1の移動体により撮像された第2の移動体の撮像画像と、前記第1の移動体の位置情報とに基づいて、前記第1の移動体に対する前記第2の移動体の相対位置を算出し、
     前記相対位置に基づき前記第2の移動体の移動可能領域を算出する制御部を備える、情報処理装置。
  2.  前記制御部は、前記撮像画像を画像処理することにより、前記第2の移動体を識別する識別情報を特定する、請求項1に記載の情報処理装置。
  3.  前記制御部は、
      前記第2の移動体と前記第1の移動体との間の距離を推定し、
      前記推定距離と、前記第1の移動体の位置情報と、前記第1の移動体に対する前記第2の移動体の相対的な方角から、前記第2の移動体の位置情報を算出する、請求項2に記載の情報処理装置。
  4.  前記制御部は、前記第2の移動体の位置情報と、前記識別情報に対応づけられた前記第2の移動体の機体性能とに基づき、前記第2の移動体の移動可能領域を算出する、請求項3に記載の情報処理装置。
  5.  前記制御部は、前記識別情報に対応づけられた、前記第2の移動体の最高速度、最高上昇速度、最高下降速度、最高加速度、最高上昇加速度又は最高下降加速度の少なくとも1つと、前記第2の移動体の位置情報とに基づき、前記第2の移動体の移動可能領域を算出する、請求項4に記載の情報処理装置。
  6.  前記制御部は、前記移動可能領域の算出結果を前記第1の移動体に出力し、
     前記第1の移動体は、前記移動可能領域と交差しない、前記第1の移動体の移動経路を生成する、請求項5に記載の情報処理装置。
  7.  前記制御部は、前記第1の移動体の移動経路が生成されてから一定時間経過後の前記第2の移動体の位置情報に基づいて、前記第2の移動体の移動可能領域を新たに算出する、請求項5に記載の情報処理装置。
  8.  前記制御部は、前記第2の移動体の移動可能領域を新たに算出した算出結果を前記第1の移動体に出力し、
     前記第1の移動体は、前記新たに算出された移動可能領域と交差しない、前記第1の移動体の移動経路を新たに生成する、請求項7に記載の情報処理装置。
  9.  前記第1の移動体又は前記第2の移動体の少なくとも一方は、飛行体である、請求項1に記載の情報処理装置。
  10.  前記情報処理装置は、サーバである、請求項1に記載の情報処理装置。
  11.  情報処理装置により撮像された移動体の撮像画像と、前記情報処理装置の位置情報とに基づいて、前記情報処理装置に対する前記移動体の相対位置を算出し、
     前記相対位置に基づき前記移動体の移動可能領域を算出する、前記情報処理装置。
  12.  前記情報処理装置は、移動体又は飛行体である、請求項11に記載の情報処理装置。
  13.  情報処理装置が、
     第1の移動体により撮像された第2の移動体の撮像画像と、前記第1の移動体の位置情報とに基づいて、前記第1の移動体に対する前記第2の移動体の相対位置を算出し、
     前記相対位置に基づき前記第2の移動体の移動可能領域を算出する、情報処理方法。
  14.  第1の移動体により撮像された第2の移動体の撮像画像と、前記第1の移動体の位置情報とに基づいて、前記第1の移動体に対する前記第2の移動体の相対位置を算出するステップと、
     前記相対位置に基づき前記第2の移動体の移動可能領域を算出するステップと
     を情報処理装置に実行させるプログラム。
  15.   第1の移動体により撮像された第2の移動体の撮像画像と、前記第1の移動体の位置情報とに基づいて、前記第1の移動体に対する前記第2の移動体の相対位置を算出し、
      前記相対位置に基づき前記第2の移動体の移動可能領域を算出し、
      前記移動可能領域の算出結果を前記第1の移動体に出力する、情報処理装置と、
     前記移動可能領域と交差しない、前記第1の移動体の移動経路を生成する、前記第1の移動体と
     を具備する情報処理システム。
PCT/JP2020/018552 2019-07-05 2020-05-07 情報処理装置、情報処理方法、プログラム及び情報処理システム WO2021005876A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20836110.5A EP3995396A4 (en) 2019-07-05 2020-05-07 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM
JP2021530501A JP7452543B2 (ja) 2019-07-05 2020-05-07 情報処理装置、情報処理方法、プログラム及び情報処理システム
US17/615,844 US20220309699A1 (en) 2019-07-05 2020-05-07 Information processing apparatus, information processing method, program, and information processing system
CN202080047801.7A CN114072333A (zh) 2019-07-05 2020-05-07 信息处理装置、信息处理方法、程序和信息处理系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-126219 2019-07-05
JP2019126219 2019-07-05

Publications (1)

Publication Number Publication Date
WO2021005876A1 true WO2021005876A1 (ja) 2021-01-14

Family

ID=74113997

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018552 WO2021005876A1 (ja) 2019-07-05 2020-05-07 情報処理装置、情報処理方法、プログラム及び情報処理システム

Country Status (5)

Country Link
US (1) US20220309699A1 (ja)
EP (1) EP3995396A4 (ja)
JP (1) JP7452543B2 (ja)
CN (1) CN114072333A (ja)
WO (1) WO2021005876A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214254A (ja) * 1999-01-25 2000-08-04 Mitsubishi Electric Corp 航空機航路監視システム
JP2007034714A (ja) 2005-07-27 2007-02-08 Ntt Data Corp 衝突危険予測システム、および、プログラム
JP2012131484A (ja) 2010-12-21 2012-07-12 General Electric Co <Ge> 飛行経路ベースの探知および防止
JP2017539033A (ja) * 2014-12-12 2017-12-28 アマゾン テクノロジーズ インコーポレイテッド 光、音、及び/またはマルチスペクトルパターン検出を使用する商用及び一般航空機の回避
WO2019077682A1 (ja) * 2017-10-17 2019-04-25 株式会社自律制御システム研究所 無人航空機の飛行計画経路を設定するためのシステム及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112021003708A2 (pt) 2018-08-27 2021-05-25 Gulfstream Aerospace Corporation sistema preditivo de proteção de envelope de voo de aeronave e método
JP2022502663A (ja) 2018-10-02 2022-01-11 フォルテム テクノロジーズ,インコーポレイテッド ドローンおよび物体の分類のためのシステムおよび方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214254A (ja) * 1999-01-25 2000-08-04 Mitsubishi Electric Corp 航空機航路監視システム
JP2007034714A (ja) 2005-07-27 2007-02-08 Ntt Data Corp 衝突危険予測システム、および、プログラム
JP2012131484A (ja) 2010-12-21 2012-07-12 General Electric Co <Ge> 飛行経路ベースの探知および防止
JP2017539033A (ja) * 2014-12-12 2017-12-28 アマゾン テクノロジーズ インコーポレイテッド 光、音、及び/またはマルチスペクトルパターン検出を使用する商用及び一般航空機の回避
WO2019077682A1 (ja) * 2017-10-17 2019-04-25 株式会社自律制御システム研究所 無人航空機の飛行計画経路を設定するためのシステム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3995396A4

Also Published As

Publication number Publication date
EP3995396A1 (en) 2022-05-11
JPWO2021005876A1 (ja) 2021-01-14
US20220309699A1 (en) 2022-09-29
EP3995396A4 (en) 2022-08-31
JP7452543B2 (ja) 2024-03-19
CN114072333A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
US11513511B2 (en) Techniques for image recognition-based aerial vehicle navigation
CN108292141B (zh) 用于目标跟踪的方法和系统
CN111344644B (zh) 用于基于运动的自动图像捕获的技术
JP6943988B2 (ja) 移動可能物体の制御方法、機器およびシステム
JPWO2019239566A1 (ja) 情報処理装置、情報処理方法及び測距システム
US10771707B2 (en) Information processing device and information processing method
CN110533719B (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
US11151804B2 (en) Information processing device, information processing method, and program
KR20200020295A (ko) 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법
WO2021251441A1 (ja) 方法、システムおよびプログラム
WO2021039100A1 (ja) 移動体、情報処理装置、情報処理方法及びプログラム
WO2021005876A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
EP4246281A1 (en) Information display system, information display method, and carrier means
WO2021024627A1 (ja) 情報処理装置、移動体、情報処理システム、情報処理方法及びプログラム
JP7452533B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220197278A1 (en) Moving body, steering system, control method, and program
JP2021103410A (ja) 移動体及び撮像システム
US11448884B2 (en) Image based finger tracking plus controller tracking
WO2022113482A1 (ja) 情報処理装置、方法およびプログラム
WO2020095551A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022070851A1 (ja) 方法、システムおよびプログラム
JP2023083072A (ja) 方法、システムおよびプログラム
WO2023047799A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021086268A (ja) 移動体、情報処理装置、及び撮像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20836110

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021530501

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2020836110

Country of ref document: EP

Effective date: 20220207