JP7239744B2 - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP7239744B2
JP7239744B2 JP2021569767A JP2021569767A JP7239744B2 JP 7239744 B2 JP7239744 B2 JP 7239744B2 JP 2021569767 A JP2021569767 A JP 2021569767A JP 2021569767 A JP2021569767 A JP 2021569767A JP 7239744 B2 JP7239744 B2 JP 7239744B2
Authority
JP
Japan
Prior art keywords
area
unit
map
drone
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021569767A
Other languages
Japanese (ja)
Other versions
JPWO2021140798A1 (en
Inventor
寛 河上
忠雄 鷹見
誠 ▲高▼橋
香緒莉 新畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2021140798A1 publication Critical patent/JPWO2021140798A1/ja
Application granted granted Critical
Publication of JP7239744B2 publication Critical patent/JP7239744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、立体地図の作成に関する。 The present invention relates to the creation of 3D maps.

特許文献1には、無人航空機が撮影した空撮画像に基づき生成された地図データと元の地図データとの差分を算出し、算出した差分が全体的な変形(平行移動、拡大縮小、回転、せん断等)を示す場合に空撮時の位置・経路・姿勢等を改善した空撮パラメータを生成することで差分が抑制された地図データを生成する技術が開示されている。 In Patent Document 1, a difference between map data generated based on an aerial image taken by an unmanned aerial vehicle and the original map data is calculated, and the calculated difference is used for overall deformation (parallel movement, scaling, rotation, There is disclosed a technique for generating map data in which the difference is suppressed by generating aerial photography parameters that improve the position, route, attitude, etc. at the time of aerial photography when showing shear, etc.).

特開2019-028807号公報JP 2019-028807 A

ドローンのような飛行体を自律的に飛行させる際に、現実の3次元空間に存在する物体の配置を示した立体地図に基づき障害物に衝突しないよう飛行経路が定められる場合がある。3次元空間に存在する物体は、新たな建築又は取り壊し等によって日々変化する。立体地図を更新するためには、日々変化する物体が存在する領域を撮影する必要があるが、例えば立体地図の更新目的で飛行体を飛行させるとなると、物体の変化がない地域であっても無駄に飛行しなければならなくなる。
そこで、本発明は、立体地図を更新するための撮影を効率よく行うことを目的とする。
When flying a flying object such as a drone autonomously, there are cases where a flight path is determined so as not to collide with obstacles based on a three-dimensional map showing the arrangement of objects existing in a real three-dimensional space. Objects existing in the three-dimensional space change daily due to new construction or demolition. In order to update a 3D map, it is necessary to photograph an area where there are objects that change daily. You will have to fly in vain.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to efficiently perform photographing for updating a 3D map.

上記目的を達成するために、本発明は、3次元空間に存在する物体の配置を示した立体地図を記憶する記憶部と、前記3次元空間を飛行する第1飛行体に設けられた、周囲の物体の前記3次元空間における配置を検出可能なセンサからの出力を取得する出力取得部と、取得された前記出力に基づいて、前記立体地図と比較して配置される物体の変化が発生する変化領域を特定する特定部と、特定された前記変化領域の撮影を第2飛行体に指示する撮影指示部とを備える情報処理システムを提供する。 In order to achieve the above objects, the present invention provides a storage unit for storing a three-dimensional map showing the arrangement of objects existing in a three-dimensional space, an output acquisition unit that acquires an output from a sensor capable of detecting the arrangement of objects in the three-dimensional space; and based on the acquired output, changes in the arranged objects occur compared with the three-dimensional map. An information processing system is provided that includes a specifying unit that specifies a changed area, and a photographing instruction unit that instructs a second flying object to photograph the specified changed area.

本発明によれば、立体地図を更新するための撮影を効率よく行うことができる。 According to the present invention, it is possible to efficiently perform photography for updating a 3D map.

実施例に係る立体地図システムの全体構成の一例を表す図A diagram showing an example of the overall configuration of a 3D map system according to an embodiment. サーバ装置のハードウェア構成の一例を表す図A diagram showing an example of a hardware configuration of a server device ドローンのハードウェア構成の一例を表す図A diagram showing an example of the hardware configuration of a drone 撮影ドローンのハードウェア構成の一例を表す図A diagram showing an example of the hardware configuration of a photography drone 各装置が実現する機能構成を表す図Diagram showing the functional configuration realized by each device 特定された変化領域の一例を表す図A diagram showing an example of an identified change area 飛行禁止空間の一例を表す図A diagram showing an example of a no-fly space 更新処理における各装置の動作手順の一例を表す図A diagram showing an example of the operation procedure of each device in the update process

[1]実施例
図1は実施例に係る立体地図システム1の全体構成の一例を表す。立体地図システム1は、飛行体を用いて立体地図を生成及び更新するシステムである。立体地図とは、現実の空間に存在する地形、建物及び植物等の物体を立体的に表した地図である。立体地図は、例えば、飛行体が空間を飛行する飛行計画を立てる際に、ビル及び林等の障害物を回避する飛行経路を決定するために用いられる。
[1] Embodiment FIG. 1 shows an example of the overall configuration of a 3D map system 1 according to an embodiment. The 3D map system 1 is a system that generates and updates a 3D map using an aircraft. A 3D map is a map that three-dimensionally represents objects such as topography, buildings, and plants that exist in real space. A 3D map is used, for example, to determine a flight route that avoids obstacles such as buildings and trees when making a flight plan for an aircraft to fly through space.

立体地図システム1は、ネットワーク2と、サーバ装置10と、ドローン20-1、20-2、20-3、・・・(以下それぞれを区別しない場合は「ドローン20」と言う)と、撮影ドローン30とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、サーバ装置10が有線通信で(無線通信でもよい)、複数のドローン20が無線通信でアクセスしている。 The three-dimensional map system 1 includes a network 2, a server device 10, drones 20-1, 20-2, 20-3, . 30. A network 2 is a communication system including a mobile communication network, the Internet, etc., and relays data exchange between devices accessing the system. The network 2 is accessed by the server device 10 through wired communication (or wireless communication), and by a plurality of drones 20 through wireless communication.

ドローン20は、本実施例では、1以上の回転翼を回転させて飛行する回転翼機型の飛行体である。各ドローン20は、予定された飛行経路を自律的に飛行する機能を有し、例えば、荷物の配送又は写真の撮影等を目的として飛行する。各ドローン20は、障害物を検知するためのセンサを備え、飛行経路に存在する障害物を検知して衝突を避けるように飛行を制御する。 In this embodiment, the drone 20 is a rotorcraft-type flying object that flies by rotating one or more rotor blades. Each drone 20 has a function of autonomously flying along a planned flight route, and flies for the purpose of delivering packages or taking photographs, for example. Each drone 20 includes a sensor for detecting obstacles, detects obstacles present in the flight path, and controls flight to avoid collisions.

飛行経路は障害物を回避するように定められているが、例えば鳥又は他のドローンのような飛行物が障害物として現れる場合がある。他にも、新たに建設された建物、新たに配設された架線及び成長して飛行経路に掛かるようになった木等が障害物として現れる場合がある。飛行物は一時的な障害物だが、建物等は恒常的な障害物である。それらの恒常的な障害物が立体地図に反映されると、以降の飛行経路はその障害物を回避するように定められる。 Although the flight path is designed to avoid obstacles, flying objects such as birds or other drones may appear as obstacles. Other obstacles may appear, such as newly constructed buildings, newly installed overhead lines, and trees that have grown to intervene in the flight path. Flying objects are temporary obstacles, but buildings and the like are permanent obstacles. Once those permanent obstacles are reflected in the cubic map, subsequent flight paths are determined to avoid the obstacles.

サーバ装置10は、ドローン20が飛行中に検知した障害物を立体地図に反映するための処理を行う。サーバ装置10は、検知された障害物を撮影するよう撮影ドローン30に指示する。撮影ドローン30は、周囲を撮影する機能を有し、指示された障害物を撮影する。撮影ドローン30は、撮影した障害物の映像をサーバ装置10に送信する。サーバ装置10は、送信されてきた映像に基づき障害物を立体地図に反映する。 The server device 10 performs processing for reflecting obstacles detected during flight by the drone 20 on the 3D map. The server device 10 instructs the photography drone 30 to photograph the detected obstacle. The photographing drone 30 has a function of photographing the surroundings, and photographs designated obstacles. The imaging drone 30 transmits the captured image of the obstacle to the server device 10 . The server device 10 reflects obstacles on the 3D map based on the transmitted video.

図2はサーバ装置10のハードウェア構成の一例を表す。サーバ装置10は、物理的には、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、バス15などを含むコンピュータ装置として構成されてもよい。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。 FIG. 2 shows an example of the hardware configuration of the server device 10. As shown in FIG. The server device 10 may be physically configured as a computer device including a processor 11, a memory 12, a storage 13, a communication device 14, a bus 15, and the like. Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like.

また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。 Also, one or more of each device may be included, or some devices may not be included. The processor 11, for example, operates an operating system to control the entire computer. The processor 11 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like.

例えば、ベースバンド信号処理部等は、プロセッサ11によって実現されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ13及び通信装置14の少なくとも一方からメモリ12に読み出し、読み出したプログラム等に従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。 For example, the baseband signal processing section and the like may be implemented by the processor 11 . The processor 11 also reads programs (program codes), software modules, data, etc. from at least one of the storage 13 and the communication device 14 to the memory 12, and executes various processes according to the read programs. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used.

上述の各種処理は、1つのプロセッサ11によって実行される旨を説明してきたが、2以上のプロセッサ11により同時又は逐次に実行されてもよい。プロセッサ11は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。メモリ12は、コンピュータ読み取り可能な記録媒体である。 Although it has been explained that the various processes described above are executed by one processor 11, they may be executed by two or more processors 11 simultaneously or sequentially. Processor 11 may be implemented by one or more chips. Note that the program may be transmitted from a network via an electric communication line. Memory 12 is a computer-readable recording medium.

メモリ12は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ12は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ12は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 12 may be composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. The memory 12 may also be called a register, cache, main memory (main storage device), or the like. The memory 12 can store executable programs (program codes), software modules, etc. for implementing the wireless communication method according to an embodiment of the present disclosure.

ストレージ13は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。 The storage 13 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (e.g., a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like.

ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及びストレージ13の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。通信装置14は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)である。 The storage 13 may also be called an auxiliary storage device. The aforementioned storage medium may be, for example, a database, server or other suitable medium including at least one of memory 12 and storage 13 . The communication device 14 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network.

例えば、上述の送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、通信装置14によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。また、プロセッサ11、メモリ12などの各装置は、情報を通信するためのバス15によって接続される。バス15は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 For example, the above-described transmitting/receiving antenna, amplifier section, transmitting/receiving section, transmission line interface, etc. may be implemented by the communication device 14 . The transceiver may be physically or logically separate implementations for the transmitter and receiver. Each device such as the processor 11 and the memory 12 is connected by a bus 15 for communicating information. The bus 15 may be configured using a single bus, or may be configured using different buses between devices.

図3はドローン20のハードウェア構成の一例を表す。ドローン20は、物理的には、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、飛行装置25と、センサ装置26と、バス27などを含むコンピュータ装置として構成されてもよい。プロセッサ21等の図2に同名のハードウェアが表されているものは、性能及び仕様等の違いはあるが図2と同種のハードウェアである。 FIG. 3 shows an example of the hardware configuration of the drone 20. As shown in FIG. Drone 20 may be physically configured as a computer device including processor 21, memory 22, storage 23, communication device 24, flight device 25, sensor device 26, bus 27, and the like. Hardware with the same name shown in FIG. 2, such as the processor 21, is the same kind of hardware as in FIG. 2, although there are differences in performance, specifications, and the like.

通信装置24は、ネットワーク2との通信を行う機能(例えば2.4GHz帯の電波による無線通信機能)を有する。飛行装置25は、モータ及びローター等を備え、自機を飛行させる装置である。飛行装置25は、空中において、あらゆる方向に自機を移動させたり、自機を静止(ホバリング)させたりすることができる。センサ装置26は、飛行制御に必要な情報を取得するセンサ群を有する装置である。 The communication device 24 has a function of communicating with the network 2 (for example, a wireless communication function using radio waves in the 2.4 GHz band). The flight device 25 is a device that includes a motor, a rotor, and the like, and allows the aircraft to fly. The flying device 25 can move itself in all directions in the air and can make itself stationary (hovering). The sensor device 26 is a device having a group of sensors that acquire information necessary for flight control.

センサ装置26は、例えば、自機の位置(緯度及び経度)を測定する位置センサと、自機が向いている方向(ドローンには自機の正面方向が定められており、定められた正面方向が向いている方向)を測定する方向センサと、自機の高度を測定する高度センサとを備える。また、センサ装置26は、自機の速度を測定する速度センサを備える。 The sensor device 26 includes, for example, a position sensor that measures the position (latitude and longitude) of the drone and the direction in which the drone is facing (the front direction of the drone is determined, and the determined front direction and an altitude sensor for measuring the altitude of the aircraft itself. Further, the sensor device 26 includes a speed sensor that measures the speed of its own machine.

また、センサ装置26は、3軸の角速度及び3方向の加速度を測定する慣性計測センサ(IMU(Inertial Measurement Unit))を備える。また、センサ装置26は、ドローン20に衝突する可能性がある障害物を検出するためのセンサ(以下「障害物検出センサ」と言う)を備える。センサ装置26は、例えば、赤外線又はミリ波等を照射して周囲の障害物までの距離及び方向を測定する測距センサを障害物検出センサとして備える。 The sensor device 26 also includes an inertial measurement sensor (IMU (Inertial Measurement Unit)) that measures triaxial angular velocities and tridirectional accelerations. The sensor device 26 also includes a sensor for detecting an obstacle that may collide with the drone 20 (hereinafter referred to as an "obstacle detection sensor"). The sensor device 26 includes, as an obstacle detection sensor, a ranging sensor that emits infrared rays, millimeter waves, or the like and measures the distance and direction to surrounding obstacles.

図4は撮影ドローン30のハードウェア構成の一例を表す。撮影ドローン30は、物理的には、プロセッサ31と、メモリ32と、ストレージ33と、通信装置34と、飛行装置35と、センサ装置36と、カメラ37と、バス38などを含むコンピュータ装置として構成されてもよい。プロセッサ31等の図2に同名のハードウェアが表されているものは、性能及び仕様等の違いはあるが図2と同種のハードウェアである。カメラ37は、イメージセンサ及び光学系の部品等を備え、レンズが向いている方向にある物体を撮影する。 FIG. 4 shows an example of the hardware configuration of the imaging drone 30. As shown in FIG. The imaging drone 30 is physically configured as a computer device including a processor 31, a memory 32, a storage 33, a communication device 34, a flight device 35, a sensor device 36, a camera 37, a bus 38, and the like. may be Hardware with the same name shown in FIG. 2, such as the processor 31, is the same kind of hardware as in FIG. 2, although there are differences in performance and specifications. The camera 37 includes an image sensor, optical system parts, and the like, and photographs an object in the direction in which the lens is directed.

また、上記の各装置は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよい。また、上記の各装置は、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、当該ハードウェアの少なくとも1つを用いて実装されてもよい。 Each of the above devices includes hardware such as microprocessors, digital signal processors (DSPs), ASICs (Application Specific Integrated Circuits), PLDs (Programmable Logic Devices), and FPGAs (Field Programmable Gate Arrays). may consist of Also, each of the above devices may be realized by the hardware in part or all of each functional block. For example, processor 11 may be implemented using at least one such piece of hardware.

立体地図システム1が備える各装置における各機能は、各々のプロセッサ、メモリなどのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサが演算を行い、各々の通信装置による通信を制御したり、メモリ及びストレージにおけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function of each device included in the 3D map system 1 is performed by the processor by loading predetermined software (program) onto hardware such as each processor and memory, and controlling communication by each communication device. or by controlling at least one of data reading and writing in memory and storage.

図5は各装置が実現する機能構成を表す。サーバ装置10は、立体地図記憶部101と、配置情報取得部102と、変化領域特定部103と、飛行禁止指示部104と、領域撮影指示部105と、領域画像取得部106と、立体地図更新部107と、建築予定取得部108とを備える。ドローン20は、飛行制御部201と、配置情報測定部202とを備える。撮影ドローン30は、指示受付部301と、飛行制御部302と、領域撮影部303とを備える。 FIG. 5 shows the functional configuration realized by each device. The server device 10 includes a 3D map storage unit 101, a location information acquisition unit 102, a change area identification unit 103, a no-fly instruction unit 104, an area photography instruction unit 105, an area image acquisition unit 106, and a 3D map update unit. A building schedule acquisition unit 108 is provided. The drone 20 includes a flight control section 201 and a placement information measurement section 202 . The imaging drone 30 includes an instruction reception unit 301 , a flight control unit 302 and an area imaging unit 303 .

ドローン20の飛行制御部201は、センサ装置26が備える各センサの測定結果を用いて、自機の飛行を制御する。ドローン20の配置情報測定部202は、3次元空間に存在する物体の配置を示す情報(以下「配置情報」と言う)を測定する。配置情報測定部202は、例えば、自機の3次元空間における位置を示す位置情報と、自機から周囲の障害物までの距離及び3次元空間における方向を示す障害物情報とを配置情報として測定する。 The flight control unit 201 of the drone 20 controls the flight of the drone 20 using the measurement results of each sensor included in the sensor device 26 . The placement information measurement unit 202 of the drone 20 measures information indicating the placement of objects existing in the three-dimensional space (hereinafter referred to as “placement information”). The arrangement information measurement unit 202 measures, for example, position information indicating the position of the aircraft in a three-dimensional space, and obstacle information indicating the distance from the aircraft to surrounding obstacles and the direction in the three-dimensional space as location information. do.

上記の配置情報は、位置情報が示す位置から障害物情報が示す方向に障害物情報が示す距離だけ移動した位置を物体(本実施例では障害物)の配置として示す。つまり、配置情報が示す物体の配置は、その物体のうちドローン20のセンサにより測定された部分の3次元空間における位置によって示される。配置情報は、物体の配置を、例えば緯度、経度及び高さで表す。 The arrangement information indicates, as the arrangement of an object (obstacle in this embodiment), a position that is moved by a distance indicated by the obstacle information in the direction indicated by the obstacle information from the position indicated by the position information. In other words, the placement of the object indicated by the placement information is indicated by the position in the three-dimensional space of the portion of the object measured by the sensor of the drone 20 . The location information represents the location of the object by, for example, latitude, longitude and height.

配置情報は飛行制御にも用いられる情報なので、配置情報測定部202は、配置情報の測定を繰り返し行い、測定の度に配置情報を飛行制御部201に供給する。飛行制御部201は、供給された配置情報が示す障害物を回避するよう自機の飛行を制御する。また、配置情報測定部202は、配置情報の測定を繰り返し行い、測定の度に配置情報をサーバ装置10に送信する。 Since the arrangement information is also used for flight control, the arrangement information measuring section 202 repeatedly measures the arrangement information and supplies the arrangement information to the flight control section 201 each time it is measured. The flight control unit 201 controls the flight of the own aircraft so as to avoid obstacles indicated by the supplied arrangement information. In addition, the placement information measuring unit 202 repeatedly measures the placement information and transmits the placement information to the server device 10 each time the measurement is performed.

サーバ装置10の立体地図記憶部101は、3次元空間に存在する物体の配置を示した立体地図を記憶する。立体地図記憶部101は本発明の「記憶部」の一例である。立体地図記憶部101は、例えば、現実の3次元空間において設定された3次元座標系における、現実の3次元空間に存在する物体の表面の座標の集合を立体地図として記憶する。立体地図に表される物体には、地面、水面、建物及び植物等の移動せずに位置が固定されている物体(以下「固定物」と言う)が含まれる。 The 3D map storage unit 101 of the server device 10 stores a 3D map showing the arrangement of objects existing in a 3D space. The 3D map storage unit 101 is an example of the "storage unit" of the present invention. The 3D map storage unit 101 stores, as a 3D map, a set of surface coordinates of objects existing in a real 3D space, for example, in a 3D coordinate system set in the real 3D space. Objects represented on the 3D map include objects whose positions are fixed without moving (hereinafter referred to as “fixed objects”) such as the ground, water surfaces, buildings, and plants.

例えば植物又は建築中の建物のように形を変えることはあっても移動しないものは固定物に含まれるものとする。一方、動物及び乗り物等の移動する物体(以下「移動物」と言う)は、立体地図に表される物体に含まれない。サーバ装置10の配置情報取得部102は、サーバ装置10から送信されてきた配置情報を、3次元空間を飛行するドローン20に設けられた、周囲の物体の3次元空間における配置を検出可能なセンサ(以下「配置検出センサ」と言う)の出力として取得する。 For example, objects that change shape but do not move, such as plants or buildings under construction, are included in fixed objects. On the other hand, moving objects such as animals and vehicles (hereinafter referred to as "moving objects") are not included in the objects represented on the 3D map. The arrangement information acquisition unit 102 of the server device 10 receives the arrangement information transmitted from the server device 10 by a sensor capable of detecting the arrangement of surrounding objects in the three-dimensional space provided in the drone 20 flying in the three-dimensional space. (hereafter referred to as "arrangement detection sensor").

ドローン20は本発明の「第1飛行体」の一例であり、配置情報取得部102は本発明の「出力取得部」の一例である。本実施例では、ドローン20に衝突する可能性がある障害物を検出するためのセンサが配置検出センサとして用いられる。具体的には、本実施例の配置検出センサは、自機の位置を示す位置情報を検出する測位センサ(図3のセンサ装置26が備える位置センサ及び高度センサ)と、周囲の障害物までの距離及び方向を示す障害物情報を検出する測距センサである。 The drone 20 is an example of the "first flying object" of the present invention, and the placement information acquisition section 102 is an example of the "output acquisition section" of the present invention. In this embodiment, a sensor for detecting obstacles that may collide with the drone 20 is used as the placement detection sensor. Specifically, the arrangement detection sensor of the present embodiment includes a positioning sensor (a position sensor and an altitude sensor included in the sensor device 26 in FIG. 3) that detects position information indicating the position of the aircraft itself, and a It is a ranging sensor that detects obstacle information indicating distance and direction.

配置情報取得部102は、ドローン20から繰り返し送信されてくる配置情報をそれぞれ取得し、取得した配置情報を取得の度に変化領域特定部103に供給する。変化領域特定部103は、供給された配置情報、すなわち、配置情報取得部102により取得されたセンサの出力に基づいて、立体地図と比較して配置される物体の変化が発生する領域(以下「変化領域」と言う)を特定する。変化領域特定部103は本発明の「特定部」の一例である。 The arrangement information acquisition unit 102 acquires each piece of arrangement information repeatedly transmitted from the drone 20, and supplies the acquired arrangement information to the changed area identification unit 103 each time it is acquired. Based on the supplied layout information, i.e., the output of the sensor acquired by the layout information acquisition unit 102, the changed region identifying unit 103 compares the 3D map with a region where a change occurs in the arranged object (hereinafter referred to as " (referred to as the “region of change”). The changed region specifying unit 103 is an example of the "specifying unit" of the present invention.

変化領域において発生する物体の変化には、立体地図にのみ(すなわち過去にのみ)配置され現在の現実空間には配置されていない物体の変化、現在の現実空間には配置されるが立体地図には(すなわち過去には)配置されていない物体、及び、立体地図に(すなわち過去に)配置され且つ現在の現実空間にも配置されている物体の変化が含まれる。 Changes in objects that occur in the change area include changes in objects that are placed only in the 3D map (that is, only in the past) and are not placed in the current real space, and changes in objects that are placed in the current real space but are not placed in the 3D map. includes changes in objects that have not been placed (ie, in the past) and objects that have been placed in the solid map (ie, in the past) and are also placed in the current real space.

変化領域特定部103は、配置情報が供給されると、まず、供給された配置情報が配置を示す物体が固定物か移動物かを判断する。変化領域特定部103は、同一物体の複数の配置情報が示す配置が変化していれば移動物と判断し、変化領域の特定を行わない。また、変化領域特定部103は、それらの配置が変化していなければ固定物と判断し、変化領域の特定を行う。 When the arrangement information is supplied, the changing area specifying unit 103 first determines whether the object whose arrangement is indicated by the supplied arrangement information is a fixed object or a moving object. If the arrangement indicated by a plurality of pieces of arrangement information for the same object changes, the changed area specifying unit 103 determines that the object is a moving object and does not specify the changed area. Also, if the arrangement of these objects has not changed, the changed region specifying unit 103 determines that the object is a fixed object, and specifies the changed region.

変化領域特定部103は、変化領域の特定を行う場合、立体地図記憶部101から立体地図を読み出す。変化領域特定部103は、配置情報によって配置が示される物体(本実施例では障害物)について、立体地図で用いられている3次元座標系における座標を算出する。配置情報は、上述したように物体の配置を緯度、経度及び高さで表しているから、変化領域特定部103は、それらの緯度、経度及び高さが示す座標を算出する。 The changed area specifying unit 103 reads the 3D map from the 3D map storage unit 101 when specifying the changed area. The changed area specifying unit 103 calculates the coordinates in the three-dimensional coordinate system used in the 3D map for the object (obstacle in this embodiment) whose arrangement is indicated by the arrangement information. Since the arrangement information expresses the arrangement of objects by latitude, longitude and height as described above, the changing area specifying unit 103 calculates the coordinates indicated by these latitudes, longitudes and heights.

変化領域特定部103は、算出した物体の座標が読み出した立体地図の座標の集合に含まれているか否かを判断し、含まれていないと判断した場合、物体から一定の範囲にある領域を変化領域として特定する。
図6は特定された変化領域の一例を表す。図6では、鉛直上方から見た3次元空間A1が表されている。
The changed area specifying unit 103 determines whether or not the calculated coordinates of the object are included in the set of coordinates of the read 3D map. Identify as a change area.
FIG. 6 shows an example of identified change regions. FIG. 6 shows a three-dimensional space A1 viewed from vertically above.

3次元空間A1は、マス目の形に区切られており、交点の座標の集合によって立体地図が表されているものとする。実際には高低差も立体地図に表されているが、図6では高低差は考慮しないものとする。図6では、経路B1を飛行してきたドローン20が表されている。ドローン20は、計画された飛行経路C1を飛行する予定だったが、立体地図に表されていなかった建築物3が飛行経路C1を遮っている。 It is assumed that the three-dimensional space A1 is partitioned into squares, and a three-dimensional map is represented by a set of coordinates of intersection points. Actually, the height difference is also represented on the three-dimensional map, but in FIG. 6, the height difference is not taken into consideration. FIG. 6 shows the drone 20 that has flown along the route B1. The drone 20 was scheduled to fly along the planned flight path C1, but the flight path C1 is blocked by a building 3 that was not shown on the three-dimensional map.

ドローン20は、障害物である建築物3のうち測位センサ及び測距センサにより測定される測定箇所D1の配置を示す配置情報を測定する。ドローン20は、障害物を回避する経路B2を飛行し、飛行しながらも測定箇所D1の配置情報を測定し続ける。図6の例では、ドローン20は、6つの測定箇所D1の配置情報を測定する。測定箇所D1は、建築物3のうち経路B2側から測定可能な箇所だけを含んでいる。 The drone 20 measures arrangement information indicating the arrangement of the measurement points D1 measured by the positioning sensor and the distance measuring sensor in the building 3, which is an obstacle. The drone 20 flies along a route B2 that avoids obstacles, and continues to measure the location information of the measurement point D1 while flying. In the example of FIG. 6, the drone 20 measures the arrangement information of six measurement points D1. The measurement locations D1 include only locations of the building 3 that can be measured from the route B2 side.

変化領域特定部103は、測定箇所D1について算出した物体の座標が読み出した立体地図の座標の集合に含まれていないと判断し、測定箇所D1を含む領域及び測定箇所D1に隣接する領域を変化領域E1として特定する。図6に表すように、変化領域E1は、ドローン20が測定した配置情報に基づいて決まるので、図6の例では、建築物3を全て含む領域にはなっていない。 The changed area specifying unit 103 determines that the coordinates of the object calculated for the measurement point D1 are not included in the set of coordinates of the read 3D map, and changes the area including the measurement point D1 and the area adjacent to the measurement point D1. It is specified as area E1. As shown in FIG. 6, the changed area E1 is determined based on the placement information measured by the drone 20, so in the example of FIG.

上記のとおり、変化領域特定部103は、配置検出センサの出力である配置情報が示す障害物の存在する領域を変化領域として特定する。これにより、障害物を回避する機能を有するドローン20を変化領域の特定に利用することができる。変化領域特定部103は、変化領域を特定すると、特定した変化領域を示す変化情報を飛行禁止指示部104に供給する。変化情報は、例えば、変化領域の特定に用いられた測定箇所D1の配置情報(緯度、経度、高さを示す情報)と、特定した変化領域E1を表す座標の集合(各変化領域E1の四方の座標)とを示す情報である。 As described above, the changing area specifying unit 103 specifies, as a changing area, an area in which an obstacle exists indicated by the arrangement information output from the arrangement detection sensor. As a result, the drone 20 having the function of avoiding obstacles can be used to identify the changed area. After specifying the changed region, the changed region specifying unit 103 supplies change information indicating the specified changed region to the no-fly instruction unit 104 . The change information includes, for example, arrangement information (information indicating latitude, longitude, and height) of the measurement point D1 used to specify the changed area, and a set of coordinates representing the specified changed area E1 (each of the four sides of each changed area E1). coordinates).

飛行禁止指示部104は、変化情報が供給された場合、すなわち、立体地図に示されていない新たな物体のある領域が変化領域として特定された場合に、その物体が存在する空間の飛行禁止をドローン20に指示する。飛行禁止指示部104は本発明の「禁止指示部」の一例である。飛行禁止指示部104は、例えば、供給された変化情報が示す物体の座標、すなわち障害物の座標から一定の距離の範囲を飛行禁止空間として指示する指示データを生成して各ドローン20に送信する。 When change information is supplied, that is, when an area with a new object not shown on the 3D map is specified as a change area, the flight prohibition instruction unit 104 prohibits flight in the space where the object exists. Command the drone 20. The no-flying instruction unit 104 is an example of the "no-flying instruction unit" of the present invention. The no-fly instruction unit 104 generates, for example, the coordinates of the object indicated by the supplied change information, i.e., instruction data indicating a range of a certain distance from the coordinates of the obstacle as the no-fly space, and transmits the instruction data to each drone 20 . .

図7は飛行禁止空間の一例を表す。図7では、図6の例で特定された変化領域E1が表されている。飛行禁止指示部104は、変化領域E1を内側に含む最小の四角形の領域(最外のマス目には変化領域E1を含まない)を飛行禁止空間F1として定めている。図6に示すように変化領域E1が建築物3を全て含む領域にならない場合があるので、変化領域E1に対して飛行禁止空間F1を大きめに定めている。 FIG. 7 shows an example of a no-fly space. In FIG. 7, the change area E1 specified in the example of FIG. 6 is represented. The no-fly instruction unit 104 defines the smallest rectangular area that includes the changing area E1 inside (the outermost grid does not include the changing area E1) as the no-flying space F1. As shown in FIG. 6, the changing area E1 may not be an area that includes the entire building 3, so the flight prohibition space F1 is set larger than the changing area E1.

ドローン20の飛行制御部201は、送信されてきた指示データが示す飛行禁止空間F1を通過する飛行経路で飛行している場合、飛行禁止空間F1を回避するよう自機の飛行を制御する。立体地図が最新の状態になっていて建築物3が表されていれば、建築物3を回避する飛行計画が作成されるが、立体地図に建築物3が表される前は図6に表す飛行経路C1のように建築物3に衝突する飛行計画が作成される場合がある。 The flight control unit 201 of the drone 20 controls the flight of the drone 20 to avoid the prohibited flight space F1 when the drone 20 flies on a flight route passing through the prohibited flight space F1 indicated by the transmitted instruction data. If the 3D map is up-to-date and building 3 is represented, a flight plan that avoids building 3 is created, but before building 3 is represented on the 3D map, the flight plan is shown in FIG. A flight plan that collides with the building 3 may be created like the flight route C1.

それでもドローン20のように障害物を回避する回避機能を有していれば建築物3との衝突を回避できるが、回避機能の不具合等もあり得るので、建築物3への衝突の可能性は0ではない。本実施例では、上記のとおり飛行禁止を指示することで、立体地図が最新になっているか否かにかかわらず、建築物3のような新たな物体へのドローン20の衝突可能性を低くすることができる。 Even so, if the drone 20 has an avoidance function to avoid obstacles, it can avoid collision with the building 3, but the avoidance function may be defective, so the possibility of collision with the building 3 is reduced. not 0. In this embodiment, by instructing the prohibition of flight as described above, the probability of the drone 20 colliding with a new object such as the building 3 is reduced regardless of whether the 3D map is up-to-date. be able to.

なお、本実施例では、変化領域特定部103が移動物については変化領域の特定を行わない。そのため、飛行禁止指示部104も、立体地図に示されていない新たな物体が移動物である場合には飛行禁止を指示しない。新たな物体が移動物であれば、配置情報が測定された位置からすぐにいなくなるため、飛行禁止をしても無駄になる。移動物について飛行禁止を行わないことで、そのような無駄を防ぐことができる。 It should be noted that, in this embodiment, the changing region specifying unit 103 does not specify changing regions for moving objects. Therefore, the no-fly instruction unit 104 also does not instruct no-fly when the new object not shown on the 3D map is a moving object. If the new object is a moving object, it will soon disappear from the position where the location information was measured, so prohibiting flight is useless. By not prohibiting moving objects from flying, such waste can be prevented.

変化領域特定部103は、変化領域を特定すると、特定した変化領域を示す変化情報を領域撮影指示部105に供給する。領域撮影指示部105は、変化領域特定部103により特定された変化領域の撮影を撮影ドローン30に指示する。撮影ドローン30は本発明の「第2飛行体」の一例であり、領域撮影指示部105は本発明の「撮影指示部」の一例である。 After specifying the changed region, the changed region specifying unit 103 supplies change information indicating the specified changed region to the region photographing instructing unit 105 . The region photographing instruction unit 105 instructs the photographing drone 30 to photograph the changed region specified by the changed region specifying unit 103 . The imaging drone 30 is an example of the "second flying object" of the present invention, and the area imaging instruction section 105 is an example of the "imaging instruction section" of the present invention.

領域撮影指示部105は、図6に表す変化領域E1が特定された場合、供給された変化情報が示す変化領域E1の撮影を指示する指示データを撮影ドローン30に送信する。撮影ドローン30の指示受付部301は、送信されてきた指示データが示す指示、すなわち、領域撮影指示部105による変化領域の撮影の指示を受け付ける。指示受付部301は、受け付けた指示を飛行制御部302に通知する。 When the changing region E1 shown in FIG. 6 is identified, the region photographing instruction unit 105 transmits to the photographing drone 30 instruction data for instructing photographing of the changing region E1 indicated by the supplied change information. The instruction receiving unit 301 of the imaging drone 30 receives an instruction indicated by the transmitted instruction data, that is, an instruction for imaging the changing area by the area imaging instruction unit 105 . The instruction receiving unit 301 notifies the flight control unit 302 of the received instruction.

飛行制御部302は、通知された指示に基づいて自機の飛行を制御して、指示された変化領域まで自機を飛行させる。また、飛行制御部302は、障害物検出センサの測定結果に基づいて障害物を検出し、検出した障害物を回避するよう自機を飛行させる。指示受付部301は、受け付けた指示を領域撮影部303にも通知する。領域撮影部303は、自機が変化領域に到達すると、通知された指示に基づいて、変化領域を撮影する。 The flight control unit 302 controls the flight of the aircraft based on the notified instruction, and causes the aircraft to fly to the instructed change area. Further, the flight control unit 302 detects obstacles based on the measurement results of the obstacle detection sensor, and causes the aircraft to fly so as to avoid the detected obstacles. The instruction receiving unit 301 also notifies the area imaging unit 303 of the received instruction. When the own machine reaches the changed area, the area photographing unit 303 photographs the changed area based on the notified instruction.

領域撮影部303は、例えば、変化領域E1の撮影が指示された場合、変化領域E1の周辺を周遊しながら複数の箇所において変化領域E1の方向を撮影する。その際、撮影ドローン30は、変化領域E1に近づきすぎると建築物3に衝突するおそれがあるが、飛行制御部302の制御により建築物3への衝突を回避しながら飛行する。そのため、撮影ドローン30は、変化領域E1に含まれていない建築物3も含めて周辺を飛行しながら領域撮影部303が変化領域E1の撮影を行う。 For example, when photographing of the changing region E1 is instructed, the region photographing unit 303 photographs the direction of the changing region E1 at a plurality of locations while traveling around the changing region E1. At this time, the imaging drone 30 may collide with the building 3 if it gets too close to the changing area E1, but it flies while avoiding collision with the building 3 under the control of the flight control unit 302 . Therefore, while the imaging drone 30 flies around including the building 3 that is not included in the changing area E1, the area capturing unit 303 captures the changing area E1.

領域撮影部303は、変化領域E1を撮影した画像に、撮影時に測定された自機の位置(緯度、経度、高さ)、方向及び画像内の物体までの距離を対応付けた画像データを生成してサーバ装置10に送信する。サーバ装置10の領域画像取得部106は、送信されてきた画像データを、撮影ドローン30により撮影された変化領域の画像を示すデータとして取得する。領域画像取得部106は、取得した画像データを立体地図更新部107に供給する。 The region photographing unit 303 generates image data in which the position (latitude, longitude, height), direction, and distance to the object in the image, which are measured at the time of photographing, are associated with the photographed image of the changing region E1. and transmits it to the server device 10 . The area image acquiring unit 106 of the server device 10 acquires the transmitted image data as data representing the image of the changing area captured by the imaging drone 30 . The area image acquiring unit 106 supplies the acquired image data to the 3D map updating unit 107 .

立体地図更新部107は、供給された画像データ、すなわち、領域撮影指示部105の指示により撮影された変化領域の画像に基づいて立体地図を更新する。立体地図更新部107は本発明の「更新部」の一例である。立体地図更新部107は、変化領域の画像データが供給されると、供給された画像データが示す自機の位置(緯度、経度、高さ)、方向及び画像内の物体までの距離に基づいて、画像内の物体(例えば建築物3)の表面の緯度、経度及び高さを算出する。 The 3D map update unit 107 updates the 3D map based on the supplied image data, that is, the image of the changing area photographed according to the instruction of the area photographing instruction unit 105 . The 3D map updater 107 is an example of the "updater" of the present invention. When the image data of the changed area is supplied, the 3D map updating unit 107 updates the position (latitude, longitude, height), the direction, and the distance to the object in the image indicated by the supplied image data. , calculate the latitude, longitude and height of the surface of the object (eg building 3) in the image.

立体地図更新部107は、算出した画像内の物体の緯度、経度及び高さに対応する、立体地図で用いられている3次元座標系における座標を算出する。立体地図更新部107は、立体地図記憶部101から最新の立体地図を読み出して、読み出した立体地図に、算出した物体の座標を反映する。立体地図更新部107は、例えば、立体地図が示す座標の集合のうち、x座標及びy座標が物体の座標と共通する部分については、z座標を物体の座標に更新する。 The 3D map updating unit 107 calculates coordinates in the 3D coordinate system used in the 3D map, corresponding to the calculated latitude, longitude and height of the object in the image. The 3D map update unit 107 reads out the latest 3D map from the 3D map storage unit 101 and reflects the calculated coordinates of the object in the read 3D map. For example, the 3D map updating unit 107 updates the z coordinate to the coordinate of the object in the portion where the x coordinate and the y coordinate are common to the coordinate of the object in the set of coordinates indicated by the 3D map.

例えば、立体地図で(x1、y1、z1)という座標が表されていて、物体の座標として(x1、y1、z2)が表されている場合には、立体地図更新部107は、(x1、y1、z1)という座標を(x1、y1、z2)に更新する。また、物体が建築物のように鉛直に沿った壁等を有している場合は、(x1、y1、z2)、(x1、y1、z3)、(x1、y1、z4)、・・・というようにz座標が異なる複数の座標で表される。 For example, when coordinates (x1, y1, z1) are represented on the 3D map and coordinates of the object are (x1, y1, z2), the 3D map updating unit 107 updates (x1, y1, z1) are updated to (x1, y1, z2). If the object has vertical walls like a building, then (x1, y1, z2), (x1, y1, z3), (x1, y1, z4), . It is represented by a plurality of coordinates with different z-coordinates.

その場合、立体地図更新部107は、立体地図では1つの座標だった箇所を複数の座標で更新する。以上のとおり立体地図が更新されることで、実際の空間に新たに現れた物体の近くをドローン20が飛行して障害物として検出した場合に、その物体を立体地図に反映し、新たな立体地図に基づく飛行計画ではその物体を回避した飛行経路を作成することができる。 In this case, the 3D map updating unit 107 updates a location, which is one coordinate in the 3D map, with a plurality of coordinates. By updating the 3D map as described above, when the drone 20 flies near an object that has newly appeared in the actual space and detects it as an obstacle, the object is reflected in the 3D map and a new 3D map is created. A map-based flight plan can create a flight path that avoids the object.

なお、本実施例では、変化領域特定部103が移動物については変化領域の特定を行わないので、領域撮影指示部105も、変化領域特定部103により特定された障害物が移動物である場合には撮影ドローン30への撮影の指示を行わない。新たな物体が移動物であれば、配置情報が測定された位置からすぐにいなくなるため、撮影指示をしても無駄になる。移動物について撮影指示を行わないことで、そのような無駄を防ぐことができる。 In the present embodiment, the changing region specifying unit 103 does not specify changing regions for moving objects. In this case, an instruction for photographing to the photographing drone 30 is not issued. If the new object is a moving object, it will soon disappear from the position where the arrangement information was measured, so even if a photographing instruction is given, it will be useless. Such waste can be prevented by not issuing a photographing instruction for a moving object.

また、領域撮影指示部105は、変化領域特定部103により特定された変化領域の撮影のための飛行を繰り返し行うよう撮影ドローン30に指示する。変化領域に現れた新たな物体が建築物である場合、一度変化領域を撮影して立体地図を更新しても、工事が進むにつれて建築物の形及び大きさが変化していく場合がある。そこで、撮影指示を繰り返し行うことで、建築物のような新たな物体が完成するまで立体地図を更新し続けることができる。 Further, the region photographing instruction unit 105 instructs the photographing drone 30 to repeatedly fly for photographing the changing region specified by the changing region specifying unit 103 . When the new object that appears in the changed area is a building, even if the changed area is photographed once and the 3D map is updated, the shape and size of the building may change as the construction progresses. Therefore, by repeatedly issuing photographing instructions, the 3D map can be continuously updated until a new object such as a building is completed.

変化領域特定部103は、特定した変化領域を示す変化情報を建築予定取得部108にも供給する。建築予定取得部108は、建築中の建築物の存在する領域が変化領域として特定された場合に、その建築物の建築終了時期の予定を示す予定情報を取得する。建築予定取得部108は本発明の「予定取得部」の一例である。建築予定取得部108は、例えば、立体地図が表す地域の建築物の位置に対応付けてその建築物の完成予定日を記憶しておく。 The changed area specifying unit 103 also supplies change information indicating the specified changed area to the construction plan acquisition unit 108 . The construction schedule acquisition unit 108 acquires schedule information indicating a schedule for completion of construction of a building when an area in which a building under construction exists is specified as a changed area. The construction schedule acquisition unit 108 is an example of the "schedule acquisition unit" of the present invention. The building schedule acquisition unit 108 stores, for example, the scheduled completion date of the building in association with the position of the building in the region represented by the three-dimensional map.

建築予定取得部108は、変化情報が供給されると、供給された変化情報が示す変化領域の位置にある建築物の完成予定日を予定情報として取得する。なお、建築予定取得部108は、予め登録された外部の建築物を管理するシステムに完成予定日を問合わせてその応答で送られてくる完成予定日を予定情報として取得してもよい。建築予定取得部108は、取得した予定情報を領域撮影指示部105に供給する。 When the change information is supplied, the building schedule acquisition unit 108 acquires, as schedule information, the scheduled completion date of the building located in the position of the change area indicated by the supplied change information. Note that the construction schedule acquisition unit 108 may inquire about the scheduled completion date of a pre-registered external system for managing buildings, and acquire the scheduled completion date sent in response to the inquiry as schedule information. The construction schedule acquisition unit 108 supplies the acquired schedule information to the area photographing instruction unit 105 .

領域撮影指示部105は、供給された予定情報が示す建築物の完成予定日よりも現在の日付が前であれば撮影を指示し、完成予定日よりも現在の日付が後であれば撮影を指示しない。このように、領域撮影指示部105は、建築予定取得部108により取得された予定情報が示す建築終了時期が来たら変化領域の撮影を終了するよう撮影ドローン30に指示する。これにより、建築物の完成後に不必要な撮影がされることを防ぐことができる。 The area photographing instruction unit 105 instructs photographing if the current date is before the scheduled completion date of the building indicated by the supplied schedule information, and instructs photographing if the current date is after the scheduled completion date. do not instruct In this way, the area photographing instruction unit 105 instructs the photographing drone 30 to finish photographing the changed area when the construction end time indicated by the schedule information acquired by the construction schedule acquiring unit 108 comes. This can prevent unnecessary photography after the building is completed.

立体地図システム1が備える各装置は、上記の構成に基づいて、立体地図を更新する更新処理を行う。
図8は更新処理における各装置の動作手順の一例を表す。図8の動作手順は、例えば、ドローン20が計画された飛行経路を飛行することを契機に開始される。まず、ドローン20(配置情報測定部202)は、3次元空間に存在する物体の配置を示す配置情報を測定すると(ステップS11)、測定した配置情報をサーバ装置10に送信する(ステップS12)。
Each device included in the 3D map system 1 performs update processing for updating the 3D map based on the above configuration.
FIG. 8 shows an example of the operation procedure of each device in the update process. The operation procedure of FIG. 8 is started, for example, when the drone 20 flies along the planned flight route. First, the drone 20 (placement information measurement unit 202) measures the placement information indicating the placement of objects existing in the three-dimensional space (step S11), and transmits the measured placement information to the server device 10 (step S12).

サーバ装置10(配置情報取得部102)は、送信されてきた配置情報を配置検出センサの出力として取得する(ステップS13)。次に、サーバ装置10(変化領域特定部103)は、取得された配置情報に基づいて、立体地図と比較して配置された物体に変化が生じている変化領域を特定する(ステップS14)。続いて、サーバ装置10(領域撮影指示部105)は、特定された変化領域の撮影を指示する指示データを撮影ドローン30に送信する(ステップS15)。 The server device 10 (placement information acquisition unit 102) acquires the transmitted placement information as an output of the placement detection sensor (step S13). Next, the server device 10 (changed area identification unit 103) identifies changed areas in which the arranged objects are changed in comparison with the 3D map based on the acquired arrangement information (step S14). Subsequently, the server device 10 (area imaging instruction unit 105) transmits instruction data for instructing imaging of the specified changing area to the imaging drone 30 (step S15).

撮影ドローン30(飛行制御部302)は、送信されてきた指示データが示す指示に基づいて自機の飛行を制御して、指示された変化領域まで自機を飛行させる(ステップS21)。次に、撮影ドローン30(領域撮影部303)は、自機が変化領域に到達すると、指示データが示す指示に基づいて変化領域を撮影し(ステップS22)、撮影した変化領域の画像データをサーバ装置10に送信する(ステップS23)。 The imaging drone 30 (flight control unit 302) controls the flight of the drone based on the instruction indicated by the transmitted instruction data, and flies the drone to the instructed change area (step S21). Next, when the imaging drone 30 (area imaging unit 303) reaches the changing area, it takes an image of the changing area based on the instruction indicated by the instruction data (step S22), and sends the image data of the imaged changing area to the server. It is transmitted to the device 10 (step S23).

サーバ装置10(領域画像取得部106)は、送信されてきた画像データを、撮影ドローン30により撮影された変化領域の画像を示すデータとして取得する(ステップS24)。そして、サーバ装置10(立体地図更新部107)は、送信されてきた画像データが示す変化領域の画像に基づいて立体地図を更新する(ステップS25)。 The server device 10 (area image acquiring unit 106) acquires the transmitted image data as data representing the image of the changing area captured by the imaging drone 30 (step S24). Then, the server device 10 (the 3D map updating unit 107) updates the 3D map based on the image of the changed area indicated by the transmitted image data (step S25).

本実施例では、撮影ドローン30が変化領域を探さなくても、変化領域の探索とは異なる目的で飛行しているドローン20が障害物を検出することで変化領域が特定され、変化領域の撮影と立体地図の更新とが行われる。これにより、撮影ドローン30が変化領域を探索するための飛行をする場合に比べて、立体地図を更新するための撮影を効率よく行うことができる。 In this embodiment, even if the imaging drone 30 does not search for the changed area, the drone 20 flying for a purpose other than searching for the changed area detects an obstacle to identify the changed area, and the changed area is photographed. and updating of the 3D map. As a result, photographing for updating the 3D map can be performed more efficiently than when the photographing drone 30 flies to search for the changed area.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は必要に応じてそれぞれ組み合わせてもよい。実施例及び各変形例を組み合わせる際は、各変形例について優先順位を付けて(各変形例を実施すると競合する事象が生じる場合にどちらを優先するかを決める順位付けをして)実施してもよい。
[2] Modifications The embodiment described above is merely an example of implementation of the present invention, and may be modified as follows. Moreover, the embodiment and each modification may be combined as necessary. When combining the embodiment and each modification, prioritize each modification (order to determine which is given priority when conflicting events occur when implementing each modification). good too.

[2-1]飛行体
実施例では、飛行体として回転翼機型の飛行体が用いられたが、これに限らない。飛行体は、例えば固定翼(飛行機型)タイプの飛行体、ヘリコプター型の飛行体、又はVTOL(Vertical Take-Off and Landing Aircraft:垂直離着陸機)型の飛行体等であってもよい。
[2-1] Aircraft In the embodiment, a rotorcraft-type aircraft was used as the aircraft, but the invention is not limited to this. The flying object may be, for example, a fixed-wing (airplane type) type flying object, a helicopter type flying object, or a VTOL (Vertical Take-Off and Landing Aircraft) type flying object.

[2-2]配置検出センサ
実施例では、障害物を検出するためのセンサが配置検出センサとして用いられたが、配置検出センサはこれに限らない。例えば、イメージセンサが配置検出センサとして用いられてもよい。その場合、ドローン20は、デジタルカメラを備え、デジタルカメラのイメージセンサに結像した画像を撮影する。
[2-2] Layout Detection Sensor In the embodiment, a sensor for detecting obstacles was used as the layout detection sensor, but the layout detection sensor is not limited to this. For example, an image sensor may be used as the placement detection sensor. In that case, the drone 20 is equipped with a digital camera and captures an image formed on the image sensor of the digital camera.

その場合、変化領域特定部103は、イメージセンサの出力である画像から認識された物体が立体地図に示される物体と相違する領域を変化領域として特定する。デジタルカメラが撮影する画像には、ドローン20の飛行経路だけでなくその周辺に存在する物体も含まれる。そのため、飛行経路上の新たな物体だけでなく、ドローン20から撮影可能な範囲に存在する変化領域を立体地図に反映することができる。 In this case, the changed area specifying unit 103 specifies, as a changed area, an area where the object recognized from the image output from the image sensor is different from the object shown on the 3D map. The image captured by the digital camera includes not only the flight path of the drone 20 but also objects existing around it. Therefore, not only new objects on the flight path, but also changed areas that exist within the range that can be captured by the drone 20 can be reflected in the 3D map.

[2-3]変化領域
実施例では、変化領域特定部103が、新たな物体が現れた領域を変化領域として特定したが、これに限らず、それまであった物体がなくなった領域を変化領域として特定してもよい。なくなった物体とは、例えば、取り壊された建築物、移設された設備又は切り倒された樹木等である。
[2-3] Changed region In the embodiment, the changed region specifying unit 103 specified a region where a new object appeared as a changed region. may be specified as A missing object is, for example, a demolished building, relocated equipment, or a felled tree.

[2-4]各機能を実現する装置
図5に表す各機能を実現する装置は、上述した装置に限らない。例えば、サーバ装置10が実現する機能をドローン20又は撮影ドローン30が実現してもよい。また、撮影ドローン30が実現する機能をドローン20が実現してもよい。その場合、変化領域の撮影の指示がドローン20に対して行われ、ドローン20は、搬送等を目的とした本来の飛行予定が入っていなければ変化領域を撮影に行く。いずれの場合も、立体地図システム1の全体で図5にa表す各機能が実現されていればよい。
[2-4] Apparatus for realizing each function The apparatus for realizing each function shown in FIG. 5 is not limited to the apparatus described above. For example, the function realized by the server device 10 may be realized by the drone 20 or the imaging drone 30 . Further, the drone 20 may implement the functions implemented by the imaging drone 30 . In this case, the drone 20 is instructed to photograph the changed area, and the drone 20 goes to photograph the changed area unless there is an original flight schedule for transportation or the like. In either case, it is sufficient that the three-dimensional map system 1 as a whole implements each function shown in FIG.

[2-5]撮影の指示対象
領域撮影指示部105は、実施例では、領域の撮影を撮影ドローン30という特定のドローンに指示したが、これに限らず、状況に応じて指示対象のドローンを変えてもよい。領域撮影指示部105は、例えば、変化領域特定部103により特定された変化領域を撮影可能なドローンが複数ある場合、その変化領域からの距離の近さが所定の条件を満たすドローンを撮影を指示するドローンとする。
[2-5] Shooting instruction target In the embodiment, the area shooting instruction unit 105 instructs the shooting drone 30, which is a specific drone, to shoot an area. You can change it. For example, when there are a plurality of drones capable of photographing the changing area identified by the changing area identifying unit 103, the area photographing instruction unit 105 instructs a drone that satisfies a predetermined condition for proximity to the changing area to photograph. It is assumed to be a drone that

所定の条件としては、例えば、変化領域に最も近いドローンのみが満たす条件である。また、他にも、変化領域に近いほうからN(Nは自然数)台目までのドローンが満たす条件であってもよいし、変化領域までの距離が閾値未満であるドローンが満たす条件であってもよい。指示対象が撮影ドローン30及びドローン20のいずれの場合においても、ドローンの位置はそのドローンが配置される事業所等の位置であってもよいし、飛行中のドローンの位置であってもよい。 The predetermined condition is, for example, a condition that only drones closest to the change area satisfy. In addition, the condition may be satisfied by the drones closest to the change area up to the N (N is a natural number) drones, or the condition may be satisfied by the drones whose distance to the change area is less than the threshold. good too. Regardless of whether the pointing target is the imaging drone 30 or the drone 20, the position of the drone may be the position of the office where the drone is located, or the position of the drone during flight.

指示対象を決めるために変化領域からの距離の近さを用いた場合、変化領域からの距離を考慮しない場合に比べて、変化領域をより早く撮影することができる。なお、領域撮影指示部105は、他にも、例えば、変化領域特定部103により特定された変化領域を撮影可能なドローンが複数ある場合、許容される飛行経路の自由度の高さが所定の条件を満たすドローンを撮影を指示するドローンとする。 When the closeness of the distance from the changing area is used to determine the pointing target, the changing area can be captured more quickly than when the distance from the changing area is not considered. In addition, for example, when there are a plurality of drones capable of photographing the changed regions specified by the changed region specifying unit 103, the region shooting instruction unit 105 also sets the degree of freedom of the allowable flight path to a predetermined degree. A drone that satisfies the conditions is designated as a drone that instructs photography.

飛行経路の自由度は、例えば、飛行目的に基づく制約が少ないドローンほど高いものとする。飛行目的に基づく制約とは、例えば、荷物を搬送するドローンは制約が多いが、荷物の搬送を終えて拠点に帰還するドローンは制約が少ない。また、他にも、飛行経路の自由度は、例えば、飛行可能距離が長いドローンほど、又は、障害物回避能力が高いドローンほど高いものとしてもよい。 For example, it is assumed that the degree of freedom of the flight path is higher for a drone that has fewer restrictions based on its flight purpose. Constraints based on the purpose of flight, for example, include many restrictions for drones that transport packages, but fewer restrictions for drones that finish transporting packages and return to bases. In addition, the degree of freedom of the flight path may be higher for a drone with a longer flight distance or a drone with a higher obstacle avoidance capability.

要するに、飛行経路の選択肢が少ない又は飛行時間に余裕がないドローンほど制約が多く、反対に飛行経路の選択肢が多い又は飛行時間に余裕があるドローンほど制約が少ないものとする。所定の条件としては、例えば、許容される飛行経路の自由度が最も高いドローンのみが満たす条件である。また、他にも、許容される飛行経路の自由度が高いほうからN(Nは自然数)台目までのドローンが満たす条件であってもよい。 In short, a drone with fewer flight route options or less flight time has more restrictions, and a drone with more flight route options or more flight time has fewer restrictions. The predetermined condition is, for example, a condition that only drones with the highest degree of freedom of allowed flight paths satisfy. In addition, the condition may be satisfied by the N (N is a natural number) drones having the highest degree of freedom of allowed flight paths.

指示対象を決めるために飛行経路の自由度の高さを用いた場合、飛行経路の自由度を考慮しない場合に比べて、変化領域を撮影するための飛行経路をとりやすく、変化領域の撮影をより確実に行うことができる。また、本変形例によれば、常に同じドローンに撮影を指示する場合に比べて、変化領域の撮影をより早く、又はより確実に行うことができる。 When the degree of freedom of the flight path is used to determine the referent, compared to when the degree of freedom of the flight path is not considered, it is easier to take a flight path for imaging the changing area, and the imaging of the changing area is easier. can be done more reliably. In addition, according to this modification, compared to the case where the same drone is always instructed to shoot, it is possible to shoot the changing area more quickly or more reliably.

[2-6]発明のカテゴリ
本発明は、上述したサーバ装置10のような情報処理装置の他、その情報処理装置と、ドローン20及び撮影ドローン30のような飛行体とを備える立体地図システム1のような情報処理システムとしても捉えられる。また、本発明は、情報処理装置が実施する処理を実現するための情報処理方法としても捉えられるし、情報処理装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。本発明として捉えられるプログラムは、プログラムを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、
インターネット等のネットワークを介してコンピュータにダウンロードさせ、ダウンロードしたプログラムをインストールして利用可能にするなどの形態で提供されてもよい。
[2-6] Category of the Invention The present invention provides a three-dimensional map system 1 including an information processing device such as the server device 10 described above, the information processing device, and flying objects such as the drone 20 and the imaging drone 30. It can also be regarded as an information processing system such as Further, the present invention can be regarded as an information processing method for realizing processing executed by an information processing apparatus, and can also be regarded as a program for causing a computer that controls the information processing apparatus to function. The program regarded as the present invention may be provided in the form of a recording medium such as an optical disc storing the program,
The program may be provided in a form such that it is downloaded to a computer via a network such as the Internet, and the downloaded program is installed and made available.

[2-7]機能ブロック
なお、上記実施例の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。
[2-7] Functional Blocks The block diagrams used in the description of the above embodiments show blocks in functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Also, the method of implementing each functional block is not particularly limited.

すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 That is, each functional block may be implemented using one device that is physically or logically coupled, or directly or indirectly using two or more devices that are physically or logically separated (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, investigating, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.

[2-8]入出力された情報等の扱い
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-8] Handling of input/output information, etc. Input/output information, etc. may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

[2-9]判定方法
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
[2-9] Judgment method Judgment may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by a numerical value may be performed by a comparison of (eg, a comparison with a predetermined value).

[2-10]処理手順等
本開示において説明した各態様/実施例の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-10] Processing Procedures, etc. The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in the present disclosure may be rearranged in order as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.

[2-11]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-11] Handling of input/output information, etc. Input/output information, etc. may be stored in a specific location (for example, memory), or may be managed in a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

[2-12]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-12] Software Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs , subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.

[2-13]情報、信号
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-13] Information, Signals Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

[2-14]「判断」、「決定」
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。
[2-14] "judgment", "decision"
As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure), ascertaining as "judged" or "determined", and the like.

また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.

[2-15]「に基づいて」の意味
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-15] Meaning of "based on" The phrase "based on" as used in this disclosure does not mean "based only on," unless explicitly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

[2-16]「異なる」
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
[2-16] "Different"
In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate,""coupled," etc. may also be interpreted in the same manner as "different."

[2-17]「及び」、「又は」
本開示において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-17] "and", "or"
In the present disclosure, regarding configurations that can be implemented with either “A and B” or “A or B,” the configuration described in one expression may be used as the configuration described in the other expression. For example, when "A and B" are described, they may be used as "A or B" as long as they are not inconsistent with other descriptions and practicable.

[2-18]態様のバリエーション等
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、
「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-18] Variations of Aspects, etc. Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, notification of predetermined information (for example,
Notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, by not notifying the predetermined information).

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.

1…立体地図システム、10…サーバ装置、20…ドローン、30…撮影ドローン、101…立体地図記憶部、102…配置情報取得部、103…変化領域特定部、104…飛行禁止指示部、105…領域撮影指示部、106…領域画像取得部、107…立体地図更新部、108…建築予定取得部、201…飛行制御部、202…配置情報測定部、301…指示受付部、302…飛行制御部、303…領域撮影部。 Reference Signs List 1 3D map system 10 Server device 20 Drone 30 Shooting drone 101 3D map storage unit 102 Location information acquisition unit 103 Changing area identification unit 104 No flight instruction unit 105 Region photographing instruction unit 106 Region image acquisition unit 107 3D map update unit 108 Building schedule acquisition unit 201 Flight control unit 202 Layout information measurement unit 301 Instruction reception unit 302 Flight control unit , 303 . . . area photographing unit.

Claims (8)

3次元空間に存在する物体の配置を示した立体地図を記憶する記憶部と、
前記3次元空間を飛行する第1飛行体に設けられた、周囲の物体の前記3次元空間における配置を検出可能なセンサからの出力を取得する出力取得部と、
取得された前記出力に基づいて、前記立体地図と比較して配置される物体の変化が発生する変化領域を特定する特定部と、
特定された前記変化領域の撮影を第2飛行体に指示する撮影指示部と
建築中の建築物の存在する領域が前記変化領域として特定された場合に、当該建築物の建築終了時期の予定を示す予定情報を取得する予定取得部と
を備え、
前記撮影指示部は、特定された前記変化領域の撮影のための飛行を繰り返し行うよう前記第2飛行体に指示し、取得された前記予定情報が示す前記建築終了時期が来たら前記変化領域の撮影を終了するよう前記第2飛行体に指示する
情報処理システム。
a storage unit that stores a 3D map showing the arrangement of objects existing in a 3D space;
an output acquisition unit that acquires an output from a sensor capable of detecting the arrangement of surrounding objects in the three-dimensional space, provided in the first flying object that flies in the three-dimensional space;
a specifying unit that specifies a changed area in which a change occurs in an object arranged in comparison with the 3D map, based on the obtained output;
a photographing instruction unit that instructs the second flying object to photograph the identified change area ;
a schedule acquisition unit for acquiring schedule information indicating a schedule for completion of construction of the building when an area in which the building under construction exists is specified as the changed area;
with
The photographing instruction unit instructs the second flying object to repeatedly fly for photographing the specified changing area, and when the construction completion time indicated by the acquired schedule information comes, the changing area is photographed. instructing the second flying object to finish photographing
Information processing system.
前記指示により撮影された画像に基づいて前記立体地図を更新する更新部を備える
請求項1に記載の情報処理システム。
2. The information processing system according to claim 1, further comprising an updating unit that updates the 3D map based on the image captured by the instruction.
前記撮影指示部は、特定された前記変化領域を撮影可能な飛行体が複数ある場合、当該変化領域からの距離の近さ、又は、許容される飛行経路の自由度の高さいずれかが所定の条件を満たす飛行体を前記第2飛行体とする
請求項1又は2に記載の情報処理システム。
When there are a plurality of flying objects capable of photographing the specified change area, the photographing instruction unit specifies either the closeness of the distance from the change area or the degree of freedom of the allowed flight path. 3. The information processing system according to claim 1 or 2, wherein the second flying object is the flying object that satisfies the condition.
前記センサは前記第1飛行体に衝突する可能性がある障害物を検出するためのセンサであり、
前記特定部は、前記出力が示す前記障害物の存在する領域を前記変化領域として特定する
請求項1から3のいずれか1項に記載の情報処理システム。
the sensor is a sensor for detecting an obstacle that may collide with the first flying object;
The information processing system according to any one of claims 1 to 3, wherein the specifying unit specifies, as the changed area, an area in which the obstacle is present indicated by the output.
前記撮影指示部は、特定された前記障害物が移動物である場合は前記指示を行わない
請求項4に記載の情報処理システム。
The information processing system according to claim 4, wherein the photographing instruction unit does not issue the instruction when the identified obstacle is a moving object.
前記センサはイメージセンサであり、
前記特定部は、前記イメージセンサの出力である画像から認識された物体が前記立体地図に示される物体と相違する領域を前記変化領域として特定する
請求項1から3のいずれか1項に記載の情報処理システム。
the sensor is an image sensor;
4. The specifying unit according to any one of claims 1 to 3, wherein the specifying unit specifies a region in which an object recognized from an image that is an output of the image sensor is different from an object shown on the 3D map as the changed region. Information processing system.
前記立体地図に示されていない新たな物体のある領域が前記変化領域として特定された場合に、当該物体が存在する空間の飛行禁止を飛行体に指示する禁止指示部を備える
請求項1から6のいずれか1項に記載の情報処理システム。
7. A prohibition instructing unit that instructs the flying object to prohibit flight in the space where the object exists when a region containing a new object not shown in the 3D map is specified as the changed region. The information processing system according to any one of.
前記禁止指示部は、前記新たな物体が移動物である場合には前記飛行禁止を指示しない
請求項7に記載の情報処理システム。
The information processing system according to claim 7, wherein the prohibition instructing unit does not instruct the prohibition of flight when the new object is a moving object.
JP2021569767A 2020-01-08 2020-12-04 Information processing system Active JP7239744B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020001401 2020-01-08
JP2020001401 2020-01-08
PCT/JP2020/045216 WO2021140798A1 (en) 2020-01-08 2020-12-04 Information processing system

Publications (2)

Publication Number Publication Date
JPWO2021140798A1 JPWO2021140798A1 (en) 2021-07-15
JP7239744B2 true JP7239744B2 (en) 2023-03-14

Family

ID=76788580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021569767A Active JP7239744B2 (en) 2020-01-08 2020-12-04 Information processing system

Country Status (2)

Country Link
JP (1) JP7239744B2 (en)
WO (1) WO2021140798A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7094432B1 (en) 2021-12-03 2022-07-01 ソフトバンク株式会社 Information processing system, information processing device, program, and information processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018193061A (en) 2018-08-21 2018-12-06 株式会社エアロネクスト Rotary wing aircraft landing gear
JP2018206024A (en) 2017-06-02 2018-12-27 本田技研工業株式会社 Automatic travel control system and server device
JP2019016147A (en) 2017-07-06 2019-01-31 株式会社クボタ Field management system, method for field management, and management machine
JP2019028807A (en) 2017-07-31 2019-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile platform, information output method, program and recording medium
JP2019106061A (en) 2017-12-13 2019-06-27 株式会社エスエイピー Command and control system
JP2019529250A (en) 2016-09-21 2019-10-17 ジップライン インターナショナル インコーポレイテッド Automatic recovery system for unmanned aerial vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019529250A (en) 2016-09-21 2019-10-17 ジップライン インターナショナル インコーポレイテッド Automatic recovery system for unmanned aerial vehicles
JP2018206024A (en) 2017-06-02 2018-12-27 本田技研工業株式会社 Automatic travel control system and server device
JP2019016147A (en) 2017-07-06 2019-01-31 株式会社クボタ Field management system, method for field management, and management machine
JP2019028807A (en) 2017-07-31 2019-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile platform, information output method, program and recording medium
JP2019106061A (en) 2017-12-13 2019-06-27 株式会社エスエイピー Command and control system
JP2018193061A (en) 2018-08-21 2018-12-06 株式会社エアロネクスト Rotary wing aircraft landing gear

Also Published As

Publication number Publication date
JPWO2021140798A1 (en) 2021-07-15
WO2021140798A1 (en) 2021-07-15

Similar Documents

Publication Publication Date Title
CN111656424B (en) Automatic flying unmanned aerial vehicle system based on big data and automatic flying method thereof
US20230400853A1 (en) Adjusting a uav flight plan based on radio frequency signal data
US20210358311A1 (en) Automated system of air traffic control (atc) for at least one unmanned aerial vehicle (uav)
CN108132678B (en) Flight control method of aircraft and related device
US10909861B2 (en) Unmanned aerial vehicle in controlled airspace
US8594932B2 (en) Management system for unmanned aerial vehicles
US9188657B2 (en) Systems and methods of transmitter location detection
JP6960466B2 (en) Information processing device
TW201930918A (en) Adjustable object avoidance proximity threshold based on classification of detected objects
CN106774421B (en) Unmanned aerial vehicle trajectory planning system
JP6954983B2 (en) Information processing equipment, information processing methods, and programs
CN110515390B (en) Autonomous landing method and device of aircraft, electronic equipment and storage medium
US11948469B2 (en) Information processing apparatus
CN113741490A (en) Inspection method, inspection device, aircraft and storage medium
JPWO2021024450A1 (en) Management device, management method and management system
JP7239744B2 (en) Information processing system
JP7164633B2 (en) Information processing equipment
JP2021190951A (en) System, unmanned aircraft, management device, program and management method
KR102058510B1 (en) Method of providing obstacle information for safe operation of unmanned aerial vehicle, map server for the same, and automatic unmanned aerial vehicle operation system based on wireless communication network
KR20190004983A (en) Method and apparatus for providing digital moving map service for safe navigation of unmanned aerial vehicle
CN112833886A (en) Air route planning method and device based on unmanned aerial vehicle
JP2020184316A (en) Navigation performance in urban air vehicle
WO2019107047A1 (en) Information processing device
JP2023029358A (en) Automatic control system, automatic control method, and automatic control device
KR20190004976A (en) Method and apparatus for generating digital moving map for safe navigation of unmanned aerial vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230302

R150 Certificate of patent or registration of utility model

Ref document number: 7239744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150