WO2021140798A1 - 情報処理システム - Google Patents

情報処理システム Download PDF

Info

Publication number
WO2021140798A1
WO2021140798A1 PCT/JP2020/045216 JP2020045216W WO2021140798A1 WO 2021140798 A1 WO2021140798 A1 WO 2021140798A1 JP 2020045216 W JP2020045216 W JP 2020045216W WO 2021140798 A1 WO2021140798 A1 WO 2021140798A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
area
change
drone
dimensional map
Prior art date
Application number
PCT/JP2020/045216
Other languages
English (en)
French (fr)
Inventor
寛 河上
鷹見 忠雄
▲高▼橋 誠
香緒莉 新畑
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Priority to JP2021569767A priority Critical patent/JP7239744B2/ja
Publication of WO2021140798A1 publication Critical patent/WO2021140798A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Definitions

  • the present invention relates to the creation of a three-dimensional map.
  • a flight path may be determined so as not to collide with an obstacle based on a three-dimensional map showing the arrangement of objects existing in a real three-dimensional space.
  • Objects existing in three-dimensional space change daily due to new construction or demolition.
  • it is necessary to photograph the area where the object that changes every day exists. For example, when flying an aircraft for the purpose of updating the 3D map, even in an area where the object does not change. You will have to fly in vain. Therefore, an object of the present invention is to efficiently perform photographing for updating a three-dimensional map.
  • the present invention has a storage unit that stores a three-dimensional map showing the arrangement of objects existing in the three-dimensional space, and surroundings provided in the first flying object flying in the three-dimensional space.
  • An output acquisition unit that acquires an output from a sensor that can detect the arrangement of the object in the three-dimensional space, and a change of the object to be arranged as compared with the three-dimensional map occurs based on the acquired output.
  • an information processing system including a specific unit for specifying a change region and a photographing instruction unit for instructing a second flying object to photograph the specified change region.
  • Example FIG. 1 shows an example of the overall configuration of the three-dimensional map system 1 according to the embodiment.
  • the three-dimensional map system 1 is a system that generates and updates a three-dimensional map using an air vehicle.
  • a three-dimensional map is a map that three-dimensionally represents objects such as terrain, buildings, and plants that exist in real space.
  • a three-dimensional map is used, for example, to determine a flight path to avoid obstacles such as buildings and forests when making a flight plan for an air vehicle to fly in space.
  • the drone 20 is a rotorcraft type flying object that flies by rotating one or more rotors.
  • Each drone 20 has a function of autonomously flying in a planned flight path, and flies for the purpose of delivering luggage, taking a picture, or the like.
  • Each drone 20 is provided with a sensor for detecting an obstacle, and controls the flight so as to detect an obstacle existing in the flight path and avoid a collision.
  • the flight path is defined to avoid obstacles, but flying objects such as birds or other drones may appear as obstacles.
  • flying objects such as birds or other drones
  • newly constructed buildings, newly arranged overhead lines, and trees that have grown to hang on the flight path may appear as obstacles.
  • Flying objects are temporary obstacles, but buildings are permanent obstacles. Once those permanent obstacles are reflected on the 3D map, subsequent flight paths are defined to avoid the obstacles.
  • the server device 10 performs a process for reflecting an obstacle detected by the drone 20 during flight on a three-dimensional map.
  • the server device 10 instructs the photographing drone 30 to photograph the detected obstacle.
  • the photographing drone 30 has a function of photographing the surroundings, and photographs an instructed obstacle.
  • the photographing drone 30 transmits the photographed image of the obstacle to the server device 10.
  • the server device 10 reflects the obstacle on the three-dimensional map based on the transmitted image.
  • the processor 11 operates, for example, an operating system to control the entire computer.
  • the processor 11 may be configured by a central processing unit (CPU: Central Processing Unit) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like.
  • CPU Central Processing Unit
  • the baseband signal processing unit and the like may be realized by the processor 11. Further, the processor 11 reads a program (program code), a software module, data, and the like from at least one of the storage 13 and the communication device 14 into the memory 12, and executes various processes according to the read program and the like.
  • a program program code
  • the program a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used.
  • the storage 13 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, or a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like.
  • an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, or a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like.
  • an optical disk such as a CD-ROM (Compact Disc ROM), a hard
  • the storage 13 may be called an auxiliary storage device.
  • the storage medium described above may be, for example, a database, server or other suitable medium containing at least one of the memory 12 and the storage 13.
  • the communication device 14 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network.
  • the above-mentioned transmission / reception antenna, amplifier unit, transmission / reception unit, transmission line interface, and the like may be realized by the communication device 14.
  • the transmission / reception unit may be physically or logically separated from each other in the transmission unit and the reception unit.
  • each device such as the processor 11 and the memory 12 is connected by a bus 15 for communicating information.
  • the bus 15 may be configured by using a single bus, or may be configured by using a different bus for each device.
  • the communication device 24 has a function of communicating with the network 2 (for example, a wireless communication function using radio waves in the 2.4 GHz band).
  • the flight device 25 includes a motor, a rotor, and the like, and is a device for flying its own aircraft.
  • the flight device 25 can move its own aircraft in all directions and make its own aircraft stationary (hovering) in the air.
  • the sensor device 26 is a device having a sensor group for acquiring information necessary for flight control.
  • FIG. 4 shows an example of the hardware configuration of the shooting drone 30.
  • the photographing drone 30 is physically configured as a computer device including a processor 31, a memory 32, a storage 33, a communication device 34, a flight device 35, a sensor device 36, a camera 37, a bus 38, and the like. May be done.
  • the hardware of the same name shown in FIG. 2 such as the processor 31 is the same type of hardware as in FIG. 2, although there are differences in performance and specifications.
  • the camera 37 includes an image sensor, optical system parts, and the like, and photographs an object in the direction in which the lens is facing.
  • Each function in each device included in the three-dimensional map system 1 is performed by the processor by loading predetermined software (program) on the hardware such as each processor and memory, and the communication by each communication device is controlled. It is achieved by controlling at least one of reading and writing of data in memory and storage.
  • FIG. 5 shows the functional configuration realized by each device.
  • the server device 10 includes a three-dimensional map storage unit 101, an arrangement information acquisition unit 102, a change area identification unit 103, a flight prohibition instruction unit 104, an area shooting instruction unit 105, an area image acquisition unit 106, and a three-dimensional map update.
  • a unit 107 and a construction schedule acquisition unit 108 are provided.
  • the drone 20 includes a flight control unit 201 and an arrangement information measurement unit 202.
  • the photographing drone 30 includes an instruction receiving unit 301, a flight control unit 302, and an area photographing unit 303.
  • the flight control unit 201 of the drone 20 controls the flight of its own aircraft by using the measurement results of each sensor included in the sensor device 26.
  • the arrangement information measuring unit 202 of the drone 20 measures information indicating the arrangement of objects existing in the three-dimensional space (hereinafter referred to as “arrangement information”).
  • the arrangement information measuring unit 202 measures, for example, the position information indicating the position of the own machine in the three-dimensional space and the obstacle information indicating the distance from the own machine to the surrounding obstacles and the direction in the three-dimensional space as the arrangement information. To do.
  • the three-dimensional map storage unit 101 of the server device 10 stores a three-dimensional map showing the arrangement of objects existing in the three-dimensional space.
  • the three-dimensional map storage unit 101 is an example of the "storage unit" of the present invention.
  • the three-dimensional map storage unit 101 stores, for example, a set of coordinates of the surface of an object existing in the actual three-dimensional space as a three-dimensional map in the three-dimensional coordinate system set in the actual three-dimensional space.
  • Objects represented on a three-dimensional map include objects (hereinafter referred to as "fixed objects") whose positions are fixed without moving, such as the ground, water surface, buildings, and plants.
  • the drone 20 is an example of the "first flying object” of the present invention
  • the arrangement information acquisition unit 102 is an example of the "output acquisition unit” of the present invention.
  • a sensor for detecting an obstacle that may collide with the drone 20 is used as a placement detection sensor.
  • the placement detection sensor of this embodiment includes a positioning sensor (position sensor and altitude sensor included in the sensor device 26 of FIG. 3) that detects position information indicating the position of the own machine, and surrounding obstacles. It is a distance measuring sensor that detects obstacle information indicating the distance and direction.
  • the arrangement information acquisition unit 102 acquires the arrangement information repeatedly transmitted from the drone 20, and supplies the acquired arrangement information to the change area identification unit 103 each time it is acquired.
  • the change area specifying unit 103 is a region in which a change of an object to be arranged is generated as compared with a three-dimensional map based on the supplied arrangement information, that is, the output of the sensor acquired by the arrangement information acquisition unit 102 (hereinafter, "" Identify the "change area”).
  • the change region specifying unit 103 is an example of the "specific unit" of the present invention.
  • the change of the object that occurs in the change area is the change of the object that is placed only in the 3D map (that is, only in the past) and not in the current real space, and the change of the object that is placed in the current real space but in the 3D map. Includes changes in objects that are not (ie, in the past) placed, and objects that are placed on the 3D map (ie, in the past) and also in the current real space.
  • the change area identification unit 103 reads out a three-dimensional map from the three-dimensional map storage unit 101 when specifying the change area.
  • the change area identification unit 103 calculates the coordinates in the three-dimensional coordinate system used in the three-dimensional map for the object (obstacle in this embodiment) whose arrangement is indicated by the arrangement information. Since the arrangement information represents the arrangement of the objects by latitude, longitude and height as described above, the change area specifying unit 103 calculates the coordinates indicated by those latitudes, longitudes and heights.
  • the three-dimensional space A1 is divided into squares, and a three-dimensional map is represented by a set of coordinates of intersections.
  • the height difference is also shown on the three-dimensional map, but in FIG. 6, the height difference is not considered.
  • the drone 20 that has flown on the route B1 is shown.
  • the drone 20 was scheduled to fly on the planned flight path C1, but the building 3 not shown on the three-dimensional map is blocking the flight path C1.
  • the drone 20 measures the arrangement information indicating the arrangement of the measurement point D1 measured by the positioning sensor and the distance measuring sensor in the building 3 which is an obstacle.
  • the drone 20 flies on the route B2 that avoids obstacles, and continues to measure the arrangement information of the measurement point D1 while flying.
  • the drone 20 measures the arrangement information of the six measurement points D1.
  • the measurement point D1 includes only a part of the building 3 that can be measured from the path B2 side.
  • the change area specifying unit 103 specifies the area where the obstacle exists, which is indicated by the arrangement information output from the arrangement detection sensor, as the change area. As a result, the drone 20 having a function of avoiding obstacles can be used to identify the change area.
  • the change area identification unit 103 specifies the change area
  • the change area specifying unit 103 supplies the flight prohibition instruction unit 104 with change information indicating the specified change area.
  • the change information is, for example, a set of arrangement information (information indicating latitude, longitude, height) of the measurement point D1 used for specifying the change area and a set of coordinates representing the specified change area E1 (four sides of each change area E1). (Coordinates of) and information indicating.
  • the no-fly zone 104 prohibits flight in the space where the object exists when the change information is supplied, that is, when a region of a new object not shown on the three-dimensional map is specified as a change region. Instruct the drone 20.
  • the flight prohibition instruction unit 104 is an example of the "prohibition instruction unit" of the present invention.
  • the flight prohibition instruction unit 104 generates instruction data instructing the coordinates of the object indicated by the supplied change information, that is, a range of a certain distance from the coordinates of the obstacle as the no-fly zone, and transmits the instruction data to each drone 20. ..
  • FIG. 7 shows an example of a flight prohibited space.
  • the change region E1 identified in the example of FIG. 6 is shown.
  • the flight prohibition instruction unit 104 defines the smallest quadrangular region including the change region E1 inside (the outermost square does not include the change region E1) as the flight prohibition space F1.
  • the change area E1 may not be an area including all the buildings 3, the flight prohibited space F1 is set larger than the change area E1.
  • the flight control unit 201 of the drone 20 controls the flight of its own aircraft so as to avoid the flight prohibited space F1 when flying on the flight path passing through the flight prohibited space F1 indicated by the transmitted instruction data. If the three-dimensional map is up-to-date and the building 3 is shown, a flight plan to avoid the building 3 is created, but before the three-dimensional map shows the building 3, it is shown in FIG. A flight plan that collides with a building 3 such as a flight path C1 may be created.
  • the changing area specifying unit 103 does not specify the changing area for moving objects. Therefore, the flight prohibition instruction unit 104 does not instruct the flight prohibition when the new object not shown on the three-dimensional map is a moving object. If the new object is a moving object, the placement information will disappear immediately from the measured position, so it is useless to prohibit flight. By not prohibiting the flight of moving objects, such waste can be prevented.
  • the area shooting instruction unit 105 transmits instruction data instructing the shooting of the change area E1 indicated by the supplied change information to the shooting drone 30.
  • the instruction receiving unit 301 of the photographing drone 30 receives an instruction indicated by the transmitted instruction data, that is, an instruction of photographing a changing area by the area photographing instruction unit 105.
  • the instruction receiving unit 301 notifies the flight control unit 302 of the received instruction.
  • the 3D map update unit 107 calculates the coordinates in the 3D coordinate system used in the 3D map corresponding to the latitude, longitude and height of the object in the calculated image.
  • the three-dimensional map updating unit 107 reads out the latest three-dimensional map from the three-dimensional map storage unit 101, and reflects the calculated coordinates of the object on the read three-dimensional map. For example, the three-dimensional map updating unit 107 updates the z-coordinate to the coordinates of the object for the portion of the set of coordinates indicated by the three-dimensional map whose x-coordinate and y-coordinate are common to the coordinates of the object.
  • the area shooting instruction unit 105 instructs shooting if the current date is earlier than the scheduled completion date of the building indicated by the supplied schedule information, and shoots if the current date is later than the scheduled completion date. Do not instruct. In this way, the area shooting instruction unit 105 instructs the shooting drone 30 to end the shooting of the changing area when the construction end time indicated by the schedule information acquired by the building schedule acquisition unit 108 comes. This makes it possible to prevent unnecessary photography from being taken after the building is completed.
  • the server device 10 acquires the transmitted image data as data indicating an image of a change area photographed by the photographing drone 30 (step S24). Then, the server device 10 (three-dimensional map updating unit 107) updates the three-dimensional map based on the image of the change area indicated by the transmitted image data (step S25).
  • Software Software whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name, is an instruction, instruction set, code, code segment, program code, program. , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be broadly interpreted.
  • notification of predetermined information is not limited to the explicit one, and may be implicitly (for example, not giving the notification of the predetermined information).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Processing Or Creating Images (AREA)

Abstract

配置情報測定部202は、3次元空間に存在する物体の配置を示す配置情報を測定する。配置情報取得部102は、測定された配置情報を配置検出センサの出力として取得する。変化領域特定部103は、取得された配置情報に基づいて、立体地図と比較して配置される物体の変化が発生する変化領域を特定する。領域撮影指示部105は、特定された変化領域の撮影を撮影ドローン30に指示する。撮影ドローン30の飛行制御部302は、指示に基づいて自機の飛行を制御して、指示された変化領域まで自機を飛行させる。領域撮影部303は、自機が変化領域に到達すると変化領域を撮影する。領域画像取得部106は、撮影された変化領域の画像を示すデータを取得する。立体地図更新部107は、撮影された変化領域の画像に基づいて立体地図を更新する。

Description

情報処理システム
 本発明は、立体地図の作成に関する。
 特許文献1には、無人航空機が撮影した空撮画像に基づき生成された地図データと元の地図データとの差分を算出し、算出した差分が全体的な変形(平行移動、拡大縮小、回転、せん断等)を示す場合に空撮時の位置・経路・姿勢等を改善した空撮パラメータを生成することで差分が抑制された地図データを生成する技術が開示されている。
特開2019-028807号公報
 ドローンのような飛行体を自律的に飛行させる際に、現実の3次元空間に存在する物体の配置を示した立体地図に基づき障害物に衝突しないよう飛行経路が定められる場合がある。3次元空間に存在する物体は、新たな建築又は取り壊し等によって日々変化する。立体地図を更新するためには、日々変化する物体が存在する領域を撮影する必要があるが、例えば立体地図の更新目的で飛行体を飛行させるとなると、物体の変化がない地域であっても無駄に飛行しなければならなくなる。
 そこで、本発明は、立体地図を更新するための撮影を効率よく行うことを目的とする。
 上記目的を達成するために、本発明は、3次元空間に存在する物体の配置を示した立体地図を記憶する記憶部と、前記3次元空間を飛行する第1飛行体に設けられた、周囲の物体の前記3次元空間における配置を検出可能なセンサからの出力を取得する出力取得部と、取得された前記出力に基づいて、前記立体地図と比較して配置される物体の変化が発生する変化領域を特定する特定部と、特定された前記変化領域の撮影を第2飛行体に指示する撮影指示部とを備える情報処理システムを提供する。
 本発明によれば、立体地図を更新するための撮影を効率よく行うことができる。
実施例に係る立体地図システムの全体構成の一例を表す図 サーバ装置のハードウェア構成の一例を表す図 ドローンのハードウェア構成の一例を表す図 撮影ドローンのハードウェア構成の一例を表す図 各装置が実現する機能構成を表す図 特定された変化領域の一例を表す図 飛行禁止空間の一例を表す図 更新処理における各装置の動作手順の一例を表す図
[1]実施例
 図1は実施例に係る立体地図システム1の全体構成の一例を表す。立体地図システム1は、飛行体を用いて立体地図を生成及び更新するシステムである。立体地図とは、現実の空間に存在する地形、建物及び植物等の物体を立体的に表した地図である。立体地図は、例えば、飛行体が空間を飛行する飛行計画を立てる際に、ビル及び林等の障害物を回避する飛行経路を決定するために用いられる。
 立体地図システム1は、ネットワーク2と、サーバ装置10と、ドローン20-1、20-2、20-3、・・・(以下それぞれを区別しない場合は「ドローン20」と言う)と、撮影ドローン30とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、サーバ装置10が有線通信で(無線通信でもよい)、複数のドローン20が無線通信でアクセスしている。
 ドローン20は、本実施例では、1以上の回転翼を回転させて飛行する回転翼機型の飛行体である。各ドローン20は、予定された飛行経路を自律的に飛行する機能を有し、例えば、荷物の配送又は写真の撮影等を目的として飛行する。各ドローン20は、障害物を検知するためのセンサを備え、飛行経路に存在する障害物を検知して衝突を避けるように飛行を制御する。
 飛行経路は障害物を回避するように定められているが、例えば鳥又は他のドローンのような飛行物が障害物として現れる場合がある。他にも、新たに建設された建物、新たに配設された架線及び成長して飛行経路に掛かるようになった木等が障害物として現れる場合がある。飛行物は一時的な障害物だが、建物等は恒常的な障害物である。それらの恒常的な障害物が立体地図に反映されると、以降の飛行経路はその障害物を回避するように定められる。
 サーバ装置10は、ドローン20が飛行中に検知した障害物を立体地図に反映するための処理を行う。サーバ装置10は、検知された障害物を撮影するよう撮影ドローン30に指示する。撮影ドローン30は、周囲を撮影する機能を有し、指示された障害物を撮影する。撮影ドローン30は、撮影した障害物の映像をサーバ装置10に送信する。サーバ装置10は、送信されてきた映像に基づき障害物を立体地図に反映する。
 図2はサーバ装置10のハードウェア構成の一例を表す。サーバ装置10は、物理的には、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、バス15などを含むコンピュータ装置として構成されてもよい。なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。
 また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。
 例えば、ベースバンド信号処理部等は、プロセッサ11によって実現されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ13及び通信装置14の少なくとも一方からメモリ12に読み出し、読み出したプログラム等に従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。
 上述の各種処理は、1つのプロセッサ11によって実行される旨を説明してきたが、2以上のプロセッサ11により同時又は逐次に実行されてもよい。プロセッサ11は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。メモリ12は、コンピュータ読み取り可能な記録媒体である。
 メモリ12は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ12は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ12は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ13は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。
 ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及びストレージ13の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。通信装置14は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)である。
 例えば、上述の送受信アンテナ、アンプ部、送受信部、伝送路インターフェースなどは、通信装置14によって実現されてもよい。送受信部は、送信部と受信部とで、物理的に、または論理的に分離された実装がなされてもよい。また、プロセッサ11、メモリ12などの各装置は、情報を通信するためのバス15によって接続される。バス15は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 図3はドローン20のハードウェア構成の一例を表す。ドローン20は、物理的には、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、飛行装置25と、センサ装置26と、バス27などを含むコンピュータ装置として構成されてもよい。プロセッサ21等の図2に同名のハードウェアが表されているものは、性能及び仕様等の違いはあるが図2と同種のハードウェアである。
 通信装置24は、ネットワーク2との通信を行う機能(例えば2.4GHz帯の電波による無線通信機能)を有する。飛行装置25は、モータ及びローター等を備え、自機を飛行させる装置である。飛行装置25は、空中において、あらゆる方向に自機を移動させたり、自機を静止(ホバリング)させたりすることができる。センサ装置26は、飛行制御に必要な情報を取得するセンサ群を有する装置である。
 センサ装置26は、例えば、自機の位置(緯度及び経度)を測定する位置センサと、自機が向いている方向(ドローンには自機の正面方向が定められており、定められた正面方向が向いている方向)を測定する方向センサと、自機の高度を測定する高度センサとを備える。また、センサ装置26は、自機の速度を測定する速度センサを備える。
 また、センサ装置26は、3軸の角速度及び3方向の加速度を測定する慣性計測センサ(IMU(Inertial Measurement Unit))を備える。また、センサ装置26は、ドローン20に衝突する可能性がある障害物を検出するためのセンサ(以下「障害物検出センサ」と言う)を備える。センサ装置26は、例えば、赤外線又はミリ波等を照射して周囲の障害物までの距離及び方向を測定する測距センサを障害物検出センサとして備える。
 図4は撮影ドローン30のハードウェア構成の一例を表す。撮影ドローン30は、物理的には、プロセッサ31と、メモリ32と、ストレージ33と、通信装置34と、飛行装置35と、センサ装置36と、カメラ37と、バス38などを含むコンピュータ装置として構成されてもよい。プロセッサ31等の図2に同名のハードウェアが表されているものは、性能及び仕様等の違いはあるが図2と同種のハードウェアである。カメラ37は、イメージセンサ及び光学系の部品等を備え、レンズが向いている方向にある物体を撮影する。
 また、上記の各装置は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよい。また、上記の各装置は、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、当該ハードウェアの少なくとも1つを用いて実装されてもよい。
 立体地図システム1が備える各装置における各機能は、各々のプロセッサ、メモリなどのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサが演算を行い、各々の通信装置による通信を制御したり、メモリ及びストレージにおけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
 図5は各装置が実現する機能構成を表す。サーバ装置10は、立体地図記憶部101と、配置情報取得部102と、変化領域特定部103と、飛行禁止指示部104と、領域撮影指示部105と、領域画像取得部106と、立体地図更新部107と、建築予定取得部108とを備える。ドローン20は、飛行制御部201と、配置情報測定部202とを備える。撮影ドローン30は、指示受付部301と、飛行制御部302と、領域撮影部303とを備える。
 ドローン20の飛行制御部201は、センサ装置26が備える各センサの測定結果を用いて、自機の飛行を制御する。ドローン20の配置情報測定部202は、3次元空間に存在する物体の配置を示す情報(以下「配置情報」と言う)を測定する。配置情報測定部202は、例えば、自機の3次元空間における位置を示す位置情報と、自機から周囲の障害物までの距離及び3次元空間における方向を示す障害物情報とを配置情報として測定する。
 上記の配置情報は、位置情報が示す位置から障害物情報が示す方向に障害物情報が示す距離だけ移動した位置を物体(本実施例では障害物)の配置として示す。つまり、配置情報が示す物体の配置は、その物体のうちドローン20のセンサにより測定された部分の3次元空間における位置によって示される。配置情報は、物体の配置を、例えば緯度、経度及び高さで表す。
 配置情報は飛行制御にも用いられる情報なので、配置情報測定部202は、配置情報の測定を繰り返し行い、測定の度に配置情報を飛行制御部201に供給する。飛行制御部201は、供給された配置情報が示す障害物を回避するよう自機の飛行を制御する。また、配置情報測定部202は、配置情報の測定を繰り返し行い、測定の度に配置情報をサーバ装置10に送信する。
 サーバ装置10の立体地図記憶部101は、3次元空間に存在する物体の配置を示した立体地図を記憶する。立体地図記憶部101は本発明の「記憶部」の一例である。立体地図記憶部101は、例えば、現実の3次元空間において設定された3次元座標系における、現実の3次元空間に存在する物体の表面の座標の集合を立体地図として記憶する。立体地図に表される物体には、地面、水面、建物及び植物等の移動せずに位置が固定されている物体(以下「固定物」と言う)が含まれる。
 例えば植物又は建築中の建物のように形を変えることはあっても移動しないものは固定物に含まれるものとする。一方、動物及び乗り物等の移動する物体(以下「移動物」と言う)は、立体地図に表される物体に含まれない。サーバ装置10の配置情報取得部102は、サーバ装置10から送信されてきた配置情報を、3次元空間を飛行するドローン20に設けられた、周囲の物体の3次元空間における配置を検出可能なセンサ(以下「配置検出センサ」と言う)の出力として取得する。
 ドローン20は本発明の「第1飛行体」の一例であり、配置情報取得部102は本発明の「出力取得部」の一例である。本実施例では、ドローン20に衝突する可能性がある障害物を検出するためのセンサが配置検出センサとして用いられる。具体的には、本実施例の配置検出センサは、自機の位置を示す位置情報を検出する測位センサ(図3のセンサ装置26が備える位置センサ及び高度センサ)と、周囲の障害物までの距離及び方向を示す障害物情報を検出する測距センサである。
 配置情報取得部102は、ドローン20から繰り返し送信されてくる配置情報をそれぞれ取得し、取得した配置情報を取得の度に変化領域特定部103に供給する。変化領域特定部103は、供給された配置情報、すなわち、配置情報取得部102により取得されたセンサの出力に基づいて、立体地図と比較して配置される物体の変化が発生する領域(以下「変化領域」と言う)を特定する。変化領域特定部103は本発明の「特定部」の一例である。
 変化領域において発生する物体の変化には、立体地図にのみ(すなわち過去にのみ)配置され現在の現実空間には配置されていない物体の変化、現在の現実空間には配置されるが立体地図には(すなわち過去には)配置されていない物体、及び、立体地図に(すなわち過去に)配置され且つ現在の現実空間にも配置されている物体の変化が含まれる。
 変化領域特定部103は、配置情報が供給されると、まず、供給された配置情報が配置を示す物体が固定物か移動物かを判断する。変化領域特定部103は、同一物体の複数の配置情報が示す配置が変化していれば移動物と判断し、変化領域の特定を行わない。また、変化領域特定部103は、それらの配置が変化していなければ固定物と判断し、変化領域の特定を行う。
 変化領域特定部103は、変化領域の特定を行う場合、立体地図記憶部101から立体地図を読み出す。変化領域特定部103は、配置情報によって配置が示される物体(本実施例では障害物)について、立体地図で用いられている3次元座標系における座標を算出する。配置情報は、上述したように物体の配置を緯度、経度及び高さで表しているから、変化領域特定部103は、それらの緯度、経度及び高さが示す座標を算出する。
 変化領域特定部103は、算出した物体の座標が読み出した立体地図の座標の集合に含まれているか否かを判断し、含まれていないと判断した場合、物体から一定の範囲にある領域を変化領域として特定する。
 図6は特定された変化領域の一例を表す。図6では、鉛直上方から見た3次元空間A1が表されている。
 3次元空間A1は、マス目の形に区切られており、交点の座標の集合によって立体地図が表されているものとする。実際には高低差も立体地図に表されているが、図6では高低差は考慮しないものとする。図6では、経路B1を飛行してきたドローン20が表されている。ドローン20は、計画された飛行経路C1を飛行する予定だったが、立体地図に表されていなかった建築物3が飛行経路C1を遮っている。
 ドローン20は、障害物である建築物3のうち測位センサ及び測距センサにより測定される測定箇所D1の配置を示す配置情報を測定する。ドローン20は、障害物を回避する経路B2を飛行し、飛行しながらも測定箇所D1の配置情報を測定し続ける。図6の例では、ドローン20は、6つの測定箇所D1の配置情報を測定する。測定箇所D1は、建築物3のうち経路B2側から測定可能な箇所だけを含んでいる。
 変化領域特定部103は、測定箇所D1について算出した物体の座標が読み出した立体地図の座標の集合に含まれていないと判断し、測定箇所D1を含む領域及び測定箇所D1に隣接する領域を変化領域E1として特定する。図6に表すように、変化領域E1は、ドローン20が測定した配置情報に基づいて決まるので、図6の例では、建築物3を全て含む領域にはなっていない。
 上記のとおり、変化領域特定部103は、配置検出センサの出力である配置情報が示す障害物の存在する領域を変化領域として特定する。これにより、障害物を回避する機能を有するドローン20を変化領域の特定に利用することができる。変化領域特定部103は、変化領域を特定すると、特定した変化領域を示す変化情報を飛行禁止指示部104に供給する。変化情報は、例えば、変化領域の特定に用いられた測定箇所D1の配置情報(緯度、経度、高さを示す情報)と、特定した変化領域E1を表す座標の集合(各変化領域E1の四方の座標)とを示す情報である。
 飛行禁止指示部104は、変化情報が供給された場合、すなわち、立体地図に示されていない新たな物体のある領域が変化領域として特定された場合に、その物体が存在する空間の飛行禁止をドローン20に指示する。飛行禁止指示部104は本発明の「禁止指示部」の一例である。飛行禁止指示部104は、例えば、供給された変化情報が示す物体の座標、すなわち障害物の座標から一定の距離の範囲を飛行禁止空間として指示する指示データを生成して各ドローン20に送信する。
 図7は飛行禁止空間の一例を表す。図7では、図6の例で特定された変化領域E1が表されている。飛行禁止指示部104は、変化領域E1を内側に含む最小の四角形の領域(最外のマス目には変化領域E1を含まない)を飛行禁止空間F1として定めている。図6に示すように変化領域E1が建築物3を全て含む領域にならない場合があるので、変化領域E1に対して飛行禁止空間F1を大きめに定めている。
 ドローン20の飛行制御部201は、送信されてきた指示データが示す飛行禁止空間F1を通過する飛行経路で飛行している場合、飛行禁止空間F1を回避するよう自機の飛行を制御する。立体地図が最新の状態になっていて建築物3が表されていれば、建築物3を回避する飛行計画が作成されるが、立体地図に建築物3が表される前は図6に表す飛行経路C1のように建築物3に衝突する飛行計画が作成される場合がある。
 それでもドローン20のように障害物を回避する回避機能を有していれば建築物3との衝突を回避できるが、回避機能の不具合等もあり得るので、建築物3への衝突の可能性は0ではない。本実施例では、上記のとおり飛行禁止を指示することで、立体地図が最新になっているか否かにかかわらず、建築物3のような新たな物体へのドローン20の衝突可能性を低くすることができる。
 なお、本実施例では、変化領域特定部103が移動物については変化領域の特定を行わない。そのため、飛行禁止指示部104も、立体地図に示されていない新たな物体が移動物である場合には飛行禁止を指示しない。新たな物体が移動物であれば、配置情報が測定された位置からすぐにいなくなるため、飛行禁止をしても無駄になる。移動物について飛行禁止を行わないことで、そのような無駄を防ぐことができる。
 変化領域特定部103は、変化領域を特定すると、特定した変化領域を示す変化情報を領域撮影指示部105に供給する。領域撮影指示部105は、変化領域特定部103により特定された変化領域の撮影を撮影ドローン30に指示する。撮影ドローン30は本発明の「第2飛行体」の一例であり、領域撮影指示部105は本発明の「撮影指示部」の一例である。
 領域撮影指示部105は、図6に表す変化領域E1が特定された場合、供給された変化情報が示す変化領域E1の撮影を指示する指示データを撮影ドローン30に送信する。撮影ドローン30の指示受付部301は、送信されてきた指示データが示す指示、すなわち、領域撮影指示部105による変化領域の撮影の指示を受け付ける。指示受付部301は、受け付けた指示を飛行制御部302に通知する。
 飛行制御部302は、通知された指示に基づいて自機の飛行を制御して、指示された変化領域まで自機を飛行させる。また、飛行制御部302は、障害物検出センサの測定結果に基づいて障害物を検出し、検出した障害物を回避するよう自機を飛行させる。指示受付部301は、受け付けた指示を領域撮影部303にも通知する。領域撮影部303は、自機が変化領域に到達すると、通知された指示に基づいて、変化領域を撮影する。
 領域撮影部303は、例えば、変化領域E1の撮影が指示された場合、変化領域E1の周辺を周遊しながら複数の箇所において変化領域E1の方向を撮影する。その際、撮影ドローン30は、変化領域E1に近づきすぎると建築物3に衝突するおそれがあるが、飛行制御部302の制御により建築物3への衝突を回避しながら飛行する。そのため、撮影ドローン30は、変化領域E1に含まれていない建築物3も含めて周辺を飛行しながら領域撮影部303が変化領域E1の撮影を行う。
 領域撮影部303は、変化領域E1を撮影した画像に、撮影時に測定された自機の位置(緯度、経度、高さ)、方向及び画像内の物体までの距離を対応付けた画像データを生成してサーバ装置10に送信する。サーバ装置10の領域画像取得部106は、送信されてきた画像データを、撮影ドローン30により撮影された変化領域の画像を示すデータとして取得する。領域画像取得部106は、取得した画像データを立体地図更新部107に供給する。
 立体地図更新部107は、供給された画像データ、すなわち、領域撮影指示部105の指示により撮影された変化領域の画像に基づいて立体地図を更新する。立体地図更新部107は本発明の「更新部」の一例である。立体地図更新部107は、変化領域の画像データが供給されると、供給された画像データが示す自機の位置(緯度、経度、高さ)、方向及び画像内の物体までの距離に基づいて、画像内の物体(例えば建築物3)の表面の緯度、経度及び高さを算出する。
 立体地図更新部107は、算出した画像内の物体の緯度、経度及び高さに対応する、立体地図で用いられている3次元座標系における座標を算出する。立体地図更新部107は、立体地図記憶部101から最新の立体地図を読み出して、読み出した立体地図に、算出した物体の座標を反映する。立体地図更新部107は、例えば、立体地図が示す座標の集合のうち、x座標及びy座標が物体の座標と共通する部分については、z座標を物体の座標に更新する。
 例えば、立体地図で(x1、y1、z1)という座標が表されていて、物体の座標として(x1、y1、z2)が表されている場合には、立体地図更新部107は、(x1、y1、z1)という座標を(x1、y1、z2)に更新する。また、物体が建築物のように鉛直に沿った壁等を有している場合は、(x1、y1、z2)、(x1、y1、z3)、(x1、y1、z4)、・・・というようにz座標が異なる複数の座標で表される。
 その場合、立体地図更新部107は、立体地図では1つの座標だった箇所を複数の座標で更新する。以上のとおり立体地図が更新されることで、実際の空間に新たに現れた物体の近くをドローン20が飛行して障害物として検出した場合に、その物体を立体地図に反映し、新たな立体地図に基づく飛行計画ではその物体を回避した飛行経路を作成することができる。
 なお、本実施例では、変化領域特定部103が移動物については変化領域の特定を行わないので、領域撮影指示部105も、変化領域特定部103により特定された障害物が移動物である場合には撮影ドローン30への撮影の指示を行わない。新たな物体が移動物であれば、配置情報が測定された位置からすぐにいなくなるため、撮影指示をしても無駄になる。移動物について撮影指示を行わないことで、そのような無駄を防ぐことができる。
 また、領域撮影指示部105は、変化領域特定部103により特定された変化領域の撮影のための飛行を繰り返し行うよう撮影ドローン30に指示する。変化領域に現れた新たな物体が建築物である場合、一度変化領域を撮影して立体地図を更新しても、工事が進むにつれて建築物の形及び大きさが変化していく場合がある。そこで、撮影指示を繰り返し行うことで、建築物のような新たな物体が完成するまで立体地図を更新し続けることができる。
 変化領域特定部103は、特定した変化領域を示す変化情報を建築予定取得部108にも供給する。建築予定取得部108は、建築中の建築物の存在する領域が変化領域として特定された場合に、その建築物の建築終了時期の予定を示す予定情報を取得する。建築予定取得部108は本発明の「予定取得部」の一例である。建築予定取得部108は、例えば、立体地図が表す地域の建築物の位置に対応付けてその建築物の完成予定日を記憶しておく。
 建築予定取得部108は、変化情報が供給されると、供給された変化情報が示す変化領域の位置にある建築物の完成予定日を予定情報として取得する。なお、建築予定取得部108は、予め登録された外部の建築物を管理するシステムに完成予定日を問合わせてその応答で送られてくる完成予定日を予定情報として取得してもよい。建築予定取得部108は、取得した予定情報を領域撮影指示部105に供給する。
 領域撮影指示部105は、供給された予定情報が示す建築物の完成予定日よりも現在の日付が前であれば撮影を指示し、完成予定日よりも現在の日付が後であれば撮影を指示しない。このように、領域撮影指示部105は、建築予定取得部108により取得された予定情報が示す建築終了時期が来たら変化領域の撮影を終了するよう撮影ドローン30に指示する。これにより、建築物の完成後に不必要な撮影がされることを防ぐことができる。
 立体地図システム1が備える各装置は、上記の構成に基づいて、立体地図を更新する更新処理を行う。
 図8は更新処理における各装置の動作手順の一例を表す。図8の動作手順は、例えば、ドローン20が計画された飛行経路を飛行することを契機に開始される。まず、ドローン20(配置情報測定部202)は、3次元空間に存在する物体の配置を示す配置情報を測定すると(ステップS11)、測定した配置情報をサーバ装置10に送信する(ステップS12)。
 サーバ装置10(配置情報取得部102)は、送信されてきた配置情報を配置検出センサの出力として取得する(ステップS13)。次に、サーバ装置10(変化領域特定部103)は、取得された配置情報に基づいて、立体地図と比較して配置された物体に変化が生じている変化領域を特定する(ステップS14)。続いて、サーバ装置10(領域撮影指示部105)は、特定された変化領域の撮影を指示する指示データを撮影ドローン30に送信する(ステップS15)。
 撮影ドローン30(飛行制御部302)は、送信されてきた指示データが示す指示に基づいて自機の飛行を制御して、指示された変化領域まで自機を飛行させる(ステップS21)。次に、撮影ドローン30(領域撮影部303)は、自機が変化領域に到達すると、指示データが示す指示に基づいて変化領域を撮影し(ステップS22)、撮影した変化領域の画像データをサーバ装置10に送信する(ステップS23)。
 サーバ装置10(領域画像取得部106)は、送信されてきた画像データを、撮影ドローン30により撮影された変化領域の画像を示すデータとして取得する(ステップS24)。そして、サーバ装置10(立体地図更新部107)は、送信されてきた画像データが示す変化領域の画像に基づいて立体地図を更新する(ステップS25)。
 本実施例では、撮影ドローン30が変化領域を探さなくても、変化領域の探索とは異なる目的で飛行しているドローン20が障害物を検出することで変化領域が特定され、変化領域の撮影と立体地図の更新とが行われる。これにより、撮影ドローン30が変化領域を探索するための飛行をする場合に比べて、立体地図を更新するための撮影を効率よく行うことができる。
[2]変形例
 上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は必要に応じてそれぞれ組み合わせてもよい。実施例及び各変形例を組み合わせる際は、各変形例について優先順位を付けて(各変形例を実施すると競合する事象が生じる場合にどちらを優先するかを決める順位付けをして)実施してもよい。
[2-1]飛行体
 実施例では、飛行体として回転翼機型の飛行体が用いられたが、これに限らない。飛行体は、例えば固定翼(飛行機型)タイプの飛行体、ヘリコプター型の飛行体、又はVTOL(Vertical Take-Off and Landing Aircraft:垂直離着陸機)型の飛行体等であってもよい。
[2-2]配置検出センサ
 実施例では、障害物を検出するためのセンサが配置検出センサとして用いられたが、配置検出センサはこれに限らない。例えば、イメージセンサが配置検出センサとして用いられてもよい。その場合、ドローン20は、デジタルカメラを備え、デジタルカメラのイメージセンサに結像した画像を撮影する。
 その場合、変化領域特定部103は、イメージセンサの出力である画像から認識された物体が立体地図に示される物体と相違する領域を変化領域として特定する。デジタルカメラが撮影する画像には、ドローン20の飛行経路だけでなくその周辺に存在する物体も含まれる。そのため、飛行経路上の新たな物体だけでなく、ドローン20から撮影可能な範囲に存在する変化領域を立体地図に反映することができる。
[2-3]変化領域
 実施例では、変化領域特定部103が、新たな物体が現れた領域を変化領域として特定したが、これに限らず、それまであった物体がなくなった領域を変化領域として特定してもよい。なくなった物体とは、例えば、取り壊された建築物、移設された設備又は切り倒された樹木等である。
[2-4]各機能を実現する装置
 図5に表す各機能を実現する装置は、上述した装置に限らない。例えば、サーバ装置10が実現する機能をドローン20又は撮影ドローン30が実現してもよい。また、撮影ドローン30が実現する機能をドローン20が実現してもよい。その場合、変化領域の撮影の指示がドローン20に対して行われ、ドローン20は、搬送等を目的とした本来の飛行予定が入っていなければ変化領域を撮影に行く。いずれの場合も、立体地図システム1の全体で図5にa表す各機能が実現されていればよい。
[2-5]撮影の指示対象
 領域撮影指示部105は、実施例では、領域の撮影を撮影ドローン30という特定のドローンに指示したが、これに限らず、状況に応じて指示対象のドローンを変えてもよい。領域撮影指示部105は、例えば、変化領域特定部103により特定された変化領域を撮影可能なドローンが複数ある場合、その変化領域からの距離の近さが所定の条件を満たすドローンを撮影を指示するドローンとする。
 所定の条件としては、例えば、変化領域に最も近いドローンのみが満たす条件である。また、他にも、変化領域に近いほうからN(Nは自然数)台目までのドローンが満たす条件であってもよいし、変化領域までの距離が閾値未満であるドローンが満たす条件であってもよい。指示対象が撮影ドローン30及びドローン20のいずれの場合においても、ドローンの位置はそのドローンが配置される事業所等の位置であってもよいし、飛行中のドローンの位置であってもよい。
 指示対象を決めるために変化領域からの距離の近さを用いた場合、変化領域からの距離を考慮しない場合に比べて、変化領域をより早く撮影することができる。なお、領域撮影指示部105は、他にも、例えば、変化領域特定部103により特定された変化領域を撮影可能なドローンが複数ある場合、許容される飛行経路の自由度の高さが所定の条件を満たすドローンを撮影を指示するドローンとする。
 飛行経路の自由度は、例えば、飛行目的に基づく制約が少ないドローンほど高いものとする。飛行目的に基づく制約とは、例えば、荷物を搬送するドローンは制約が多いが、荷物の搬送を終えて拠点に帰還するドローンは制約が少ない。また、他にも、飛行経路の自由度は、例えば、飛行可能距離が長いドローンほど、又は、障害物回避能力が高いドローンほど高いものとしてもよい。
 要するに、飛行経路の選択肢が少ない又は飛行時間に余裕がないドローンほど制約が多く、反対に飛行経路の選択肢が多い又は飛行時間に余裕があるドローンほど制約が少ないものとする。所定の条件としては、例えば、許容される飛行経路の自由度が最も高いドローンのみが満たす条件である。また、他にも、許容される飛行経路の自由度が高いほうからN(Nは自然数)台目までのドローンが満たす条件であってもよい。
 指示対象を決めるために飛行経路の自由度の高さを用いた場合、飛行経路の自由度を考慮しない場合に比べて、変化領域を撮影するための飛行経路をとりやすく、変化領域の撮影をより確実に行うことができる。また、本変形例によれば、常に同じドローンに撮影を指示する場合に比べて、変化領域の撮影をより早く、又はより確実に行うことができる。
[2-6]発明のカテゴリ
 本発明は、上述したサーバ装置10のような情報処理装置の他、その情報処理装置と、ドローン20及び撮影ドローン30のような飛行体とを備える立体地図システム1のような情報処理システムとしても捉えられる。また、本発明は、情報処理装置が実施する処理を実現するための情報処理方法としても捉えられるし、情報処理装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。本発明として捉えられるプログラムは、プログラムを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、
インターネット等のネットワークを介してコンピュータにダウンロードさせ、ダウンロードしたプログラムをインストールして利用可能にするなどの形態で提供されてもよい。
[2-7]機能ブロック
 なお、上記実施例の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。
 すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
[2-8]入出力された情報等の扱い
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-9]判定方法
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
[2-10]処理手順等
 本開示において説明した各態様/実施例の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-11]入出力された情報等の扱い
 入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-12]ソフトウェア
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
[2-13]情報、信号
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-14]「判断」、「決定」
 本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。
 また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
[2-15]「に基づいて」の意味
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-16]「異なる」
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
[2-17]「及び」、「又は」
 本開示において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-18]態様のバリエーション等
 本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、
「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
1…立体地図システム、10…サーバ装置、20…ドローン、30…撮影ドローン、101…立体地図記憶部、102…配置情報取得部、103…変化領域特定部、104…飛行禁止指示部、105…領域撮影指示部、106…領域画像取得部、107…立体地図更新部、108…建築予定取得部、201…飛行制御部、202…配置情報測定部、301…指示受付部、302…飛行制御部、303…領域撮影部。

Claims (10)

  1.  3次元空間に存在する物体の配置を示した立体地図を記憶する記憶部と、
     前記3次元空間を飛行する第1飛行体に設けられた、周囲の物体の前記3次元空間における配置を検出可能なセンサからの出力を取得する出力取得部と、
     取得された前記出力に基づいて、前記立体地図と比較して配置される物体の変化が発生する変化領域を特定する特定部と、
     特定された前記変化領域の撮影を第2飛行体に指示する撮影指示部と
     を備える情報処理システム。
  2.  前記指示により撮影された画像に基づいて前記立体地図を更新する更新部を備える
     請求項1に記載の情報処理システム。
  3.  前記撮影指示部は、特定された前記変化領域を撮影可能な飛行体が複数ある場合、当該変化領域からの距離の近さ、又は、許容される飛行経路の自由度の高さいずれかが所定の条件を満たす飛行体を前記第2飛行体とする
     請求項1又は2に記載の情報処理システム。
  4.  前記センサは前記第1飛行体に衝突する可能性がある障害物を検出するためのセンサであり、
     前記特定部は、前記出力が示す前記障害物の存在する領域を前記変化領域として特定する
     請求項1から3のいずれか1項に記載の情報処理システム。
  5.  前記撮影指示部は、特定された前記障害物が移動物である場合は前記指示を行わない
     請求項4に記載の情報処理システム。
  6.  前記センサはイメージセンサであり、
     前記特定部は、前記イメージセンサの出力である画像から認識された物体が前記立体地図に示される物体と相違する領域を前記変化領域として特定する
     請求項1から3のいずれか1項に記載の情報処理システム。
  7.  前記立体地図に示されていない新たな物体のある領域が前記変化領域として特定された場合に、当該物体が存在する空間の飛行禁止を飛行体に指示する禁止指示部を備える
     請求項1から6のいずれか1項に記載の情報処理システム。
  8.  前記禁止指示部は、前記新たな物体が移動物である場合には前記飛行禁止を指示しない
     請求項7に記載の情報処理システム。
  9.  前記撮影指示部は、特定された前記変化領域の撮影のための飛行を繰り返し行うよう前記第2飛行体に指示する
     請求項1から8のいずれか1項に記載の情報処理システム。
  10.  建築中の建築物の存在する領域が前記変化領域として特定された場合に、当該建築物の建築終了時期の予定を示す予定情報を取得する予定取得部を備え、
     前記撮影指示部は、取得された前記予定情報が示す前記建築終了時期が来たら前記変化領域の撮影を終了するよう前記第2飛行体に指示する
     請求項9に記載の情報処理システム。
PCT/JP2020/045216 2020-01-08 2020-12-04 情報処理システム WO2021140798A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021569767A JP7239744B2 (ja) 2020-01-08 2020-12-04 情報処理システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-001401 2020-01-08
JP2020001401 2020-01-08

Publications (1)

Publication Number Publication Date
WO2021140798A1 true WO2021140798A1 (ja) 2021-07-15

Family

ID=76788580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045216 WO2021140798A1 (ja) 2020-01-08 2020-12-04 情報処理システム

Country Status (2)

Country Link
JP (1) JP7239744B2 (ja)
WO (1) WO2021140798A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7094432B1 (ja) 2021-12-03 2022-07-01 ソフトバンク株式会社 情報処理システム、情報処理装置、プログラム、及び情報処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018193061A (ja) * 2018-08-21 2018-12-06 株式会社エアロネクスト 回転翼機着陸装置
JP2018206024A (ja) * 2017-06-02 2018-12-27 本田技研工業株式会社 自動走行制御システム及びサーバ装置
JP2019016147A (ja) * 2017-07-06 2019-01-31 株式会社クボタ 圃場管理システム、圃場管理方法及び管理機
JP2019028807A (ja) * 2017-07-31 2019-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォーム、情報出力方法、プログラム、及び記録媒体
JP2019106061A (ja) * 2017-12-13 2019-06-27 株式会社エスエイピー 指令管制システム
JP2019529250A (ja) * 2016-09-21 2019-10-17 ジップライン インターナショナル インコーポレイテッド 無人航空機のための自動回収システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019529250A (ja) * 2016-09-21 2019-10-17 ジップライン インターナショナル インコーポレイテッド 無人航空機のための自動回収システム
JP2018206024A (ja) * 2017-06-02 2018-12-27 本田技研工業株式会社 自動走行制御システム及びサーバ装置
JP2019016147A (ja) * 2017-07-06 2019-01-31 株式会社クボタ 圃場管理システム、圃場管理方法及び管理機
JP2019028807A (ja) * 2017-07-31 2019-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォーム、情報出力方法、プログラム、及び記録媒体
JP2019106061A (ja) * 2017-12-13 2019-06-27 株式会社エスエイピー 指令管制システム
JP2018193061A (ja) * 2018-08-21 2018-12-06 株式会社エアロネクスト 回転翼機着陸装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7094432B1 (ja) 2021-12-03 2022-07-01 ソフトバンク株式会社 情報処理システム、情報処理装置、プログラム、及び情報処理方法
JP2023083134A (ja) * 2021-12-03 2023-06-15 ソフトバンク株式会社 情報処理システム、情報処理装置、プログラム、及び情報処理方法

Also Published As

Publication number Publication date
JP7239744B2 (ja) 2023-03-14
JPWO2021140798A1 (ja) 2021-07-15

Similar Documents

Publication Publication Date Title
CN111656424B (zh) 基于大数据的自动飞行无人机系统及其自动飞行方法
US11874656B2 (en) Unmanned aerial vehicle modular command priority determination and filtering system
US20220185471A1 (en) Unmanned Aerial Vehicle Beyond Visual Line of Sight Control
US10909861B2 (en) Unmanned aerial vehicle in controlled airspace
JP6389568B2 (ja) 自律飛行機のフライトパスを管理するためのシステム及び方法
CN108132678B (zh) 一种飞行器的飞行控制方法及相关装置
EP3735380B1 (en) Adjusting flight parameters of an aerial robotic vehicle based on presence of propeller guard(s)
JP6960466B2 (ja) 情報処理装置
TW201930918A (zh) 基於偵測到的物件的分類的可調整的物件避開接近度閾值
CA2923978C (en) Systems and methods of transmitter location detection
CN106774421B (zh) 一种无人机轨迹规划系统
EP3236213A2 (en) Cockpit display for degraded visual environment (dve) using millimeter wave radar (mmwr)
JP6954983B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11948469B2 (en) Information processing apparatus
JP2014162316A (ja) 捜索作業支援システム、捜索作業支援方法、及びプログラム
WO2021140798A1 (ja) 情報処理システム
JPWO2020153172A1 (ja) 情報処理装置
WO2019090512A1 (zh) 无人飞行器的飞行管制方法、设备及无人飞行器
KR20190004983A (ko) 무인비행체의 안전 운항을 위한 디지털 무빙 맵 서비스 제공 방법 및 장치
JPWO2020153170A1 (ja) 情報処理装置
CN113574487A (zh) 无人机控制方法、装置及无人机
US20230042820A1 (en) Systems and methods for providing obstacle information to aircraft operator displays
JP2023029358A (ja) 自動管制システム、自動管制方法、及び自動管制装置
WO2019107047A1 (ja) 情報処理装置
KR20200062866A (ko) 방제 대상 영역에 대한 무인비행체의 이동경로를 관리하는 방법, 장치 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20912354

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021569767

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20912354

Country of ref document: EP

Kind code of ref document: A1