WO2021251441A1 - Method, system, and program - Google Patents

Method, system, and program Download PDF

Info

Publication number
WO2021251441A1
WO2021251441A1 PCT/JP2021/021987 JP2021021987W WO2021251441A1 WO 2021251441 A1 WO2021251441 A1 WO 2021251441A1 JP 2021021987 W JP2021021987 W JP 2021021987W WO 2021251441 A1 WO2021251441 A1 WO 2021251441A1
Authority
WO
WIPO (PCT)
Prior art keywords
restricted area
map
area
flight restricted
flight
Prior art date
Application number
PCT/JP2021/021987
Other languages
French (fr)
Japanese (ja)
Inventor
剛史 中村
Original Assignee
株式会社Clue
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Clue filed Critical 株式会社Clue
Priority to JP2022530612A priority Critical patent/JPWO2021251441A1/ja
Publication of WO2021251441A1 publication Critical patent/WO2021251441A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[Problem] To make it possible to easily set a flight-restricted zone of a flying object on the scene. [Solution] The present method is used in setting a flight-restricted zone, and this method includes displaying a map on a touch panel 12, acquiring information relating to an area indicated on the map displayed on the touch panel 12, the area being inputted on the basis of an operation performed on the map, and outputting information relating to a flight-restricted zone of an unmanned flying object 20 in real space on the basis of the area indicated on the map.

Description

方法、システムおよびプログラムMethods, systems and programs
 本開示は、方法、システムおよびプログラムに関する。 This disclosure relates to methods, systems and programs.
 ドローン等の無人飛行体を用いた点検や撮影等のニーズが高まっている。そのため、無人飛行体を容易に操作する技術の開発が進められている。例えば、特許文献1には、タッチパネルを用いて無人飛行体を操作するための技術が開示されている。 There is an increasing need for inspections and photography using unmanned aerial vehicles such as drones. Therefore, the development of technology for easily operating an unmanned aircraft is underway. For example, Patent Document 1 discloses a technique for operating an unmanned flying object using a touch panel.
特開2019-85041号公報Japanese Unexamined Patent Publication No. 2019-85041
 点検や撮影を行う現場においては、可能な限り飛行体を飛行させる領域を制限する作業を行うことがある。その飛行を制限する区域の位置や大きさは現場によって異なるため、そのたびに設定することが求められる。 At the site of inspection and shooting, work may be done to limit the area where the flying object is flown as much as possible. Since the position and size of the area that restricts the flight varies depending on the site, it is required to set it each time.
 本開示はこのような背景を鑑みてなされたものであり、その目的は、現場での飛行体の飛行制限区域の設定を容易に行うことが可能な、方法、システムおよびプログラムを提供することである。 This disclosure has been made in view of this background and its purpose is to provide methods, systems and programs that make it easy to set flight restricted areas for aircraft in the field. be.
 本開示によれば、表示部にマップを表示することと、前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定 領域に係る情報を取得することと、前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力することと、を含む方法が提供される。 According to the present disclosure, the map is displayed on the display unit, the information related to the designated area on the map input based on the operation for the map displayed on the display unit is acquired, and the information on the map is acquired. A method is provided that includes outputting information about a flight restricted area of an air vehicle in real space based on a designated area of.
 また、本開示によれば、表示部にマップを表示させる表示制御部と、前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得する入力情報取得部と、前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力する出力制御部と、を備えるシステムが提供される。 Further, according to the present disclosure, the display control unit for displaying the map on the display unit and the input information for acquiring the information related to the designated area on the map input based on the operation for the map displayed on the display unit. A system including an acquisition unit and an output control unit that outputs information relating to a flight restricted area of an air vehicle in real space based on a designated area on the map is provided.
 また、本開示によれば、コンピュータを、表示部にマップを表示させる表示制御部と、前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得する入力情報取得部と、前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力する出力制御部と、として機能させるプログラムが提供される。 Further, according to the present disclosure, the computer acquires information related to a display control unit that displays a map on the display unit and a designated area on the map that is input based on an operation on the map displayed on the display unit. A program is provided that functions as an input information acquisition unit and an output control unit that outputs information related to a flight restricted area of an air vehicle in real space based on a designated area on the map.
 本発明によれば、現場での飛行体の飛行制限区域の設定を容易に行うことができる。 According to the present invention, it is possible to easily set the flight restricted area of the flying object at the site.
本開示の一実施形態に係るシステム1の概略を示す図である。It is a figure which shows the outline of the system 1 which concerns on one Embodiment of this disclosure. 同実施形態に係る情報処理端末10の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing terminal 10 which concerns on the same embodiment. 同実施形態に係る無人飛行体20の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the unmanned aircraft 20 which concerns on the same embodiment. 同実施形態に係る制御部11の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part 11 which concerns on the same embodiment. 同実施形態に係るシステム1における一連の制御に係るフローチャート図である。It is a flowchart which concerns on a series of control in the system 1 which concerns on the same embodiment. 同実施形態に係るシステム1による飛行制限区域の設定方法に係るタッチパネル12の第1の画面例を示す図である。It is a figure which shows the 1st screen example of the touch panel 12 which concerns on the setting method of the flight restricted area by the system 1 which concerns on the same embodiment. 同実施形態に係るシステム1による飛行制限区域の設定方法に係るタッチパネル12の第2の画面例を示す図である。It is a figure which shows the 2nd screen example of the touch panel 12 which concerns on the setting method of the flight restricted area by the system 1 which concerns on the same embodiment. 同実施形態に係るシステム1を用いた飛行制限区域に係る情報の出力方法における一連の制御に係るフローチャート図である。It is a flowchart which concerns on a series of control in the information output method concerning the flight restricted area using the system 1 which concerns on the same embodiment. 同実施形態に係るシステム1による飛行制限区域に係る情報の出力方法に係るタッチパネル12の第1の画面例を示す図である。It is a figure which shows the 1st screen example of the touch panel 12 which concerns on the output method of the information which concerns on the flight restricted area by the system 1 which concerns on the same embodiment. 同実施形態に係るシステム1による飛行制限区域に係る情報の出力方法に係るタッチパネル12の第2の画面例を示す図である。It is a figure which shows the 2nd screen example of the touch panel 12 which concerns on the output method of the information which concerns on the flight restricted area by the system 1 which concerns on the same embodiment. 同実施形態に係るシステム1による飛行制限区域に係る情報の出力方法に係るタッチパネル12の第3の画面例を示す図である。It is a figure which shows the 3rd screen example of the touch panel 12 which concerns on the output method of the information which concerns on the flight restricted area by the system 1 which concerns on the same embodiment.
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 The preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings below. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, and duplicate description will be omitted.
<システム概要>
 図1は、本開示の一実施形態に係るシステム1の概略を示す図である。図示のように、システム1は、情報処理端末10と、無人飛行体20とを備える。本実施形態に係るシステム1は、例えば、建造物S1等を含む区域FRA1の撮影等のために用いられ得る。かかるシステム1においては、情報処理端末10を使用するユーザUが、情報処理端末10のタッチパネルに対して、無人飛行体20の飛行を制御するための操作を行う。その際に、タッチパネルには、無人飛行体20に搭載されるカメラ28により撮影される、上記の区域を含む画像が表示される。本実施形態では、例えば、タッチパネルに映る画像に重畳して、無人飛行体20の飛行制限区域の情報が表示され得る。かかる表示により、無人飛行体20が飛行可能/飛行不可能な区域を、ユーザUはタッチパネルを見ることで把握することができる。
<System overview>
FIG. 1 is a diagram showing an outline of a system 1 according to an embodiment of the present disclosure. As shown in the figure, the system 1 includes an information processing terminal 10 and an unmanned flying object 20. The system 1 according to the present embodiment can be used, for example, for photographing an area FRA1 including a building S1 or the like. In such a system 1, the user U who uses the information processing terminal 10 operates the touch panel of the information processing terminal 10 to control the flight of the unmanned flying object 20. At that time, the touch panel displays an image including the above area taken by the camera 28 mounted on the unmanned flying object 20. In the present embodiment, for example, information on the flight restricted area of the unmanned vehicle 20 can be displayed by superimposing it on an image displayed on the touch panel. With such a display, the user U can grasp the area where the unmanned vehicle 20 can / cannot fly by looking at the touch panel.
 本実施形態に係る情報処理端末10は、いわゆるタブレット状の小型のコンピュータによって実装される。他の実施形態においては、情報処理端末10は、スマートフォンまたはゲーム機等の携帯型の情報処理端末により実現されてもよいし、パーソナルコンピュータ等の据え置き型の情報処理端末により実現されてもよい。また、情報処理端末10は、複数のハードウェアにより実現され、それらに機能が分散された構成を有してもよい。 The information processing terminal 10 according to this embodiment is mounted by a so-called tablet-shaped small computer. In another embodiment, the information processing terminal 10 may be realized by a portable information processing terminal such as a smartphone or a game machine, or may be realized by a stationary information processing terminal such as a personal computer. Further, the information processing terminal 10 may be realized by a plurality of hardware and may have a configuration in which the functions are distributed to them.
 図2は、本実施形態に係る情報処理端末10の構成を示すブロック図である。図示のように、情報処理端末10は、制御部11及び表示部の一例であるタッチパネル12を備える。 FIG. 2 is a block diagram showing the configuration of the information processing terminal 10 according to the present embodiment. As shown in the figure, the information processing terminal 10 includes a control unit 11 and a touch panel 12 which is an example of a display unit.
 プロセッサ11aは、制御部11の動作を制御し、各要素間におけるデータの送受信の制御や、プログラムの実行に必要な処理等を行う演算装置である。このプロセッサ11aは、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ11cに格納されてメモリ11bに展開されたプログラムを実行して各処理を行う。 The processor 11a is an arithmetic unit that controls the operation of the control unit 11, controls the transmission and reception of data between each element, and performs processing necessary for program execution. In the present embodiment, the processor 11a is, for example, a CPU (Central Processing Unit), and executes each process by executing a program stored in the storage 11c and expanded in the memory 11b, which will be described later.
 メモリ11bは、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。このメモリ11bは、プロセッサ11aの作業領域として使用される一方、制御部11の起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。 The memory 11b includes a main storage device composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory), and an auxiliary storage device composed of a non-volatile storage device such as a flash memory and an HDD (Hard Disc Drive). .. While the memory 11b is used as a work area of the processor 11a, the BIOS (Basic Input / Output System) executed when the control unit 11 is started, various setting information, and the like are stored.
 ストレージ11cは、プログラムや各種の処理に用いられる情報等が格納されている。例えば、建造物S1等を含む区域を撮像するための飛行体を、情報処理端末10を介してユーザが操作する場合、ストレージ11cには、かかる飛行体の飛行を制御するプログラムが格納されていてもよい。 The storage 11c stores programs and information used for various processes. For example, when a user operates an air vehicle for imaging an area including a building S1 or the like via an information processing terminal 10, a program for controlling the flight of the air vehicle is stored in the storage 11c. May be good.
 送受信部11dは、制御部11をインターネット網等のネットワークに接続するものであって、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。 The transmission / reception unit 11d connects the control unit 11 to a network such as an Internet network, and may be provided with a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).
 入出力部11eは、入出力機器が接続されるインターフェースであって、本実施形態では、タッチパネル12が接続される。 The input / output unit 11e is an interface to which input / output devices are connected, and in the present embodiment, the touch panel 12 is connected.
 バス11fは、接続したプロセッサ11a、メモリ11b、ストレージ11c、送受信部11d及び入出力部11eの間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。 The bus 11f transmits, for example, an address signal, a data signal, and various control signals between the connected processor 11a, memory 11b, storage 11c, transmission / reception unit 11d, and input / output unit 11e.
 タッチパネル12は、表示部の一例であり、取得した映像や画像が表示される表示面を備える。この表示面は、本実施形態では、表示面への接触によって情報の入力を受け付けるものであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。 The touch panel 12 is an example of a display unit, and includes a display surface on which acquired images and images are displayed. In the present embodiment, this display surface receives information input by contact with the display surface, and is implemented by various techniques such as a resistance film method and a capacitance method.
 タッチパネル12の表示面には、例えば、無人飛行体20により撮像された画像が表示され得る。該表示面には、無人飛行体20に撮像された画像に重畳して、無人飛行体20の飛行制限区域に関する情報が表示され得る。また、該表示面には、無人飛行体20の飛行制御や撮像装置の制御のためのボタンやオブジェクト等が表示され得る。また、ユーザは、該表示面に表示された画像やボタン等に対して、タッチパネル12を介して入力情報を入力し得る。 For example, an image captured by the unmanned flying object 20 can be displayed on the display surface of the touch panel 12. Information about the flight restricted area of the unmanned vehicle 20 may be displayed on the display surface by superimposing it on the image captured by the unmanned vehicle 20. Further, on the display surface, buttons, objects, and the like for flight control of the unmanned vehicle 20 and control of the image pickup apparatus may be displayed. Further, the user can input input information to the image, the button, or the like displayed on the display surface via the touch panel 12.
 なお、本実施形態では表示部の一例としてタッチパネル12を挙げているが、本技術はかかる例に限定されない。例えば、表示部は、他のディスプレイ、モニタまたはスマートフォン等の表示機器により実現されてもよい。また、入力情報を取得するための入力装置としては、タッチパネル12以外の方法で実現されていてもよい。例えば、入力装置として、タッチパネル12の代わりに、マウス、キーボード、音声認識デバイス、視線認識デバイス等の様々な入力デバイスにより実現されていてもよい。また、タッチパネル12等の表示機器および入力装置の少なくともいずれかとは独立して、情報処理装置10が実現されてもよい。この場合、例えば、情報処理装置10は、クラウドサーバ等の一又は複数のサーバにより実現され、タッチパネル12と通信可能に設けられてもよい。 Although the touch panel 12 is mentioned as an example of the display unit in the present embodiment, the present technology is not limited to such an example. For example, the display unit may be realized by another display device such as a display, a monitor, or a smartphone. Further, the input device for acquiring the input information may be realized by a method other than the touch panel 12. For example, the input device may be realized by various input devices such as a mouse, a keyboard, a voice recognition device, and a line-of-sight recognition device instead of the touch panel 12. Further, the information processing device 10 may be realized independently of at least one of the display device such as the touch panel 12 and the input device. In this case, for example, the information processing apparatus 10 may be realized by one or a plurality of servers such as a cloud server and may be provided so as to be able to communicate with the touch panel 12.
 図3は、本実施形態に係る無人飛行体20の機能構成の一例を示すブロック図である。図3に示すように、一実施形態に係る無人飛行体20は、本体21において、送受信部22、フライトコントローラ23、バッテリ24、ESC25、モータ26、プロペラ27およびカメラ28を備える。なお、無人飛行体20は飛行体の一例である。飛行体の種類は特に限定されず、例えば、図3に示すようなマルチローター式のいわゆるドローンであってもよい。 FIG. 3 is a block diagram showing an example of the functional configuration of the unmanned aircraft 20 according to the present embodiment. As shown in FIG. 3, the unmanned vehicle 20 according to the embodiment includes a transmission / reception unit 22, a flight controller 23, a battery 24, an ESC 25, a motor 26, a propeller 27, and a camera 28 in the main body 21. The unmanned flying object 20 is an example of an flying object. The type of the flying object is not particularly limited, and may be, for example, a so-called multi-rotor type drone as shown in FIG.
 フライトコントローラ23は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサ23Aを有することができる。 The flight controller 23 can have one or more processors 23A such as a programmable processor (eg, central processing unit (CPU)).
 フライトコントローラ23は、メモリ23Bを有しており、メモリ23Bにアクセス可能である。メモリ23Bは、1つ以上のステップを行うためにフライトコントローラが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。 The flight controller 23 has a memory 23B and can access the memory 23B. Memory 23B stores logic, code, and / or program instructions that the flight controller can execute to perform one or more steps.
 メモリ23Bは、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。センサ類23Cから取得したデータは、メモリ23Bに直接に伝達されかつ記憶されてもよい。例えば、カメラ28で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録される。 The memory 23B may include, for example, a separable medium such as an SD card or a random access memory (RAM) or an external storage device. The data acquired from the sensors 23C may be directly transmitted and stored in the memory 23B. For example, still image / moving image data taken by the camera 28 is recorded in the built-in memory or the external memory.
 フライトコントローラ23は、飛行体の状態を制御するように構成された制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速度を調整するために飛行体の推進機構(モータ26等)をESC(Electric Speed Controller)25を介して制御する。制御モジュールは、カメラ28やセンサ類23C等のうち1つ以上を制御することができる。 The flight controller 23 includes a control module configured to control the state of the flying object. For example, the control module may adjust the spatial placement, velocity, and / or acceleration of an air vehicle with 6 degrees of freedom (translational motion x, y and z, and rotational motion θ x , θ y and θ z). The propulsion mechanism (motor 26, etc.) of the air vehicle is controlled via the ESC (Electric Speed Controller) 25. The control module can control one or more of the camera 28, the sensors 23C, and the like.
 フライトコントローラ23は、1つ以上の外部のデバイス(例えば、情報処理端末10等の端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部22と通信可能である。例えば、送受信部22は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。 The flight controller 23 is a transmitter / receiver configured to transmit and / or receive data from one or more external devices (eg, a terminal such as an information processing terminal 10, a display device, or another remote controller). It is possible to communicate with 22. For example, the transmission / reception unit 22 uses one or more of a local area network (LAN), a wide area network (WAN), infrared rays, wireless, WiFi, a point-to-point (P2P) network, a telecommunications network, cloud communication, and the like. can do.
 送受信部22は、カメラ28やセンサ類23Cで取得したデータ、フライトコントローラ23が生成した処理結果、所定の制御データ、情報処理端末10または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。 The transmission / reception unit 22 is one or more of data acquired by the camera 28 and sensors 23C, processing results generated by the flight controller 23, predetermined control data, user commands from the information processing terminal 10 or a remote controller, and the like. Can be sent and / or received.
 本実施形態によるセンサ類23Cは、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。 Sensors 23C according to this embodiment may include an inertial sensor (acceleration sensor, gyro sensor), GPS sensor, proximity sensor (eg, rider), or vision / image sensor (eg, camera).
 バッテリ24は、例えばリチウムポリマー電池等の公知のバッテリであり得る。なお、無人飛行体20を駆動させる動力は、バッテリ24等から供給される電力に限定されず、例えば内燃機関等の動力によるものであってもよい。 The battery 24 can be a known battery such as a lithium polymer battery. The power for driving the unmanned vehicle 20 is not limited to the electric power supplied from the battery 24 or the like, and may be, for example, the power of an internal combustion engine or the like.
 カメラ28は撮像装置の一例である。カメラ28の種類は特に限定されず、例えば通常のデジタルカメラ、全天球カメラ、赤外線カメラ、サーモグラフィ等のイメージセンサ等であってもよい。カメラ28は、本体21と不図示のジンバル等により独立変位可能に接続されていてもよい。 The camera 28 is an example of an image pickup device. The type of the camera 28 is not particularly limited, and may be, for example, an ordinary digital camera, an omnidirectional camera, an infrared camera, an image sensor such as a thermography, or the like. The camera 28 may be connected to the main body 21 so as to be independently displaceable by a gimbal or the like (not shown).
 図4は、本実施形態に係る制御部11の機能構成を示すブロック図である。図4に示すように、制御部11は、マップ取得部111、画像取得部112、表示制御部113、入力情報取得部114、飛行制限区域決定部115、座標変換部116および出力制御部117を備える。これらの各機能部は、プロセッサ11aがストレージ11cに記憶されているプログラムをメモリ11bに読み出して実行することにより実現され得る。また、マップ情報118は、例えばストレージ11cや外部のストレージまたはクラウドサーバ等に格納され得る。 FIG. 4 is a block diagram showing a functional configuration of the control unit 11 according to the present embodiment. As shown in FIG. 4, the control unit 11 includes a map acquisition unit 111, an image acquisition unit 112, a display control unit 113, an input information acquisition unit 114, a flight restricted area determination unit 115, a coordinate conversion unit 116, and an output control unit 117. Be prepared. Each of these functional units can be realized by the processor 11a reading a program stored in the storage 11c into the memory 11b and executing the program. Further, the map information 118 may be stored in, for example, a storage 11c, an external storage, a cloud server, or the like.
 マップ取得部111は、マップ情報118を取得する機能を有する。マップ情報118は、マップに係る情報を有する。マップに係る情報とは、例えば、地図や航空写真(無人飛行体20により撮像されるものを含んでも良い)に、位置情報(経度情報、緯度情報および高度情報の少なくともいずれかを含む)が関連付けられている情報である。かかるマップ情報118は、地理的な情報だけでなく、構造物や区域の種類(住宅、公園、公共施設、商業施設、工業施設、河川等)の情報を含んでいてもよい。マップ情報118は、例えば、地図に係るサービスが提供するAPI(Application Programming Interface)を用いて取得されるものであってもよい。この場合、例えばユーザは、マップが表示されるタッチパネル12に対する入力により飛行制限区域を設定すべき場所を探索する操作を行うことで、マップ情報118が適宜更新されていてもよい。取得したマップ情報118は、表示制御部113に出力される。 The map acquisition unit 111 has a function of acquiring map information 118. The map information 118 has information related to the map. The information related to the map is associated with, for example, a map or an aerial photograph (which may include those imaged by the unmanned aircraft 20) with position information (including at least one of longitude information, latitude information, and altitude information). It is the information that has been given. Such map information 118 may include not only geographical information but also information on the type of structure or area (house, park, public facility, commercial facility, industrial facility, river, etc.). The map information 118 may be acquired by using, for example, an API (Application Programming Interface) provided by a service related to a map. In this case, for example, the user may appropriately update the map information 118 by performing an operation of searching for a place where the flight restricted area should be set by inputting to the touch panel 12 on which the map is displayed. The acquired map information 118 is output to the display control unit 113.
 画像取得部112は、無人飛行体20が撮像した画像の情報を取得する機能を有する。画像取得部112は、無人飛行体20の搭載するカメラ28が撮像した画像を適宜取得する。取得する画像は、リアルタイムで得られる動画像であってもよいし、任意のタイミングで撮像された静止画像であってもよい。取得した画像の情報は、表示制御部113に出力される。 The image acquisition unit 112 has a function of acquiring information on an image captured by the unmanned flying object 20. The image acquisition unit 112 appropriately acquires an image captured by the camera 28 mounted on the unmanned flying object 20. The image to be acquired may be a moving image obtained in real time, or may be a still image captured at an arbitrary timing. The acquired image information is output to the display control unit 113.
 表示制御部113は、取得した画像や情報をタッチパネル12に表示させる機能を有する。また、表示制御部113は、本システム1を利用するユーザに情報を提供するための、およびユーザによる操作に基づく入力情報を取得するためのボタンやオブジェクト、テキスト等の情報を前記画像に含めて表示させる機能を有する。また、後述する入力情報取得部114により得られた入力情報に基づく表示をタッチパネル12に表示させるための機能も有し得る。 The display control unit 113 has a function of displaying acquired images and information on the touch panel 12. Further, the display control unit 113 includes information such as buttons, objects, and texts for providing information to the user who uses the system 1 and for acquiring input information based on the operation by the user in the image. It has a function to display. Further, it may also have a function for displaying the display based on the input information obtained by the input information acquisition unit 114, which will be described later, on the touch panel 12.
 例えば、表示制御部113は、取得したマップ情報118に係るマップを表示する機能を有し得る。これによりタッチパネル12にはマップが表示される。また、表示制御部113は、画像取得部112が取得した撮像画像を表示する機能を有し得る。 For example, the display control unit 113 may have a function of displaying a map related to the acquired map information 118. As a result, the map is displayed on the touch panel 12. Further, the display control unit 113 may have a function of displaying the captured image acquired by the image acquisition unit 112.
 入力情報取得部114は、タッチパネル12に表示された画像に対する操作に基づいて生成される入力情報を取得する機能を有する。ここでいう入力情報は、例えば、タッチパネル12に表示された画像上の位置に関する情報を含む。画像上の位置とは、例えば、該画像を構成する画素の位置である。すなわち、入力情報には、ユーザが画像上のどの位置に対する操作を行ったかを示す情報が含まれる。このような操作として、例えば、タップ、タッチ、スワイプ、スライド等の操作が含まれる。 The input information acquisition unit 114 has a function of acquiring input information generated based on an operation on an image displayed on the touch panel 12. The input information referred to here includes, for example, information regarding a position on an image displayed on the touch panel 12. The position on the image is, for example, the position of the pixels constituting the image. That is, the input information includes information indicating to which position on the image the user has performed an operation. Such operations include, for example, tap, touch, swipe, slide and the like.
 このような入力情報は、例えば、飛行制限区域の設定に係る入力情報を含みうる。詳しくは後述するように、飛行制限区域の設定に係る入力情報は、例えば、タッチパネル12に無人飛行体20が飛行し得る区域がマップ上に表示されている場合、無人飛行体20の飛行制限区域に対応する指定領域を該マップに対して設定する操作により生成される情報(指定領域情報)である。かかる入力情報は、例えば、飛行制限区域の登録、変更または削除に関する情報を含みうる。 Such input information may include, for example, input information relating to the setting of a flight restricted area. As will be described in detail later, the input information related to the setting of the flight restricted area is, for example, when the area where the unmanned aircraft 20 can fly is displayed on the map on the touch panel 12, the flight restricted area of the unmanned aircraft 20 is displayed. This is information (designated area information) generated by an operation of setting a designated area corresponding to the map. Such input information may include, for example, information regarding the registration, modification or deletion of flight restricted areas.
 また、入力情報は、無人飛行体20の飛行を制御するための入力情報を含みうる。例えば、表示制御部113により無人飛行体20の飛行を操作するためのボタンやオブジェクト等がタッチパネル12に表示されている場合、無人飛行体20の飛行を制御するための入力情報は、該ボタンやオブジェクトに対する操作により生成される情報である。かかる入力情報は、例えば、無人飛行体20の離陸、着陸、上昇、下降、並進、回転および速度等にかかる制御、並びに、カメラ28の撮像処理、ズームおよび撮影方向に関する制御のための情報を含みうる。 Further, the input information may include input information for controlling the flight of the unmanned vehicle 20. For example, when a button or an object for operating the flight of the unmanned vehicle 20 is displayed on the touch panel 12 by the display control unit 113, the input information for controlling the flight of the unmanned vehicle 20 is the button or the object. Information generated by operations on objects. Such input information includes, for example, control for takeoff, landing, ascent, descent, translation, rotation, speed, etc. of the unmanned aircraft 20, and information for control regarding image pickup processing, zoom, and shooting direction of the camera 28. sell.
 飛行制限区域決定部115は、飛行制限区域の設定に係る入力情報に基づいて、実空間上の飛行制限区域を決定する機能を有する。例えば、飛行制限区域決定部115は、上記の入力情報に含まれる指定領域情報に基づいて、実空間上の飛行制限区域を決定する。飛行制限区域は、例えば、マップ上の指定領域の位置情報(緯度情報および経度情報)等により特定され得る。 The flight restricted area determination unit 115 has a function of determining a flight restricted area in real space based on the input information related to the setting of the flight restricted area. For example, the flight restricted area determination unit 115 determines the flight restricted area in the real space based on the designated area information included in the above input information. The flight restricted area can be specified by, for example, the position information (latitude information and longitude information) of the designated area on the map.
 座標変換部116は、飛行制限区域を、無人飛行体20により撮像された画像における位置座標に変換する機能を有する。例えば、座標変換部116は、飛行制限区域決定部115により決定された飛行制限区域の緯度情報および経度情報に基づいて、撮像画像上における飛行制限区域の座標を得る。これにより、例えば、後述するタッチパネル12に表示される撮像画像上において、飛行制限区域がどの部分にあたるのかを認識することができる。 The coordinate conversion unit 116 has a function of converting the flight restricted area into the position coordinates in the image captured by the unmanned vehicle 20. For example, the coordinate conversion unit 116 obtains the coordinates of the flight restricted area on the captured image based on the latitude information and the longitude information of the flight restricted area determined by the flight restricted area determination unit 115. Thereby, for example, it is possible to recognize which part the flight restricted area corresponds to on the captured image displayed on the touch panel 12 described later.
 出力制御部117は、実空間上の飛行制限区域に係る情報を出力する機能を有する。出力制御部117による当該情報の出力態様は特に限定されない。例えば、出力制御部117は、タッチパネル12に当該情報を出力してもよい。当該情報は、例えば、無人飛行体20により撮像された撮像画像に重畳して表示されてもよい。より具体的には、出力制御部117は、当該情報をAR(拡張現実)のように、飛行制限区域の内側または外側の少なくともいずれかに対応する位置(例えば領域)を示す表示を、撮像画像に重畳してタッチパネル12に表示してもよい。 The output control unit 117 has a function of outputting information related to the flight restricted area in the real space. The output mode of the information by the output control unit 117 is not particularly limited. For example, the output control unit 117 may output the information to the touch panel 12. The information may be superimposed and displayed on the captured image captured by the unmanned flying object 20, for example. More specifically, the output control unit 117 displays an image indicating a position (for example, an area) corresponding to at least one of the inside or outside of the flight restricted area, such as AR (augmented reality). It may be superimposed on the touch panel 12 and displayed on the touch panel 12.
 また、出力制御部117は、無人飛行体20を移動させるためのオブジェクトを、無人飛行体20が撮像した撮像画像に重畳して表示する場合に、かかるオブジェクトの表示を制御してもよい。具体的には、出力制御部117は、かかるオブジェクトが、撮像画像における飛行制限区域の外側(すなわち飛行不可区域)に対応する位置にある場合に、移動目標位置として設定不可であることに対応する態様により前記オブジェクトの表示を制御してもよい。設定不可であることに対応する態様とは、例えば、オブジェクトの色や形状等が変化したり、移動目標の設定を完了するためのオブジェクトが選択できないような態様となることを含みうる。また、出力制御部117は、移動目標位置を設定するためのオブジェクトが、撮像画像における飛行制限区域の内側になる位置のみに、タッチパネル12に対する操作に基づいて移動可能となるようにかかるオブジェクトの表示を制御してもよい。 Further, the output control unit 117 may control the display of the object when the object for moving the unmanned vehicle 20 is superimposed on the captured image captured by the unmanned vehicle 20. Specifically, the output control unit 117 corresponds to the fact that the object cannot be set as the movement target position when the object is in a position corresponding to the outside of the flight restricted area (that is, the non-flight area) in the captured image. The display of the object may be controlled depending on the embodiment. The mode corresponding to the non-setting mode may include, for example, a mode in which the color or shape of the object changes, or the object for completing the setting of the movement target cannot be selected. Further, the output control unit 117 displays the object for setting the movement target position so that the object can be moved based on the operation with respect to the touch panel 12 only at the position inside the flight restricted area in the captured image. May be controlled.
 また、出力制御部117は、実空間上の飛行制限区域にかかる情報を無人飛行体20に出力してもよい。例えば、出力制御部117は、飛行制限区域の内側の領域のみを飛行するように無人飛行体20を制御してもよい。これにより、例えば、無人飛行体20は、かかる飛行制限区域に対応する領域のみを飛行可能とすることができる。 Further, the output control unit 117 may output the information related to the flight restricted area in the real space to the unmanned flying object 20. For example, the output control unit 117 may control the unmanned vehicle 20 so as to fly only in the area inside the flight restricted area. Thereby, for example, the unmanned aircraft 20 can fly only in the area corresponding to the restricted flight area.
 次に、本実施形態に係るシステム1を用いた飛行制限区域の設定方法の一例について、フローチャートに沿って説明する。図5は、本実施形態に係るシステム1を用いた飛行制限区域の設定方法における一連の制御に係るフローチャート図である。 Next, an example of a flight restricted area setting method using the system 1 according to the present embodiment will be described with reference to the flowchart. FIG. 5 is a flowchart of a series of controls in the method of setting a flight restricted area using the system 1 according to the present embodiment.
 まず、マップ取得部111は、マップ情報118を取得する(ステップSQ101)。そして、取得されたマップは表示制御部113によりタッチパネル12により表示される(ステップSQ103)。 First, the map acquisition unit 111 acquires the map information 118 (step SQ101). Then, the acquired map is displayed on the touch panel 12 by the display control unit 113 (step SQ103).
 図6は、本実施形態に係るシステム1による飛行制限区域の設定方法に係るタッチパネル12の第1の画面例を示す図である。図6に示すように、タッチパネル12の画面V1には、マップM1が表示されている。また、画面V1には、指定領域を修正するためのボタン101が表示されている。ユーザのタッチパネル12に対する操作により、かかるマップM1に対して指定領域を設定する操作が可能となっている。また、マップM1に対してスライドやピンチ等の入力を行うことにより、マップM1の表示する領域を変更または拡縮等行うことが可能である。 FIG. 6 is a diagram showing a first screen example of the touch panel 12 according to the method of setting the flight restricted area by the system 1 according to the present embodiment. As shown in FIG. 6, the map M1 is displayed on the screen V1 of the touch panel 12. Further, on the screen V1, a button 101 for modifying the designated area is displayed. By operating the touch panel 12 of the user, it is possible to set a designated area for the map M1. Further, by inputting a slide, a pinch, or the like to the map M1, the area displayed on the map M1 can be changed or scaled.
 次に、入力情報取得部114は、タッチパネル12に対する入力により、指定領域に係る情報を取得する(ステップSQ105)。図7は、本実施形態に係るシステム1による飛行制限区域の設定方法に係るタッチパネル12の第2の画面例を示す図である。図7に示すように、ユーザのタッチパネル12に対する操作により、マップM1上において、複数箇所のピン201が設定され得る。そして、各ピン201を頂点として、指定領域202が設定され得る。なお、指定領域202の設定方法については特に限定されず、例えば、フリーハンドにより指定領域が設定されてもよい。また、過去に同様の領域が設定されている場合、過去に設定した情報を呼び出すことにより、指定領域が設定されてもよい。指定領域202は、例えば、ピン201の指定が完了して囲われた領域が生成された時点で確定され得る。 Next, the input information acquisition unit 114 acquires information related to the designated area by inputting to the touch panel 12 (step SQ105). FIG. 7 is a diagram showing a second screen example of the touch panel 12 according to the method of setting the flight restricted area by the system 1 according to the present embodiment. As shown in FIG. 7, a plurality of pins 201 may be set on the map M1 by the user's operation on the touch panel 12. Then, the designated area 202 can be set with each pin 201 as the apex. The method of setting the designated area 202 is not particularly limited, and for example, the designated area may be set by freehand. Further, when the same area is set in the past, the designated area may be set by calling the information set in the past. The designated area 202 may be determined, for example, when the designation of pin 201 is completed and the enclosed area is generated.
 次に、飛行制限区域決定部115は、確定した指定領域202に基づいて、実空間上の飛行制限区域を決定する(ステップSQ107)。かかる飛行制限区域に係る情報は、例えば、一時的にストレージ13等に記憶されていてもよい。
るように無人飛行体20を制御してもよい。
Next, the flight restricted area determination unit 115 determines the flight restricted area in the real space based on the determined designated area 202 (step SQ107). The information relating to the flight restricted area may be temporarily stored in the storage 13 or the like, for example.
The unmanned vehicle 20 may be controlled so as to be used.
 次に、本実施形態に係るシステム1を用いた飛行制限区域に係る情報の出力方法の一例について、フローチャートに沿って説明する。図8は、本実施形態に係るシステム1を用いた飛行制限区域に係る情報の出力方法における一連の制御に係るフローチャート図である。 Next, an example of an information output method relating to the flight restricted area using the system 1 according to the present embodiment will be described with reference to the flowchart. FIG. 8 is a flowchart relating to a series of controls in the information output method relating to the flight restricted area using the system 1 according to the present embodiment.
 まず、無人飛行体20は、積載するカメラ28により、飛行制限区域およびその近傍を含む区域を撮像する(ステップSQ201)。かかる撮像処理により得られた撮像画像は、画像取得部112により取得される(ステップSQ203)。その際、撮像画像を撮像した際の無人飛行体20等の位置も合わせて取得される。位置に係る情報は、後述する撮像画像上の座標と実空間上の座標との間における変換処理に用いられ得る。 First, the unmanned vehicle 20 captures an area including the flight restricted area and its vicinity by the loaded camera 28 (step SQ201). The captured image obtained by such an imaging process is acquired by the image acquisition unit 112 (step SQ203). At that time, the position of the unmanned flying object 20 or the like when the captured image is captured is also acquired. The information related to the position can be used for the conversion process between the coordinates on the captured image and the coordinates on the real space, which will be described later.
 次に、表示制御部113は、撮像画像をタッチパネル12に表示させる(ステップSQ205)。なお、かかる撮像画像は、無人飛行体20からリアルタイムで受信する動画像であってもよいし、静止画像であってもよい。 Next, the display control unit 113 displays the captured image on the touch panel 12 (step SQ205). The captured image may be a moving image received in real time from the unmanned flying object 20, or may be a still image.
 次に、座標変換部116は、撮像画像上の座標と実空間座標との対応付けを行う(ステップSQ207)。かかる処理は、後述する撮像画像上への飛行制限区域に対応する領域の表示を行うための処理である。かかる撮像画像上の座標(ローカル座標)と実空間座標(グローバル座標)との対応付けは、公知の写像変換等の技術により行われ得る。 Next, the coordinate conversion unit 116 associates the coordinates on the captured image with the real space coordinates (step SQ207). Such a process is a process for displaying an area corresponding to a flight restricted area on a captured image described later. The correspondence between the coordinates (local coordinates) on the captured image and the real space coordinates (global coordinates) can be performed by a known technique such as mapping conversion.
 次に、座標変換部116は、上記の対応付けに基づいて、飛行制限区域の撮像画像上の座標への変換を行う(ステップSQ209)。かかる処理により、撮像画像上における飛行制限区域に対応する領域が一意に定まる。 Next, the coordinate conversion unit 116 converts the flight restricted area into the coordinates on the captured image based on the above correspondence (step SQ209). By such processing, the area corresponding to the flight restricted area on the captured image is uniquely determined.
 次に、出力制御部117は、飛行制限区域の外側の領域をタッチパネル12に撮像画像に重畳して表示する(ステップSQ211)。 Next, the output control unit 117 superimposes and displays the area outside the flight restricted area on the touch panel 12 on the captured image (step SQ211).
 図9は、本実施形態に係るシステム1による飛行制限区域に係る情報の出力方法に係るタッチパネル12の第1の画面例を示す図である。図9に示すように、タッチパネル12の画面V1には、無人飛行体20から撮像される撮像画像P1が表示されている。かかる撮像画像P1は、無人飛行体20のカメラ28の撮影方向を真下方向として撮像して得られるものである。そして、撮像画像P1に重畳して、飛行制限区域の内側の領域FRA10と、飛行制限区域のソロ側の領域FRA11とが、飛行制限区域の境界線203を挟んで表示されている。また、画面V1には、無人飛行体20を着陸させるためのボタン103、無人飛行体20を上下方向に移動させるためのボタン104、無人飛行体20をヨー軸まわりに回転させるためのボタン105、無人飛行体20に積載されているカメラ28の撮影方向を調整するためのオブジェクト106、カメラ28の広角/望遠の程度を調整するためのオブジェクト107、無人飛行体20の移動目標位置の位置決めのためのオブジェクト108および無人飛行体20の移動を開始するためのボタン109が、併せて表示されている。 FIG. 9 is a diagram showing a first screen example of the touch panel 12 relating to the information output method relating to the flight restricted area by the system 1 according to the present embodiment. As shown in FIG. 9, the image P1 captured from the unmanned flying object 20 is displayed on the screen V1 of the touch panel 12. The captured image P1 is obtained by capturing an image with the shooting direction of the camera 28 of the unmanned flying object 20 as the direct downward direction. Then, the region FRA10 inside the flight restricted area and the region FRA11 on the solo side of the flight restricted area are displayed so as to be superimposed on the captured image P1 with the boundary line 203 of the flight restricted area interposed therebetween. Further, on the screen V1, a button 103 for landing the unmanned aviation body 20, a button 104 for moving the unmanned fleet 20 in the vertical direction, and a button 105 for rotating the unmanned fleet 20 around the yaw axis. An object 106 for adjusting the shooting direction of the camera 28 loaded on the unmanned aircraft 20, an object 107 for adjusting the degree of wide angle / telescope of the camera 28, and a moving target position for the unmanned aircraft 20. The button 109 for starting the movement of the object 108 and the unmanned aircraft 20 of the above is also displayed.
 図9に示すように、飛行制限区域の内側の領域FRA10と、飛行制限区域の外側の領域FRA11は、他の態様により表示され得る。図9に示す例では、飛行制限区域の内側の領域FRA10に対しては何も画像処理がされていないのに対し、飛行制限区域の外側の領域FRA10に対しては、オブジェクトが表示され得る。このように、タッチパネル12上において、飛行制限区域の内外を無人飛行体20の視点から視覚的に認識することが可能となる。すなわち、ユーザ自身がタッチパネル12のインターフェースに対して設定した飛行制限区域に対応する実空間上の位置を、無人飛行体20の飛行中において視認することが可能となる。なお、無人飛行体20の移動に応じて、かかる飛行制限区域の内外の領域の表示位置も変更され得る。 As shown in FIG. 9, the region FRA10 inside the flight restricted area and the region FRA11 outside the flight restricted area can be displayed by other embodiments. In the example shown in FIG. 9, no image processing is performed on the region FRA10 inside the flight restricted area, whereas an object can be displayed on the region FRA10 outside the flight restricted area. In this way, on the touch panel 12, it is possible to visually recognize the inside and outside of the flight restricted area from the viewpoint of the unmanned flying object 20. That is, the position in the real space corresponding to the flight restricted area set by the user himself / herself with respect to the interface of the touch panel 12 can be visually recognized during the flight of the unmanned flying object 20. In addition, the display position of the area inside and outside the flight restricted area may be changed according to the movement of the unmanned flight object 20.
 図10は、本実施形態に係るシステム1による飛行制限区域に係る情報の出力方法に係るタッチパネル12の第2の画面例を示す図である。図10に示す例では、撮像画像P2は、無人飛行体20のカメラ28の撮像方向を真下ではなく斜めとして撮像して得られるものである。このように、撮像方向が斜めである場合も、撮像画像P2上に飛行制限区域に係る情報として、飛行制限区域の内側の領域FRA10と、飛行制限区域の外側の領域FRA11とを区別して表示させることが可能である。この場合は、例えば、撮像画像に含まれる位置情報として、カメラ28の撮像角度に係る情報が含まれ得る。かかる撮像角度に係る情報に基づいて、座標変換部116が飛行制限区域の座標と撮像画像の座標との対応付けを行うことで、撮像画像P2上にかかる領域を表示させることができる。このとき、飛行制限区域の位置情報としては、所定の高度情報が含まれていてもよい。これにより、撮像画像P2上に重畳させる飛行制限区域の位置を一意に決めることができる。 FIG. 10 is a diagram showing a second screen example of the touch panel 12 relating to the information output method relating to the flight restricted area by the system 1 according to the present embodiment. In the example shown in FIG. 10, the captured image P2 is obtained by capturing the image of the camera 28 of the unmanned flying object 20 not directly below but at an angle. In this way, even when the imaging direction is oblique, the region FRA10 inside the flight restricted area and the region FRA11 outside the flight restricted area are displayed separately as information related to the flight restricted area on the captured image P2. It is possible. In this case, for example, the position information included in the captured image may include information related to the imaging angle of the camera 28. Based on the information related to the imaging angle, the coordinate conversion unit 116 associates the coordinates of the flight restricted area with the coordinates of the captured image, so that the region on the captured image P2 can be displayed. At this time, predetermined altitude information may be included as the position information of the flight restricted area. As a result, the position of the flight restricted area to be superimposed on the captured image P2 can be uniquely determined.
 図11は、本実施形態に係るシステム1による飛行制限区域に係る情報の出力方法に係るタッチパネル12の第3の画面例を示す図である。図11に示す撮像画像P1は、図9に示した撮像画像P1と同一である。ここでは、無人飛行体20の移動目標位置の位置決めのためのオブジェクト108を、飛行制限区域の外側の領域FRA11上に移動させる操作を行った場合について説明する。図11に示すように、オブジェクト108を飛行制限区域の外側の領域FRA11上に移動させようとすると、オブジェクト108の態様が変化してオブジェクト108aのような表示が画面V1に現れる。特にオブジェクト108aは、この位置に設定できないような態様として表示され得る。これにより、ユーザはかかる区域に無人飛行体20を移動させることができないことが直感的に理解することができる。なお、他の例としては、オブジェクト108が飛行制限区域の外側の領域FRA11に含まれる位置にある場合に、無人飛行体20の移動を開始するためのボタン109が選択不可となるような態様に変更されて表示されていてもよい。これにより、ユーザが飛行制限区域の外に無人飛行体20を移動させることができなくなる。 FIG. 11 is a diagram showing a third screen example of the touch panel 12 relating to the information output method relating to the flight restricted area by the system 1 according to the present embodiment. The captured image P1 shown in FIG. 11 is the same as the captured image P1 shown in FIG. Here, the case where the object 108 for positioning the movement target position of the unmanned aircraft 20 is moved onto the region FRA 11 outside the flight restricted area will be described. As shown in FIG. 11, when the object 108 is moved onto the region FRA 11 outside the flight restricted area, the aspect of the object 108 changes and a display like the object 108a appears on the screen V1. In particular, the object 108a may be displayed as a mode that cannot be set at this position. This allows the user to intuitively understand that the unmanned aircraft 20 cannot be moved to such an area. As another example, when the object 108 is in a position included in the area FRA 11 outside the flight restricted area, the button 109 for starting the movement of the unmanned vehicle 20 cannot be selected. It may be changed and displayed. This prevents the user from moving the unmanned vehicle 20 out of the restricted flight area.
 以上、本実施形態に係るシステム1による無人飛行体20の制御方法の一例について説明した。なお、上記実施形態においては、無人飛行体20の実際の飛行における制御方法の例について説明したが、本技術はかかる例に限定されない。例えば、VR(Virtual Reality)やAR(Augmented Reality)空間における仮想のドローンを飛行させた場合におけるシミュレーションに、本技術を用いることが可能である。かかる無人飛行体20の飛行制御による飛行挙動のシミュレーションをVRやARにより行うことで、実際に無人飛行体20を飛行させたときのカメラ28の撮像方向等を事前に確認することができる。なお、VR空間やAR空間を用いたシミュレーションの技術は、公知のものを用いることができる。 The example of the control method of the unmanned aircraft 20 by the system 1 according to the present embodiment has been described above. In the above embodiment, an example of a control method in the actual flight of the unmanned flying object 20 has been described, but the present technology is not limited to such an example. For example, this technology can be used for simulation in the case of flying a virtual drone in VR (Virtual Reality) or AR (Augmented Reality) space. By simulating the flight behavior by controlling the flight of the unmanned vehicle 20 by VR or AR, it is possible to confirm in advance the image pickup direction of the camera 28 when the unmanned vehicle 20 is actually flown. As the simulation technique using the VR space or the AR space, a known technique can be used.
 以上説明したように、本実施形態に係るシステム1によれば、タッチパネル12に対して飛行制限区域を設定し、かかる飛行制限区域に関する情報を、タッチパネル12を介して得ることができる。例えば、飛行制限区域を、無人飛行体20が撮像する撮像画像に重畳してAR的に表示させることができる。これにより、タッチパネル12を操作するユーザは無人飛行体20の飛行可能な飛行制限区域を自身で設定し、かつその位置を直感的に把握することが可能となる。かかる表示は、例えば無人飛行体20のカメラ28の撮影角度が変わっていても、追随して撮像画像の適切な位置に飛行制限区域を示すオブジェクトを重畳して表示させることが可能である。 As described above, according to the system 1 according to the present embodiment, a flight restricted area can be set for the touch panel 12, and information regarding the flight restricted area can be obtained via the touch panel 12. For example, the flight restricted area can be superimposed on the captured image captured by the unmanned vehicle 20 and displayed in an AR manner. As a result, the user who operates the touch panel 12 can set the flight restricted area of the unmanned vehicle 20 by himself / herself and intuitively grasp the position thereof. In such a display, for example, even if the shooting angle of the camera 28 of the unmanned flying object 20 is changed, it is possible to superimpose and display an object indicating a flight restricted area at an appropriate position of the captured image.
 なお、上記実施形態では、飛行制限区域の内側および外側をオブジェクト等によりAR的に表示するものとしたが、本技術はかかる例に限定されない。例えば、飛行制限区域の境界に無人飛行体20が近接している場合に、該境界に近接していることのアラートをタッチパネル12により出力することがなされてもよい。また、無人飛行体20が飛行制限区域の外側に飛行してしまったり、無人飛行体20が所定時間以内に飛行制限区域の境界を超えるような飛行制御がされていると判断される場合は、無人飛行体20は自動的に飛行制限区域の内側に向かうように制御されてもよい。 In the above embodiment, the inside and outside of the flight restricted area are displayed in an AR manner by an object or the like, but the present technology is not limited to such an example. For example, when the unmanned aircraft 20 is close to the boundary of the flight restricted area, the touch panel 12 may output an alert that the unmanned aircraft 20 is close to the boundary. If it is determined that the unmanned aircraft 20 has flown outside the restricted flight area, or that the unmanned aircraft 20 has been controlled to cross the boundary of the restricted flight area within a predetermined time, the flight is controlled. The unmanned aircraft 20 may be automatically controlled to move toward the inside of the restricted flight area.
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that anyone with ordinary knowledge in the art of the present disclosure may come up with various modifications or amendments within the scope of the technical ideas set forth in the claims. Is, of course, understood to belong to the technical scope of the present disclosure.
 本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置等により実現されてもよい。例えば、情報処理端末10の制御部およびストレージは、互いにネットワークで接続された異なるサーバにより実現されてもよい。 The device described in the present specification may be realized as a single device, or may be realized by a plurality of devices, etc., which are partially or wholly connected by a network. For example, the control unit and the storage of the information processing terminal 10 may be realized by different servers connected to each other by a network.
 本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係る情報処理端末10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。 The series of processes by the apparatus described in the present specification may be realized by using any of software, hardware, and a combination of software and hardware. It is possible to create a computer program for realizing each function of the information processing terminal 10 according to the present embodiment and implement it on a PC or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed, for example, via a network without using a recording medium.
 また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。 Further, the processes described in the present specification using the flowchart diagram do not necessarily have to be executed in the order shown in the drawings. Some processing steps may be performed in parallel. Further, additional processing steps may be adopted, and some processing steps may be omitted.
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in the present specification are merely explanatory or exemplary and are not limited. That is, the technique according to the present disclosure may exert other effects apparent to those skilled in the art from the description of the present specification, in addition to or in place of the above effects.
 なお、以下のような構成も本開示の技術的範囲に属する。
(項目1)
 表示部にマップを表示することと、
 前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得することと、
 前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力することと、
 を含む方法。
(項目2)
 項目1に記載の方法であって、
 前記実空間上の飛行制限区域に係る情報を、前記表示部に出力する、方法。
(項目3)
 項目2に記載の方法であって、
 前記飛行制限区域内を飛行する前記飛行体に積載される撮像画像を前記表示部に表示することと、
 前記飛行制限区域に係る情報を、前記撮像画像に重畳して前記表示部に表示することと、をさらに含む、方法。
(項目4)
 項目3に記載の方法であって、
 前記撮像画像における前記飛行制限区域の内側または外側の少なくともいずれかに対応する位置を示す表示を、前記撮像画像に重畳して前記表示部に表示する、方法。
(項目5)
 項目4に記載の方法であって、
 前記撮像画像が撮像されたときの前記実空間上の位置に係る情報に基づき、前記飛行制限区域の内側または外側の少なくともいずれかに対応する領域を前記撮像画像に重畳して表示する、方法。
(項目6)
 項目2~5のいずれか1項に記載の方法であって、
 前記飛行制限区域内を飛行する前記飛行体により撮像される撮像画像を前記表示部に表示することを含み、
 前記飛行体の移動目標位置を設定するためのオブジェクトが、前記撮像画像を表示する表示部に表示され、
 前記オブジェクトの位置が、前記撮像画像における前記飛行制限区域の外側に対応する位置である場合に、前記移動目標位置として設定不可であることに対応する態様により前記オブジェクトを前記表示部に表示する、方法。
(項目7)
 項目2~6のいずれか1項に記載の方法であって、
 前記飛行制限区域内を飛行する前記飛行体により撮像される撮像画像を前記表示部に表示することを含み、
 前記飛行体の移動目標位置を設定するためのオブジェクトが、前記撮像画像を表示する表示部に表示され、
 前記オブジェクトが、前記撮像画像における前記飛行制限区域の内側になる位置にのみ前記表示部に対する操作に基づいて移動可能となるように、前記オブジェクトの表示が制御される、方法。
(項目8)
 項目1~7のいずれか1項に記載の方法であって、
 実空間上の飛行制限区域に係る情報を前記飛行体に出力する、方法。
(項目9)
 項目8に記載の方法であって、
 前記飛行体は、前記実空間上の飛行制限区域の内側の領域のみを飛行するように制御される、方法。
(項目10)
 項目1~9のいずれか1項に記載の方法であって、
 前記実空間上の飛行制限区域に係る情報は、前記飛行制限区域の外側である飛行不可区域に関する情報を含む、方法。
(項目11)
 飛行体の飛行制御に関するシステムであって、
 表示部にマップを表示させる表示制御部と、
 前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得する入力情報取得部と、
 前記マップ上の指定領域に基づいて実空間上の飛行制限区域に係る情報を出力する出力制御部と、
 を備えるシステム。
(項目12)
 コンピュータを、
 表示部にマップを表示させる表示制御部と、
 前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得する入力情報取得部と、
 前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力する出力制御部と、
 として機能させるプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(Item 1)
Displaying the map on the display and
Acquiring the information related to the designated area on the map, which is input based on the operation for the map displayed on the display unit, and
To output information related to the flight restricted area of the aircraft in real space based on the designated area on the map.
How to include.
(Item 2)
The method described in item 1.
A method of outputting information relating to a flight restricted area in real space to the display unit.
(Item 3)
The method described in item 2.
Displaying the captured image loaded on the flying object flying in the flight restricted area on the display unit, and
A method further comprising superimposing information on the flight restricted area on the captured image and displaying it on the display unit.
(Item 4)
The method described in item 3
A method of superimposing a display indicating a position corresponding to at least one of the inside or outside of the flight restricted area in the captured image on the captured image and displaying the display on the display unit.
(Item 5)
The method described in item 4.
A method of superimposing and displaying a region corresponding to at least one of the inside or outside of the flight restricted area on the captured image based on the information relating to the position in the real space when the captured image is captured.
(Item 6)
The method according to any one of items 2 to 5.
Including displaying an image captured by the flying object flying in the flight restricted area on the display unit.
An object for setting the movement target position of the flying object is displayed on the display unit displaying the captured image.
When the position of the object is a position corresponding to the outside of the flight restricted area in the captured image, the object is displayed on the display unit in a manner corresponding to the fact that it cannot be set as the movement target position. Method.
(Item 7)
The method according to any one of items 2 to 6.
Including displaying an image captured by the flying object flying in the flight restricted area on the display unit.
An object for setting the movement target position of the flying object is displayed on the display unit displaying the captured image.
A method in which the display of the object is controlled so that the object can be moved based on an operation on the display unit only at a position inside the flight restricted area in the captured image.
(Item 8)
The method according to any one of items 1 to 7.
A method of outputting information relating to a flight restricted area in real space to the flying object.
(Item 9)
The method according to item 8.
A method in which the flying object is controlled to fly only in an area inside the restricted flight area in the real space.
(Item 10)
The method according to any one of items 1 to 9.
A method, wherein the information relating to the flight restricted area in real space includes information relating to a non-flying area outside the flight restricted area.
(Item 11)
It is a system related to flight control of an aircraft.
A display control unit that displays a map on the display unit,
An input information acquisition unit for acquiring information related to a designated area on the map, which is input based on an operation for the map displayed on the display unit.
An output control unit that outputs information related to the flight restricted area in real space based on the designated area on the map.
A system equipped with.
(Item 12)
Computer,
A display control unit that displays a map on the display unit,
An input information acquisition unit for acquiring information related to a designated area on the map, which is input based on an operation for the map displayed on the display unit.
An output control unit that outputs information related to the flight restricted area of the aircraft in real space based on the designated area on the map.
A program that functions as.
  1   システム
  10  情報処理端末
  11  制御部
  12  タッチパネル
  20  無人飛行体
  28  カメラ
  111 マップ取得部
  112 画像取得部
  113 表示制御部
  114 入力情報取得部
  115 飛行制限区域決定部
  116 座標変換部
  117 出力制御部
  118 マップ情報
1 System 10 Information processing terminal 11 Control unit 12 Touch panel 20 Unmanned vehicle 28 Camera 111 Map acquisition unit 112 Image acquisition unit 113 Display control unit 114 Input information acquisition unit 115 Flight restricted area determination unit 116 Coordinate conversion unit 117 Output control unit 118 Map information

Claims (12)

  1.  表示部にマップを表示することと、
     前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得することと、
     前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力することと、
     を含む方法。
    Displaying the map on the display and
    Acquiring the information related to the designated area on the map, which is input based on the operation for the map displayed on the display unit, and
    To output information related to the flight restricted area of the aircraft in real space based on the designated area on the map.
    How to include.
  2.  請求項1に記載の方法であって、
     前記実空間上の飛行制限区域に係る情報を、前記表示部に出力する、方法。
    The method according to claim 1.
    A method of outputting information relating to a flight restricted area in real space to the display unit.
  3.  請求項2に記載の方法であって、
     前記飛行制限区域内を飛行する前記飛行体に積載される撮像画像を前記表示部に表示することと、
     前記飛行制限区域に係る情報を、前記撮像画像に重畳して前記表示部に表示することと、をさらに含む、方法。
    The method according to claim 2.
    Displaying the captured image loaded on the flying object flying in the flight restricted area on the display unit, and
    A method further comprising superimposing information on the flight restricted area on the captured image and displaying it on the display unit.
  4.  請求項3に記載の方法であって、
     前記撮像画像における前記飛行制限区域の内側または外側の少なくともいずれかに対応する位置を示す表示を、前記撮像画像に重畳して前記表示部に表示する、方法。
    The method according to claim 3.
    A method of superimposing a display indicating a position corresponding to at least one of the inside or outside of the flight restricted area in the captured image on the captured image and displaying the display on the display unit.
  5.  請求項4に記載の方法であって、
     前記撮像画像が撮像されたときの前記実空間上の位置に係る情報に基づき、前記飛行制限区域の内側または外側の少なくともいずれかに対応する領域を前記撮像画像に重畳して表示する、方法。
    The method according to claim 4.
    A method of superimposing and displaying a region corresponding to at least one of the inside or outside of the flight restricted area on the captured image based on the information relating to the position in the real space when the captured image is captured.
  6.  請求項2~5のいずれか1項に記載の方法であって、
     前記飛行制限区域内を飛行する前記飛行体により撮像される撮像画像を前記表示部に表示することを含み、
     前記飛行体の移動目標位置を設定するためのオブジェクトが、前記撮像画像を表示する表示部に表示され、
     前記オブジェクトの位置が、前記撮像画像における前記飛行制限区域の外側に対応する位置である場合に、前記移動目標位置として設定不可であることに対応する態様により前記オブジェクトを前記表示部に表示する、方法。
    The method according to any one of claims 2 to 5.
    Including displaying an image captured by the flying object flying in the flight restricted area on the display unit.
    An object for setting the movement target position of the flying object is displayed on the display unit displaying the captured image.
    When the position of the object is a position corresponding to the outside of the flight restricted area in the captured image, the object is displayed on the display unit in a manner corresponding to the fact that it cannot be set as the movement target position. Method.
  7.  請求項2~6のいずれか1項に記載の方法であって、
     前記飛行制限区域内を飛行する前記飛行体により撮像される撮像画像を前記表示部に表示することを含み、
     前記飛行体の移動目標位置を設定するためのオブジェクトが、前記撮像画像を表示する表示部に表示され、
     前記オブジェクトが、前記撮像画像における前記飛行制限区域の内側になる位置にのみ前記表示部に対する操作に基づいて移動可能となるように、前記オブジェクトの表示が制御される、方法。
    The method according to any one of claims 2 to 6.
    Including displaying an image captured by the flying object flying in the flight restricted area on the display unit.
    An object for setting the movement target position of the flying object is displayed on the display unit displaying the captured image.
    A method in which the display of the object is controlled so that the object can be moved based on an operation on the display unit only at a position inside the flight restricted area in the captured image.
  8.  請求項1~7のいずれか1項に記載の方法であって、
     実空間上の飛行制限区域に係る情報を前記飛行体に出力する、方法。
    The method according to any one of claims 1 to 7.
    A method of outputting information relating to a flight restricted area in real space to the flying object.
  9.  請求項8に記載の方法であって、
     前記飛行体は、前記実空間上の飛行制限区域の内側の領域のみを飛行するように制御される、方法。
    The method according to claim 8.
    A method in which the flying object is controlled to fly only in an area inside the restricted flight area in the real space.
  10.  請求項1~9のいずれか1項に記載の方法であって、
     前記実空間上の飛行制限区域に係る情報は、前記飛行制限区域の外側である飛行不可区域に関する情報を含む、方法。
    The method according to any one of claims 1 to 9.
    A method, wherein the information relating to the flight restricted area in real space includes information relating to a non-flying area outside the flight restricted area.
  11.  飛行体の飛行制御に関するシステムであって、
     表示部にマップを表示させる表示制御部と、
     前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得する入力情報取得部と、
     前記マップ上の指定領域に基づいて実空間上の飛行制限区域に係る情報を出力する出力制御部と、
     を備えるシステム。
    It is a system related to flight control of an aircraft.
    A display control unit that displays a map on the display unit,
    An input information acquisition unit for acquiring information related to a designated area on the map, which is input based on an operation for the map displayed on the display unit.
    An output control unit that outputs information related to the flight restricted area in real space based on the designated area on the map.
    A system equipped with.
  12.  コンピュータを、
     表示部にマップを表示させる表示制御部と、
     前記表示部に表示される前記マップ対する操作に基づき入力される前記マップ上の指定領域に係る情報を取得する入力情報取得部と、
     前記マップ上の指定領域に基づいて実空間上の飛行体の飛行制限区域に係る情報を出力する出力制御部と、
     として機能させるプログラム。
     
    Computer,
    A display control unit that displays a map on the display unit,
    An input information acquisition unit for acquiring information related to a designated area on the map, which is input based on an operation for the map displayed on the display unit.
    An output control unit that outputs information related to the flight restricted area of the aircraft in real space based on the designated area on the map.
    A program that functions as.
PCT/JP2021/021987 2020-06-10 2021-06-09 Method, system, and program WO2021251441A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022530612A JPWO2021251441A1 (en) 2020-06-10 2021-06-09

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020101296 2020-06-10
JP2020-101296 2020-06-10

Publications (1)

Publication Number Publication Date
WO2021251441A1 true WO2021251441A1 (en) 2021-12-16

Family

ID=78846095

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/021987 WO2021251441A1 (en) 2020-06-10 2021-06-09 Method, system, and program

Country Status (2)

Country Link
JP (1) JPWO2021251441A1 (en)
WO (1) WO2021251441A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7295320B1 (en) 2022-09-21 2023-06-20 ソフトバンク株式会社 Information processing device, program, system, and information processing method
JP7295321B1 (en) 2022-09-21 2023-06-20 ソフトバンク株式会社 Information processing device, program, system, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017175804A1 (en) * 2016-04-08 2017-10-12 株式会社ナイルワークス Method for chemical spraying using unmanned aerial vehicle, program, and device
JP2017208678A (en) * 2016-05-18 2017-11-24 本郷飛行機株式会社 Communication and control device and method of small-sized unmanned airplane
WO2019003396A1 (en) * 2017-06-29 2019-01-03 株式会社オプティム Image providing system, method, and program
JP2019039875A (en) * 2017-08-28 2019-03-14 Necソリューションイノベータ株式会社 Flying route setting device, flying route setting method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017175804A1 (en) * 2016-04-08 2017-10-12 株式会社ナイルワークス Method for chemical spraying using unmanned aerial vehicle, program, and device
JP2017208678A (en) * 2016-05-18 2017-11-24 本郷飛行機株式会社 Communication and control device and method of small-sized unmanned airplane
WO2019003396A1 (en) * 2017-06-29 2019-01-03 株式会社オプティム Image providing system, method, and program
JP2019039875A (en) * 2017-08-28 2019-03-14 Necソリューションイノベータ株式会社 Flying route setting device, flying route setting method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7295320B1 (en) 2022-09-21 2023-06-20 ソフトバンク株式会社 Information processing device, program, system, and information processing method
JP7295321B1 (en) 2022-09-21 2023-06-20 ソフトバンク株式会社 Information processing device, program, system, and information processing method

Also Published As

Publication number Publication date
JPWO2021251441A1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
US11233943B2 (en) Multi-gimbal assembly
WO2020143677A1 (en) Flight control method and flight control system
CN108351574A (en) System, method and apparatus for camera parameter to be arranged
WO2021251441A1 (en) Method, system, and program
JP6829513B1 (en) Position calculation method and information processing system
WO2019230604A1 (en) Inspection system
US11082639B2 (en) Image display method, image display system, flying object, program, and recording medium
JPWO2018146803A1 (en) Position processing apparatus, flying object, position processing system, flight system, position processing method, flight control method, program, and recording medium
WO2020048365A1 (en) Flight control method and device for aircraft, and terminal device and flight control system
CN111694376A (en) Flight simulation method and device, electronic equipment and unmanned aerial vehicle
WO2019227289A1 (en) Time-lapse photography control method and device
JP2023100642A (en) inspection system
US20210229810A1 (en) Information processing device, flight control method, and flight control system
JP6966810B2 (en) Management server and management system, display information generation method, program
JP7435599B2 (en) Information processing device, information processing method, and program
WO2021168821A1 (en) Mobile platform control method and device
JP6681101B2 (en) Inspection system
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
WO2020042186A1 (en) Control method for movable platform, movable platform, terminal device and system
JP6730764B1 (en) Flight route display method and information processing apparatus
JP2020036163A (en) Information processing apparatus, photographing control method, program, and recording medium
JP6684012B1 (en) Information processing apparatus and information processing method
WO2022188151A1 (en) Image photographing method, control apparatus, movable platform, and computer storage medium
WO2022000245A1 (en) Aircraft positioning method, and control method and apparatus for assisted positioning system
JP6800505B1 (en) Aircraft management server and management system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21821110

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022530612

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21821110

Country of ref document: EP

Kind code of ref document: A1