JP2023057120A - Method for displaying information concerning control of flying body - Google Patents

Method for displaying information concerning control of flying body Download PDF

Info

Publication number
JP2023057120A
JP2023057120A JP2023020794A JP2023020794A JP2023057120A JP 2023057120 A JP2023057120 A JP 2023057120A JP 2023020794 A JP2023020794 A JP 2023020794A JP 2023020794 A JP2023020794 A JP 2023020794A JP 2023057120 A JP2023057120 A JP 2023057120A
Authority
JP
Japan
Prior art keywords
image
information
display method
information display
aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023020794A
Other languages
Japanese (ja)
Inventor
直晃 間下
Naoaki Mashita
太郎 吉井
Taro Yoshii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensyn Robotics Inc
Original Assignee
Sensyn Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensyn Robotics Inc filed Critical Sensyn Robotics Inc
Priority to JP2023020794A priority Critical patent/JP2023057120A/en
Publication of JP2023057120A publication Critical patent/JP2023057120A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To optimize the display of information including multiple images transmitted from multiple flying bodies.
SOLUTION: A method for displaying information, including images provided from multiple flying bodies, includes receiving images transmitted from the multiple flying bodies, generating an image display area corresponding to each of the multiple flying bodies, in which the received images are displayed, and controlling to display an image corresponding to a flying body selected by a user in a first image display area of the image display area corresponding to each of the multiple flying bodies.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、飛行体の制御に関する情報表示方法に関する。 The present invention relates to an information display method for controlling an aircraft.

近年、様々な用途に利用されるドローン(Drone)や無人航空機(UAV:Unm
anned Aerial Vehicle)などの飛行体(以下、単に「飛行体」と総
称する)を利用した様々なサービスが提供されている。
In recent years, drones and unmanned aerial vehicles (UAV: Unmanned Aerial Vehicles) have been used for various purposes.
Various services using flying vehicles such as anned aerial vehicles (hereinafter collectively referred to as "flying vehicles") are provided.

飛行体の飛行にあたって、飛行体から送信される機体データを、遠隔に位置する地上局
にて受信し、地上局設けられるパソコンのモニタ画面において機体データから得られる機
体情報、地図情報、機体操作パネル、機体搭載カメラ操作パネル等を表示する技術が、例
えば、特許文献1に開示されている。
During the flight of the aircraft, the aircraft data transmitted from the aircraft is received at a remote ground station, and the aircraft information, map information, and aircraft control panel obtained from the aircraft data on the monitor screen of the computer installed at the ground station. For example, Patent Document 1 discloses a technique for displaying an operation panel for a camera mounted on an aircraft.

また、複数の飛行体を運用する場合に、各無人飛行体の飛行データを1つの画面上で切
り換えや分割等することにより表示させる技術が、例えば特許文献2に開示されている。
Further, for example, Patent Document 2 discloses a technique for displaying flight data of each unmanned aircraft by switching or dividing them on a single screen when operating a plurality of aircraft.

WO2006-098469号公報WO2006-098469 特開平6-312700号公報JP-A-6-312700

しかしながら、上記特許文献に開示の技術は、単一または複数の飛行体の操作に主眼を
置いたもので、遠隔に設けられた装置における、必要な情報のモニタ画面表示の最適化を
図るものであり、複数の飛行体から送信される画像情報を複数表示し、画像表示の最適化
を図る技術は未だ開示されていない。
However, the technique disclosed in the above-mentioned patent document focuses on the operation of a single or a plurality of flying objects, and aims at optimizing the monitor screen display of necessary information in a device provided remotely. However, a technique for optimizing image display by displaying a plurality of pieces of image information transmitted from a plurality of flying objects has not yet been disclosed.

そこで、本発明は、複数の飛行体から送信される複数の画像を含む情報の表示の最適化
を図ることを目的とする。
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to optimize display of information including a plurality of images transmitted from a plurality of aircraft.

本発明の一の実施形態は、複数の飛行体から提供される画像を含む情報を表示する情報
表示方法であって、複数の飛行体から送信される画像を受信し、受信した画像を表示する
画像表示領域であって、複数の飛行体の各々の飛行体に対応する画像表示領域を生成し、
ユーザが選択した飛行体に対応する画像を、複数の飛行体の各々の飛行体に対応する画像
表示領域のうち第1の画像表示領域に表示するよう制御する。
One embodiment of the present invention is an information display method for displaying information including images provided from a plurality of flying objects, comprising receiving images transmitted from the plurality of flying objects and displaying the received images. generating an image display area corresponding to each of the plurality of flying objects;
The image corresponding to the aircraft selected by the user is controlled to be displayed in the first image display area among the image display areas corresponding to each of the plurality of aircraft.

本発明によれば、複数の飛行体から送信される複数の画像を含む情報の表示の最適化を
実現することができる。
Advantageous Effects of Invention According to the present invention, it is possible to optimize display of information including a plurality of images transmitted from a plurality of aircraft.

本発明による第1の実施の形態による、管理端末及び飛行体からなるシステム構成図である。It is a system block diagram which consists of a management terminal and an aircraft by 1st Embodiment by this invention. 本発明による第1の実施の形態による、管理端末及びユーザ端末からなるシステム構成図である。1 is a system configuration diagram including a management terminal and user terminals according to a first embodiment of the present invention; FIG. 本発明による第1の実施の形態による、管理端末のハードウェア構成を示す図である。3 is a diagram showing the hardware configuration of a management terminal according to the first embodiment of the present invention; FIG. 本発明による第1の実施の形態による、飛行体の機能ブロック図である。1 is a functional block diagram of an aircraft according to a first embodiment of the present invention; FIG. 本発明による第1の実施の形態による、管理端末のうち、制御部及び記憶部の機能ブロック図である。FIG. 4 is a functional block diagram of a control unit and a storage unit in the management terminal according to the first embodiment of the present invention; 本発明による第1の実施の形態による、情報表示にかかるフローチャート図である。FIG. 4 is a flow chart for displaying information according to the first embodiment of the present invention; 本発明による第1の実施の形態による、ユーザ端末に表示されるユーザインターフェースの一例である。It is an example of a user interface displayed on the user terminal according to the first embodiment of the present invention. 本発明による第1の実施の形態による、ユーザ端末に表示されるユーザインターフェースの他の例である。4 is another example of a user interface displayed on the user terminal according to the first embodiment of the present invention; 本発明による第2の実施の形態による、ユーザ端末に表示されるユーザインターフェースの一例である。It is an example of a user interface displayed on the user terminal according to the second embodiment of the present invention. 本発明による第3の実施の形態による、管理端末のうち、制御部及び記憶部の機能ブロック図である。FIG. 10 is a functional block diagram of a control unit and a storage unit in the management terminal according to the third embodiment of the present invention; 本発明による第3の実施の形態による、情報表示にかかるフローチャート図である。FIG. 11 is a flow chart for displaying information according to the third embodiment of the present invention; 本発明の実施の形態によるシステムの画面表示例である。It is an example of a screen display of the system according to the embodiment of the present invention.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行体は、以
下のような構成を備える。
[項目1]
複数の飛行体から提供される画像を含む情報を表示する情報表示方法であって、
前記複数の飛行体から送信される画像を受信し、
前記受信した画像を表示する画像表示領域であって、前記複数の飛行体の各々の飛行体
に対応する画像表示領域を生成し、
ユーザが選択した飛行体に対応する画像を、前記複数の飛行体の各々の飛行体に対応
する画像表示領域のうち第1の画像表示領域
に表示するよう制御する、情報表示方法。
[項目2]
請求項1に記載の情報表示方法であって、
前記第1の画像表示領域は、他の複数の飛行体の各々の飛行体に対応する画像表示領域
より大きいことを特徴とする、情報表示方法。
[項目3]
請求項1に記載の情報表示方法であって、
前記所定の飛行体に関連する所定の情報を表示する第2の画像領域を生成する、情報表
示方法。
[項目4]
請求項3に記載の情報表示方法であって、
前記所定の情報は、対応する飛行体の、飛行経路、位置情報、飛行位置情報、飛行高度
、飛行速度及びバッテリー残量のいずれか一つを含む、情報表示方法。
[項目5]
請求項1に記載の情報表示方法であって、
前記所定の飛行体を制御する制御パネル領域を提供する、情報表示方法。
[項目6]
請求項1に記載の情報表示方法であって、
前記所定の飛行体から送信される画像を記録する、情報表示方法。
[項目7]
請求項1に記載の情報表示方法であって、
前記表示された画像を複数のユーザに送信する、情報表示方法。
[項目8]
請求項7に記載の情報表示方法であって、
前記複数のユーザの各々のユーザからのメッセージ入力を受信し、
前記受信したメッセージを表示するメッセージ表示領域を生成する、情報表示方法。
The contents of the embodiments of the present invention are listed and explained. An aircraft according to an embodiment of the present invention has the following configuration.
[Item 1]
An information display method for displaying information including images provided from a plurality of flying objects,
receiving images transmitted from the plurality of flying objects;
generating an image display area for displaying the received image, the image display area corresponding to each of the plurality of flying objects;
An information display method for controlling an image corresponding to a flying object selected by a user to be displayed in a first image display area among image display areas corresponding to each of the plurality of flying objects.
[Item 2]
The information display method according to claim 1,
The information display method, wherein the first image display area is larger than an image display area corresponding to each of a plurality of other flying objects.
[Item 3]
The information display method according to claim 1,
An information display method, comprising generating a second image area displaying predetermined information related to the predetermined air vehicle.
[Item 4]
The information display method according to claim 3,
The information display method, wherein the predetermined information includes any one of flight path, position information, flight position information, flight altitude, flight speed, and remaining battery capacity of the corresponding aircraft.
[Item 5]
The information display method according to claim 1,
A method of displaying information, providing a control panel area for controlling the predetermined aircraft.
[Item 6]
The information display method according to claim 1,
An information display method for recording an image transmitted from the predetermined flying object.
[Item 7]
The information display method according to claim 1,
An information display method, wherein the displayed image is transmitted to a plurality of users.
[Item 8]
The information display method according to claim 7,
receiving message input from each of the plurality of users;
An information display method for generating a message display area for displaying the received message.

(第1の実施の形態)
以下、本発明の第1の実施の形態による飛行体の制御方法、飛行体及び飛行プログラムに
ついて、図面を参照しながら説明する。図1は、本発明による第1の実施の形態による、
管理端末及び飛行体からなるシステム構成図である。
(First embodiment)
A control method for an aircraft, an aircraft, and a flight program according to a first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows, according to a first embodiment according to the invention,
It is a system block diagram which consists of a management terminal and an aircraft.

図1に示すように、管理端末1は、インターネット等のネットワークを介して、複数の
飛行体2A、2B、2G等と接続する(以下、便宜上、これらのうち任意の飛行体を単に
「飛行体2」という)。ネットワークの例として、ローカルエリアネットワーク(LAN
)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイ
ント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等が挙げられる。こ
こで、飛行体2として、例えば、自律飛行する、または後述のユーザ端末により遠隔から
操作、制御され得る無人の飛行体(例えば、ドローン等)が挙げられる。飛行体2から管
理端末1に対して、所定の情報、例えば、飛行体2のカメラ等で撮影した静止画・動画デ
ータのほか、所定の制御データ、例えば、飛行位置情報(緯度、経度、高度等)、飛行経
路、バッテリーの使用量/残量、飛行速度、飛行時間、加速度、傾き、その他機器の動作
状況等の情報を、自動またはユーザからの要求に応じて送信する。
As shown in FIG. 1, the management terminal 1 is connected to a plurality of flying objects 2A, 2B, 2G, etc. via a network such as the Internet (hereinafter, for convenience, an arbitrary flying object among these is simply referred to as "flying object 2”). Examples of networks include local area networks (LAN
), wide area networks (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunication networks, cloud communications, and the like. Here, the flying object 2 includes, for example, an unmanned flying object (such as a drone) that can fly autonomously or that can be remotely operated and controlled by a user terminal, which will be described later. In addition to predetermined information, such as still image/video data taken by the camera of the aircraft 2, predetermined control data, such as flight position information (latitude, longitude, altitude etc.), flight path, battery usage/remaining capacity, flight speed, flight time, acceleration, tilt, and other information such as the operating status of the device, automatically or upon request from the user.

図2は、本発明による第1の実施の形態による、管理端末及びユーザ端末からなるシステ
ム構成図である。図2に示すように、管理端末1は、インターネット等のネットワークを
介して、複数のユーザ端末3A、3B、3G等と接続する(以下、便宜上、これらのうち
任意のユーザ端末を単に「ユーザ端末3」という)。ネットワークの例として、ローカル
エリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、
WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラ
ウド通信等が挙げられる。ここで、ユーザ端末3として、例えば、ワークステーションや
パーソナルコンピュータのような汎用コンピュータとしてもよいし、スマートフォン、タ
ブレット等の携帯機器端末としてもよい。ユーザ端末3は、ディスプレイパネル等の表示
装置を備え、表示装置は、管理端末1から送信された画像、動画データを含む所定の情報
を、内蔵されたブラウザ等の表示用ソフトウェアよって表示する。
FIG. 2 is a system configuration diagram consisting of a management terminal and user terminals according to the first embodiment of the present invention. As shown in FIG. 2, the management terminal 1 is connected to a plurality of user terminals 3A, 3B, 3G, etc. via a network such as the Internet (hereinafter, for convenience, an arbitrary user terminal among these is simply referred to as "user terminal"). 3”). Examples of networks include local area networks (LAN), wide area networks (WAN), infrared, wireless,
WiFi, point-to-point (P2P) networks, telecommunication networks, cloud communications, and the like. Here, the user terminal 3 may be, for example, a general-purpose computer such as a workstation or a personal computer, or may be a mobile device terminal such as a smart phone or a tablet. The user terminal 3 includes a display device such as a display panel, and the display device displays predetermined information including image and moving image data transmitted from the management terminal 1 using display software such as a built-in browser.

図3は、管理サーバ1のハードウェア構成を示す図である。なお、図示された構成は一
例であり、これ以外の構成を有していてもよい。
FIG. 3 is a diagram showing the hardware configuration of the management server 1. As shown in FIG. Note that the illustrated configuration is an example, and other configurations may be employed.

図示されるように、管理サーバ1は、データベース(図示せず)と接続されシステムの
一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータ
のような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによっ
て論理的に実現されてもよい。
As shown, the management server 1 is connected to a database (not shown) and constitutes part of the system. The management server 1 may be, for example, a general-purpose computer such as a workstation or personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、制御部10、メモリ11、ストレージ12、送受信部1
3、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The management server 1 includes at least a control unit 10, a memory 11, a storage 12, a transmission/reception unit 1
3. It has an input/output unit 14 and the like, which are electrically connected to each other through a bus 15 .

制御部10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の
制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置であ
る。例えばプロセッサ10はCPU(Central Processing Unit
)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各
情報処理を実施する。
The control unit 10 is an arithmetic unit that controls the overall operation of the management server 1, controls transmission and reception of data between elements, executes applications, and performs information processing necessary for authentication processing. For example, the processor 10 is a CPU (Central Processing Unit
), and executes each information processing by executing a program or the like stored in the storage 12 and developed in the memory 11 .

メモリ11は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時
に実行されるBIOS(Basic Input/Output System)、及び
各種設定情報等を格納する。
The memory 11 is a DRAM (Dynamic Random Access Memory
y) and other volatile storage devices, and flash memory and HDD (Hard
Auxiliary memory composed of a non-volatile memory device such as a Disc Drive). The memory 11 is used as a work area for the processor 10, and stores a BIOS (Basic Input/Output System) executed when the management server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよ
い。
The storage 12 stores various programs such as application programs. A database storing data used for each process may be constructed in the storage 12 .

送受信部13は、管理サーバ1をネットワークおよびブロックチェーンネットワークに
接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Blu
etooth Low Energy)の近距離通信インタフェースを備えていてもよい
The transmitter/receiver 13 connects the management server 1 to the network and the blockchain network. Note that the transmission/reception unit 13 is compatible with Bluetooth (registered trademark) and BLE (Blu
(etooth Low Energy) short-range communication interface.

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力
機器である。
The input/output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
A bus 15 is commonly connected to the above elements and transmits, for example, address signals, data signals and various control signals.

図4は、本発明による第1の実施の形態による飛行体の機能ブロック図である。なお、以
下の機能ブロック図は説明を簡単にするために、単一のデバイス(飛行体)に格納された
概念として記載しているが、例えば、その一部機能を外部デバイスに発揮させたり、クラ
ウドコンピューティング技術を利用することによって論理的に構成されていてもよい。
FIG. 4 is a functional block diagram of the aircraft according to the first embodiment of the present invention. In order to simplify the explanation, the functional block diagram below is described as a concept stored in a single device (aircraft). It may be configured logically by using cloud computing technology.

フライトコントローラ21は、プログラマブルプロセッサ(例えば、中央演算処理装置
(CPU))などの1つ以上のプロセッサを有することができる。
Flight controller 21 may have one or more processors, such as programmable processors (eg, central processing units (CPUs)).

フライトコントローラ21は、メモリ22を有しており、当該メモリにアクセス可能で
ある。メモリ22は、1つ以上のステップを行うためにフライトコントローラ21が実行
可能であるロジック、コード、および/またはプログラム命令を記憶している。
The flight controller 21 has a memory 22 and can access the memory. Memory 22 stores logic, code, and/or program instructions that are executable by flight controller 21 to perform one or more steps.

メモリ22は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可
能な媒体または外部の記憶装置を含んでいてもよい。カメラやセンサ類27から取得した
データは、メモリに直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した
静止画・動画データが内蔵メモリ又は外部メモリに記録される。カメラは飛行体にジンバ
ル28を介して設置される。
Memory 22 may include, for example, separable media or external storage devices such as SD cards and random access memory (RAM). Data acquired from cameras and sensors 27 may be communicated directly to and stored in memory. For example, still image/moving image data captured by a camera or the like is recorded in a built-in memory or an external memory. A camera is installed on the flying vehicle via a gimbal 28 .

フライトコントローラ21は、飛行体の状態を制御するように構成された制御モジュー
ルを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに
回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速
度を調整するために、ESC29を経由して飛行体の推進機構(モータ30等)を制御す
る。モータによりプロペラ31が回転することで飛行体の揚力を生じさせる。制御モジュ
ールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。
Flight controller 21 includes a control module configured to control the state of the vehicle. For example, the control module may be configured to adjust the spatial orientation, velocity, and/or acceleration of a vehicle having six degrees of freedom (translational motions x, y, and z, and rotational motions θx , θy , and θz ). , ESC 29 to control the propulsion mechanism (motor 30, etc.) of the aircraft. The propeller 31 is rotated by the motor to generate the lift of the aircraft. The control module can control one or more of the states of the mount, sensors.

フライトコントローラ21は、1つ以上の外部のデバイス(例えば、送受信機25(プ
ロポ)、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または
受け取るように構成された送受信部26と通信可能である。送受信機25は、有線通信ま
たは無線通信などの任意の適当な通信手段を使用することができる。
Flight controller 21 is configured to transmit and/or receive data from one or more external devices (e.g., transceiver 25 (propo), terminal, display, or other remote controller). It can communicate with the unit 26 . Transceiver 25 may use any suitable means of communication, such as wired or wireless communication.

例えば、送受信部26は、ローカルエリアネットワーク(LAN)、ワイドエリアネッ
トワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネット
ワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することがで
きる。
For example, transceiver 26 utilizes one or more of a local area network (LAN), wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. can do.

送受信部26は、センサ類27で取得したデータ、フライトコントローラ21が生成し
た処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのう
ちの1つ以上を送信および/または受け取ることができる。
The transmitting/receiving unit 26 transmits and/or receives one or more of data obtained by the sensors 27, processing results generated by the flight controller 21, predetermined control data, user commands from a terminal or a remote controller, and the like. be able to.

本実施の形態によるセンサ類27は、慣性センサ(加速度センサ、ジャイロセンサ)、
GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例
えば、カメラ)を含み得る。
Sensors 27 according to the present embodiment include inertial sensors (acceleration sensors, gyro sensors),
It may include a GPS sensor, a proximity sensor (eg lidar), or a vision/image sensor (eg camera).

図5は、本発明による第1の実施の形態による、管理端末のうち、制御部及び記憶部の機
能ブロック図である。また、図6は、本発明による第1の実施の形態による、管理端末に
おいて実行される情報表示処理にかかるフローチャート図である。本情報処理は、記憶部
に格納される情報表示用のプログラムを制御部において実行することで実現され得る。
FIG. 5 is a functional block diagram of the control unit and storage unit in the management terminal according to the first embodiment of the present invention. Also, FIG. 6 is a flow chart for information display processing executed in the management terminal according to the first embodiment of the present invention. This information processing can be realized by having the control unit execute an information display program stored in the storage unit.

図6に示すように、まず、制御部10の情報受付部41は、飛行体2より画像・動画デー
タ及び/または所定の制御データ等の関連情報を受け付ける(S101)。制御部10は
、上記情報を、記憶部11の画像格納部51または情報格納部52に格納する。
As shown in FIG. 6, first, the information reception unit 41 of the control unit 10 receives related information such as image/moving image data and/or predetermined control data from the aircraft 2 (S101). The control unit 10 stores the information in the image storage unit 51 or the information storage unit 52 of the storage unit 11 .

続いて、制御部10の表示制御部44は、テンプレート格納部53に格納されたUIテ
ンプレートに従って、予め設定された表示領域のレイアウトや配置された共通要素に対し
、飛行体2から受信した、画像・動画データやテキスト等の情報を配置することで、ユー
ザ端末3の表示装置に表示するためのユーザインターフェース(UI)画面用ファイルを
生成する(S102)。
Subsequently, the display control unit 44 of the control unit 10, according to the UI template stored in the template storage unit 53, displays the image received from the aircraft 2 with respect to the layout of the preset display area and the arranged common elements. By arranging information such as video data and text, a user interface (UI) screen file for display on the display device of the user terminal 3 is generated (S102).

図7に、本発明による第1の実施の形態による、ユーザ端末に表示されるユーザインタ
ーフェースの一例を示す。ユーザインターフェース画面60は、各飛行体2から送信され
た画像・動画データを表示するための複数の表示領域61及び62A-62Eを有する。
各表示領域は、対応する飛行体の画像・動画データを表示するために設けられる。例えば
、表示領域61は、ドローン1から送信された画像・動画データを表示し、表示領域62
Aは、ドローン2から送信された画像・動画データを表示する。同様に、表示領域62B
は、ドローン3から送信された画像・動画データを表示する。ここで、表示領域61は、
ユーザによって選択された飛行体を表示するための領域とすることを特徴とする。また、
表示領域61は、他の表示領域62A-62Eに比べて表示面積が大きいことを特徴とす
る。例えば、図7において、表示領域61は、飛行体選択部64を介してユーザによって
選択されたドローン1から受信された画像・動画データを表示している。これにより、ユ
ーザは、選択された飛行体から受信した画像・動画データをより容易に確認することがで
きる。飛行体選択部64は、プルダウンにより他のドローン2-6を選択することができ
る。飛行体操作用パネル63は、表示領域61にオーバレイするように配置されており、
ユーザからの要求に応じて、飛行体の飛行制御(例えば、飛行体の飛行する方向の制御)
及び飛行体に備えられるカメラの制御(例えば、静止画・動画撮影の切り替え、ズームイ
ン・アウトの制御、カメラの撮影方向の制御等)を可能にする。飛行体の飛行制御は、記
憶部11の飛行体制御プログラム格納部57に格納された飛行体制御プログラムを、制御
部10の飛行体制御部プログラム実行部48において実行することで実現される。
FIG. 7 shows an example of a user interface displayed on the user terminal according to the first embodiment of the present invention. The user interface screen 60 has a plurality of display areas 61 and 62A-62E for displaying image/video data transmitted from each aircraft 2. FIG.
Each display area is provided to display image/moving image data of the corresponding aircraft. For example, the display area 61 displays image/video data transmitted from the drone 1, and the display area 62
A displays image/video data transmitted from the drone 2 . Similarly, the display area 62B
displays the image/video data transmitted from the drone 3 . Here, the display area 61 is
It is characterized by being an area for displaying the flying object selected by the user. again,
The display area 61 is characterized by having a larger display area than the other display areas 62A-62E. For example, in FIG. 7, the display area 61 displays image/moving image data received from the drone 1 selected by the user via the aircraft selection unit 64 . This allows the user to more easily check the image/video data received from the selected aircraft. The flying object selection unit 64 can select another drone 2-6 by pull-down. The aircraft action panel 63 is arranged so as to overlay the display area 61,
Flight control of the aircraft (for example, control of the flight direction of the aircraft) in response to a request from the user
Also, it is possible to control the camera provided on the flying object (for example, switching between still image/moving image shooting, control of zoom-in/out, control of camera shooting direction, etc.). The flight control of the aircraft is realized by executing the aircraft control program stored in the aircraft control program storage section 57 of the storage section 11 in the aircraft control section program execution section 48 of the control section 10 .

また、ユーザインタフェース画面60は、現在選択中の飛行体のGPSから送信された
位置情報及び飛行経路を地図上に表示する、地図表示領域65、飛行体から送信された各
種制御データ(例えば、緯度、経度、高度、方向、速度、バッテリー残量等)に関する情
報を表示する制御情報表示領域66を有する。さらに、ユーザインターフェース画面60
は、選択中の飛行体から送信され、表示領域61に表示される動画データを録画するため
の録画用ボタン67を有することができる。また、ユーザインターフェース画面60を他
のユーザ端末に共有するためのチャットプログラムを起動するための共有ボタン68を有
することができる。各々のユーザは、共有されたユーザインターフェース画面60を参照
しながら、チャットインターフェースを通じて、コメント入力を行いつつ、他のユーザか
ら受信したコメントを確認することができる。チャットプログラムは、記憶部11のチャ
ットプログラム格納部55に格納されたチャットプログラムを、制御部10のチャットプ
ログラム実行部47で実行することで実現される。また、各々のユーザは、共有されたユ
ーザインターフェース画面において、表示領域61に表示される飛行体の操作用パネル6
3を制御することができる。このとき、ユーザインターフェイス画面を共有した元のユー
ザ(ホストユーザ)が、操作用パネル63を操作するための権限を特定の他のユーザに指
定するための選択ボタン(図示せず)を、ユーザインターフェース画面60上に設けるこ
ともできる。
The user interface screen 60 also includes a map display area 65 for displaying on a map the position information and flight path of the currently selected flying object transmitted from the GPS, and various control data (for example, latitude) transmitted from the flying object. , longitude, altitude, direction, speed, remaining battery capacity, etc.). Furthermore, the user interface screen 60
can have a record button 67 for recording the video data transmitted from the selected aircraft and displayed in the display area 61 . It may also have a share button 68 for launching a chat program for sharing the user interface screen 60 with other user terminals. While referring to the shared user interface screen 60, each user can check comments received from other users while inputting comments through the chat interface. The chat program is realized by executing the chat program stored in the chat program storage section 55 of the storage section 11 with the chat program execution section 47 of the control section 10 . In addition, each user can operate the aircraft operation panel 6 displayed in the display area 61 on the shared user interface screen.
3 can be controlled. At this time, the original user (host user) who shared the user interface screen pushes a selection button (not shown) for specifying the authority for operating the operation panel 63 to a specific other user on the user interface. It can also be provided on the screen 60 .

図6に戻り、制御部10の判定部43は、管理端末1が、ユーザ端末3から、複数の飛行
体のうち所望の飛行体を選択する要求を受信したか否かを判定する(S103)。上記の
とおり、例えば、ユーザ端末3は、ユーザインターフェース画面60の飛行体選択部64
のプルダウン操作により、所望の飛行体を選択する。判定結果がYESである場合、表示
制御部45は、ユーザ端末3が選択した飛行体から送信された画像・動画データを表示領
域61に表示する(S104)。例えば、図8に示すように、ユーザ端末3が、ドローン
2を選択する要求を行った場合、ドローン2から送信された画像・動画データが表示領域
61に表示される。これまで選択されていたドローン1は、これまでドローン2の画像・
動画データが表示されていた表示領域62Aに表示される。本実施形態のようなユーザイ
ンターフェース画面を提供することで、複数の飛行体から提供される画像・動画データを
俯瞰的に確認しつつ、フォーカスしたい飛行体の画像・動画データを大きく表示すること
で、より見やすい表示をユーザに対して提供することができる。また、飛行体の機体操作
やカメラ操作を可能とする操作パネルを選択中の飛行体の画像・動画データを表示する表
示領域に対して提供することで、より操作性の高いユーザインターフェースを提供するこ
とができる。
Returning to FIG. 6, the determination unit 43 of the control unit 10 determines whether or not the management terminal 1 has received from the user terminal 3 a request to select a desired flying object from among a plurality of flying objects (S103). . As described above, for example, the user terminal 3 selects the aircraft selection section 64 of the user interface screen 60
A desired flying object is selected by the pull-down operation of . If the determination result is YES, the display control unit 45 displays the image/moving image data transmitted from the aircraft selected by the user terminal 3 in the display area 61 (S104). For example, as shown in FIG. 8 , when the user terminal 3 makes a request to select the drone 2 , image/video data transmitted from the drone 2 is displayed in the display area 61 . Drone 1, which has been selected so far, is the image of Drone 2 so far.
It is displayed in the display area 62A where the moving image data was displayed. By providing a user interface screen like this embodiment, it is possible to check the image/video data provided from a plurality of flying objects in a bird's-eye view and to display the image/video data of the flying object to be focused on in a large size. , it is possible to provide the user with an easier-to-see display. In addition, by providing an operation panel that enables aircraft operation and camera operation in the display area for displaying image and video data of the selected aircraft, a user interface with higher operability is provided. be able to.

なお、図7及図8を比較して理解されるように、地図表示領域65には、現在表示領域6
1に映し出されている映像に関するドローン1を中央に映し出し(d1)、他のドローン
(例えばドローン2:d2)を同一画面内に映し出すこととしてもよい。この場合、各ド
ローンの進行方向を示すことができるアイコン(例えば、進行方向に対して非対称な図形
等)や、飛行履歴(飛行経路)を併記することとしてもよい。更には、予定進路(図示せ
ず)を表示することにより、衝突回避のための情報を提示することとしてもよい。
As can be understood by comparing FIGS. 7 and 8, the current display area 6 is displayed in the map display area 65.
Drone 1 related to the image displayed in 1 may be displayed in the center (d1), and other drones (for example, drone 2: d2) may be displayed in the same screen. In this case, an icon that can indicate the direction of travel of each drone (for example, a graphic that is asymmetrical with respect to the direction of travel) and a flight history (flight route) may be written together. Furthermore, information for collision avoidance may be presented by displaying a planned course (not shown).

また、上述した説明においては、各ドローンは自律飛行(あらかじめ設定又は格納された
飛行制御プログラム等に基づく飛行等)することを前提としていたが、このような形態も
含め、飛行制御とカメラ操作を例えば、以下のような操作運用とすることもできる。
i)飛行制御:現地オペレータ / カメラ操作:現地オペレータ
ii)飛行制御:現地オペレータ / カメラ操作:本システムの操作用パネル
iii)飛行制御:本システムの操作用パネル / カメラ操作:現地オペレータ
iv)飛行制御:本システムの操作用パネル / カメラ操作:本システムの操作用パネ

なお、上記のiii)及びiv)の場合において、飛行制御を本システムの操作用パネル
で行っている際には、現地オペレータの操作プロポの操作を受け付けないようにしておく
ことが好ましい。ただし、緊急時等においては、所定のボタン等を操作することなどによ
り現地オペレータからの強制割込み操作を受け付けることとすれば更に好ましい。
In addition, in the above explanation, it is assumed that each drone will fly autonomously (flying based on a preset or stored flight control program, etc.), but including such a form, flight control and camera operation For example, the following operations can be used.
i) Flight control: local operator/camera operation: local operator ii) Flight control: local operator/camera operation: operation panel of this system iii) Flight control: operation panel of this system/camera operation: local operator iv) Flight Control: Operation panel of this system / Camera operation: Operation panel of this system In the case of iii) and iv) above, when flight control is performed by the operation panel of this system, the on-site operator It is preferable not to accept the operation of the operation propo. However, in an emergency or the like, it is more preferable to accept a forced interrupt operation from the local operator by operating a predetermined button or the like.

(第2の実施の形態)
図9は、本発明による第2の実施の形態による、ユーザ端末に表示されるユーザインタ
ーフェースの一例である。本実施の形態において、ユーザが、所望の飛行体を選択したと
きに、今回選択した飛行体から送信された画像・動画データが、これまで選択されていた
別の飛行体の画像・動画データが表示されていた所定の表示領域(図7及び図8における
表示領域61)に表示されるのではなく、上記今回選択した飛行体の画像・動画データが
これまで表示されていた表示領域が拡大表示されることを特徴とする。例えば、図9にお
いて、ユーザ端末3が、飛行体選択部64において、ドローン2を選択すると、これまで
ドローン2の画像・動画データが表示されていた表示領域62Aが拡大表示され、これに
伴い、隣接するドローン1の画像・動画データの表示領域61が縮小表示され、ドローン
3の画像・動画データの表示領域62Bの表示位置が変更される。
(Second embodiment)
FIG. 9 is an example of a user interface displayed on the user terminal according to the second embodiment of the present invention. In this embodiment, when the user selects a desired flying object, the image/moving image data transmitted from the currently selected flying object is replaced by the image/moving image data of another flying object that has been selected so far. Instead of being displayed in the predetermined display area (display area 61 in FIGS. 7 and 8), the display area in which the image/movie data of the flying object selected this time has been displayed is displayed enlarged. characterized by being For example, in FIG. 9, when the user terminal 3 selects the drone 2 in the flying object selection unit 64, the display area 62A in which the image/moving image data of the drone 2 has been displayed is enlarged. The image/moving image data display area 61 of the adjacent drone 1 is reduced and displayed, and the display position of the image/moving image data display area 62B of the drone 3 is changed.

(第3の実施の形態)
図10は、本発明による第3の実施の形態による、管理端末のうち、制御部及び記憶部
の機能ブロック図である。また、図11は、本発明による第3の実施の形態による、情報
表示にかかるフローチャート図である。
(Third Embodiment)
FIG. 10 is a functional block diagram of the control unit and storage unit in the management terminal according to the third embodiment of the present invention. FIG. 11 is a flow chart for information display according to the third embodiment of the present invention.

図10に示す、管理端末1の制御部10及び記憶部11の機能ブロック図は、基本的に
図5に示す第1の実施形態における制御部10及び記憶部11の機能ブロック図と同等で
あるが、本実施の形態における特徴として、制御部10は、記憶部11の探索オブジェク
ト格納部58に格納される所定のオブジェクトを検出する、オブジェクト検出部49を有
することが挙げられる。
The functional block diagram of the control unit 10 and the storage unit 11 of the management terminal 1 shown in FIG. 10 is basically equivalent to the functional block diagram of the control unit 10 and the storage unit 11 in the first embodiment shown in FIG. However, a feature of this embodiment is that the control unit 10 has an object detection unit 49 that detects a predetermined object stored in the search object storage unit 58 of the storage unit 11 .

図11に示すように、制御部10の.情報受付部41は、飛行体2より画像・動画デー
タといった情報及び/または所定の制御データ等の関連情報を受け付ける(S201)。
制御部10は、上記情報を、記憶部11の画像格納部51または情報格納部52に格納す
る。
As shown in FIG. 11, the . The information reception unit 41 receives information such as image/moving image data and/or related information such as predetermined control data from the aircraft 2 (S201).
The control unit 10 stores the information in the image storage unit 51 or the information storage unit 52 of the storage unit 11 .

続いて、制御部10の表示制御部44は、テンプレート格納部53に格納されたUIテ
ンプレートに従って、予め設定された表示領域のレイアウトや配置された共通要素に対し
、飛行体2から受信した、画像・動画データやテキスト等の情報を配置することで、ユー
ザ端末3の表示装置に表示するためのユーザインターフェース(UI)画面用ファイルを
生成する(S202)。
Subsequently, the display control unit 44 of the control unit 10, according to the UI template stored in the template storage unit 53, displays the image received from the aircraft 2 with respect to the layout of the preset display area and the arranged common elements. - By arranging information such as video data and text, a user interface (UI) screen file for displaying on the display device of the user terminal 3 is generated (S202).

次に、制御部10の判定部43は、管理端末1が、複数の飛行体のうちいずれかの飛行体
2が、所定のオブジェクトを検出したか否かを判定する(S203)。例えば、複数の飛
行体が、山岳地帯で遭難者を探索している場合に、各飛行体は、管理端末1に対し、画像
・動画データを送信すると、管理端末1は、探索オブジェクト格納部58に格納された探
索対象者に関連する画像データを参照し、飛行体から受信された画像・動画データに探索
対象者が含まれているか否かを判定する。判定結果がYESである場合、表示制御部45
は、探索対象者を検出した飛行体の画像・動画データを、図7における表示領域61に表
示するよう制御する(S204)。本実施形態のようなユーザインターフェース画面を提
供することで、複数の飛行体から提供される画像・動画データを俯瞰的に確認しつつ、特
定のオブジェクトを検出した行体の画像・動画データを大きく表示することで、ユーザに
対して注意を促すことができる。
Next, the determination unit 43 of the control unit 10 determines whether or not the management terminal 1 has detected a predetermined object in any one of the plurality of flying objects 2 (S203). For example, when a plurality of flying objects are searching for victims in a mountainous area, each flying object transmits image/moving image data to the management terminal 1 . , and determines whether or not the image/moving image data received from the aircraft includes the search target. If the determination result is YES, the display control unit 45
controls to display the image/video data of the aircraft that detected the search target in the display area 61 in FIG. 7 (S204). By providing a user interface screen like this embodiment, it is possible to view the image/video data provided by a plurality of flying objects from a bird's-eye view and enlarge the image/video data of the body that detected a specific object. By displaying, it is possible to call attention to the user.

上述した実施の形態においては、表示領域には、複数の飛行体のカメラ映像等が映し出さ
れるものとしていたが、例えば、固定カメラによる映像や、所謂電話会議のようなネット
ワークを介したコミュニケーションソフトウェアにより取得された映像、地上移動体や水
中移動体のようなカメラ部を備えた移動体が取得した映像をも映し出すことができる。こ
の場合、地図表示領域65(図7参照)には、各カメラ(=移動体、固定カメラ、電子会
議用端末等)の位置を示すこととすればよい。また、操作パネルを利用して複数地点から
遠隔操作を行う場合には、操作を行う主導権を有する端末が互いに認識可能になるような
表示をすることとし、主導権の切り替えのための表示も合わせて表示することが好ましい
In the above-described embodiment, camera images of a plurality of flying objects are displayed in the display area. It is also possible to display captured images and images captured by moving objects equipped with a camera unit, such as ground moving objects and underwater moving objects. In this case, the map display area 65 (see FIG. 7) may indicate the position of each camera (=mobile body, fixed camera, electronic conference terminal, etc.). In addition, when remote control is performed from multiple locations using the operation panel, the display should be such that the terminals that have the initiative to perform the operation can recognize each other. It is preferable to display them together.

本発明の飛行体は、調査、測量、観察等における産業用の飛行体としての利用が期待で
きる。また、本発明の飛行体は、マルチコプター・ドローン等の飛行機関連産業において
利用することができ、さらに、本発明を通じて、これらの飛行体及び飛行体の飛行に関連
する安全性の向上に寄与することができる。
The flying object of the present invention can be expected to be used as an industrial flying object for investigation, surveying, observation, and the like. In addition, the flying object of the present invention can be used in aircraft-related industries such as multicopter drones, and through the present invention, contributes to the improvement of safety related to the flight of these flying objects and flying objects. be able to.

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定
して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良
することができると共に、本発明にはその均等物が含まれることは言うまでもない。
The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit and interpret the present invention. It goes without saying that the present invention can be modified and improved without departing from its spirit, and that equivalents thereof are included in the present invention.

1 管理端末
2A~2G 飛行体
3A~3G ユーザ端末

1 Management terminal 2A-2G Aircraft 3A-3G User terminal

Claims (8)

複数の飛行体から提供される画像を含む情報を表示する情報表示方法であって、
前記複数の飛行体から送信される画像を受信し、
前記受信した画像を表示する画像表示領域であって、前記複数の飛行体の各々の飛行体
に対応する画像表示領域を生成し、
ユーザが選択した飛行体に対応する画像を、前記複数の飛行体の各々の飛行体に対応
する画像表示領域のうち第1の画像表示領域に表示するよう制御する、情報表示方法。
An information display method for displaying information including images provided from a plurality of flying objects,
receiving images transmitted from the plurality of flying objects;
generating an image display area for displaying the received image, the image display area corresponding to each of the plurality of flying objects;
An information display method for controlling an image corresponding to a flying object selected by a user to be displayed in a first image display area among image display areas corresponding to each of the plurality of flying objects.
請求項1に記載の情報表示方法であって、
前記第1の画像表示領域は、他の前記複数の飛行体の各々の飛行体に対応する画像表示
領域より大きいことを特徴とする、情報表示方法。
The information display method according to claim 1,
The information display method, wherein the first image display area is larger than an image display area corresponding to each of the plurality of other flying objects.
請求項1に記載の情報表示方法であって、
前記所定の飛行体に関連する所定の情報を表示する第2の画像領域を生成する、情報表
示方法。
The information display method according to claim 1,
An information display method, comprising generating a second image area displaying predetermined information related to the predetermined air vehicle.
請求項3に記載の情報表示方法であって、
前記所定の情報は、対応する飛行体の、飛行経路、位置情報、飛行位置情報、飛行高度
、飛行速度及びバッテリー残量のいずれか一つを含む、情報表示方法。
The information display method according to claim 3,
The information display method, wherein the predetermined information includes any one of flight path, position information, flight position information, flight altitude, flight speed, and remaining battery capacity of the corresponding aircraft.
請求項1に記載の情報表示方法であって、
前記所定の飛行体を制御する制御パネル領域を提供する、情報表示方法。
The information display method according to claim 1,
A method of displaying information, providing a control panel area for controlling the predetermined aircraft.
請求項1に記載の情報表示方法であって、
前記所定の飛行体から送信される画像を記録する、情報表示方法。
The information display method according to claim 1,
An information display method for recording an image transmitted from the predetermined flying object.
請求項1に記載の情報表示方法であって、
前記表示された画像を複数のユーザに送信する、情報表示方法。
The information display method according to claim 1,
An information display method, wherein the displayed image is transmitted to a plurality of users.
請求項7に記載の情報表示方法であって、
前記複数のユーザの各々のユーザからのメッセージ入力を受信し、
前記受信したメッセージを表示するメッセージ表示領域を生成する、情報表示方法。

The information display method according to claim 7,
receiving message input from each of the plurality of users;
An information display method for generating a message display area for displaying the received message.

JP2023020794A 2019-04-29 2023-02-14 Method for displaying information concerning control of flying body Pending JP2023057120A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023020794A JP2023057120A (en) 2019-04-29 2023-02-14 Method for displaying information concerning control of flying body

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019086988A JP2019195169A (en) 2019-04-29 2019-04-29 Information display method regarding control of flight vehicle
JP2023020794A JP2023057120A (en) 2019-04-29 2023-02-14 Method for displaying information concerning control of flying body

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019086988A Division JP2019195169A (en) 2019-04-29 2019-04-29 Information display method regarding control of flight vehicle

Publications (1)

Publication Number Publication Date
JP2023057120A true JP2023057120A (en) 2023-04-20

Family

ID=68469662

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019086988A Pending JP2019195169A (en) 2019-04-29 2019-04-29 Information display method regarding control of flight vehicle
JP2023020794A Pending JP2023057120A (en) 2019-04-29 2023-02-14 Method for displaying information concerning control of flying body

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019086988A Pending JP2019195169A (en) 2019-04-29 2019-04-29 Information display method regarding control of flight vehicle

Country Status (1)

Country Link
JP (2) JP2019195169A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7338514B2 (en) * 2020-03-04 2023-09-05 コベルコ建機株式会社 Work support server, work support method
JP7053937B1 (en) * 2021-09-30 2022-04-12 Kddi株式会社 Communication terminal, management system and communication control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070120105A (en) * 2005-03-18 2007-12-21 야마하하쓰도키 가부시키가이샤 Flight control system
JP6296447B2 (en) * 2014-03-19 2018-03-20 株式会社日本総合研究所 Shooting information sharing system, shooting information management device, and shooting information sharing method using autonomous driving traffic system
JP6486744B2 (en) * 2015-03-25 2019-03-20 株式会社日本総合研究所 Regional monitoring server, providing terminal and system thereof
JP6281720B2 (en) * 2016-05-24 2018-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Imaging system

Also Published As

Publication number Publication date
JP2019195169A (en) 2019-11-07

Similar Documents

Publication Publication Date Title
US9586682B2 (en) Unmanned aerial vehicle control apparatus and method
JP2023057120A (en) Method for displaying information concerning control of flying body
JP6481121B1 (en) Information display method for control of flying object
JP6786129B2 (en) Unmanned aerial vehicle reservation management device
JP2019028712A (en) Guidance method, guidance device, and guidance system of flying body
JP6582270B1 (en) Information display method for control of flying object
US11620913B2 (en) Movable object application framework
JP7333129B2 (en) Shooting method
JP6582266B1 (en) Information display method for control of flying object
JP6582268B1 (en) Information display method for control of flying object
JP6582269B1 (en) Information display method for control of flying object
JP6582264B1 (en) Information display method for control of flying object
JP6582267B1 (en) Information display method for control of flying object
JP6582265B1 (en) Information display method for control of flying object
JP6582258B1 (en) Information display method for control of flying object
JP7112714B2 (en) Monitoring system using monitoring device, monitoring program and flying object
KR102526202B1 (en) Indoor autonomous flying drone control system and method therefor
JP2019182359A (en) Flying object control method and control program
JP7271028B2 (en) Monitoring system using monitoring device, monitoring program and flying object
JP2023083072A (en) Method, system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240229