JP2007093045A - Command device and command method - Google Patents

Command device and command method Download PDF

Info

Publication number
JP2007093045A
JP2007093045A JP2005279955A JP2005279955A JP2007093045A JP 2007093045 A JP2007093045 A JP 2007093045A JP 2005279955 A JP2005279955 A JP 2005279955A JP 2005279955 A JP2005279955 A JP 2005279955A JP 2007093045 A JP2007093045 A JP 2007093045A
Authority
JP
Japan
Prior art keywords
information
execution
command
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005279955A
Other languages
Japanese (ja)
Inventor
Shuichi Tokumoto
修一 徳本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005279955A priority Critical patent/JP2007093045A/en
Publication of JP2007093045A publication Critical patent/JP2007093045A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user rapidly obtain/determine circumstances and rapidly transmit an execution command to unmanned vehicles 200a to 200c in a command support device 100 (command device) for transmitting the execution command to the unmanned vehicles 200a to 200c (execution device) and remote-controlling the unmanned vehicles 200a to 200c. <P>SOLUTION: A map of a region where the unmanned vehicles 200a to 200c are active (action region map), information of the region (region information), position information of the unmanned vehicles 200a to 200c, and information collected by the unmanned vehicles 200a to 200c (collected information) are displayed with the usage of a display device 110 (display input device). The user inputs the execution command to the unmanned vehicles 200a to 200c by indicating a figure displayed on a display screen of the display device 110, and an unmanned vehicle communication part 170 (execution command notifying part, execution device information acquiring part) transmits it to the unmanned vehicles 200a to 200c. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の実行装置に対する実行指令を伝達する指令装置に関する。   The present invention relates to a command device that transmits execution commands to a plurality of execution devices.

多数の実行装置に対し、実行指令を伝達して遠隔操作するシステムにおいて、実行装置が収集した情報を人間が判断し、判断結果に基づいて、実行指令を決定する場合がある。   In a system in which an execution command is transmitted to a large number of execution devices and remotely controlled, a human may determine information collected by the execution device and determine an execution command based on the determination result.

例えば、近年、紛争地域において、UAV(Unmanned Aerial Vehicle:航空無人機)やUGV(Unmanned Ground Vehicle:陸上無人機)などの無人機が、情報収集、物資輸送、さらに戦闘など、様々な作戦に運用され、大きな成果を挙げている。
米軍では、更なる成果をあげるため、複数の無人機の連携や他のシステムとの連携が検討されている。
例えば、米海軍のMMH(Multi−Mission Helicopter)/UAV連携構想ではセンサー情報の共有の実現を目指している。
また、米陸海空3軍による無人機の統合運用システムの構築も進められている。
現在はネットワークを活用した無人機の情報統合に関する研究開発が進められ、JAUS(Joint Architecture for Unmanned System:無人システム用統合アーキテクチャ)やJUSC2(Joint Unmanned Systems Common Control:無人システム共通コントロールアーキテクチャ)として技術検証が行われている。
特に、JUSC2開発プログラムの一つであるICWS(Integration Combat Weapons System)プログラムでは、高速艇と複数の無人機による戦闘実験を行い、全ての無人機の制御に必要な情報を一つの画面に表示することが可能である(図20)。
防衛技術ジャーナル、2004年12月号、P16〜P25、「防衛用無人機の動向 −第1回「無人機の全般的概要および水中・水上無人機」−」 防衛技術ジャーナル、2005年2月号、P14〜P24、「防衛用無人機の動向 −第3回「航空無人機および運用環境」−」 防衛技術ジャーナル、2005年3月号、P20〜P31、「防衛用無人機の動向 −最終回「無人機の通信技術・統合運用およびペイロードの動向」−」
For example, in recent years, unmanned aircraft such as UAVs (Unmanned Aerial Vehicles) and UGVs (Unmanned Ground Vehicles) have been used for various operations such as information collection, transportation of goods, and battles in conflict areas. It has been a great achievement.
In order to achieve further results, the US military is considering cooperation between multiple unmanned aircraft and other systems.
For example, the US Navy's MMH (Multi-Mission Helicopter) / UAV collaboration concept aims to realize sharing of sensor information.
In addition, construction of an integrated operation system for unmanned aircraft by the US Army, Air, Sea, and Air Forces is being promoted.
Currently, research and development related to information integration of unmanned aircraft utilizing a network is underway, and JAUS (Joint Architecture for Integrated System) and JUSC2 (Joint Unmanned Systems Common Control: technology verification control common to unmanned systems). Has been done.
In particular, the ICWS (Integration Combat Weapons System) program, one of the JUSC2 development programs, conducts battle experiments with high-speed boats and multiple unmanned aircraft, and displays information necessary to control all unmanned aircraft on a single screen. Is possible (FIG. 20).
Defense Technology Journal, December 2004 issue, P16-P25, "Trends of defense drones-1st" General overview of drones and underwater / water drones "-" Defense Technology Journal, February 2005, P14-P24, “Trends in Unmanned Aerial Vehicles for Defense-Third“ Aircraft drone and operational environment ”” Defense Technology Journal, March 2005, P20-P31, “Trends in Unmanned Aerial Vehicles for Defense: Final Report“ Trends in Unmanned Vehicle Communication Technology / Integrated Operations and Payloads ””

このように、実行装置の操作に緊急性を要する場合、様々な要素がボトルネックとなりうる。
例えば、収集した情報を人間に提示する方法について、多数の実行装置が情報を収集するので、収集される情報も膨大になる。この膨大な情報から、的確な判断ができるよう、収集した情報を人間に提示する方法についての工夫が必要である。
上記の従来技術は、この点についての課題を解決したものである。
Thus, when urgency is required for the operation of the execution device, various elements can become a bottleneck.
For example, with respect to a method for presenting collected information to a human being, a large number of execution devices collect information, so the collected information becomes enormous. It is necessary to devise a method for presenting collected information to humans so that accurate judgment can be made from this vast amount of information.
The above-described conventional technology solves this problem.

また、意志決定の方法について、膨大な情報に基づく判断は、一人の人間では不可能であるため、多数の人間が判断に関与することとなる。したがって、それぞれの人間からの実行指令が矛盾しないようにする必要がある。   In addition, since it is impossible for one person to make a decision based on a large amount of information regarding the decision-making method, a large number of persons are involved in the determination. Therefore, it is necessary to make sure that the execution commands from each person do not contradict each other.

更に、決定された実行指令を多数の実行装置に伝達する方法について、実行装置が多数であれば、それに対する実行指令の数も膨大となる。したがって、実行指令を実行装置に伝達する方法にも工夫が必要である。   Furthermore, regarding the method for transmitting the determined execution command to a large number of execution devices, if there are a large number of execution devices, the number of execution commands corresponding to the execution devices becomes enormous. Therefore, it is necessary to devise a method for transmitting the execution command to the execution device.

例えば、上記ICWSで開発された無人機の情報表示装置において、同一画面上に複数の無人機や車両等から収集した情報を表示することが可能である。しかし、ICWSの運用装置も含め、従来の運用装置では収集した情報を表示することに特化しており、複数人による複数の無人機を同時に同装置で命令または操作することは不可能であるという課題を有する。
また、従来の無人機への命令は、情報表示装置とは別の各無人機の管制装置や管制官などの複数の装置と人を介することが必要になり、多くの手間と時間がかかる。このことは操作ミスや伝達ミスを誘発し、正確かつ、より迅速な命令実施のために改善が必要であるという課題を有する。
For example, in the information display device for an unmanned aircraft developed by the ICWS, it is possible to display information collected from a plurality of unmanned aircraft and vehicles on the same screen. However, conventional operation devices, including ICWS operation devices, specialize in displaying collected information, and it is impossible to command or operate multiple unmanned aircraft by multiple people at the same time. Has a problem.
In addition, a conventional command to an unmanned aircraft needs to pass through a plurality of devices such as a control device and a controller of each unmanned aircraft other than the information display device, which takes a lot of time and effort. This induces operational errors and transmission errors, and has the problem that improvements are required for accurate and faster command execution.

本発明は、例えば、上記のような課題を解決するためになされたものであり、全体を見渡した、より的確で効率的に作戦の実行を支援する指令装置を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, for example, and an object thereof is to provide a command device that supports the execution of a strategy more accurately and efficiently overlooking the whole.

本発明にかかる指令装置は、
実行装置と通信する通信装置と、
地図を表示する表示画面を備え、上記表示画面の任意の位置を指示した場合に、指示した位置を検出する表示入力装置と、
上記表示入力装置を用いて、上記実行装置の活動区域の地形情報を、活動区域地図として、上記表示画面に表示する地形情報表示部と、
上記表示入力装置を用いて、上記実行装置の現在位置についての情報に基づいて、上記地形情報表示部が表示した活動区域地図に重ねて、上記実行装置を示す図形を、上記表示画面に表示する位置情報表示部と、
上記表示入力装置を用いて、上記地形情報表示部が表示した活動区域地図に重ねて、上記実行装置が収集した情報を、上記表示画面に表示する収集情報表示部と、
上記表示入力装置を用いて、上記実行装置に対して機能の実行を指令する実行指令を入力する実行指令入力部と、
上記通信装置を用いて、上記実行指令入力部が入力した実行装置に対する実行指令を、上記実行装置に対して通知する実行指令通知部と、
上記通信装置を用いて、上記実行装置が通知する上記実行装置の現在位置についての情報及び上記実行装置が収集した情報を取得する実行装置情報取得部と、
を有することを特徴とする。
The command device according to the present invention is:
A communication device that communicates with the execution device;
A display input device that includes a display screen for displaying a map, and detects an indicated position when an arbitrary position on the display screen is indicated;
Using the display input device, the terrain information display unit for displaying the terrain information of the active area of the execution device as an active area map on the display screen;
Using the display input device, based on the information about the current position of the execution device, a graphic indicating the execution device is displayed on the display screen, superimposed on the activity area map displayed by the topographic information display unit. A position information display section;
Using the display input device, a collection information display unit that displays the information collected by the execution device on the display screen, overlaid on the activity area map displayed by the terrain information display unit,
Using the display input device, an execution command input unit that inputs an execution command for commanding the execution device to execute a function;
Using the communication device, an execution command notification unit for notifying the execution device of an execution command for the execution device input by the execution command input unit;
Using the communication device, an execution device information acquisition unit for acquiring information about the current position of the execution device notified by the execution device and information collected by the execution device;
It is characterized by having.

本発明によれば、例えば、同一の装置において、複数の無人機が取得する情報を一括管理し、ユーザに適切な情報を提示することにより、複数人による情報共有、状況認識を容易にすると共に、その場から複数のユーザが直接、複数の無人機へ同時に命令を可能にすることで、全体を見渡した、より的確で効率的に作戦の実行を支援できるという効果を奏する。   According to the present invention, for example, information acquired by a plurality of unmanned aircraft can be collectively managed and the appropriate information presented to the user in the same device, thereby facilitating information sharing and situation recognition by a plurality of people. By allowing a plurality of users to directly command a plurality of unmanned aircraft directly from the spot, it is possible to support the execution of the operation more accurately and efficiently overlooking the whole.

実施の形態1.
この実施の形態では、UAV、UGVなど多種多様の無人機(実行装置の一例)を同時に運用することを可能にする指揮支援装置(指令装置の一例)について述べる。
Embodiment 1 FIG.
In this embodiment, a command support device (an example of a command device) that enables simultaneous operation of a wide variety of unmanned aircraft (an example of an execution device) such as UAV and UGV will be described.

図1は、この実施の形態における指揮支援装置100のハードウェア構成の一例を示すハードウェア構成図である。
指揮支援装置100は、CPU901(Central Processing Unit:中央処理装置)、記憶装置902(例えば、ROM(Read Only Memory)・RAM(Random Access Memory)などの内部メモリ、ハードディスク装置などの外部メモリ等)、表示装置110(表示入力装置の一例)、通信装置903、ネットワークインターフェース装置904を有する。
FIG. 1 is a hardware configuration diagram illustrating an example of a hardware configuration of the command support apparatus 100 according to this embodiment.
The command support device 100 includes a CPU 901 (Central Processing Unit), a storage device 902 (for example, an internal memory such as a ROM (Read Only Memory) / RAM (Random Access Memory), an external memory such as a hard disk device, etc.), It includes a display device 110 (an example of a display input device), a communication device 903, and a network interface device 904.

CPU901は、記憶装置902が記憶したプログラム等を実行することにより、以下説明する各機能ブロックを実現する。
記憶装置902は、CPU901が実行するプログラム群やファイル群を記憶する。
The CPU 901 realizes each functional block described below by executing a program or the like stored in the storage device 902.
The storage device 902 stores a program group and a file group executed by the CPU 901.

記憶装置902が記憶するプログラム群には、以下に述べる実施の形態の説明において「〜部」「〜エージェント」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU901が読み出して、実行される。
ファイル群には、以下に述べる実施の形態の説明において、「〜の判定結果」、「〜の計算結果」、「〜の処理結果」として説明するものが、「〜ファイル」として記憶されている。
また、以下に述べる実施の形態の説明において説明するフローチャートの矢印の部分は主としてデータの入出力を示し、そのデータの入出力のためにデータは、RAMもしくは磁気ディスク装置、FD(Flexible Disk)、光ディスク、CD(コンパクトディスク)、MD(ミニディスク)、DVD(Digital Versatile Disk)等のその他の記録媒体に記録される。あるいは、信号線やその他の伝送媒体により伝送される。
The program group stored in the storage device 902 stores programs that execute the functions described as “˜unit” and “˜agent” in the description of the embodiments described below. The program is read and executed by the CPU 901.
In the file group, what is described as “determination result of”, “calculation result of”, and “processing result of” in the description of the embodiment described below is stored as “˜file”. .
In addition, the arrow portion of the flowchart described in the description of the embodiment described below mainly indicates input / output of data, and for the input / output of the data, the data is RAM or a magnetic disk device, FD (Flexible Disk), It is recorded on other recording media such as an optical disc, CD (compact disc), MD (mini disc), and DVD (Digital Versatile Disk). Alternatively, it is transmitted through a signal line or other transmission medium.

また、以下に述べる実施の形態の説明において「〜部」として説明するものは、ROMに記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、ハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。   In addition, what is described as “˜unit” in the description of the embodiment described below may be realized by firmware stored in a ROM. Alternatively, it may be implemented by software alone, hardware alone, a combination of software and hardware, or a combination of firmware.

表示装置110は、地図などの画像情報や文字情報を表示する表示画面を備えた大画面表示装置である。
また、表示装置110は、例えば、タッチパネル式のセンサーにより、表示した情報のどの部分を指示したかを検出する。これにより、例えば、画面に表示したボタンに使用者が触れることで、コマンドを入力することができる。
表示装置110は、例えば、テーブル型をしており、その周囲を、数人〜10数人で囲むことができる大きさを有する。これにより、複数人の使用者が同時に、表示装置110に表示された情報を見ることで、同一の情報を全員で共有できる。なお、表示装置110は、壁掛け型であってもよい。
指示の方式としては、例えば、手で画面に触れる、レーザーポインタなどで画面を指示するなどの方式がある。レーザーポインタなどを用いる方式は、手が届かない範囲であっても指示が可能であるから、好ましい。
The display device 110 is a large screen display device having a display screen for displaying image information such as a map and character information.
Further, the display device 110 detects which part of the displayed information is indicated by, for example, a touch panel sensor. Thereby, for example, a user can touch a button displayed on the screen to input a command.
The display device 110 has, for example, a table shape, and has a size that allows the periphery of the display device 110 to be surrounded by several to ten or more people. Thereby, a plurality of users can share the same information by viewing the information displayed on the display device 110 at the same time. The display device 110 may be a wall-hanging type.
As an instruction method, for example, there are methods such as touching the screen with a hand or instructing the screen with a laser pointer or the like. A method using a laser pointer or the like is preferable because an instruction can be given even if it is out of reach.

通信装置903は、無人機200と無線通信をすることにより、無人機200に対する命令(指令)を送信し、無人機200からの情報などを受信する。   The communication device 903 wirelessly communicates with the drone 200, thereby transmitting a command (command) to the drone 200 and receiving information from the drone 200.

ネットワークインターフェース装置904は、例えば、LAN(Local Area Network)やインターネットなどに接続し、指揮支援装置100と他の装置との間の情報交換を可能とする。   The network interface device 904 is connected to, for example, a LAN (Local Area Network) or the Internet, and enables information exchange between the command support device 100 and other devices.

図2は、この実施の形態における指揮支援装置100の機能ブロックの構成の一例を示すブロック構成図である。
指揮支援装置100は、表示装置110、表示情報管理部120、無人機管理部130、外部情報管理部140(区域情報取得部の一例)、データベース150(地形情報記憶部の一例)、ユーザ認証部160(利用者認証部の一例)、無人機通信部170(実行指令通知部、実行装置情報取得部の一例)を有する。
FIG. 2 is a block configuration diagram showing an example of a functional block configuration of the command support apparatus 100 in this embodiment.
The command support device 100 includes a display device 110, a display information management unit 120, an unmanned aircraft management unit 130, an external information management unit 140 (an example of an area information acquisition unit), a database 150 (an example of a terrain information storage unit), a user authentication unit 160 (an example of a user authentication unit) and a drone communication unit 170 (an example of an execution command notification unit and an execution device information acquisition unit).

表示情報管理部120は、表示装置110に表示する無人機の情報や地形情報を管理し、取得したデータで画面を生成する。
無人機管理部130は、表示している個々の無人機200(200a〜200c)の情報、保有機能を管理する無人機エージェント131(131a〜131c、実行装置情報記憶部、位置情報記憶部の一例)を生成し、個々の無人機の制御を実行する。
外部情報管理部140は、監視情報や気象情報などの無人機200が展開する地域の情報を提供するレーダ装置や人工衛星などの外部情報源300からの情報(外部情報、区域情報)を受信し、表示情報として表示情報管理部120に提供する。
データベース150は、無人機200の取得した情報や命令履歴、外部情報管理部140が取得した無人機が展開している地形情報などの全てのデータと、各無人機の基本データや作戦の基本シナリオを保存する。
ユーザ認証部160は、無人機へ命令する権限などをユーザ管理、認証を行う。
無人機通信部170は、無人機200との通信を管理する。
The display information management unit 120 manages unmanned aerial vehicle information and terrain information displayed on the display device 110, and generates a screen using the acquired data.
The drone management unit 130 is an example of an unmanned machine agent 131 (131a to 131c, an execution device information storage unit, and a position information storage unit) that manages information and possessed functions of the displayed individual drone 200 (200a to 200c). ) And execute control of individual drones.
The external information management unit 140 receives information (external information, area information) from an external information source 300 such as a radar device or an artificial satellite that provides information on the area where the drone 200 is deployed, such as monitoring information and weather information. And provided to the display information management unit 120 as display information.
The database 150 includes all data such as information and command history acquired by the drone 200, topographic information developed by the drone acquired by the external information management unit 140, basic data of each drone, and basic scenario of the operation. Save.
The user authentication unit 160 performs user management and authentication for the authority to instruct the drone.
The drone communication unit 170 manages communication with the drone 200.

図3は、この実施の形態における表示情報管理部120の詳細の一例を示す詳細ブロック図である。
表示情報管理部120は、地形情報表示部121、区域情報表示部122、位置情報表示部123、収集情報表示部124、実行指令入力部125、表示指令入力部126を有する。
FIG. 3 is a detailed block diagram illustrating an example of details of the display information management unit 120 in this embodiment.
The display information management unit 120 includes a terrain information display unit 121, a zone information display unit 122, a position information display unit 123, a collection information display unit 124, an execution command input unit 125, and a display command input unit 126.

地形情報表示部121は、データベース150が記憶装置902を用いて記憶した地形情報に基づいて、無人機200が活動する区域の地図(活動区域地図)を生成し、表示装置110を用いて表示する。
区域情報表示部122は、外部情報管理部140が外部情報源300から取得した気象情報などの外部情報(区域情報)を、活動区域地図に重ねて、表示装置110を用いて表示する。
位置情報表示部123は、無人機管理部130の無人機エージェント131が記憶装置902を用いて記憶した位置情報に基づいて、無人機200を示す図形(例えば、アイコン401a〜401cなど)を表示する位置を求め、活動区域地図に重ねて、表示装置110を用いて表示する。
収集情報表示部124は、利用者の指令に応じて、無人機管理部130の無人機エージェント131が記憶装置902を用いて記憶した撮影データ・燃料の残量などの情報(収集情報)を、活動区域地図に重ねて、表示装置110を用いて表示する。
実行指令入力部125は、利用者が選択した無人機200が実行可能な指令を示す図形(例えば、撮影ボタン)を、表示装置110を用いて、無人機200を示す図形の近傍に表示する。表示した図形を利用者が指示した場合に、その図形が示す指令を入力する。実行指令入力部125は、入力した指令を実行指令として、無人機管理部130の無人機エージェント131に通知する。
表示指令入力部126は、利用者が選択した無人機200に関する情報(例えば、燃料の残量や撮影データなど)を示す図形(例えば、画像表示ボタン)を、表示装置110を用いて、無人機200を示す図形の近傍に表示する。表示した図形を利用者が指示した場合に、その図形が示す情報の取得を無人機管理部130の無人機エージェント131に要求する表示指令を通知する。無人機エージェント131は、表示指令で要求された情報を、収集情報表示部124に通知する。収集情報表示部124が、表示指令で要求された情報を、表示装置110を用いて表示する。
The terrain information display unit 121 generates a map of an area in which the drone 200 is active (activity area map) based on the terrain information stored in the database 150 using the storage device 902 and displays the map using the display device 110. .
The area information display unit 122 displays external information (area information) such as weather information acquired from the external information source 300 by the external information management unit 140 on the activity area map and displays it using the display device 110.
The position information display unit 123 displays a graphic (for example, icons 401 a to 401 c) indicating the drone 200 based on the position information stored by the drone agent 131 of the drone management unit 130 using the storage device 902. The position is obtained, superimposed on the activity area map, and displayed using the display device 110.
The collection information display unit 124 receives information (collection information) such as photographing data and the remaining amount of fuel stored by the unmanned aircraft agent 131 of the unmanned aircraft management unit 130 using the storage device 902 in accordance with a user instruction. The information is displayed on the active area map using the display device 110.
The execution command input unit 125 displays a graphic (for example, a photographing button) indicating a command that can be executed by the drone 200 selected by the user in the vicinity of the graphic indicating the drone 200 using the display device 110. When the user instructs the displayed graphic, the command indicated by the graphic is input. The execution command input unit 125 notifies the drone agent 131 of the drone management unit 130 of the input command as an execution command.
The display command input unit 126 uses the display device 110 to display a figure (for example, an image display button) indicating information (for example, the remaining amount of fuel, shooting data, and the like) about the unmanned machine 200 selected by the user. It is displayed in the vicinity of the figure indicating 200. When the user instructs the displayed graphic, a display command for requesting the drone agent 131 of the drone management unit 130 to acquire information indicated by the graphic is notified. The drone agent 131 notifies the collection information display unit 124 of the information requested by the display command. The collected information display unit 124 displays the information requested by the display command using the display device 110.

図4は、この実施の形態における指揮支援装置100の運用時の様子の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a state during operation of the command support apparatus 100 according to this embodiment.

この実施の形態における指揮支援装置100は、作戦を実行している地域の地形情報、運用管理下にある複数の無人機200から得られる位置情報、撮影データ、無人機200の運用状況など、無人機200から得られる全ての情報を保持管理し、ユーザの要求に応じて情報を表示し、情報収集や移動などのユーザの命令を表示している無人機200全てに、同一画面上で同時に指示できる。
無人機200は、指揮支援装置100に対して、収集した情報、保持している内部情報を送信すると共に、ユーザの命令を受け、無人機200が搭載する機能を実行する。
The command support apparatus 100 according to the present embodiment is unmanned, such as terrain information of a region in which a strategy is executed, position information obtained from a plurality of unmanned aircraft 200 under operation management, shooting data, operational status of the unmanned aircraft 200, and the like. All the information obtained from the machine 200 is stored and managed, information is displayed in response to a user request, and all the unmanned machines 200 displaying user commands such as information collection and movement are simultaneously instructed on the same screen. it can.
The drone 200 transmits the collected information and the retained internal information to the command support apparatus 100, and receives a user command to execute a function installed in the drone 200.

図4において、指揮支援装置100は、地形情報、無人機200の位置、ユーザから要求された情報などを表示し、無人機200の移動や無人機200が付帯する機能を実行させる機能実行(実行指令)を指示する。   In FIG. 4, the command support apparatus 100 displays terrain information, the position of the drone 200, information requested by the user, and the like, and executes a function to execute the movement of the drone 200 and functions attached to the drone 200. Command).

事前に決定した無人機200を用いる作戦が、開始時間に従って実行されたと想定する。
その時、指揮支援装置100は、起動時に無人機管理部130から作戦の基本シナリオや、無人機の基本データをデータベース150から取得し、内部の処理領域内に各無人機200a〜200cの無人機エージェント131a〜131cを作成、無人機200の管理処理を開始する。無人機管理部130は、複数の無人機エージェント131を独立に処理することができる。
Assume that a strategy using the drone 200 determined in advance has been executed according to the start time.
At that time, the command support apparatus 100 acquires the basic scenario of the strategy and the basic data of the unmanned aircraft from the database 150 at the time of activation, and the unmanned aircraft agents of the unmanned aircraft 200a to 200c in the internal processing area. 131a to 131c are created and management processing of the drone 200 is started. The drone management unit 130 can process a plurality of drone agents 131 independently.

無人機エージェント131は、実際に行動している無人機200の計算プロセスとして無人機管理部130の処理領域(計算機内のメモリなど)内に常駐し、無人機200が行動を完了するまで、ユーザと無人機200のインタラクションの仲介、無人機のデータ管理などの処理を続ける。
無人機管理部130は、無人機200からの通信をきっかけに、データベース150から取得したエージェントの基本データをもとに無人機エージェント131を生成し、処理を開始させる。
The drone agent 131 is resident in a processing area (such as a memory in the computer) of the drone management unit 130 as a calculation process of the drone 200 that is actually acting, and the user until the drone 200 completes the action. And the mediation of interaction between the drone 200 and the data management of the drone.
The drone management unit 130 generates the drone agent 131 based on the basic data of the agent acquired from the database 150 in response to the communication from the drone 200, and starts processing.

無人機エージェント131は、表示情報管理部120などに対して、無人機200の代理として振舞う。すなわち、表示情報管理部120から無人機200に対する指令を受け、また、無人機200が収集した情報などを記憶して、表示情報管理部120などに引き渡す。
例えば、無人機エージェント131は、移動先を指定した移動指令を受けると、データベース150(地形情報記憶部)が記憶した地形情報などに基づいて、実際の移動経路を計算し、無人機200に対する具体的な指令を生成する。これにより、表示情報管理部120などは、抽象的な指令を出すだけでよい。また、指揮支援装置100と比べて計算能力が低い無人機200における計算量を削減できる。
The drone agent 131 acts as a proxy for the drone 200 with respect to the display information management unit 120 and the like. That is, a command for the drone 200 is received from the display information management unit 120, and information collected by the drone 200 is stored and delivered to the display information management unit 120 or the like.
For example, when the drone agent 131 receives a movement command designating a destination, the drone agent 131 calculates an actual movement route based on the terrain information stored in the database 150 (terrain information storage unit) and the like. Generate directives. Thereby, the display information management unit 120 or the like only needs to issue an abstract command. In addition, it is possible to reduce the amount of calculation in the unmanned aerial vehicle 200 having a lower calculation capability than the command support apparatus 100.

無人機エージェント131は、無人機200のデータ(飛行速度、燃費などの能力、装備品や搭載武器など)、現在実行している作戦の基本シナリオ(初期目的、搭載燃料、ミサイル数など)を基本データとして保有する。
また、無人機エージェント131は、時間経過による燃料消費や攻撃によるミサイル数減少など無人機200の現在の状況を、無人機通信部170を用いて周期的に取得し、無人機エージェント131内にそのときの時刻と共に内部データとして一時記録し、定期的にデータベース150に情報を送信する。
The drone agent 131 is based on the data of the drone 200 (flight speed, fuel efficiency, equipment, weapons, etc.) and the basic scenario of the operation currently being executed (initial purpose, fuel, missile number, etc.). Hold as data.
Further, the drone agent 131 periodically acquires the current situation of the drone 200 such as fuel consumption over time and a decrease in the number of missiles due to an attack using the drone communication unit 170, and the drone agent 131 stores the current situation in the drone agent 131. It is temporarily recorded as internal data along with the time of day, and information is periodically transmitted to the database 150.

無人機エージェント131(位置情報記憶部、実行装置情報記憶部)は、無人機200が送信し、無人機通信部170(実行装置情報取得部)が受信した無人機200の位置情報及び収集情報を記憶・管理する。この例では、これらの情報をデータベース150に登録して、記憶装置902に記憶させることにより、これらの情報を管理する。しかし、データベース150を用いず、直接、記憶装置902に記憶させることとしてもよい。
無人機200の位置情報や燃料の残量などの収集情報の照会を、表示情報管理部120の表示指令入力部126から受けた場合、無人機エージェント131がこれらの情報を記憶・管理しているので、その都度、無人機200と通信する必要はなく、必要な情報をすばやく表示することができる。
The drone agent 131 (position information storage unit, execution device information storage unit) receives the position information and collected information of the drone 200 transmitted by the drone 200 and received by the drone communication unit 170 (execution device information acquisition unit). Remember and manage. In this example, these pieces of information are managed by registering them in the database 150 and storing them in the storage device 902. However, the data may be stored directly in the storage device 902 without using the database 150.
When an inquiry about collection information such as the position information of the drone 200 and the remaining amount of fuel is received from the display command input unit 126 of the display information management unit 120, the drone agent 131 stores and manages the information. Therefore, it is not necessary to communicate with the drone 200 each time, and necessary information can be displayed quickly.

通常、指揮支援装置100は、表示装置110上に、無人機200が展開している場所の情報と無人機200の現在の位置情報とを刻々と表示する。
場所の情報には、無人機が展開している地形情報、外部情報源300が提供しているレーダ監視情報や気象情報など(区域情報)がある。
表示情報管理部120では、地形情報表示部121が、データベース150(地形情報記憶部)から地図情報(地形情報)を取得する。
また、区域情報表示部122が、外部情報管理部140(区域情報取得部)からそれ以外の場所の情報(区域情報)を取得する。
更に、位置情報表示部123が、無人機管理部130から無人機200の位置情報を取得する。
表示情報管理部120は、地形情報にそれ以外の情報をマッピングし、表示装置110を用いて表示する。
表示装置110には、表示画面上に無人機200や周辺の状況が表示され、複数のユーザが同時に見ることができる。表示装置110は、同一画面上で情報表示や命令などの操作をするため、大画面のタッチパネル方式の画面を備えている。
Normally, the command support apparatus 100 displays on the display device 110 information on the location where the drone 200 is deployed and current position information on the drone 200 moment by moment.
The location information includes terrain information developed by the drone, radar monitoring information provided by the external information source 300, weather information, and the like (area information).
In the display information management unit 120, the terrain information display unit 121 acquires map information (terrain information) from the database 150 (terrain information storage unit).
Further, the area information display unit 122 acquires information (area information) of other places from the external information management unit 140 (area information acquisition unit).
Further, the position information display unit 123 acquires the position information of the drone 200 from the drone management unit 130.
The display information management unit 120 maps other information to the terrain information and displays the information using the display device 110.
The display device 110 displays the drone 200 and surrounding conditions on the display screen, and a plurality of users can view it simultaneously. The display device 110 includes a large touch panel screen in order to perform operations such as information display and commands on the same screen.

なお、この実施の形態の無人機200は、指揮支援装置100で運用するため、例えば、GPS(Global Positioning System:全地球測位システム)を用いて現在位置を測定する機能、燃料やミサイルの残量などのリソース情報を収集する機能、内部の計算機やエンジンなどの機器の異常など状態を監視する機能、要求に応じてまたは周期的に収集したデータや検出した内部データを指定した条件で取得した情報を送信する機能、外部からの命令を受信し、処理の実行や行動を制御できる機能、そして設定した条件、例えば周波数やプロトコルにしたがい、指揮支援装置100と通信する機能を有している。   In addition, since the drone 200 of this embodiment is operated by the command support device 100, for example, the function of measuring the current position using GPS (Global Positioning System), the remaining amount of fuel and missiles A function that collects resource information such as, a function that monitors the status of internal computers and engines and other abnormalities, information that is collected on demand, or data that has been collected on demand or specified conditions , A function for receiving a command from the outside and controlling the execution and behavior of the process, and a function for communicating with the command support apparatus 100 according to a set condition, for example, a frequency or a protocol.

無人機エージェント131が管理するデータとしては、例えば、周期情報とイベント情報の2種類がある。
周期情報とは、無人機200から周期的に取得した位置情報(緯度/経度)、リソース情報、無人機内部の状態監視情報を現在の時刻を主キーとしたデータ列である。
イベント情報とは、ユーザからの命令、その命令の実行結果、無人機200が自動に行った行動情報などの何かの外的要因で処理し生成した周期情報以外の情報であり、現在の時刻を主キーとしたデータ列である。
As data managed by the drone agent 131, there are, for example, two types of information: cycle information and event information.
The period information is a data string having position information (latitude / longitude), resource information, and state monitoring information inside the drone periodically acquired from the drone 200 with the current time as a main key.
The event information is information other than the periodic information generated by processing by some external factor such as an instruction from the user, an execution result of the instruction, action information automatically performed by the unmanned aircraft 200, and the current time Is a data string with a primary key.

無人機エージェント131は、定期的に無人機200の周期情報やイベント情報をデータベース150に登録する。
同様に、外部情報管理部140は、外部情報源300から取得した情報に時刻データを付与して、データベース150に登録する。
The drone agent 131 periodically registers the cycle information and event information of the drone 200 in the database 150.
Similarly, the external information management unit 140 adds time data to information acquired from the external information source 300 and registers it in the database 150.

ユーザ(使用者)は、関心のある無人機200の情報、例えば、無人機200が撮影した画像情報や無人機200の残燃料と活動可能時間などの情報を確認したい場合には、表示装置110上に表示される無人機200のアイコンに触れ、表示される画面に従い、情報を表示装置110上で確認することが可能である。
このとき、表示装置110で無人機200が指定されたことは、表示情報管理部120を介して無人機エージェント131に送信される。
When the user (user) wants to check the information of the drone 200 of interest, for example, the image information taken by the drone 200 or the remaining fuel of the drone 200 and the available time, the display device 110. It is possible to touch the icon of the drone 200 displayed above and check the information on the display device 110 according to the displayed screen.
At this time, the fact that the drone 200 is designated on the display device 110 is transmitted to the drone agent 131 via the display information management unit 120.

表示装置110(表示入力装置)は、ユーザが表示画面上の任意の位置を指示したことを検出する。
表示情報管理部120は、表示装置110が検出した指示位置より、そこに何を表示しているかを判断する。
表示情報管理部120は、そこに表示しているものが、無人機200のアイコンであると判断した場合、その無人機200が選択されたと判断する。
あるいは、指示位置の誤差を考慮して、無人機200のアイコンをぴったり指示しなくても、無人機200のアイコンの周辺を指示すれば、その無人機200が選択されたと判断することとしてもよい。
The display device 110 (display input device) detects that the user has designated an arbitrary position on the display screen.
The display information management unit 120 determines what is displayed there from the indicated position detected by the display device 110.
When the display information management unit 120 determines that what is displayed there is an icon of the drone 200, the display information management unit 120 determines that the drone 200 is selected.
Alternatively, it is possible to determine that the drone 200 has been selected by pointing around the icon of the drone 200 without giving an exact indication of the icon of the drone 200 in consideration of the error of the designated position. .

無人機エージェント131は、要求と表示状況に応じた情報を、データベース150と内部情報から検索、選択し、表示情報管理部120の収集情報表示部124に送信する。
収集情報表示部124は、そのデータを別画面として、表示装置110上、指定された無人機200を示すアイコンの近傍に表示する。
The drone agent 131 searches and selects information according to the request and the display status from the database 150 and internal information, and transmits the information to the collected information display unit 124 of the display information management unit 120.
The collected information display unit 124 displays the data as a separate screen on the display device 110 in the vicinity of the icon indicating the designated drone 200.

以下、無人機200の例として二機の航空無人機200a,200bと一機の陸上無人機200cを4人のユーザで運用する場合を取り上げ、その操作について述べる。   Hereinafter, as an example of the unmanned aerial vehicle 200, a case where two aircraft unmanned aerial vehicles 200a and 200b and a single land-based unmanned aircraft 200c are operated by four users will be described, and the operation will be described.

作戦に従い指定時間に、無人機200a、無人機200b、無人機200cが起動する。
このとき、指揮支援装置100はすでに起動し、無人機200a〜200cから情報が送られてくるまで待機している。
無人機200a、無人機200b、無人機200cは、起動をすると同時に周期情報を司令部(指揮支援装置100)に送信する。
無人機管理部130は、各無人機200a〜200cが送信した周期情報を、無人機通信部170を介して受信し、周期情報をもとに各々の無人機エージェント131a〜131cを生成し、処理を開始する。
無人機エージェント131a〜131cは、周期情報から得た無人機200a〜200cの位置情報を表示情報管理部120の位置情報表示部123に送信する。
The drone 200a, the drone 200b, and the drone 200c are activated at a designated time according to the strategy.
At this time, the command support apparatus 100 has already been activated and is waiting until information is sent from the drones 200a to 200c.
The drone 200a, the drone 200b, and the drone 200c are activated, and at the same time, transmit the cycle information to the command unit (the command support apparatus 100).
The drone management unit 130 receives the periodic information transmitted by the unmanned drones 200a to 200c via the drone communication unit 170, generates the unmanned drone agents 131a to 131c based on the periodic information, and performs processing. To start.
The drone agents 131a to 131c transmit the position information of the drones 200a to 200c obtained from the cycle information to the position information display unit 123 of the display information management unit 120.

表示情報管理部120は、最初にデータベース150から作戦の基本シナリオを取得する。
基本シナリオのデータには、例えば、作戦開始時の位置情報などがある。
表示情報管理部120は、基本シナリオ内の位置情報から、周辺の地図や建物や基地などの情報をデータベース150から取得する。同時に、外部情報管理部140から得た外部情報源300の情報と、無人機管理部130から得た各無人機200a〜200cの位置情報を合わせ、表示データを生成し、表示装置110に表示させる。その後、周期的に各無人機200a〜200cの周期情報や外部情報管理部140からの外部情報を取得して、表示データを変更し、表示装置110に表示させる。
The display information management unit 120 first acquires the basic scenario of the strategy from the database 150.
The basic scenario data includes, for example, position information at the start of the operation.
The display information management unit 120 acquires information about the surrounding map, building, base, and the like from the database 150 from the position information in the basic scenario. At the same time, the information of the external information source 300 obtained from the external information management unit 140 and the position information of each of the drones 200a to 200c obtained from the drone management unit 130 are combined to generate display data and display it on the display device 110. . Thereafter, the periodic information of each of the drones 200a to 200c and the external information from the external information management unit 140 are periodically acquired, the display data is changed, and displayed on the display device 110.

図5は、この実施の形態における指揮支援装置100を用いた指令方法の処理(実行装置情報受信処理)の流れの一例を示すフローチャート図である。
S61において、無人機通信部170は、無人機200a〜200cが送信した収集情報(位置情報を含む)を、通信装置903を用いて受信する(実行装置情報取得工程)。
S62において、無人機通信部170は、受信した収集情報を、対応する無人機エージェント131a〜131cに通知する。
S63において、無人機エージェント131a〜131cは、通知された収集情報を、記憶装置902を用いて記憶する。
S64において、無人機エージェント131a〜131cは、通知された収集情報が、無人機200a〜200cに対して通知した実行指令を実行した結果についての情報であるか否かを判断する。実行指令の実行結果である場合には、S65へ進む。
S65において、無人機エージェント131a〜131cは、収集情報(実行結果)を、収集情報表示部124に対して、通知する。
S66において、収集情報表示部124は、無人機エージェント131a〜131cが通知した収集情報(実行結果)を取得し、表示装置110を用いて表示する(収集情報表示工程)。
FIG. 5 is a flowchart showing an example of the flow of a command method process (execution apparatus information reception process) using the command support apparatus 100 according to this embodiment.
In S61, the drone communication unit 170 receives the collected information (including position information) transmitted by the drones 200a to 200c using the communication device 903 (execution device information acquisition step).
In S62, the drone communication unit 170 notifies the received collected information to the corresponding drone agents 131a to 131c.
In S63, the drone agents 131a to 131c store the notified collection information using the storage device 902.
In S64, the drone agents 131a to 131c determine whether the notified collection information is information about a result of executing the execution command notified to the drones 200a to 200c. If it is the execution result of the execution command, the process proceeds to S65.
In S65, the drone agents 131a to 131c notify the collection information (execution result) to the collection information display unit 124.
In S66, the collection information display unit 124 acquires the collection information (execution result) notified by the drone agents 131a to 131c and displays it using the display device 110 (collection information display step).

図6は、この実施の形態における指揮支援装置100を用いた指令方法の処理(表示入力処理)の流れの一例を示すフローチャート図である。
S71において、地形情報表示部121は、データベース150から地形情報を取得し、取得した地形情報に基づいて活動地域地図を生成し、表示装置110を用いて表示する(地形情報表示工程)。
S72において、区域情報表示部122は、外部情報管理部140から外部情報(区域情報)を取得し、表示装置110を用いて表示する(区域情報表示工程)。
S73において、位置情報表示部123は、無人機エージェント131a〜131cから位置情報を取得し、取得した位置情報に基づいて無人機200a〜200cのアイコン401a〜401cを表示する位置を算出し、表示装置110を用いて表示する(位置情報表示工程)。
S74において、表示装置110がユーザの指示を検出したか否かを判断する。検出した場合には、S75へ進む。
S75において、実行指令入力部125・表示指令入力部126は、ユーザの指示による入力内容が、実行指令であるか、表示指令であるかを判断する。実行指令である場合には、S81へ進む。表示指令である場合には、S91へ進む(実行指令入力工程・表示指令入力工程)。
FIG. 6 is a flowchart showing an example of a flow of a command method (display input process) using the command support apparatus 100 in this embodiment.
In S71, the terrain information display unit 121 acquires terrain information from the database 150, generates an active area map based on the acquired terrain information, and displays it using the display device 110 (terrain information display step).
In S72, the area information display unit 122 acquires external information (area information) from the external information management unit 140 and displays it using the display device 110 (area information display process).
In S73, the position information display unit 123 acquires position information from the drone agents 131a to 131c, calculates positions for displaying the icons 401a to 401c of the drones 200a to 200c based on the acquired position information, and displays the display device. 110 is displayed (position information display step).
In S74, it is determined whether or not the display device 110 has detected a user instruction. If detected, the process proceeds to S75.
In S75, the execution command input unit 125 and the display command input unit 126 determine whether the input content according to the user's instruction is an execution command or a display command. If it is an execution command, the process proceeds to S81. If it is a display command, the process proceeds to S91 (execution command input process / display command input process).

S81において、実行指令入力部125は、選択した無人機200の無人機エージェント131に対して、入力した実行指令を通知する。
S82において、無人機エージェント131は、無人機通信部170に対して、通知された実行指令を通知する。
S83において、無人機通信部170は、選択した無人機200に対して、通知された実行指令を、通信装置903を用いて送信する。
In S81, the execution command input unit 125 notifies the input execution command to the drone agent 131 of the selected drone 200.
In S <b> 82, the drone agent 131 notifies the drone communication unit 170 of the notified execution command.
In S <b> 83, the drone communication unit 170 transmits the notified execution command to the selected drone 200 using the communication device 903.

S91において、表示指令入力部126は、選択した無人機200の無人機エージェント131に対して、入力した表示指令を通知する。
S92において、無人機エージェント131は、表示指令で指定された情報(収集情報)を、収集情報表示部124に対して通知する。
S93において、収集情報表示部124は、通知された収集情報を、表示装置110を用いて表示する(収集情報表示工程)。
In S91, the display command input unit 126 notifies the input display command to the unmanned aircraft agent 131 of the selected unmanned aircraft 200.
In S92, the drone agent 131 notifies the collection information display unit 124 of information (collection information) specified by the display command.
In S93, the collection information display unit 124 displays the notified collection information using the display device 110 (collection information display step).

図7は、この実施の形態において、指揮支援装置100を用いて指揮を行なう時の操作の流れの一例を示すフローチャート図である。
図8は、この実施の形態において、1機の航空無人機を想定した無人機200に関して表示装置110上に表示される画面の一例を示す図である。
FIG. 7 is a flowchart showing an example of the flow of operations when conducting a command using the command support apparatus 100 in this embodiment.
FIG. 8 is a diagram showing an example of a screen displayed on the display device 110 for the unmanned aerial vehicle 200 assuming one aircraft unmanned aerial vehicle in this embodiment.

ユーザ801が表示装置110に表示された無人機200aを選択する(S01)。
表示情報管理部120(実行指令入力部125及び表示指令入力部126)は、該当する無人機エージェント131aから情報を取得する。表示情報管理部120は、取得した情報に基づいて、選択画面W21を生成する。表示情報管理部120は、生成した選択画面W21を、表示装置110を用いて表示する。
ここでは、選択画面W21には選択項目として、「撮影画像表示」、「無人機状況表示」、「機能実行」、そして操作を終了するための「終了」が表示される。
The user 801 selects the drone 200a displayed on the display device 110 (S01).
The display information management unit 120 (the execution command input unit 125 and the display command input unit 126) acquires information from the corresponding unmanned aircraft agent 131a. The display information management unit 120 generates the selection screen W21 based on the acquired information. The display information management unit 120 displays the generated selection screen W21 using the display device 110.
Here, on the selection screen W21, “photographed image display”, “unmanned aircraft status display”, “function execution”, and “end” for ending the operation are displayed as selection items.

なお、表示情報管理部120(実行指令入力部125及び表示指令入力部126)は、同時に複数の無人機200が選択された場合、選択された複数の無人機200のそれぞれについて、選択画面W21を表示する。
したがって、すでに無人機200aに関する画面を表示している間に、他のユーザ802は、他の無人機200bを選択し、更に他のユーザ804は、更に他の無人機200cを選択し、それぞれ同様に、表示装置110に選択画面W21を表示することが可能である。
The display information management unit 120 (the execution command input unit 125 and the display command input unit 126) displays the selection screen W21 for each of the selected plurality of unmanned aircraft 200 when a plurality of unmanned devices 200 are selected at the same time. indicate.
Therefore, while the screen related to the drone 200a is already displayed, the other user 802 selects the other unmanned machine 200b, and the other user 804 selects the other unmanned machine 200c. In addition, the selection screen W21 can be displayed on the display device 110.

ユーザ801が、無人機200aが過去に撮影画像を見たい場合には、選択画面W21の「撮影画像表示」を触ることにより「撮影画像表示」を指定する(S02)。
表示装置110がこれを検出し、表示指令入力部126は「撮影画像表示」コマンドが入力されたと判断する。
その後、表示情報管理部120の表示指令入力部126は、選択された無人機200aの無人機エージェント131aに対して、命令(画像データ一覧要求)を送信する。
無人機エージェント131aは、データベース150を検索し、イベント情報から過去に撮影し、表示可能な画像データの一覧を取得し、表示情報管理部120の表示指令入力部126に送信する。
表示情報管理部120の表示指令入力部126は、送信された情報から撮影画像選択画面W22を生成し、表示装置110に表示する。撮影画像選択画面W22には、過去に撮影した画像の撮影日時、場所などがリストとして表示される。
When the user 801 wants to see the captured image in the past, the user 801 designates “captured image display” by touching “captured image display” on the selection screen W21 (S02).
The display device 110 detects this, and the display command input unit 126 determines that a “captured image display” command has been input.
Thereafter, the display command input unit 126 of the display information management unit 120 transmits a command (image data list request) to the drone agent 131a of the selected drone 200a.
The drone agent 131a searches the database 150, takes a picture of the past from the event information, acquires a list of displayable image data, and transmits it to the display command input unit 126 of the display information management unit 120.
The display command input unit 126 of the display information management unit 120 generates a captured image selection screen W22 from the transmitted information and displays it on the display device 110. On the photographed image selection screen W22, the photographing date / time, location, and the like of images photographed in the past are displayed as a list.

ここで、ユーザ801は、リスト中の画像タイトルを触ることにより、見たい画像を指定する(S03)。
表示装置110がこれを検出し、表示指令入力部126は、どの画像が指定されたかを判断する。表示指令入力部126は、指定された画像データの取得要求を、無人機エージェント131aに送信する。
無人機エージェント131aは、ユーザ801の指定結果を受信し、データベース150から、指定画像のデータを取得する。
無人機エージェント131aは、取得した画像データを、表示情報管理部120の収集情報表示部124に送信する。
表示情報管理部120の収集情報表示部124は、画像表示画面W19を生成し、表示装置110の表示画面に画像表示画面W19を表示する(S04)。
これにより、指揮支援装置100の周りのユーザがほぼ同時に画像を共有して見ることが可能となる。
Here, the user 801 touches an image title in the list to designate an image to be viewed (S03).
The display device 110 detects this, and the display command input unit 126 determines which image has been designated. The display command input unit 126 transmits an acquisition request for the designated image data to the drone agent 131a.
The drone agent 131a receives the designation result of the user 801 and acquires the data of the designated image from the database 150.
The drone agent 131a transmits the acquired image data to the collected information display unit 124 of the display information management unit 120.
The collected information display unit 124 of the display information management unit 120 generates the image display screen W19 and displays the image display screen W19 on the display screen of the display device 110 (S04).
As a result, users around the command support apparatus 100 can share and view images almost simultaneously.

画像を見終わった場合、または次の操作をする場合、ユーザは各画面内に表示している「終了」を指定し、画面を消去する。
表示装置110がこれを検出し、収集情報表示部124は、表示装置110の表示画面から、画像表示画面W19を消去する。
When the user finishes viewing the image or performs the next operation, the user designates “End” displayed in each screen and erases the screen.
The display device 110 detects this, and the collected information display unit 124 deletes the image display screen W19 from the display screen of the display device 110.

また、ユーザ802が無人機200bの稼動状況を知りたい場合には、同様に選択画面W21を表示させた後、「無人機状況表示」を触ることにより「無人機状況表示」を指定する(S02)。
表示装置110がこれを検出し、表示指令入力部126は「無人機状況表示」コマンドが入力されたと判断する。
表示指令入力部126は、選択された無人機200bの無人機エージェント131bに対して、無人機状況の取得要求を送信する。
その後、無人機エージェント131bは、データベース150または内部情報から、無人機200bの燃料の残量と航続時間、故障箇所などを取得し、表示情報管理部120の収集情報表示部124に送信する。
表示情報管理部120の収集情報表示部124は、取得した無人機200bの情報をもとに無人機状況表示画面W20を生成し、表示装置110に表示する。
If the user 802 wants to know the operating status of the drone 200b, the user selects the “unmanned aircraft status display” by touching “unmanned aircraft status display” after displaying the selection screen W21 in the same manner (S02). ).
The display device 110 detects this, and the display command input unit 126 determines that the “unmanned aircraft status display” command has been input.
The display command input unit 126 transmits a drone status acquisition request to the drone agent 131b of the selected drone 200b.
Thereafter, the drone agent 131b acquires the remaining amount of fuel, the cruising time, the failure location, etc. of the drone 200b from the database 150 or internal information, and transmits them to the collected information display unit 124 of the display information management unit 120.
The collected information display unit 124 of the display information management unit 120 generates an unmanned aircraft status display screen W20 based on the acquired information of the unmanned aircraft 200b and displays it on the display device 110.

同様に、ユーザ804は無人機200cの稼動状況を表示装置110上に表示させることが可能である。   Similarly, the user 804 can display the operating status of the drone 200c on the display device 110.

これにより、複数人がほぼ同時に無人機の稼動状況を見ることができる(S05)。
画像を見終わった場合、または次の操作をする場合、各画面内に表示している「終了」を指定し、画面を消去する。
Thereby, a plurality of people can see the operating status of the drone almost simultaneously (S05).
When you have finished viewing the image, or when you want to perform the next operation, specify “End” displayed in each screen and erase the screen.

ユーザ801が無人機200aに命令する場合には、選択画面W21の「機能実行」を触ることにより、「機能実行」を指定する(S02)。
表示装置110がこれを検出し、実行指令入力部125は、「機能実行」コマンドが入力されたと判断する。
実行指令入力部125は、選択された無人機200aの無人機エージェント131に対して、現在実行可能な機能の一覧を要求する。
無人機エージェント131は、内部情報から現在実行可能な機能を抽出して、一覧を作成し、実行指令入力部125に送信する。
その後、表示情報管理部120の実行指令入力部125は、無人機エージェント131aから取得した現在実行可能な機能の一覧(実行指令候補)に基づいて、機能実行選択画面W23を生成し、表示装置110に表示する。例えば、このとき実行可能な機能が機能実行選択画面W23に「撮影」、「移動」、「攻撃」と表示される。
When the user 801 instructs the drone 200a, “function execution” is designated by touching “function execution” on the selection screen W21 (S02).
The display device 110 detects this, and the execution command input unit 125 determines that the “function execution” command has been input.
The execution command input unit 125 requests the unmanned aircraft agent 131 of the selected unmanned aircraft 200a for a list of currently executable functions.
The drone agent 131 extracts currently executable functions from the internal information, creates a list, and transmits the list to the execution command input unit 125.
Thereafter, the execution command input unit 125 of the display information management unit 120 generates a function execution selection screen W23 based on the list of currently executable functions (execution command candidates) acquired from the drone agent 131a, and displays the display device 110. To display. For example, functions that can be executed at this time are displayed as “photographing”, “movement”, and “attack” on the function execution selection screen W23.

ここで、ユーザ801が「撮影」を指定した場合には(S06)、撮影設定画面W24が表示される。撮影設定画面W24には、設定項目として「場所」、「時間」、「倍率」が各々表示される。
ユーザ801は、表示装置110に表示されている無人機200aの位置や地形、無人機状況表示画面W20に表示された情報などを考慮し、また他のユーザたちと議論しながら、無人機200aを用いて、どの場所を撮影するかを決定し、その指示内容を「場所」、「時間」、「倍率」の順に指定する。
Here, when the user 801 designates “shooting” (S06), a shooting setting screen W24 is displayed. On the shooting setting screen W24, “place”, “time”, and “magnification” are displayed as setting items.
The user 801 considers the position and topography of the drone 200a displayed on the display device 110, information displayed on the drone status display screen W20, and the like, and discusses with the other users the unmanned drone 200a. This is used to determine which place to shoot, and the instruction content is designated in the order of “place”, “time”, and “magnification”.

最初に、「場所」の設定を行なう(S07)。
ユーザ801は、表示装置110に表示される地図上で、希望する場所を触ることにより、撮影場所を指定する。
表示装置110がこれを検出し、実行指令入力部125は、撮影場所が指定されたと判断する。
指定場所は、表示情報管理部120の実行指令入力部125から無人機エージェント131aに送信される。
無人機エージェント131aは、内部情報から無人機200aの燃料の残量と現在位置を取得し、指定場所まで移動可能か、その場合の最短到着予定時間、また撮影後に基地に帰還できるかを計算し、その結果を表示情報管理部120の実行指令入力部125に送信する。
表示情報管理部120の実行指令入力部125は、無人機エージェント131aの処理結果を用いて、撮影設定画面W24の表示内容を更新する。
First, “location” is set (S07).
The user 801 designates a shooting location by touching a desired location on the map displayed on the display device 110.
The display device 110 detects this, and the execution command input unit 125 determines that the shooting location has been designated.
The designated location is transmitted from the execution command input unit 125 of the display information management unit 120 to the drone agent 131a.
The drone agent 131a obtains the remaining amount of fuel and the current position of the drone 200a from the internal information, and calculates whether it can move to the designated location, the estimated arrival time in that case, and whether it can return to the base after shooting. The result is transmitted to the execution command input unit 125 of the display information management unit 120.
The execution command input unit 125 of the display information management unit 120 updates the display content of the shooting setting screen W24 using the processing result of the drone agent 131a.

また、撮影場所に移動が可能である場合には(S08)、最短到着予定時間が「時間」の初期設定値として表示される。
ここで、ユーザ801が表示された時間を変更する場合は、「時間」の横にある「時間修正」を指定して、表示装置110上に入力用キーボードW27を表示し、希望する時間を入力する(S09)。
最短到着予定時間より前の時間を入力すると、入力欄がリセットされ再入力が求められる。
時間指定完了後、「倍率」選択し、倍率選択画面W25を表示後、倍率を選択する(S10)。
In addition, when it is possible to move to the shooting location (S08), the shortest estimated arrival time is displayed as an initial setting value of “time”.
Here, when the displayed time is changed by the user 801, “time correction” next to “time” is designated, the input keyboard W27 is displayed on the display device 110, and the desired time is input. (S09).
When a time before the shortest estimated arrival time is input, the input field is reset and re-input is requested.
After the time designation is completed, “magnification” is selected, and after the magnification selection screen W25 is displayed, the magnification is selected (S10).

指定場所に無人機が移動できない場合には(S08)、場所を再指定し、無人機エージェント131aの判定結果を待ち、その後同様に「時間」、「倍率」を設定する。   If the drone cannot move to the designated place (S08), the place is designated again, waits for the determination result of the drone agent 131a, and thereafter similarly sets "time" and "magnification".

「場所」、「時間」、「倍率」を設定完了後、撮影設定画面W24で「実行」を選択することにより、ユーザ801は、無人機200aへの命令を完了する。   After completing the setting of “location”, “time”, and “magnification”, the user 801 completes the command to the drone 200a by selecting “execute” on the shooting setting screen W24.

次に、ユーザ認証部160(利用者認証部)が、ユーザ801が無人機200aに対して「撮影」指令をする権限を有するかの認証を行う。
このとき表示している画面の近傍に、実行指令入力部125が、ユーザ認証画面W30と、入力用キーボードW27を表示する。
Next, the user authentication unit 160 (user authentication unit) authenticates whether the user 801 has the authority to issue a “shoot” command to the drone 200a.
In the vicinity of the screen displayed at this time, the execution command input unit 125 displays the user authentication screen W30 and the input keyboard W27.

図9は、この実施の形態において、表示装置110上に表示されるユーザ認証画面の一例を示す図である。   FIG. 9 is a diagram showing an example of a user authentication screen displayed on the display device 110 in this embodiment.

ユーザ801は、ユーザ認証画面W30に、ユーザ名、パスワードを入力する。ユーザ名とパスワード入力後、ユーザ認証画面W30内の「認証」を選択する。
表示装置110がこれを検出し、実行指令入力部125は、ユーザ名及びパスワードを取得する。
選択後、ユーザ情報(ユーザ名とパスワード)は、命令(「撮影」指令)と共に表示情報管理部120の実行指令入力部125が、選択した無人機200aに該当する無人機管理部130内の無人機エージェント131aに送信する。
The user 801 inputs a user name and password on the user authentication screen W30. After entering the user name and password, “authentication” in the user authentication screen W30 is selected.
The display device 110 detects this, and the execution command input unit 125 acquires the user name and password.
After the selection, the user information (user name and password) is unmanned in the drone management unit 130 corresponding to the selected drone 200a by the execution command input unit 125 of the display information management unit 120 together with the command (“shooting” command). To the machine agent 131a.

無人機エージェント131aは、ユーザ認証部160にユーザ情報と無人機200aの個体情報を送信し、ユーザが無人機200aに命令できるかの認証を依頼する。
ユーザ認証部160は、ユーザが命令可能な無人機200のリストをデータとして保有し、入力されたデータから指定されたユーザをキーにしてリスト内に無人機200aがあるかを判断し、その結果を無人機エージェント131aに送信する(S11)。
The drone agent 131a transmits user information and individual information of the drone 200a to the user authentication unit 160, and requests authentication of whether the user can instruct the drone 200a.
The user authentication unit 160 stores a list of unmanned aircraft 200 that can be commanded by the user as data, and determines whether there is an unmanned aircraft 200a in the list using the specified user as a key from the input data. Is transmitted to the drone agent 131a (S11).

認証に失敗した場合は、命令内容は破棄され、機能実行選択画面W23が表示される。   If the authentication fails, the command content is discarded and the function execution selection screen W23 is displayed.

認証に成功した場合、命令(「撮影」指令)は、無人機エージェント131aが無人機通信部170を介して無人機200aに送信する。
無人機200aは、これを受信し、指令にしたがって、指定場所に移動し、指定場所を撮影する。
無人機200aは、指定場所を撮影後、実行結果と画像データを指揮支援装置100に送信する(S12)。
If the authentication is successful, the command (“shooting” command) is transmitted from the drone agent 131 a to the drone 200 a via the drone communication unit 170.
The drone 200a receives this, moves to the designated location according to the command, and captures the designated location.
The drone 200a transmits the execution result and the image data to the command support apparatus 100 after photographing the designated place (S12).

無人機200aが送信する実行結果と撮影データは、無人機通信部170を介して無人機エージェント131aが取得する。
無人機エージェント131aは、これをイベント情報として保持し、同時にデータベース150に記録する。
イベント情報のうち実行結果は、表示情報管理部120の収集情報表示部124に送信される。収集情報表示部124は、表示装置110の表示画面の無人機200aのアイコン401aの近傍に、成功/失敗等を表示する。
命令成功時、ユーザ801は、選択画面W21、撮影画像選択画面W22を開き、撮影した画像を確認する。
The execution result and photographing data transmitted by the drone 200a are acquired by the drone agent 131a via the drone communication unit 170.
The drone agent 131a holds this as event information and records it in the database 150 at the same time.
The execution result of the event information is transmitted to the collected information display unit 124 of the display information management unit 120. The collected information display unit 124 displays success / failure or the like in the vicinity of the icon 401a of the drone 200a on the display screen of the display device 110.
When the command is successful, the user 801 opens the selection screen W21 and the captured image selection screen W22 and confirms the captured image.

一方、ユーザ801が無人機200aに撮影命令を出そうとしているのと同時並行して、ユーザ804は、情報を表示している無人機200cに移動を命令することが可能である。
ユーザ804は、上記した手順にしたがって、機能実行選択画面W23を表示させ、機能実行選択画面W23において「移動」を指定すると(S06)、移動設定画面W26が表示される。
すなわち、表示装置110がユーザ804の操作を検出し、実行指令入力部125が移動設定画面W26を、表示装置110を用いて表示する。
On the other hand, in parallel with the user 801 trying to issue a shooting command to the drone 200a, the user 804 can command the drone 200c displaying information to move.
The user 804 displays the function execution selection screen W23 according to the above-described procedure, and designates “move” on the function execution selection screen W23 (S06), the movement setting screen W26 is displayed.
That is, the display device 110 detects the operation of the user 804, and the execution command input unit 125 displays the movement setting screen W26 using the display device 110.

移動設定画面W26には、設定項目として「場所」、「時間」が表示され、ユーザ804は、ユーザ803とともに全体の状況を見ながら、無人機の移動先、移動時間を議論し、その結果を、撮影設定画面W24での「撮影」の命令と同様の操作により、場所、時間を設定し(S13、S14、S15)、無人機200cに移動の命令を送信する(S16)。
すなわち、表示装置110がユーザ804の操作を検出し、実行指令入力部125が移動指令を入力する。実行指令入力部125は、選択された無人機200cの無人機エージェント131cに通知する。無人機エージェント131cは、移動指令を無人機通信部170に通知する。無人機通信部170は、通知された移動指令を、無人機200cに対して、通信装置903を用いて送信する。
On the movement setting screen W26, “place” and “time” are displayed as setting items, and the user 804 discusses with the user 803 the destination of the drone and the movement time while viewing the entire situation, and displays the result. Then, the location and time are set by the same operation as the “shooting” command on the shooting setting screen W24 (S13, S14, S15), and a movement command is transmitted to the drone 200c (S16).
That is, the display device 110 detects the operation of the user 804, and the execution command input unit 125 inputs a movement command. The execution command input unit 125 notifies the drone agent 131c of the selected drone 200c. The drone agent 131c notifies the drone communication unit 170 of the movement command. The drone communication unit 170 transmits the notified movement command to the drone 200c using the communication device 903.

ただし、「移動」では「倍率」の設定はしない。命令の実行結果は、「撮影」の命令と同様に、表示装置110上の指定した無人機200cのアイコン401cの近傍に表示される(S17)。   However, the “magnification” is not set for “move”. The execution result of the command is displayed in the vicinity of the icon 401c of the designated unmanned aircraft 200c on the display device 110 in the same manner as the “shooting” command (S17).

一方、他のユーザが無人機に命令を出そうとしているとほぼ同時に、ユーザ802は、情報を表示している無人機200bに攻撃を命令することが可能である。
ユーザ802は、上記した手順にしたがって、機能実行選択画面W23を表示させ、機能実行選択画面W23において「攻撃」を指定すると(S06)、攻撃設定画面W28が表示される。
すなわち、表示装置110がユーザ802の操作を検出し、実行指令入力部125が攻撃設定画面W28を、表示装置110を用いて表示する。
On the other hand, almost simultaneously with the other user trying to issue a command to the drone, the user 802 can command the drone 200b displaying information to attack.
The user 802 displays the function execution selection screen W23 according to the above-described procedure, and designates “attack” on the function execution selection screen W23 (S06), the attack setting screen W28 is displayed.
That is, the display device 110 detects the operation of the user 802, and the execution command input unit 125 displays the attack setting screen W28 using the display device 110.

攻撃設定画面W28には、設定項目として「場所」、「時間」、「武器」が表示され、ユーザ802は、撮影設定画面W24での「撮影」の命令と同様の操作により、場所、時間を設定する(S18、S19、S20)。
時間を設定後、攻撃設定画面W28にて「武器」を他の項目と同様に選択し、武器選択画面W29を開き、表示されている武器から使用する武器を選択する。
選択後、「撮影」の命令と同様の操作により、無人機の命令を送信する(S22)。
命令の実行結果は、「撮影」の命令と同様に、表示装置110上の指定した無人機200b近傍に表示される(S23)。
On the attack setting screen W28, “place”, “time”, and “weapon” are displayed as setting items, and the user 802 sets the location and time by the same operation as the “shoot” command on the shooting setting screen W24. Set (S18, S19, S20).
After setting the time, “weapon” is selected on the attack setting screen W28 in the same manner as other items, the weapon selection screen W29 is opened, and the weapon to be used is selected from the displayed weapons.
After the selection, the drone command is transmitted by the same operation as the “shooting” command (S22).
The execution result of the command is displayed in the vicinity of the designated unmanned aircraft 200b on the display device 110 in the same manner as the “shooting” command (S23).

以上のように、この実施の形態によれば、複数のユーザが、同時に個々の無人機が収集した情報を表示することができ、また同時に命令することが可能となる。
これにより、複数の人や装置を介さずに、短時間で命令の指示を行い、実行結果を得ることができ、迅速かつ的確な無人機による作戦を実行し支援することが可能になるという効果を奏する。
As described above, according to this embodiment, it is possible for a plurality of users to display information collected by individual unmanned aircraft at the same time and to give instructions simultaneously.
As a result, it is possible to instruct commands in a short time without using a plurality of people or devices, obtain execution results, and execute and support operations quickly and accurately by unmanned aircraft. Play.

このように、実行装置の状況等を表示する表示入力装置を用いて、実行装置に対する指令を入力するので、利用者が状況を把握し、その場で指令を出すことができ、迅速な指令ができるという効果を奏する。
また、表示入力装置は、利用者が指示したことを検出し、指示した場所に表示された対象に基づいて指令等を入力するので、操作ミスを少なくすることができ、正確な指令ができるという効果を奏する。
In this way, since the command to the execution device is input using the display input device that displays the status of the execution device, etc., the user can grasp the situation and issue the command on the spot. There is an effect that can be done.
In addition, the display input device detects that the user has instructed, and inputs a command or the like based on the object displayed at the instructed location, so that operation errors can be reduced and an accurate command can be performed. There is an effect.

また、表示入力装置の表示画面に表示された、実行装置を示す図形の近傍に、実行指令候補を表示して、表示した実行指令候補から利用者が実行指令を選択するので、実行可能な実行指令を利用者が把握しながら、指令を選択でき、迅速な判断ができるという効果を奏する。   In addition, execution command candidates are displayed in the vicinity of the graphic indicating the execution device displayed on the display screen of the display input device, and the user selects an execution command from the displayed execution command candidates. While the user grasps the command, the command can be selected, and an effect is obtained that a quick judgment can be made.

また、表示入力装置を用いて複数の実行指令を、同時並行して入力することができるので、1つの表示入力装置を用いて、多数の実行装置に対する実行指令を、複数の利用者が同時に入力することができ、迅速な指令の入力ができるという効果を奏する。   In addition, since a plurality of execution commands can be input in parallel using the display input device, a plurality of users can simultaneously input execution commands for a large number of execution devices using a single display input device. This is advantageous in that a prompt command can be input.

また、記憶装置を用いて、位置情報、収集情報などを記憶するので、利用者が実行装置の状態を知りたいときに、実行装置と通信することなく、素早く情報を表示でき、迅速な状況判断ができるという効果を奏する。   Also, since location information, collected information, etc. are stored using a storage device, when a user wants to know the status of the execution device, information can be quickly displayed without communication with the execution device, and prompt situation determination is possible. There is an effect that can be.

また、実行装置が収集した情報の表示を指令する表示指令を入力することにより、情報を表示するので、膨大な情報のなかから、利用者が知りたい情報だけを表示することができるという効果を奏する。   Moreover, since the information is displayed by inputting a display command for instructing the display of the information collected by the execution device, only the information that the user wants to know can be displayed from the vast amount of information. Play.

また、実行装置の活動区域についての情報を、活動区域地図に重ねて表示するので、状況の把握が容易となり、迅速な判断が可能であるという効果を奏する。   In addition, since information about the active area of the execution device is displayed in an overlapping manner on the active area map, the situation can be easily grasped, and it is possible to make a quick decision.

また、実行指令を入力した場合に、入力した利用者を認証してから、実行装置に実行指令を送信するので、例えば、複数の利用者が、一つの実行装置に対して矛盾する実行指令をすることを防ぐことができるという効果を奏する。   In addition, when an execution command is input, the input user is authenticated, and then the execution command is transmitted to the execution device. Therefore, for example, a plurality of users may issue contradictory execution commands to one execution device. There is an effect that can be prevented.

また、表示入力装置は、大画面の表示画面を有しているので、複数の利用者が同一の情報を共有でき、互いに矛盾した実行指令をすることを防ぐことができるという効果を奏する。   In addition, since the display input device has a large display screen, a plurality of users can share the same information, and it is possible to prevent execution instructions contradicting each other.

このような指令装置を用いて、実行装置に対して指令を行う指令方法は、実行装置の状況等を表示する表示入力装置を用いて、実行装置に対する指令を入力するので、利用者が状況を把握し、その場で指令を出すことができ、迅速な指令ができるという効果を奏する。   A command method for giving a command to an execution device using such a command device inputs a command to the execution device using a display input device that displays the status of the execution device and the like. It is possible to grasp and issue a command on the spot, and there is an effect that a quick command can be issued.

実施の形態2.
図10は、この実施の形態における指揮支援装置100(指令装置の一例)の機能ブロックの構成の一例を示す図である。
Embodiment 2. FIG.
FIG. 10 is a diagram illustrating an example of a functional block configuration of the command support device 100 (an example of a command device) according to this embodiment.

図10において、指揮支援装置100は、実施の形態1で説明した各部のほか、外部模擬管理部180(模擬実行結果予測部)を有する。
外部模擬管理部180は、シミュレータ190に必要な情報を送信するとともに、模擬結果を収集し、表示情報管理部120に表示データとして送信する。
シミュレータ190は、ネットワークで指揮支援装置100に接続されている。
この例では、外部模擬管理部180は、外部にあるシミュレータ190によるシミュレーションの結果を取得することで、実行結果を予測している。しかし、外部模擬管理部180がシミュレータ190を内蔵し、内部でシミュレーションを行うことにより、実行結果を予測することとしてもよい。
In FIG. 10, the command support apparatus 100 includes an external simulation management unit 180 (simulation execution result prediction unit) in addition to the units described in the first embodiment.
The external simulation management unit 180 transmits necessary information to the simulator 190, collects simulation results, and transmits them to the display information management unit 120 as display data.
The simulator 190 is connected to the command support apparatus 100 via a network.
In this example, the external simulation manager 180 predicts the execution result by acquiring the result of the simulation by the simulator 190 located outside. However, the external simulation management unit 180 may incorporate the simulator 190 and predict the execution result by performing simulation inside.

図11は、この実施の形態における表示情報管理部120の詳細の一例を示す詳細ブロック図である。
表示情報管理部120は、模擬実行指令入力部127、模擬実行結果表示部128を有する。なお、表示情報管理部120は、このほか、地形情報表示部121、区域情報表示部122、位置情報表示部123、収集情報表示部124、実行指令入力部125、表示指令入力部126も有しているが、実施の形態1で図3を用いて説明したものと共通なので、ここでは記載を省略してある。
FIG. 11 is a detailed block diagram showing an example of details of the display information management unit 120 in this embodiment.
The display information management unit 120 includes a simulation execution command input unit 127 and a simulation execution result display unit 128. In addition, the display information management unit 120 includes a topographic information display unit 121, a zone information display unit 122, a position information display unit 123, a collection information display unit 124, an execution command input unit 125, and a display command input unit 126. However, since it is the same as that described with reference to FIG. 3 in Embodiment 1, the description is omitted here.

模擬実行指令入力部127は、利用者が選択した無人機200が実行可能な指令を示す図形(例えば、模擬指令ボタン)を、表示装置110を用いて、無人機200を示す図形の近傍に表示する。表示した図形を利用者が指示した場合に、その図形が示す指令を入力する。しかし、模擬実行指令入力部127は、入力した指令を、無人機エージェント131に通知するのではなく、模擬実行指令として、外部模擬管理部180に通知する。   The simulation execution command input unit 127 displays a graphic (for example, a simulation command button) indicating a command executable by the drone 200 selected by the user in the vicinity of the graphic indicating the drone 200 using the display device 110. To do. When the user instructs the displayed graphic, the command indicated by the graphic is input. However, the simulation execution command input unit 127 does not notify the input command to the drone agent 131 but notifies the external simulation management unit 180 as a simulation execution command.

外部模擬管理部180は、通知された模擬実行指令に基づいて、その指令を実行した結果を予測する。外部模擬管理部180は、予測した結果を、模擬実行結果として、模擬実行結果表示部128に通知する。   Based on the notified simulation execution command, the external simulation management unit 180 predicts the result of executing the command. The external simulation management unit 180 notifies the simulation execution result display unit 128 of the predicted result as a simulation execution result.

模擬実行結果表示部128は、外部模擬管理部180から通知された模擬実行結果を、表示装置110を用いて表示する。   The simulation execution result display unit 128 displays the simulation execution result notified from the external simulation management unit 180 using the display device 110.

図12は、この実施の形態において、指揮支援装置100を用いて指揮を行なう時の操作の流れ(抜粋)の一例を示すフローチャート図である。
図13は、この実施の形態における、表示画面(抜粋)の一例を示す図である。
FIG. 12 is a flowchart showing an example of an operation flow (extract) when conducting a command using the command support apparatus 100 in this embodiment.
FIG. 13 is a diagram showing an example of a display screen (extract) in this embodiment.

図13において、指揮支援装置100が表示する表示画面には、シミュレータ190の情報を選択することを可能とした選択画面W33、シミュレータ190がシミュレーションを実行する時に必要な各種設定を行なうためのシミュレーション設定画面W34、シミュレータ190がシミュレーション設定画面W34で設定した条件で実行した模擬結果を表示するシミュレーション結果表示画面W35などがある。   In FIG. 13, on the display screen displayed by the command support apparatus 100, a selection screen W33 that enables selection of information on the simulator 190, and simulation settings for performing various settings necessary when the simulator 190 executes simulation. There are a screen W34, a simulation result display screen W35 for displaying a simulation result executed by the simulator 190 under the conditions set on the simulation setting screen W34, and the like.

ユーザは、指揮支援装置100により無人機200に新たに命令する場合には、その命令の実現可能性または実現後の状況変化を事前に把握した上で、無人機200に命令を伝達させたい。
そこで、ユーザは、模擬したい無人機200について、表示装置110上に表示されている無人機200のアイコンに触ることにより指定する(S01)。
When the user newly instructs the drone 200 by the command support device 100, the user wants to transmit the command to the drone 200 after grasping in advance the feasibility of the command or the change in the situation after the realization.
Therefore, the user designates the drone 200 to be simulated by touching the icon of the drone 200 displayed on the display device 110 (S01).

表示装置110がこれを検出し、表示情報管理部120は、選択された無人機200を判別する。実行指令入力部125、表示指令入力部126、模擬実行指令入力部127は、それぞれ選択可能な指令を示す図形を生成し、表示装置110を用いて、選択された無人機200のアイコンの近傍に表示する。   The display device 110 detects this, and the display information management unit 120 determines the selected drone 200. The execution command input unit 125, the display command input unit 126, and the simulation execution command input unit 127 each generate a graphic indicating a selectable command and use the display device 110 to place the graphic near the icon of the selected drone 200. indicate.

実施の形態1と同様に、無人機200が指定されると、表示装置110には選択画面W33が表示される。このとき、外部に選択した無人機200に関連するシミュレータ190が接続されている場合には、選択画面W33には、実施の形態1と同様に、「撮影画像表示」、「無人機状況表示」、「機能実行」を選択することができ、さらに選択項目として「シミュレーション」が表示される。   Similar to the first embodiment, when the drone 200 is designated, the selection screen W33 is displayed on the display device 110. At this time, when the simulator 190 related to the unmanned drone 200 selected outside is connected, the selection screen W33 displays “photographed image display” and “unmanned drone status display” as in the first embodiment. “Function execution” can be selected, and “Simulation” is displayed as a selection item.

接続されているシミュレータ190が指定された無人機200に関連するものかは、無人機エージェント131が判断する。関連している場合には、模擬実行指令入力部127が、選択画面W33に「シミュレーション」を表示する。関連していない場合には、模擬実行指令入力部127は、「シミュレーション」を表示しない。
無人機エージェント131は、基本データとして関連するシミュレータ190の一覧を保有し、表示情報管理部120から現在接続しているシミュレータ190の名前、種別などを取得し、基本データと一致するかを判断し、その結果を表示情報管理部120に送信する。
表示情報管理部120の模擬実行指令入力部127は、この情報をもとに選択画面W33の項目に「シミュレーション」を表示するかを判断する。
The drone agent 131 determines whether the connected simulator 190 is related to the designated drone 200. If they are related, the simulation execution command input unit 127 displays “simulation” on the selection screen W33. If they are not related, the simulation execution command input unit 127 does not display “simulation”.
The drone agent 131 holds a list of related simulators 190 as basic data, acquires the name, type, and the like of the currently connected simulator 190 from the display information management unit 120, and determines whether they match the basic data. The result is transmitted to the display information management unit 120.
Based on this information, the simulation execution command input unit 127 of the display information management unit 120 determines whether to display “simulation” in the item of the selection screen W33.

また、ユーザが指定した無人機200の模擬を実施したい場合には、選択画面W33の「シミュレーション」を触ることにより「シミュレーション」を指定する(S02)。
表示装置110がこれ検出し、模擬実行指令入力部127が、「シミュレーション」コマンドが選択されたと判断する。
その後、表示情報管理部120の模擬実行指令入力部127は、外部模擬管理部180より接続されているシミュレータ190の情報を取得する。模擬実行指令入力部127は、取得した情報に基づいて、シミュレーション設定画面W34を生成し、表示装置110に表示する。
外部模擬管理部180は、接続されているシミュレータ190の必要条件を事前に登録しておき、表示情報管理部120の要求に応じて該当するシミュレータ190の情報を送信する。
If it is desired to simulate the drone 200 designated by the user, “simulation” is designated by touching “simulation” on the selection screen W33 (S02).
The display device 110 detects this, and the simulation execution command input unit 127 determines that the “simulation” command is selected.
Thereafter, the simulation execution command input unit 127 of the display information management unit 120 acquires information of the simulator 190 connected from the external simulation management unit 180. The simulation execution command input unit 127 generates a simulation setting screen W34 based on the acquired information and displays it on the display device 110.
The external simulation management unit 180 registers necessary conditions of the connected simulator 190 in advance, and transmits information on the corresponding simulator 190 in response to a request from the display information management unit 120.

ユーザは、実施の形態1と同様に、シミュレーション設定画面W34に設定項目を入力し、全設定項目を入力後、「設定完了」に触ることにより、「設定完了」を指定する(S25)。
表示情報管理部120は、設定情報を外部模擬管理部180に送信する。外部模擬管理部180は、シミュレータ190に対して、設定情報を送信し、模擬実行(実行結果予測)を指令する。
模擬完了後、外部模擬管理部180は、シミュレータ190から模擬結果を取得し、シミュレーション結果表示画面W35として表示装置110に表示する(S26)。
Similarly to the first embodiment, the user inputs setting items on the simulation setting screen W34, inputs all setting items, and touches “setting completed” to designate “setting completed” (S25).
The display information management unit 120 transmits the setting information to the external simulation management unit 180. The external simulation management unit 180 transmits setting information to the simulator 190 and instructs simulation execution (execution result prediction).
After the simulation is completed, the external simulation management unit 180 acquires the simulation result from the simulator 190 and displays it on the display device 110 as a simulation result display screen W35 (S26).

例えば、爆弾による地形の変化を模擬できるシミュレータ190が指揮支援装置100に接続しているとする。
このシミュレータ190は、航空無人機の攻撃の効果を模擬できるシミュレータとして、無人機エージェント131に登録されている。
For example, it is assumed that a simulator 190 that can simulate a change in terrain caused by a bomb is connected to the command support apparatus 100.
The simulator 190 is registered in the drone agent 131 as a simulator that can simulate the effect of an air drone attack.

ユーザが現在制御している航空無人機を選択し、シミュレーションを選択した場合、シミュレーション設定画面W34にて、場所と武器の種類と数を設定する。
その設定情報は、外部模擬管理部180を介してシミュレータ190に送信され、指定された場所の攻撃による地形変化結果を外部模擬管理部180に送信する。
この結果は、指揮支援装置100を使用する複数のユーザで確認し、命令の有効性を議論すると共に、結果をもとに、表示装置110上で即座に無人機200に命令することが可能である。
When the user selects the air drone currently controlled and selects the simulation, the location and the type and number of weapons are set on the simulation setting screen W34.
The setting information is transmitted to the simulator 190 via the external simulation management unit 180, and the terrain change result due to the attack at the designated place is transmitted to the external simulation management unit 180.
This result can be confirmed by a plurality of users using the command support apparatus 100 to discuss the effectiveness of the command, and based on the result, the drone 200 can be commanded immediately on the display device 110. is there.

以上のように、この実施の形態によれば、ユーザは、無人機200に命令する前に、命令の模擬(シミュレーション)結果を表示装置110上に表示することにより、指示内容の有効性を事前に判断することが可能になるという効果を奏する。
また、複数の指示候補の中から最善の指示を選択することも、模擬結果を表示し複数人で客観的に判断することが可能になり、より効率的で有効な指示を無人機200に与えることが可能になるという効果を奏する。
As described above, according to this embodiment, the user displays the instruction simulation (simulation) result on the display device 110 before instructing the unmanned aerial vehicle 200, thereby preliminarily confirming the validity of the instruction content. There is an effect that it is possible to make a judgment.
In addition, selecting the best instruction from a plurality of instruction candidates also makes it possible to display a simulation result and make an objective determination by a plurality of persons, and to give a more efficient and effective instruction to the drone 200. There is an effect that it becomes possible.

実施の形態3.
図14は、この実施の形態における指揮支援装置100の機能ブロックの構成の一例を示す図である。
図14において、指揮支援装置100は、実施の形態1で説明した各部のほか、模擬情報管理部185(模擬実行結果予測部、模擬区域情報生成部の一例)、モード切替部186を有する。
Embodiment 3 FIG.
FIG. 14 is a diagram illustrating an example of a functional block configuration of the command support apparatus 100 according to this embodiment.
14, the command support apparatus 100 includes a simulated information management unit 185 (an example of a simulated execution result prediction unit and a simulated area information generation unit) and a mode switching unit 186 in addition to the units described in the first embodiment.

模擬情報管理部185は、ネットワークで接続された無人機のシミュレータ195a〜195cや外部情報源のシミュレータ196の情報を管理する。
無人機のシミュレータ195a〜195cは、無人機200a〜200cの模擬をする。すなわち、無人機200a〜200cと同様に、実行指令の通知を受け、通知された実行指令を実行した結果、無人機200a〜200cが収集するであろう収集情報や位置情報を、計算によりシミュレーションすることで生成し、あたかも実際に実行したかのように、処理結果(模擬実行結果)を通知する。
外部情報源のシミュレータ196は、無人機が展開する地域のレーダ情報や気象状況など無人機以外の情報を模擬する。すなわち、外部情報源300が通知する外部情報(区域情報)の代わりに、あらかじめ設定した条件にしたがって、計算によりシミュレーションすることで、外部情報(模擬区域情報)を生成し、通知する。
The simulated information management unit 185 manages information of the unmanned aircraft simulators 195a to 195c and the external information source simulator 196 connected via a network.
The unmanned aircraft simulators 195a to 195c simulate the unmanned aircraft 200a to 200c. That is, similar to the drones 200a to 200c, the collection command and the position information that the drones 200a to 200c will collect as a result of executing the notified execution command are simulated by calculation. The processing result (simulated execution result) is notified as if it was actually executed.
The external information source simulator 196 simulates information other than the drone such as radar information and weather conditions of the area where the drone is deployed. That is, instead of the external information (area information) notified by the external information source 300, external information (simulated area information) is generated and notified by performing simulation by calculation according to preset conditions.

この例では、模擬情報管理部185は、外部のシミュレータ195a〜195c,196が行ったシミュレーション結果を、ネットワークを介して取得することで、模擬実行結果を予測し、また、模擬区域情報を生成している。しかし、模擬情報管理部185がシミュレータ195a〜195c,196を内蔵し、内部でシミュレーションすることで、模擬実行結果・模擬区域情報を取得することとしてもよい。   In this example, the simulation information management unit 185 predicts the simulation execution result by acquiring the simulation results performed by the external simulators 195a to 195c and 196 via the network, and generates simulation area information. ing. However, the simulation information management unit 185 may incorporate the simulators 195a to 195c and 196 and acquire simulation execution results / simulation area information by performing simulation inside.

モード切替部186は、指揮支援装置100の運用モードをユーザの操作により切替えることを可能とする。例えば、スイッチやボタンなどにより、ユーザが選択した運用モードを入力し、入力した運用モードを指揮支援装置100の各部に通知することで、運用モードを切り替える。   The mode switching unit 186 allows the operation mode of the command support apparatus 100 to be switched by a user operation. For example, the operation mode selected by the user is input by a switch, a button, or the like, and the operation mode is switched by notifying each unit of the command support apparatus 100 of the input operation mode.

ユーザは、実際の無人機200a〜200c、レーダ装置などの外部情報源300の代わりに、指揮支援装置100と、それに接続する無人機のシミュレータ195a〜195c、外部情報源として情報を提供するシミュレータ196を用いる。
このとき、シミュレータ195a〜195c及びシミュレータ196は、ネットワークを介して、模擬情報管理部185に接続し、指揮支援装置100と通信が可能である。
The user replaces the external information source 300 such as the actual unmanned aircraft 200a to 200c and the radar device with the command support device 100 and the unmanned aircraft simulators 195a to 195c connected thereto, and the simulator 196 that provides information as an external information source. Is used.
At this time, the simulators 195a to 195c and the simulator 196 are connected to the simulation information management unit 185 via a network and can communicate with the command support apparatus 100.

シミュレータ195a〜195c、シミュレータ196を用いるために、指揮支援装置100には、モード切替部186を設ける。
モード切替部186は、ユーザの決定により「実機」、「模擬」の運用モード情報を指揮支援装置100内の各機能に送信する。
ユーザが運用モードを決定するためには、例えば、表示装置110の枠(フレーム)に、「実機」、「模擬」というボタンを設け、指揮支援装置100を運用する前に、ユーザがどちらかのボタンを押すこととする。
In order to use the simulators 195 a to 195 c and the simulator 196, the command support apparatus 100 is provided with a mode switching unit 186.
The mode switching unit 186 transmits operation mode information of “actual machine” and “simulation” to each function in the command support apparatus 100 according to the user's decision.
In order for the user to determine the operation mode, for example, buttons “actual machine” and “simulation” are provided on the frame of the display device 110, and before the command support apparatus 100 is operated, Press the button.

モード切替部186は、押されたボタンを判別し、運用モードを入力する。
モード切替部186は、運用モード情報を、表示情報管理部120、無人機管理部130、外部情報管理部140、データベース150、無人機通信部170、模擬情報管理部185に送信する。
外部情報管理部140と無人機通信部170は、運用モード情報に従い、通信先の変更を行う。
表示情報管理部120、無人機管理部130、データベース150は、「模擬」モードで、内部処理の変更は行わない。
The mode switching unit 186 determines the pressed button and inputs the operation mode.
The mode switching unit 186 transmits the operation mode information to the display information management unit 120, the drone management unit 130, the external information management unit 140, the database 150, the drone communication unit 170, and the simulation information management unit 185.
The external information management unit 140 and the drone communication unit 170 change the communication destination according to the operation mode information.
The display information management unit 120, the drone management unit 130, and the database 150 are in the “simulation” mode and do not change the internal processing.

図15は、この実施の形態における表示情報管理部120の詳細の一例を示す詳細ブロック図である。   FIG. 15 is a detailed block diagram showing an example of details of the display information management unit 120 in this embodiment.

モード切替部186が「実機」モードを入力し、各部に通知した場合の各部の動作は、実施の形態1で説明したものと同様である。   The operation of each unit when the mode switching unit 186 inputs the “real machine” mode and notifies each unit is the same as that described in the first embodiment.

モード切替部186が「模擬」モードを入力し、表示情報管理部120に通知した場合、実行指令入力部125は模擬実行指令入力部として、収集情報表示部124は模擬実行結果表示部として、区域情報表示部122は模擬区域情報表示部として、動作する。   When the mode switching unit 186 inputs the “simulation” mode and notifies the display information management unit 120, the execution command input unit 125 serves as a simulation execution command input unit, the collected information display unit 124 serves as a simulation execution result display unit, The information display unit 122 operates as a simulated area information display unit.

「模擬」モードにおいて、外部情報管理部140は、外部情報源300から外部情報(区域情報)を取得するのではなく、模擬情報管理部185から外部情報(模擬区域情報)を取得する。取得した外部情報は、「実機」モードの場合と同様に、区域情報表示部122に通知する。
区域情報表示部122は、外部情報管理部140から通知される外部情報が模擬区域情報であることにより、模擬区域情報表示部として動作するが、実際の処理内容は、「実機」モードの場合と同じである。
In the “simulation” mode, the external information management unit 140 acquires external information (simulated area information) from the simulated information management unit 185 instead of acquiring external information (area information) from the external information source 300. The acquired external information is notified to the area information display unit 122 as in the “real machine” mode.
The zone information display unit 122 operates as a simulated zone information display unit when the external information notified from the external information management unit 140 is simulated zone information, but the actual processing content is the case of the “real machine” mode. The same.

「模擬」モードにおいて、無人機通信部170は、無人機200と通信するのではなく、模擬情報管理部185と通信する。すなわち、模擬情報管理部185に対して、実行指令を通知し、模擬情報管理部185から、周期情報・イベント情報・実行結果などの収集情報(模擬実行結果)を取得する。
したがって、実行指令入力部125、収集情報表示部124、無人機管理部130は、区域情報表示部122と同様、「実機」モードと同じ処理を行えばよい。
In the “simulation” mode, the drone communication unit 170 does not communicate with the drone 200 but communicates with the simulation information management unit 185. That is, an execution command is notified to the simulation information management unit 185, and collection information (simulation execution result) such as period information, event information, and execution result is acquired from the simulation information management unit 185.
Therefore, the execution command input unit 125, the collected information display unit 124, and the unmanned aircraft management unit 130 may perform the same processing as in the “real machine” mode, similarly to the area information display unit 122.

「実機」ボタンが押された場合、モード切替部186から「実機運用」の運用モード情報が送信される。
模擬情報管理部185は、実施の形態1と同様の処理を行う。
模擬情報管理部185は、処理を停止する。
When the “actual machine” button is pressed, the operation mode information “actual machine operation” is transmitted from the mode switching unit 186.
The simulated information management unit 185 performs the same processing as in the first embodiment.
The simulated information management unit 185 stops the process.

「模擬」ボタンが押された場合は、モード切替部186から「模擬運用」の運用モード情報が送信される。
外部情報管理部140と無人機通信部170は、「模擬運用」の運用モード情報を受信した場合、指揮支援装置100外との通信先をそれぞれ模擬情報管理部185に切り替える。
模擬情報管理部185は、運用モードを受信した場合、ネットワークで接続しているシミュレータ195a〜195c、シミュレータ196との通信を開始し、外部情報管理部140と無人機通信部170へ送信を開始する。
以後の指揮支援装置100の操作は、実施の形態1と同様である。
When the “simulation” button is pressed, the operation mode information “simulation operation” is transmitted from the mode switching unit 186.
When receiving the operation mode information of “simulated operation”, the external information management unit 140 and the drone communication unit 170 switch the communication destination with the outside of the command support apparatus 100 to the simulated information management unit 185, respectively.
When the simulation information management unit 185 receives the operation mode, the simulation information management unit 185 starts communication with the simulators 195a to 195c and the simulator 196 connected via the network, and starts transmission to the external information management unit 140 and the drone communication unit 170. .
The subsequent operation of the command support apparatus 100 is the same as that in the first embodiment.

以上のように、この実施の形態によれば、ユーザは、無人機や外部情報源にシミュレータを用いても、実際の運用と同じ操作環境での操作が可能となる。
これにより、複数のユーザによる統合指揮の訓練を、より実際に近い環境、状況ですることができ、訓練の習熟度が向上するという効果を奏する。
As described above, according to this embodiment, even if a user uses a simulator as an unmanned aerial vehicle or an external information source, the user can operate in the same operation environment as the actual operation.
Thereby, integrated command training by a plurality of users can be performed in a more realistic environment and situation, and the effect of improving the skill level of training is achieved.

実施の形態4.
図16は、この実施の形態における指揮支援装置100(指令装置の一例)の機能ブロックの構成の一例を示すブロック構成図である。
Embodiment 4 FIG.
FIG. 16 is a block configuration diagram showing an example of a functional block configuration of the command support device 100 (an example of a command device) in this embodiment.

図16において、指揮支援装置100は、実施の形態1で説明した各部のほか、モード切替部186、記録再生部187を有する。   In FIG. 16, the command support apparatus 100 includes a mode switching unit 186 and a recording / reproducing unit 187 in addition to the units described in the first embodiment.

モード切替部186は、例えば、スイッチやボタンなどにより、ユーザが選択した運用モードを入力し、入力した運用モードを指揮支援装置100の各部に通知することで、運用モードを切り替える。この実施の形態における運用モードには、「記録」モード、「再生」モードがある。
記録再生部187は、無人機エージェントの処理、ユーザの操作、外部情報源の情報を記録し、ユーザの指示に従い、表示装置110上でその情報を再生するための処理を管理する。
The mode switching unit 186 switches the operation mode by inputting the operation mode selected by the user using, for example, a switch or a button, and notifying each unit of the command support apparatus 100 of the input operation mode. The operation mode in this embodiment includes a “recording” mode and a “reproduction” mode.
The recording / reproducing unit 187 records the process of the drone agent, the user's operation, and the information of the external information source, and manages the process for reproducing the information on the display device 110 according to the user's instruction.

図17は、この実施の形態における表示情報管理部120の詳細の一例を示す詳細ブロック図である。
表示情報管理部120は、実行指令表示部129(運用履歴表示部)を有する。
実行指令表示部129は、「再生」モードにおいて、記録再生部187が記録した実行指令履歴を、表示装置110を用いて表示する。
「再生」モードにおいて、位置情報表示部123、収集情報表示部124、区域情報表示部122も、運用履歴表示部として動作する。
表示情報管理部120は、このほか、地形情報表示部121、実行指令入力部125、表示指令入力部126も有しているが、実施の形態1で図3を用いて説明したものと共通なので、ここでは記載を省略してある。
FIG. 17 is a detailed block diagram showing an example of details of the display information management unit 120 in this embodiment.
The display information management unit 120 includes an execution command display unit 129 (operation history display unit).
The execution command display unit 129 displays the execution command history recorded by the recording / playback unit 187 using the display device 110 in the “playback” mode.
In the “reproduction” mode, the position information display unit 123, the collected information display unit 124, and the area information display unit 122 also operate as an operation history display unit.
In addition to this, the display information management unit 120 also has a terrain information display unit 121, an execution command input unit 125, and a display command input unit 126, but is the same as that described with reference to FIG. The description is omitted here.

図18は、この実施の形態における、記録データを保存する時の画面の一例を示す図である。
図19は、この実施の形態における、記録データを再生する時のデータ選択を行う画面の一例を示す図である。
FIG. 18 is a diagram showing an example of a screen when recording data is stored in this embodiment.
FIG. 19 is a diagram showing an example of a screen for selecting data when reproducing recorded data in this embodiment.

図18の記録データ保存画面W41は、記録後に記録したデータを保存するために、表示装置110に表示される。
図19の再生データ選択画面W42は、再生開始時に、再生データを一覧から選択し、再生開始を指示するために表示装置110に表示される。再生データ一覧表示画面W43は、記録再生部187内に保存し、再生可能なデータ一覧を表示し、ユーザに再生するデータを選択させるために表示装置110に表示される。
18 is displayed on the display device 110 in order to save data recorded after recording.
The reproduction data selection screen W42 in FIG. 19 is displayed on the display device 110 to select reproduction data from the list at the start of reproduction and to instruct the start of reproduction. The reproduction data list display screen W43 is stored in the recording / reproducing unit 187, is displayed on the display device 110 to display a list of reproducible data and allow the user to select data to be reproduced.

実施の形態3と同様に、指揮支援装置100には、モード切替部186を設ける。
モード切替部186は、「実機」と「模擬」の他に、「記録」と「再生」を追加し、記録再生処理のモード切替を可能とする。
例えば、表示装置110の枠(フレーム)に、「実機」ボタンと「模擬」ボタンの他に、「記録」と「再生」というボタンを設け、指揮支援装置100を運用する前に、ユーザによりどちらかのボタンを押すこととする。
Similar to the third embodiment, the command support apparatus 100 is provided with a mode switching unit 186.
The mode switching unit 186 adds “record” and “reproduction” in addition to “real machine” and “simulation”, and enables mode switching of the recording / reproduction process.
For example, in addition to a “real machine” button and a “simulation” button, buttons “record” and “play” are provided on the frame of the display device 110, and before the command support device 100 is operated, Press any button.

モード切替部186は、実施の形態3と同様に、ユーザの操作に応じて運用モード情報を表示情報管理部120、無人機管理部130、外部情報管理部140、データベース150、無人機通信部170、記録再生部187に送信する。   As in the third embodiment, the mode switching unit 186 displays the operation mode information in accordance with a user operation, the display information management unit 120, the drone management unit 130, the external information management unit 140, the database 150, and the drone communication unit 170. Then, the data is transmitted to the recording / reproducing unit 187.

「記録」ボタンも「再生」ボタンも押されていない場合、モード切替部186は、通常モードを入力し、各部に通知する。通常モードの通知を受けた各部の動作は、実施の形態1で説明したものと同様である。   When neither the “record” button nor the “playback” button is pressed, the mode switching unit 186 inputs the normal mode and notifies each unit. The operation of each unit that receives the notification of the normal mode is the same as that described in the first embodiment.

「記録」ボタンが押された場合、モード切替部186から「記録開始」の運用モード情報が送信される。
無人機管理部130及び外部情報管理部140は、この時点からデータベース150に送信する情報と同じ情報を記録再生部187にも送信する。
記録再生部187は、無人機管理部130及び外部情報管理部140から受信した情報を記録データとして内部に保存する。
記録中、ユーザは実施の形態1と同様の処理を行うことが可能である。
When the “record” button is pressed, the operation mode information “recording start” is transmitted from the mode switching unit 186.
The drone management unit 130 and the external information management unit 140 transmit the same information as the information transmitted to the database 150 from this point to the recording / reproducing unit 187 as well.
The recording / playback unit 187 stores the information received from the drone management unit 130 and the external information management unit 140 as recording data.
During recording, the user can perform the same processing as in the first embodiment.

ユーザが「記録」モードを終了するときには、再度「記録」ボタンを押す。
これにより、モード切替部186は、「記録終了」の運用モード情報を他の機能に送信する。
「記録終了」の運用モード情報を受け取った無人機管理部130及び外部情報管理部140は、記録再生部187への情報送信を停止する。
表示情報管理部120は、記録データ保存画面W41を表示装置110に表示させる。
When the user ends the “record” mode, the user presses the “record” button again.
Thereby, the mode switching unit 186 transmits the operation mode information of “recording end” to another function.
The drone management unit 130 and the external information management unit 140 that have received the operation mode information of “end recording” stop transmitting information to the recording / playback unit 187.
The display information management unit 120 causes the display device 110 to display a recording data storage screen W41.

ユーザが記録したデータを保存するときには、記録データ保存画面W41にデータ名を入力する。このときユーザは保存名のところを選択すると、入力用キーボードW27が表示装置110内に表示される。
ユーザは任意のデータ名を入力後、記録データ保存画面W41の「保存」を選択することで、表示情報管理部120を介して保存命令とデータ名が記録再生部187に送信され、記録再生部187内に保存される。
ユーザが「取消」を選択すると、表示情報管理部120を介してデータ破棄の命令が記録再生部187に送信され、記録再生部187内に一時保存していたデータを破棄する。
When saving the data recorded by the user, the data name is input to the recording data saving screen W41. At this time, when the user selects the stored name, the input keyboard W27 is displayed in the display device 110.
After the user inputs an arbitrary data name, the user selects “save” on the record data save screen W41 to transmit the save command and the data name to the record / playback unit 187 via the display information management unit 120. Stored in 187.
When the user selects “Cancel”, a data discard command is transmitted to the recording / playback unit 187 via the display information management unit 120, and the data temporarily stored in the recording / playback unit 187 is discarded.

「再生」ボタンが押された場合、表示装置110上に再生データ選択画面W42が表示される。
ユーザは、再生データ選択画面W42内の「一覧」を選択する。
このとき、表示情報管理部120は、記録再生部187から、再生可能なデータ名一覧を取得し、再生データ一覧表示画面W43を生成し、表示させる。
ユーザは、再生データ一覧表示画面W43から、再生データを選択する。
When the “reproduction” button is pressed, a reproduction data selection screen W42 is displayed on the display device 110.
The user selects “list” in the reproduction data selection screen W42.
At this time, the display information management unit 120 acquires a list of reproducible data names from the recording / playback unit 187, and generates and displays a playback data list display screen W43.
The user selects reproduction data from the reproduction data list display screen W43.

ユーザが再生データ一覧表示画面W43のデータ名一覧から再生したいデータを選択し、「決定」を押すことで、再生データ選択画面W42に選択したデータ名が表示される。
ユーザは、そのデータを再生するときには「実行」を選択する。
「実行」選択後、表示情報管理部120から再生開始命令がモード切替部186に、再生データ名が記録再生部187に送信される。
モード切替部186は、指揮支援装置100内の各部に「再生開始」の運用モード情報を送信する。
When the user selects data to be reproduced from the data name list on the reproduction data list display screen W43 and presses “OK”, the selected data name is displayed on the reproduction data selection screen W42.
The user selects “execute” when reproducing the data.
After selecting “execute”, the display information management unit 120 transmits a playback start command to the mode switching unit 186 and a playback data name to the recording / playback unit 187.
The mode switching unit 186 transmits “reproduction start” operation mode information to each unit in the command support apparatus 100.

「再生開始」の運用モード情報を受け取った各部は、現在の処理から再生処理に切り替える。
その後、記録再生部187は、再生データを無人機管理部130及び外部情報管理部140に送信を開始する。
無人機管理部130及び外部情報管理部140は、受け取ったデータをもとに表示要求を表示情報管理部120に送信する。
その情報をもとに、表示情報管理部120は、表示装置110にデータを表示させる。
Each unit that has received the “reproduction start” operation mode information switches from the current process to the reproduction process.
Thereafter, the recording / reproducing unit 187 starts transmission of the reproduced data to the drone management unit 130 and the external information management unit 140.
The drone management unit 130 and the external information management unit 140 transmit a display request to the display information management unit 120 based on the received data.
Based on the information, the display information management unit 120 displays data on the display device 110.

「再生」モードにおいて、外部情報管理部140は、外部情報源300から外部情報(区域情報)を取得するのではなく、記録再生部187から外部情報(区域情報履歴)を取得する。取得した外部情報は、通常モードの場合と同様に、区域情報表示部122に通知する。
区域情報表示部122は、外部情報管理部140から通知される外部情報が区域情報履歴であることにより、運用履歴表示部として動作するが、実際の処理内容は、通常モードの場合と同じである。
In the “reproduction” mode, the external information management unit 140 acquires external information (zone information history) from the recording / playback unit 187 instead of acquiring external information (zone information) from the external information source 300. The acquired external information is notified to the area information display unit 122 as in the normal mode.
The area information display unit 122 operates as an operation history display unit when the external information notified from the external information management unit 140 is the area information history, but the actual processing content is the same as in the normal mode. .

「再生」モードにおいて、無人機管理部130は、無人機通信部170ではなく、記録再生部187から位置情報・収集情報(実行装置情報履歴)を取得する。取得した位置情報(位置情報履歴)は、位置情報表示部123に通知する。また、取得した収集情報(収集情報履歴)は、収集情報表示部124に通知する。
位置情報表示部123・収集情報表示部124は、無人機管理部130から通知される位置情報・収集情報が、位置情報履歴・収集情報履歴であることにより、運用履歴表示部として動作するが、実際の処理内容は、通常モードの場合と同じである。
In the “reproduction” mode, the drone management unit 130 acquires position information / collection information (execution device information history) from the recording / reproduction unit 187 instead of the drone communication unit 170. The acquired position information (position information history) is notified to the position information display unit 123. Further, the collected information (collected information history) is notified to the collected information display unit 124.
The position information display unit 123 and the collection information display unit 124 operate as an operation history display unit when the position information and collection information notified from the drone management unit 130 are the position information history and the collection information history. The actual processing content is the same as in the normal mode.

「再生」モードにおいて、実行指令入力部125は、処理を行わない。したがって、無人機管理部130は、無人機通信部170に対しても記録再生部187に対しても、実行指令の通知はしない。   In the “reproduction” mode, the execution command input unit 125 does not perform processing. Therefore, the drone management unit 130 does not notify the execution command to the drone communication unit 170 or the recording / playback unit 187.

再生終了後、記録再生部187から「再生終了」の運用モード情報が、モード切替部186に送信される。
「再生終了」を受け取ったモード切替部186は、各部に「再生終了」を送信する。
「再生終了」を受け取った各部は、再生モードを終了し、通常の実機運用に内部の処理を切り替える。
After the playback is completed, the operation mode information “end of playback” is transmitted from the recording / playback unit 187 to the mode switching unit 186.
The mode switching unit 186 that has received “end of reproduction” transmits “end of reproduction” to each unit.
Each unit that has received “end of playback” ends the playback mode and switches the internal processing to normal actual machine operation.

以上のように、この実施の形態によれば、記録再生部187を付加することで、現在の運用を同装置で記録し、再生することが可能になる。
これにより、複数のユーザにより、無人機の運用をその場で評価することが可能になると共に、作戦立案の参考情報として有効に活用することが可能になり、無人機の運用に効果的である。
As described above, according to this embodiment, by adding the recording / reproducing unit 187, the current operation can be recorded and reproduced by the same apparatus.
This makes it possible for multiple users to evaluate the operation of the drone on the spot and to effectively use it as reference information for strategy planning, which is effective for the operation of the drone. .

以上説明した実施の形態は、危険地域や紛争地域で活動する一つまたは複数の軍事用無人機(以下、無人機という)を用いる司令部の複数のユーザが、無人機から取得した多数の情報を元に状況判断や現状分析を行い、情報や認識を共有し、その場の意志決定を短時間で複数の無人機に同時に命令することを支援する指揮支援装置に関するものである。   In the embodiment described above, a large number of pieces of information acquired from the drone by a plurality of users of the headquarters using one or a plurality of military drones (hereinafter referred to as drones) operating in a dangerous area or a conflict area. The present invention relates to a command support device that performs situation judgment and status analysis on the basis of information, shares information and recognition, and supports simultaneous ordering of decisions to a plurality of drones in a short time.

ここで説明した指揮支援装置は、以下の特徴をもつ。   The command support apparatus described here has the following features.

指揮支援装置は、
一つまたは複数の無人機の活動区域の地形情報、或いは上記無人機の現在位置を示す位置情報を継続して表示し、上記無人機が有する機能の実行を上記無人機に指示する機能実行指示の入力が可能であり、この機能実行指示に基づいて上記無人機が取得する取得情報を表示する表示装置と、
無人機の取得した情報や命令履歴、無人機が展開している地形情報などの全てのデータと、各無人機の基本データや作戦の基本シナリオを保存するデータベースと、
上記表示装置に表示する無人機の情報や地形情報の管理すると共に、上記表示装置から上記機能実行、情報表示の指示を受信し、指定された無人機の情報を取得し、指定された無人機の表示画面を生成し、上記表示装置で指定された無人機の近傍に、生成した画面を表示させることを制御する表示情報管理部と、
表示している個々の無人機との通信、情報管理、機能模擬を無人機エージェントという計算プロセスを生成して管理し、上記表示情報管理部の要求に応じて情報を提供すると共に、無人機の取得した情報やユーザからの命令および実行結果を上記データベースに保存する無人機管理部と、
監視情報や気象情報などの無人機が展開する地域の情報を提供するレーダ装置や人工衛星などの外部情報源からの情報を受信し、表示情報として表示情報管理部に提供する外部情報管理部と、
上記表示装置を介して無人機へ命令することが可能なユーザなのかを、表示装置からの入力によりユーザの認証を行い、その結果を無人機管理部に送信するユーザ認証部と、
上記表示装置で入力された命令を無人機に送信すると共に、周期的に無人機から情報を収集することを実行管理する無人機通信部と、
を備えたことを特徴とする。
The command support device
A function execution instruction that continuously displays topographic information of the active area of one or more drones or position information indicating the current position of the drone and instructs the drone to execute the functions of the drone A display device that displays acquired information acquired by the drone based on the function execution instruction;
A database that stores all data such as information and command history acquired by drones, terrain information developed by drones, basic data of each drone and basic scenario of operations,
Managing unmanned aerial vehicle information and terrain information displayed on the display device, receiving the function execution and information display instructions from the display device, obtaining designated unmanned aircraft information, and designated unmanned aircraft A display information management unit that controls display of the generated screen in the vicinity of the drone specified by the display device,
Communication and information management with individual drones being displayed, information management, and function simulation are managed by generating a calculation process called an unmanned machine agent, providing information according to the request of the display information management unit, An unmanned aerial vehicle management unit that stores the acquired information and user instructions and execution results in the database;
An external information management unit that receives information from an external information source such as a radar device or an artificial satellite that provides information on the area where the unmanned aircraft is deployed, such as monitoring information and weather information, and provides it to the display information management unit as display information; ,
A user authentication unit that authenticates a user by inputting from the display device and transmits the result to the unmanned aircraft management unit, whether the user can instruct the drone via the display device,
An unmanned aerial communication unit that executes and manages the collection of information from the unmanned aerial machine while transmitting the command input by the display device to the drone,
It is provided with.

指揮支援装置は、更に、
上記無人機それぞれに対応する動作を模擬するそれぞれのシミュレータを有し、
上記シミュレータの模擬実行結果が入手可能となる様にしたことを特徴とする。
The command support device
Each simulator that simulates the operation corresponding to each of the above drones,
The simulation execution result of the simulator is made available.

指揮支援装置は、更に、
上記無人機やレーダ装置、気象衛星などの外部情報源をシミュレータに置換えた時に、その情報の管理、命令の送信、上記シミュレータの情報取得などを行う模擬情報管理部を付加し、実際の無人機の運用と、シミュレータによる模擬、訓練を同一装置で実現することを特徴とする。
The command support device
When an external information source such as the above drone, radar device, or meteorological satellite is replaced with a simulator, a simulation information management unit is added to manage the information, send instructions, obtain information from the simulator, etc. And the simulator and simulation and training are realized by the same device.

指揮支援装置は、更に、
上記表示装置上で無人機への命令や情報などの運用状態を記録し、そのデータを再度表示装置上に表示することを管理する記録再生部を付加し、実際の無人機の運用の記録、再生を同一装置で実現する指揮支援装置。
The command support device
Record the operation status such as instructions and information to the drone on the display device, add a recording / playback unit to manage the display of the data on the display device again, record the actual operation of the drone, Command support device that realizes playback with the same device.

これにより、危険地域或いは戦闘地域で活動する一つまたは複数の無人機を、複数ユーザが、無人機から取得した情報により状況判断や現状分析し、情報や認識を共有し、その場の決定を短時間で無人機に命令、支援する指揮支援装置を提供することができる。
複数のユーザは、地形情報や無人機の位置情報、ユーザが指定した無人機の取得情報を例えばタッチパネル方式の大画面表示装置で、同時に見ることが可能であり、無人機の機能管理と無人機との通信により、表示装置を触り、設定事項を入力することで無人機に撮影や移動を命令する。
As a result, one or more unmanned aircraft operating in a dangerous area or a battle area can be analyzed by multiple users based on information obtained from the unmanned aircraft, analyzed for the current situation, shared information and recognition, and decided on the spot. It is possible to provide a command support device that commands and supports a drone in a short time.
Multiple users can view terrain information, unmanned aircraft location information, and unmanned aircraft acquisition information specified by the user simultaneously on, for example, a touch panel type large screen display device. By touching the display device and touching the display device and inputting the setting items, the drone is instructed to shoot or move.

実施の形態1における指揮支援装置100のハードウェア構成の一例を示すハードウェア構成図。FIG. 3 is a hardware configuration diagram illustrating an example of a hardware configuration of the command support apparatus 100 according to the first embodiment. 実施の形態1における指揮支援装置100の機能ブロックの構成の一例を示すブロック構成図。FIG. 3 is a block configuration diagram illustrating an example of a functional block configuration of the command support apparatus 100 according to the first embodiment. 実施の形態1における表示情報管理部120の詳細の一例を示す詳細ブロック図。FIG. 3 is a detailed block diagram illustrating an example of details of a display information management unit 120 in the first embodiment. 実施の形態1における指揮支援装置100の運用時の様子の一例を示す図。FIG. 3 is a diagram illustrating an example of a state during operation of the command support apparatus 100 according to the first embodiment. 実施の形態1における指揮支援装置100を用いた指令方法の処理(実行装置情報受信処理)の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of the process (execution apparatus information reception process) of the instruction | command method using the command assistance apparatus 100 in Embodiment 1. FIG. 実施の形態1における指揮支援装置100を用いた指令方法の処理(表示入力処理)の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the process (display input process) of the instruction | command method using the command assistance apparatus 100 in Embodiment 1. FIG. 実施の形態1において、指揮支援装置100を用いて指揮を行なう時の操作の流れの一例を示すフローチャート図。FIG. 3 is a flowchart showing an example of a flow of operations when conducting a command using the command support apparatus 100 in the first embodiment. 実施の形態1において、1機の航空無人機を想定した無人機200に関して表示装置110上に表示される画面の一例を示す図。In Embodiment 1, it is a figure which shows an example of the screen displayed on the display apparatus 110 regarding the unmanned aircraft 200 which assumed one aircraft unmanned aircraft. 実施の形態1において、表示装置110上に表示されるユーザ認証画面の一例を示す図。FIG. 6 shows an example of a user authentication screen displayed on the display device 110 in the first embodiment. 実施の形態2における指揮支援装置100(指令装置の一例)の機能ブロックの構成の一例を示す図。The figure which shows an example of a structure of the functional block of the command assistance apparatus 100 in Embodiment 2 (an example of a command apparatus). 実施の形態2における表示情報管理部120の詳細の一例を示す詳細ブロック図。FIG. 4 is a detailed block diagram illustrating an example of details of a display information management unit 120 according to Embodiment 2. 実施の形態2において、指揮支援装置100を用いて指揮を行なう時の操作の流れ(抜粋)の一例を示すフローチャート図。The flowchart figure which shows an example of the flow (extract) of operation when conducting command using the command assistance apparatus 100 in Embodiment 2. 実施の形態2における、表示画面(抜粋)の一例を示す図。FIG. 6 shows an example of a display screen (extract) in Embodiment 2. 実施の形態3における指揮支援装置100の機能ブロックの構成の一例を示す図。FIG. 10 is a diagram illustrating an example of a functional block configuration of a command support apparatus 100 according to Embodiment 3. 実施の形態3における表示情報管理部120の詳細の一例を示す詳細ブロック図。FIG. 10 is a detailed block diagram illustrating an example of details of a display information management unit 120 in the third embodiment. 実施の形態4における指揮支援装置100(指令装置の一例)の機能ブロックの構成の一例を示すブロック構成図。The block block diagram which shows an example of a structure of the functional block of the command assistance apparatus 100 (an example of an instruction | command apparatus) in Embodiment 4. FIG. 実施の形態4における表示情報管理部120の詳細の一例を示す詳細ブロック図。FIG. 10 is a detailed block diagram illustrating an example of details of a display information management unit 120 in a fourth embodiment. 実施の形態4における、記録データを保存する時の画面の一例を示す図。FIG. 20 is a diagram illustrating an example of a screen when recording data is stored in the fourth embodiment. 実施の形態4における、記録データを再生する時のデータ選択を行う画面の一例を示す図。FIG. 20 is a diagram showing an example of a screen for performing data selection when reproducing recorded data in the fourth embodiment. 従来例のシステム構成図。The system block diagram of a prior art example.

符号の説明Explanation of symbols

100 指揮支援装置、110 表示装置、120 表示情報管理部、121 地形情報表示部、122 区域情報表示部、123 位置情報表示部、124 収集情報表示部、125 実行指令入力部、126 表示指令入力部、127 模擬実行指令入力部、128 模擬実行結果表示部、129 実行指令表示部、130 無人機管理部、131 無人機エージェント、140 外部情報管理部、150 データベース、160 ユーザ認証部、170 無人機通信部、180 外部模擬管理部、185 模擬情報管理部、186 モード切替部、187 記録再生部、190,195a〜195c,196 シミュレータ、200,200a〜200c 無人機、300 外部情報源、401a〜402c アイコン、801〜804 ユーザ、W19 画像表示画面、W20 無人機状況表示画面、W21 選択画面、W22 撮影画像選択画面、W23 機能実行選択画面、W24 撮影設定画面、W25 倍率選択画面、W26 移動設定画面、W27 入力用キーボード、W28 攻撃設定画面、W29 武器選択画面、W30 ユーザ認証画面、W33 選択画面、W34 シミュレーション設定画面、W35 シミュレーション結果表示画面、W41 記録データ保存画面、W42 再生データ選択画面、W43 再生データ一覧表示画面。   DESCRIPTION OF SYMBOLS 100 Command assistance apparatus, 110 Display apparatus, 120 Display information management part, 121 Topographic information display part, 122 Area information display part, 123 Position information display part, 124 Collected information display part, 125 Execution command input part, 126 Display command input part 127 simulation execution command input unit, 128 simulation execution result display unit, 129 execution command display unit, 130 unmanned aircraft management unit, 131 unmanned aircraft agent, 140 external information management unit, 150 database, 160 user authentication unit, 170 unmanned aircraft communication , 180 external simulation management unit, 185 simulation information management unit, 186 mode switching unit, 187 recording / playback unit, 190, 195a to 195c, 196 simulator, 200, 200a to 200c drone, 300 external information source, 401a to 402c icon 801-804 users, W19 Image display screen, W20 drone status display screen, W21 selection screen, W22 shot image selection screen, W23 function execution selection screen, W24 shooting setting screen, W25 magnification selection screen, W26 movement setting screen, W27 input keyboard, W28 attack setting Screen, W29 weapon selection screen, W30 user authentication screen, W33 selection screen, W34 simulation setting screen, W35 simulation result display screen, W41 record data storage screen, W42 playback data selection screen, W43 playback data list display screen.

Claims (11)

実行装置と通信する通信装置と、
地図を表示する表示画面を備え、上記表示画面の任意の位置を指示した場合に、指示した位置を検出する表示入力装置と、
上記表示入力装置を用いて、上記実行装置の活動区域の地形情報を、活動区域地図として、上記表示画面に表示する地形情報表示部と、
上記表示入力装置を用いて、上記実行装置の現在位置についての情報に基づいて、上記地形情報表示部が表示した活動区域地図に重ねて、上記実行装置を示す図形を、上記表示画面に表示する位置情報表示部と、
上記表示入力装置を用いて、上記地形情報表示部が表示した活動区域地図に重ねて、上記実行装置が収集した情報を、上記表示画面に表示する収集情報表示部と、
上記表示入力装置を用いて、上記実行装置に対して機能の実行を指令する実行指令を入力する実行指令入力部と、
上記通信装置を用いて、上記実行指令入力部が入力した実行装置に対する実行指令を、上記実行装置に対して通知する実行指令通知部と、
上記通信装置を用いて、上記実行装置が通知する上記実行装置の現在位置についての情報及び上記実行装置が収集した情報を取得する実行装置情報取得部と、
を有することを特徴とする指令装置。
A communication device that communicates with the execution device;
A display input device that includes a display screen for displaying a map, and detects an indicated position when an arbitrary position on the display screen is indicated;
Using the display input device, the terrain information display unit for displaying the terrain information of the active area of the execution device as an active area map on the display screen;
Using the display input device, based on the information about the current position of the execution device, a graphic indicating the execution device is displayed on the display screen, superimposed on the activity area map displayed by the topographic information display unit. A position information display section;
Using the display input device, a collection information display unit that displays the information collected by the execution device on the display screen, overlaid on the activity area map displayed by the terrain information display unit,
Using the display input device, an execution command input unit that inputs an execution command for commanding the execution device to execute a function;
Using the communication device, an execution command notification unit for notifying the execution device of an execution command for the execution device input by the execution command input unit;
Using the communication device, an execution device information acquisition unit for acquiring information about the current position of the execution device notified by the execution device and information collected by the execution device;
A command device characterized by comprising:
上記実行指令入力部は、
上記位置情報表示部が上記表示画面に実行装置を示す図形を表示した位置を指示したことを、上記表示入力装置が検出した場合に、
上記表示入力装置を用いて、上記実行装置に対して指令できる実行指令を、実行指令候補として、上記実行装置を示す図形を表示した位置の近傍に表示し、
上記実行指令候補を表示した位置を指示したことを、上記表示入力装置が検出した場合に、
上記実行指令候補を、上記実行装置に対する実行指令として、入力する
ことを特徴とする請求項1に記載の指令装置。
The execution command input unit is
When the display input device detects that the position information display unit indicates the position where the graphic indicating the execution device is displayed on the display screen,
Using the display input device, an execution command that can be commanded to the execution device is displayed as an execution command candidate in the vicinity of the position where the graphic indicating the execution device is displayed,
When the display input device detects that the position where the execution command candidate is displayed is indicated,
The command device according to claim 1, wherein the execution command candidate is input as an execution command for the execution device.
上記実行指令入力部は、
複数の実行装置のうちのいずれかの実行装置に対する実行指令と、上記複数の実行装置のうちの他のいずれかの実行装置に対する実行指令とを、同時並行して入力できる
ことを特徴とする請求項1に記載の指令装置。
The execution command input unit is
The execution command for any execution device of the plurality of execution devices and the execution command for any other execution device of the plurality of execution devices can be input in parallel. The command device according to 1.
上記指令装置は、更に、
情報を記憶する記憶装置と、
上記記憶装置を用いて、上記実行装置情報取得部が取得した上記実行装置が収集した情報を記憶する実行装置情報記憶部と、
上記記憶装置を用いて、上記実行装置情報取得部が取得した上記実行装置の現在位置についての情報を記憶する位置情報記憶部と、
上記記憶装置を用いて、上記実行装置の活動区域の地形情報を記憶する地形情報記憶部と、
を有することを特徴とする請求項1に記載の指令装置。
The command device further includes:
A storage device for storing information;
An execution device information storage unit that stores information collected by the execution device acquired by the execution device information acquisition unit using the storage device;
Using the storage device, a position information storage unit that stores information about the current position of the execution device acquired by the execution device information acquisition unit;
Using the storage device, a terrain information storage unit that stores terrain information of the activity area of the execution device;
The command device according to claim 1, comprising:
上記指令装置は、更に、
上記表示入力装置を用いて、上記実行装置が収集した情報の表示を指令する情報表示指令を入力する表示指令入力部を有し、
上記収集情報表示部は、
上記表示指令入力部が情報表示指令を入力した場合に、上記実行装置が収集した情報を表示する
ことを特徴とする請求項1に記載の指令装置。
The command device further includes:
A display command input unit for inputting an information display command for commanding display of information collected by the execution device, using the display input device;
The collected information display section
The command device according to claim 1, wherein when the display command input unit inputs an information display command, the information collected by the execution device is displayed.
上記指令装置は、更に、
上記実行装置の活動区域についての情報を取得する区域情報取得部と、
上記表示入力装置を用いて、上記地形情報表示部が表示した活動区域地図に重ねて、上記区域情報取得部が取得した上記実行装置の活動区域についての情報を上記表示画面に表示する区域情報表示部と、
を有することを特徴とする請求項1に記載の指令装置。
The command device further includes:
An area information acquisition unit for acquiring information about the active area of the execution device;
Using the display input device, an area information display for displaying information about the active area of the execution device acquired by the area information acquisition unit on the display screen, overlaid on the active area map displayed by the topographic information display unit And
The command device according to claim 1, comprising:
上記指令装置は、更に、
上記表示入力装置を用いて、上記実行指令入力部が実行装置に対する実行指令を入力した場合に、上記実行指令を入力した利用者を認証する利用者認証部を有し、
上記実行指令通知部は、
上記利用者認証部が利用者を認証し、成功した場合に、上記実行指令入力部が入力した実行指令を上記実行装置に対して通知する
ことを特徴とする請求項1に記載の指令装置。
The command device further includes:
Using the display input device, when the execution command input unit inputs an execution command for the execution device, a user authentication unit that authenticates a user who has input the execution command,
The execution command notification unit
The command device according to claim 1, wherein when the user authentication unit authenticates the user and succeeds, the execution command input by the execution command input unit is notified to the execution device.
上記指令装置は、更に、
実行装置に対する実行指令を上記実行装置が実行した結果を予測して、模擬実行結果とする模擬実行結果予測部と、
上記表示入力装置を用いて、上記模擬実行結果予測部に模擬実行結果を予測させる実行指令を、模擬実行指令として入力する模擬実行指令入力部と、
上記表示入力装置を用いて、上記模擬実行結果予測部が予測した模擬実行結果を、上記表示画面に表示する模擬実行結果表示部と、
を有することを特徴とする請求項1に記載の指令装置。
The command device further includes:
A simulation execution result prediction unit that predicts a result of execution of the execution command for the execution device by the execution device and sets it as a simulation execution result;
Using the display input device, a simulation execution command input unit that inputs, as a simulation execution command, an execution command that causes the simulation execution result prediction unit to predict a simulation execution result;
Using the display input device, a simulation execution result display unit that displays the simulation execution result predicted by the simulation execution result prediction unit on the display screen;
The command device according to claim 1, comprising:
上記指令装置は、更に、
上記実行装置の活動区域についての情報を、所定の仮定条件に基づいて生成し、模擬区域情報とする模擬区域情報生成部と、
上記表示入力装置を用いて、上記地形情報表示部が表示した活動区域地図に重ねて、上記模擬区域情報生成部が生成した模擬区域情報を、上記表示画面に表示する模擬区域情報表示部と、
を有し、上記模擬実行結果予測部は、
上記模擬区域情報生成部が生成した模擬区域情報に基づいて、上記模擬実行結果を予測する
ことを特徴とする請求項8に記載の指令装置。
The command device further includes:
A simulated area information generation unit that generates information on the active area of the execution device based on a predetermined assumption and sets it as simulated area information;
Using the display input device, a simulated area information display unit that displays the simulated area information generated by the simulated area information generation unit on the display screen, overlaid on the active area map displayed by the topographic information display unit,
The simulation execution result prediction unit
The command device according to claim 8, wherein the simulation execution result is predicted based on the simulated area information generated by the simulated area information generation unit.
上記指令装置は、更に、
情報を記憶する記憶装置と、
上記記憶装置を用いて、上記実行指令入力部が入力した上記実行装置に対する実行指令の履歴を、実行指令履歴として記憶する実行指令履歴記憶部と、
上記記憶装置を用いて、上記実行装置情報取得部が取得した上記実行装置が収集した情報の履歴を、実行装置情報履歴として記憶する実行装置情報履歴記憶部と、
上記記憶装置を用いて、上記実行装置情報取得部が取得した上記実行装置の現在位置についての情報の履歴を、位置情報履歴として記憶する位置情報履歴記憶部と、
上記実行指令履歴記憶部が記憶した実行指令履歴及び上記実行装置情報履歴記憶部が記憶した実行装置情報履歴及び上記位置情報履歴記憶部が記憶した位置情報履歴に基づいて、上記実行装置の運用を再現し、上記表示入力装置を用いて、再現した上記実行装置の運用を表示する運用履歴表示部と、
を有することを特徴とする請求項1に記載の指令装置。
The command device further includes:
A storage device for storing information;
Using the storage device, an execution command history storage unit that stores, as an execution command history, a history of execution commands for the execution device input by the execution command input unit;
An execution device information history storage unit that stores, as the execution device information history, a history of information collected by the execution device acquired by the execution device information acquisition unit using the storage device;
A location information history storage unit that stores, as the location information history, a history of information about the current location of the execution device acquired by the execution device information acquisition unit using the storage device;
Based on the execution command history stored in the execution command history storage unit, the execution device information history stored in the execution device information history storage unit, and the location information history stored in the location information history storage unit, the operation of the execution device is performed. An operation history display unit that reproduces and displays the operation of the execution device reproduced using the display input device,
The command device according to claim 1, comprising:
地図を表示する表示画面を備え、上記表示画面の任意の位置を指示した場合に、指示した位置を検出する表示入力装置を用いて、地形情報表示部が、実行装置の活動区域の地形情報を、活動区域地図として、上記表示画面に表示する地形情報表示工程と、
上記表示入力装置を用いて、位置情報表示部が、上記実行装置の現在位置についての情報に基づいて、上記地形情報表示工程において地形情報表示部が表示した活動区域地図に重ねて、上記実行装置を示す図形を、上記表示画面に表示する位置情報表示工程と、
上記表示入力装置を用いて、収集情報表示部が、上記地形情報表示工程において地形情報表示部が表示した活動区域地図に重ねて、上記実行装置が収集した情報を、上記表示画面に表示する収集情報表示工程と、
上記表示入力装置を用いて、実行指令入力部が、上記実行装置に対して機能の実行を指令する実行指令を入力する実行指令入力工程と、
上記実行装置と通信する通信装置を用いて、実行指令通知部が、上記実行指令入力工程において実行指令入力部が入力した実行装置に対する実行指令を、上記実行装置に対して通知する実行指令通知工程と、
上記通信装置を用いて、実行装置情報取得部が、上記実行装置が通知する上記実行装置の現在位置についての情報及び上記実行装置が収集した情報を取得する実行装置情報取得工程と、
を有することを特徴とする指令方法。
A display screen is provided for displaying a map, and when an arbitrary position on the display screen is indicated, the terrain information display unit uses the display input device that detects the indicated position to display the terrain information of the active area of the execution device. The terrain information display process to be displayed on the display screen as an activity area map,
Using the display input device, the position information display unit overlaps the activity area map displayed by the terrain information display unit in the terrain information display step based on the information about the current position of the execution device, and executes the execution device. A position information display step for displaying a graphic indicating the above on the display screen;
Using the display input device, the collection information display unit displays the information collected by the execution device on the display screen so as to overlap the activity area map displayed by the terrain information display unit in the terrain information display step. An information display process;
Using the display input device, the execution command input unit inputs an execution command for commanding the execution device to execute a function; and
Using the communication device that communicates with the execution device, the execution command notification unit notifies the execution device of an execution command for the execution device input by the execution command input unit in the execution command input step. When,
Using the communication device, the execution device information acquisition unit acquires the information about the current position of the execution device notified by the execution device and the information collected by the execution device; and
A command method characterized by comprising:
JP2005279955A 2005-09-27 2005-09-27 Command device and command method Pending JP2007093045A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005279955A JP2007093045A (en) 2005-09-27 2005-09-27 Command device and command method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005279955A JP2007093045A (en) 2005-09-27 2005-09-27 Command device and command method

Publications (1)

Publication Number Publication Date
JP2007093045A true JP2007093045A (en) 2007-04-12

Family

ID=37978978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005279955A Pending JP2007093045A (en) 2005-09-27 2005-09-27 Command device and command method

Country Status (1)

Country Link
JP (1) JP2007093045A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049051A (en) * 2008-08-22 2010-03-04 Mitsubishi Heavy Ind Ltd Simulation system
JP2011189929A (en) * 2010-03-11 2011-09-29 Parrot Method and equipment for remote control of unmanned aircraft, particularly, rotary-wing unmanned aircraft
KR101236195B1 (en) 2012-07-24 2013-02-26 대한민국 Uav training simulator and the real-time simulation method and system for interworking
JP2013527529A (en) * 2010-05-14 2013-06-27 ザ・ボーイング・カンパニー Real-time mission planning
WO2014083993A1 (en) * 2012-11-29 2014-06-05 三菱重工業株式会社 Aircraft control device, aircraft, and method for controlling aircraft
JP2014177162A (en) * 2013-03-14 2014-09-25 Secom Co Ltd Photographing system
JP2016535905A (en) * 2013-08-30 2016-11-17 インサイチュ・インコーポレイテッド・(ア・サブシディアリー・オブ・ザ・ボーイング・カンパニー) System and method for fuel monitoring
JP2017502397A (en) * 2014-09-30 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight mission processing method, apparatus and system
JP2017509919A (en) * 2014-09-30 2017-04-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method for operating unmanned aerial vehicle and unmanned aerial vehicle
JP6180594B1 (en) * 2016-07-01 2017-08-16 東芝電波プロダクツ株式会社 Training information acquisition system
JP2018008574A (en) * 2016-07-12 2018-01-18 株式会社自律制御システム研究所 Display device, search system, display method, and program
WO2018010291A1 (en) * 2016-07-15 2018-01-18 深圳曼塔智能科技有限公司 Method and apparatus for controlling flight of aircraft
KR20180012876A (en) * 2015-06-25 2018-02-06 인텔 코포레이션 Personal Sensory Drones
US10086954B2 (en) 2014-10-27 2018-10-02 SZ DJI Technology Co., Ltd. UAV flight display
US10134298B2 (en) 2014-09-30 2018-11-20 SZ DJI Technology Co., Ltd. System and method for supporting simulated movement
US20200325725A1 (en) * 2016-06-22 2020-10-15 Iveco Magirus Ag Positioning system and method for determining an operating position of an aerial device
WO2021015201A1 (en) * 2019-07-25 2021-01-28 株式会社プロドローン Remote piloting system and piloting device therefor
JP2021179939A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof
JP2023155221A (en) * 2022-04-08 2023-10-20 株式会社大正スカイビル Management system of unmanned mobile service device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052261A (en) * 1999-08-06 2001-02-23 Toshiba Corp Target display system
JP2003121190A (en) * 2001-10-10 2003-04-23 Mitsubishi Heavy Ind Ltd Action support system and apparatus thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052261A (en) * 1999-08-06 2001-02-23 Toshiba Corp Target display system
JP2003121190A (en) * 2001-10-10 2003-04-23 Mitsubishi Heavy Ind Ltd Action support system and apparatus thereof

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049051A (en) * 2008-08-22 2010-03-04 Mitsubishi Heavy Ind Ltd Simulation system
JP2011189929A (en) * 2010-03-11 2011-09-29 Parrot Method and equipment for remote control of unmanned aircraft, particularly, rotary-wing unmanned aircraft
JP2013527529A (en) * 2010-05-14 2013-06-27 ザ・ボーイング・カンパニー Real-time mission planning
US9064222B2 (en) 2010-05-14 2015-06-23 The Boeing Company Real time mission planning
KR101236195B1 (en) 2012-07-24 2013-02-26 대한민국 Uav training simulator and the real-time simulation method and system for interworking
WO2014083993A1 (en) * 2012-11-29 2014-06-05 三菱重工業株式会社 Aircraft control device, aircraft, and method for controlling aircraft
JP2014129996A (en) * 2012-11-29 2014-07-10 Mitsubishi Heavy Ind Ltd Aircraft managing device, aircraft and aircraft managing method
CN104661917A (en) * 2012-11-29 2015-05-27 三菱重工业株式会社 Aircraft control device, aircraft, and method for controlling aircraft
US9383757B2 (en) 2012-11-29 2016-07-05 Mitsubishi Heavy Industries, Ltd. Aircraft control device, aircraft, and method for controlling aircraft
JP2014177162A (en) * 2013-03-14 2014-09-25 Secom Co Ltd Photographing system
JP2016535905A (en) * 2013-08-30 2016-11-17 インサイチュ・インコーポレイテッド・(ア・サブシディアリー・オブ・ザ・ボーイング・カンパニー) System and method for fuel monitoring
JP2017502397A (en) * 2014-09-30 2017-01-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight mission processing method, apparatus and system
JP2017509919A (en) * 2014-09-30 2017-04-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method for operating unmanned aerial vehicle and unmanned aerial vehicle
US11566915B2 (en) 2014-09-30 2023-01-31 SZ DJI Technology Co., Ltd. Method, device and system for processing a flight task
US11276325B2 (en) 2014-09-30 2022-03-15 SZ DJI Technology Co., Ltd. Systems and methods for flight simulation
US11217112B2 (en) 2014-09-30 2022-01-04 SZ DJI Technology Co., Ltd. System and method for supporting simulated movement
US10134299B2 (en) 2014-09-30 2018-11-20 SZ DJI Technology Co., Ltd Systems and methods for flight simulation
US11041737B2 (en) 2014-09-30 2021-06-22 SZ DJI Technology Co., Ltd. Method, device and system for processing a flight task
US10134298B2 (en) 2014-09-30 2018-11-20 SZ DJI Technology Co., Ltd. System and method for supporting simulated movement
US10086954B2 (en) 2014-10-27 2018-10-02 SZ DJI Technology Co., Ltd. UAV flight display
KR20180012876A (en) * 2015-06-25 2018-02-06 인텔 코포레이션 Personal Sensory Drones
JP2018522302A (en) * 2015-06-25 2018-08-09 インテル・コーポレーション Personal sensation drone
US11076134B2 (en) 2015-06-25 2021-07-27 Intel Corporation Personal sensory drones
KR102424180B1 (en) * 2015-06-25 2022-07-25 인텔 코포레이션 personal sensory drone
US20200325725A1 (en) * 2016-06-22 2020-10-15 Iveco Magirus Ag Positioning system and method for determining an operating position of an aerial device
US11933105B2 (en) * 2016-06-22 2024-03-19 Iveco Magirus Ag Positioning system and method for determining an operating position of an aerial device
JP6180594B1 (en) * 2016-07-01 2017-08-16 東芝電波プロダクツ株式会社 Training information acquisition system
JP2018008574A (en) * 2016-07-12 2018-01-18 株式会社自律制御システム研究所 Display device, search system, display method, and program
WO2018010291A1 (en) * 2016-07-15 2018-01-18 深圳曼塔智能科技有限公司 Method and apparatus for controlling flight of aircraft
WO2021015201A1 (en) * 2019-07-25 2021-01-28 株式会社プロドローン Remote piloting system and piloting device therefor
JP2021179939A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof
JP2023155221A (en) * 2022-04-08 2023-10-20 株式会社大正スカイビル Management system of unmanned mobile service device

Similar Documents

Publication Publication Date Title
JP2007093045A (en) Command device and command method
AU2019201447B2 (en) Unmanned vehicle simulation
KR101790592B1 (en) Sightseeing tours augmented reality system using drones and a method thereof
KR102116390B1 (en) Disaster Countermeasures Training method capable to make training scene and system thereof
CN110084992A (en) Ancient buildings fire alarm method, device and storage medium based on unmanned plane
WO2018198281A1 (en) Information processing apparatus, aerial-photographing path generation method, aerial-photographing path generation system, program, and recording medium
CN108701421A (en) The emulating server of the event of course project can be configured by the interaction with computing device
WO2019212035A1 (en) Information display method regarding control of flight vehicle
Nakajima et al. Disaster evacuation guide: Using a massively multiagent server and GPS mobile phones
KR102225116B1 (en) Network Drone Service System and Method
JP6966810B2 (en) Management server and management system, display information generation method, program
JP2006244244A (en) Network system
WO2023040985A1 (en) Method, apparatus, and device for displaying data of unmanned aerial vehicle, and storage medium
JP2009251720A (en) Satellite photographing image display method and satellite photographing image display device
JP2019195169A (en) Information display method regarding control of flight vehicle
JP2024016765A (en) Processing device, processing program and processing method
JP2022067781A (en) Information processing device, information processing method, and storage medium
CN108701426B (en) Method and portable computing device for sending mentor operator station (IOS) filtering information
Toshiyuki et al. An RPG-like campus tour service using remote control robots
JP6786138B1 (en) Aircraft management server and management system
JP6771253B1 (en) Aircraft management server and management system
JP6800505B1 (en) Aircraft management server and management system
CN110383195A (en) Unmanned plane control method and equipment, unmanned plane control device and recording medium
JP6582264B1 (en) Information display method for control of flying object
JP6582265B1 (en) Information display method for control of flying object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110111