JP7082351B2 - Flight control system - Google Patents

Flight control system Download PDF

Info

Publication number
JP7082351B2
JP7082351B2 JP2019219760A JP2019219760A JP7082351B2 JP 7082351 B2 JP7082351 B2 JP 7082351B2 JP 2019219760 A JP2019219760 A JP 2019219760A JP 2019219760 A JP2019219760 A JP 2019219760A JP 7082351 B2 JP7082351 B2 JP 7082351B2
Authority
JP
Japan
Prior art keywords
operation information
unit
unmanned flight
finger
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019219760A
Other languages
Japanese (ja)
Other versions
JP2021089588A (en
Inventor
徳之 遠藤
義博 大和
隆司 岩村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techfirm Inc
Original Assignee
Techfirm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techfirm Inc filed Critical Techfirm Inc
Priority to JP2019219760A priority Critical patent/JP7082351B2/en
Publication of JP2021089588A publication Critical patent/JP2021089588A/en
Application granted granted Critical
Publication of JP7082351B2 publication Critical patent/JP7082351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、無人飛行装置を操作するための操作情報を作成する操作情報作成装置を含む飛行制御システムに関する。 The present invention relates to a flight control system including an operation information creating device for creating operation information for operating an unmanned flight device.

従来、無人飛行装置を操作装置で操作する技術が知られている。特許文献1には、操作装置の三次元の位置の変化に基づいて無人飛行装置を移動させる技術が開示されている。 Conventionally, a technique for operating an unmanned flight device with an operating device is known. Patent Document 1 discloses a technique for moving an unmanned flight device based on a change in the three-dimensional position of the operating device.

特開2019-142290号公報Japanese Unexamined Patent Publication No. 2019-142290

従来の技術では、操作者が操作装置を動かすことによって無人飛行装置を操作する必要があった。操作装置を用いて無人飛行装置を操作する場合、無人飛行装置を移動させることができる範囲が、操作装置の操作可能範囲に制限されてしまう。したがって、操作者が望むように無人飛行装置を動かすことが困難であるという問題が生じていた。 In the conventional technique, it is necessary for the operator to operate the unmanned flight device by moving the operating device. When operating an unmanned flight device using an operating device, the range in which the unmanned flight device can be moved is limited to the operable range of the operating device. Therefore, there has been a problem that it is difficult to move the unmanned flight device as the operator desires.

そこで、本発明はこれらの点に鑑みてなされたものであり、無人飛行装置の操作性を向上させることを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to improve the operability of the unmanned flight apparatus.

本発明の第1の態様の操作情報作成装置は、無人飛行装置の操作をするために用いられる操作情報を作成する操作情報作成装置であって、前記無人飛行装置が飛行中の位置の周辺の状態を示す周辺画像情報を取得する情報取得部と、前記周辺画像情報に基づく周辺画像を表示部に表示させる表示制御部と、前記操作情報作成装置の操作者の指又は手の三次元空間における動きを特定する動き特定部と、前記周辺画像が前記表示部に表示されている間に前記動き特定部が検出した前記指又は手の動きに基づいて、前記無人飛行装置を動作させるための操作情報を作成する操作情報作成部と、を有する。 The operation information creating device of the first aspect of the present invention is an operation information creating device for creating operation information used for operating an unmanned flight device, and is around a position where the unmanned flight device is in flight. In the three-dimensional space of the operator's finger or hand of the operation information creating device, an information acquisition unit that acquires peripheral image information indicating a state, a display control unit that displays a peripheral image based on the peripheral image information on the display unit, and a display unit. An operation for operating the unmanned flight device based on the movement specifying unit for specifying the movement and the movement of the finger or hand detected by the movement specifying unit while the peripheral image is displayed on the display unit. It has an operation information creation unit that creates information.

前記操作情報作成部は、前記指又は手の動きに基づいて前記無人飛行装置を移動させると前記無人飛行装置が許容されない動作をする場合に、前記指又は手の動きに対応する動作と異なる動作を前記無人飛行装置にさせるための前記操作情報を作成してもよい。 When the unmanned flight device is moved based on the movement of the finger or hand and the unmanned flight device performs an unacceptable operation, the operation information creating unit performs an operation different from the operation corresponding to the movement of the finger or hand. The operation information for making the unmanned flight device may be created.

前記操作情報作成部は、前記指又は手の動きに基づいて前記無人飛行装置を移動させると前記無人飛行装置が障害物に衝突すると判定した場合に、前記障害物に衝突しないように前記無人飛行装置を動作させるための前記操作情報を作成してもよい。 When the operation information creating unit determines that the unmanned flight device collides with an obstacle when the unmanned flight device is moved based on the movement of the finger or the hand, the unmanned flight so as not to collide with the obstacle. The operation information for operating the device may be created.

前記操作情報作成部は、前記指又は手の動きに基づいて前記無人飛行装置を移動させると前記無人飛行装置の速度又は加速度が許容されない範囲になる場合に、前記無人飛行装置の速度又は加速度が許容範囲になるように、前記指又は手の動きに対応する動作を補正した動作を前記無人飛行装置にさせるための前記操作情報を作成してもよい。 When the operation information creating unit moves the unmanned flight device based on the movement of the finger or the hand, the speed or acceleration of the unmanned flight device becomes an unacceptable range, and the speed or acceleration of the unmanned flight device is increased. The operation information for causing the unmanned flight device to perform an operation corrected for the operation corresponding to the movement of the finger or the hand so as to be within an allowable range may be created.

前記操作情報作成部は、前記操作者の手の状態が所定の状態になった時点の前記無人飛行装置の位置を起点として、前記動き特定部が検出した前記指又は手の動きに基づいて、前記無人飛行装置を移動させるための前記操作情報を作成してもよい。 The operation information creating unit is based on the movement of the finger or hand detected by the movement specifying unit, starting from the position of the unmanned flight device at the time when the state of the operator's hand is in a predetermined state. The operation information for moving the unmanned flight device may be created.

前記表示制御部は、前記指又は手の動きに基づいて前記周辺画像における位置を変化させる前記無人飛行装置の仮想画像を前記周辺画像に重ねて前記表示部に表示させてもよい。 The display control unit may superimpose the virtual image of the unmanned flight device that changes the position in the peripheral image based on the movement of the finger or the hand on the peripheral image and display it on the display unit.

前記表示制御部は、前記指又は手の動きに対応する軌跡線を前記周辺画像に重ねて前記表示部に表示させてもよい。 The display control unit may display the locus line corresponding to the movement of the finger or the hand on the peripheral image on the display unit.

本発明の第2の態様の飛行制御システムは、無人飛行装置の操作を行うための操作装置と、前記操作装置を介して前記無人飛行装置の操作をするために用いられる操作情報を作成する操作情報作成装置と、を備える。前記操作情報作成装置は、前記無人飛行装置が飛行中の位置の周辺の状態を示す周辺画像情報を取得する情報取得部と、前記周辺画像情報に基づく周辺画像を表示部に表示させる表示制御部と、前記操作情報作成装置の操作者の指又は手の三次元空間における動きを特定する動き特定部と、前記周辺画像が前記表示部に表示されている間に前記動き特定部が検出した前記指又は手の動きに基づいて、前記無人飛行装置を動作させるための操作情報を作成する操作情報作成部と、前記操作情報を前記操作装置に送信する操作情報送信部と、を有し、前記操作装置は、前記操作情報作成装置から前記操作情報を受信する操作情報受信部と、前記操作情報受信部が受信した前記操作情報に基づく、前記無人飛行装置を動作させるための指示データを前記無人飛行装置に送信する指示データ送信部と、を有する。 The flight control system according to the second aspect of the present invention is an operation device for operating the unmanned flight device and an operation for creating operation information used for operating the unmanned flight device via the operation device. It is equipped with an information creation device. The operation information creating device includes an information acquisition unit that acquires peripheral image information indicating a state around the position where the unmanned flight device is in flight, and a display control unit that displays a peripheral image based on the peripheral image information on the display unit. And the motion specifying unit that specifies the movement of the operator's finger or hand in the three-dimensional space of the operation information creating device, and the motion specifying unit that the motion specifying unit detects while the peripheral image is displayed on the display unit. It has an operation information creating unit that creates operation information for operating the unmanned flight device based on the movement of a finger or a hand, and an operation information transmitting unit that transmits the operation information to the operation device. The operation device receives the operation information receiving unit for receiving the operation information from the operation information creating device, and the unmanned operation device for operating the unmanned flight device based on the operation information received by the operation information receiving unit. It has an instruction data transmission unit for transmitting to the flight device.

前記操作装置は、前記操作情報を受信したことを表示部に表示させる表示制御部と、前記操作装置の使用者の操作を受け付ける操作受付部と、をさらに有し、前記指示データ送信部は、前記操作情報に基づいて前記無人飛行装置を動作させることを許可する操作を前記操作受付部が受け付けた場合に、前記操作情報に基づく前記指示データを前記無人飛行装置に送信してもよい。 The operation device further includes a display control unit for displaying on the display unit that the operation information has been received, and an operation reception unit for receiving the operation of the user of the operation device, and the instruction data transmission unit includes the instruction data transmission unit. When the operation receiving unit accepts an operation that permits the unmanned flight apparatus to operate based on the operation information, the instruction data based on the operation information may be transmitted to the unmanned flight apparatus.

本発明によれば、無人飛行装置の操作性が向上するという効果を奏する。 According to the present invention, there is an effect that the operability of the unmanned flight apparatus is improved.

飛行制御システムの概要を示す図である。It is a figure which shows the outline of a flight control system. 操作装置の構成を示す図である。It is a figure which shows the structure of the operation device. 操作情報作成装置の構成を示す図である。It is a figure which shows the structure of the operation information creation apparatus. 表示部に表示される無人飛行装置の周辺の画像を模式的に示す図である。It is a figure which shows typically the image around the unmanned flight apparatus displayed on the display part. 指の動きについて説明するための図である。It is a figure for demonstrating the movement of a finger. 操作者が指を移動させた場合に表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen which is displayed on the display part when an operator moves a finger. 無人飛行装置が障害物を回避する動作を示す図である。It is a figure which shows the operation which an unmanned flight apparatus avoids an obstacle. 操作者の指の速度と無人飛行装置の速度との関係を示す図である。It is a figure which shows the relationship between the speed of a finger of an operator and the speed of an unmanned flight apparatus. 指が細かく振動した場合の指の動きと無人飛行装置の動きを示す図である。It is a figure which shows the movement of a finger and the movement of an unmanned flight device when a finger vibrates finely. 操作者が指を第1の向きと第2の向きとに順次動かした場合の無人飛行装置の動作を示す図である。It is a figure which shows the operation of the unmanned flight apparatus when an operator moves a finger sequentially in a 1st direction and a 2nd direction. 飛行制御システムにおける処理シーケンスを示す図である。It is a figure which shows the processing sequence in a flight control system.

[飛行制御システムSの概要]
図1は、飛行制御システムSの概要を示す図である。飛行制御システムSは、無人飛行装置1を飛行させるためのシステムであり、無人飛行装置1と、操作装置2と、操作情報作成装置3とを備える。
[Overview of flight control system S]
FIG. 1 is a diagram showing an outline of the flight control system S. The flight control system S is a system for flying an unmanned flight device 1, and includes an unmanned flight device 1, an operation device 2, and an operation information creation device 3.

無人飛行装置1は、無人で空中を飛行する装置であり、例えばドローンである。無人飛行装置1は、操作装置2から受信した指示データが示す方向に飛行する。無人飛行装置1はカメラを備えており、飛行中に無人飛行装置1の周辺を撮影することができる。 The unmanned aerial vehicle 1 is an unmanned aerial vehicle that flies in the air, for example, a drone. The unmanned flight device 1 flies in the direction indicated by the instruction data received from the operation device 2. The unmanned flight device 1 is provided with a camera, and can photograph the surroundings of the unmanned flight device 1 during flight.

操作装置2は、無人飛行装置1を操作するためのデバイスであり、例えばスマートフォンである。操作装置2は、無人飛行装置1を視認しながら無人飛行装置1を操作する操作者U1により使用される。操作装置2は、例えばWi-Fi(登録商標)の無線通信回線W1を介して、無人飛行装置1を動作させるための指示データを無人飛行装置1に対して送信する。 The operation device 2 is a device for operating the unmanned flight device 1, for example, a smartphone. The operation device 2 is used by the operator U1 who operates the unmanned flight device 1 while visually recognizing the unmanned flight device 1. The operating device 2 transmits instruction data for operating the unmanned flight device 1 to the unmanned flight device 1 via, for example, the wireless communication line W1 of Wi-Fi (registered trademark).

操作情報作成装置3は、無人飛行装置1の操作をするために用いられる操作情報を作成する。操作情報作成装置3は、例えば、操作装置2を使用する操作者U1の操作を支援する操作者U2が使用するデバイスであり、操作者U2が頭部に装着して使用するゴーグル型のデバイスである。操作情報作成装置3は、操作者U2が頭部に装着した状態で操作者U2が視認可能な表示部であるディスプレイ31と、操作者U2の指又は手(以下、「指」という場合がある)を検出するための検出デバイス32とを有している。検出デバイス32は、例えばカメラである。 The operation information creation device 3 creates operation information used for operating the unmanned flight device 1. The operation information creating device 3 is, for example, a device used by an operator U2 who supports the operation of the operator U1 who uses the operation device 2, and is a goggle type device which the operator U2 wears on the head and uses. be. The operation information creating device 3 may include a display 31 which is a display unit that can be visually recognized by the operator U2 while the operator U2 is attached to the head, and a finger or a hand of the operator U2 (hereinafter, referred to as a “finger”). ) Is provided with a detection device 32 for detecting. The detection device 32 is, for example, a camera.

操作情報作成装置3のディスプレイ31には、無人飛行装置1の周辺の状態を示す画像が表示される。操作情報作成装置3に表示される画像は、例えば、無人飛行装置1が撮像した三次元画像若しくは二次元画像、又は予め作成されたコンピュータグラフィックス画像である。操作情報作成装置3は、当該画像を表示している間の操作者Uの指の三次元空間内の動きを特定し、検出した指の動きに基づいて、無人飛行装置1を移動させるための操作情報を作成する。 The display 31 of the operation information creating device 3 displays an image showing the state around the unmanned flight device 1. The image displayed on the operation information creating device 3 is, for example, a three-dimensional image or a two-dimensional image captured by the unmanned flight device 1, or a computer graphics image created in advance. The operation information creating device 3 identifies the movement of the finger of the operator U in the three-dimensional space while displaying the image, and moves the unmanned flight device 1 based on the detected finger movement. Create operation information.

操作情報作成装置3は、一例として、無線通信回線W1と異なる無線通信回線W2(例えばLTE又はWi-Fi)を介して、作成した操作情報を操作装置2に送信する。操作装置2は、所定の条件が満たされる場合に、操作情報作成装置3から受信した操作情報を、無人飛行装置1を動作させるための指示データとして無人飛行装置1に対して送信する。所定の条件は、例えば、操作装置2が操作情報作成装置3による操作を許可しているモードに設定されていること、操作者U1が操作装置2において無人飛行装置1を移動させる操作を行っていないこと等である。なお、操作情報作成装置3は、作成した操作情報を無人飛行装置1に直接送信してもよい。 As an example, the operation information creating device 3 transmits the created operation information to the operating device 2 via a wireless communication line W2 (for example, LTE or Wi-Fi) different from the wireless communication line W1. When the predetermined condition is satisfied, the operation device 2 transmits the operation information received from the operation information creation device 3 to the unmanned flight device 1 as instruction data for operating the unmanned flight device 1. The predetermined conditions are, for example, that the operation device 2 is set to a mode in which the operation by the operation information creation device 3 is permitted, and that the operator U1 operates the operation device 2 to move the unmanned flight device 1. There is no such thing. The operation information creating device 3 may directly transmit the created operation information to the unmanned flight device 1.

以上のとおり、操作情報作成装置3は、無人飛行装置1の周辺の状態を示す画像を操作者U2に提示している間に行われた操作者U2の指の動きを特定し、検出した動きに基づいて操作情報を作成する。操作情報作成装置3がこのように動作することで、操作者U2は、自分自身が無人飛行装置1であるかのように感じながら、所望のルートで無人飛行装置1を移動させることができる。 As described above, the operation information creating device 3 identifies and detects the movement of the finger of the operator U2 performed while presenting the image showing the state around the unmanned flight device 1 to the operator U2. Create operation information based on. By operating the operation information creating device 3 in this way, the operator U2 can move the unmanned flight device 1 by a desired route while feeling as if he / she is the unmanned flight device 1.

[操作装置2の構成]
図2は、操作装置2の構成を示す図である。操作装置2は、ディスプレイ21と、操作部22と、通信部23と、記憶部24と、制御部25とを有する。制御部25は、情報取得部251と、表示制御部252と、操作受付部253と、指示データ作成部254とを有する。
[Configuration of operating device 2]
FIG. 2 is a diagram showing the configuration of the operating device 2. The operation device 2 includes a display 21, an operation unit 22, a communication unit 23, a storage unit 24, and a control unit 25. The control unit 25 includes an information acquisition unit 251, a display control unit 252, an operation reception unit 253, and an instruction data creation unit 254.

ディスプレイ21は、操作者U1に通知する各種の情報を表示する表示部である。
操作部22は、操作者U1の操作を受け付けるためのデバイスであり、例えばディスプレイ21に重ねて設けられたタッチパネルである。
The display 21 is a display unit that displays various information to be notified to the operator U1.
The operation unit 22 is a device for receiving the operation of the operator U1, and is, for example, a touch panel provided on the display 21.

通信部23は、無人飛行装置1及び操作装置2との間で各種のデータを送受信するための通信インターフェースであり、例えば無線通信コントローラを有する。通信部23は、無線通信回線W1を介して無人飛行装置1を動作させるための指示データを無人飛行装置1に送信し、無人飛行装置1から、無人飛行装置1の状態を示す状態データ及び無人飛行装置1が周辺を撮影して生成された無人飛行装置1の撮像画像データを受信する。また、通信部23は、無線通信回線W2を介して操作情報作成装置3から送信された操作情報を受信する。 The communication unit 23 is a communication interface for transmitting and receiving various data between the unmanned flight device 1 and the operation device 2, and has, for example, a wireless communication controller. The communication unit 23 transmits instruction data for operating the unmanned flight device 1 to the unmanned flight device 1 via the wireless communication line W1, and the state data indicating the state of the unmanned flight device 1 and the unmanned flight device 1 are transmitted from the unmanned flight device 1 to the unmanned flight device 1. The flight device 1 receives the captured image data of the unmanned flight device 1 generated by photographing the surroundings. Further, the communication unit 23 receives the operation information transmitted from the operation information creating device 3 via the wireless communication line W2.

記憶部24は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶媒体を有する。記憶部24は、制御部25が実行するプログラムを記憶している。また、記憶部24は、通信部23が受信した無人飛行装置1の周辺の画像を一時的に記憶する。 The storage unit 24 has a storage medium such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 24 stores a program executed by the control unit 25. Further, the storage unit 24 temporarily stores the image around the unmanned flight device 1 received by the communication unit 23.

制御部25は、例えばCPU(Central Processing Unit)である。制御部25は、記憶部24に記憶されたプログラムを実行することにより、情報取得部251、表示制御部252、操作受付部253及び指示データ作成部254として機能する。 The control unit 25 is, for example, a CPU (Central Processing Unit). The control unit 25 functions as an information acquisition unit 251, a display control unit 252, an operation reception unit 253, and an instruction data creation unit 254 by executing the program stored in the storage unit 24.

情報取得部251は、通信部23を介して、操作情報作成装置3から送信された操作情報を取得する操作情報受信部として機能する。情報取得部251は、操作情報を取得したことを表示制御部252に通知し、取得した操作情報を指示データ作成部254に入力する。また、情報取得部251は、無人飛行装置1から送信された状態データ及び撮像画像データを取得し、状態データ及び撮像画像データを表示制御部252に入力する。 The information acquisition unit 251 functions as an operation information receiving unit that acquires operation information transmitted from the operation information creating device 3 via the communication unit 23. The information acquisition unit 251 notifies the display control unit 252 that the operation information has been acquired, and inputs the acquired operation information to the instruction data creation unit 254. Further, the information acquisition unit 251 acquires the state data and the captured image data transmitted from the unmanned flight apparatus 1, and inputs the state data and the captured image data to the display control unit 252.

表示制御部252は、各種の情報をディスプレイ21に表示させる。表示制御部252は、例えば情報取得部251から入力された状態データ及び撮像画像データをディスプレイ21に表示させる。また、表示制御部252は、操作情報作成装置3から操作情報を取得したという通知を情報取得部251から受けた場合に、操作情報を取得したことをディスプレイ21に表示させる。表示制御部252は、さらに、操作情報作成装置3から送信された操作情報に基づいて無人飛行装置1を動作させることを許可する操作を受け付けるための画面をディスプレイ21に表示させる。 The display control unit 252 displays various information on the display 21. The display control unit 252 displays, for example, the state data and the captured image data input from the information acquisition unit 251 on the display 21. Further, when the display control unit 252 receives the notification from the information acquisition unit 251 that the operation information has been acquired from the operation information creation device 3, the display 21 displays that the operation information has been acquired. The display control unit 252 further causes the display 21 to display a screen for accepting an operation permitting the unmanned flight apparatus 1 to operate based on the operation information transmitted from the operation information creating apparatus 3.

操作受付部253は、操作部22において操作者U1により入力された操作を受け付ける。操作受付部253は、例えば操作部22から受信した座標データに基づいてユーザがタッチした位置を特定し、特定した位置に対応する操作を受け付ける。操作受付部253は、例えば、無人飛行装置1の位置及び飛行速度を制御するための操作を受け付けて、受け付けた操作の内容を指示データ作成部254に通知する。また、操作受付部253は、操作情報に基づいて前記無人飛行装置を動作させることを許可する操作を受け付けた場合に、当該操作を受け付けたことを指示データ作成部254に通知する。 The operation reception unit 253 receives the operation input by the operator U1 in the operation unit 22. The operation receiving unit 253 identifies the position touched by the user based on the coordinate data received from the operation unit 22, for example, and accepts the operation corresponding to the specified position. The operation reception unit 253, for example, accepts an operation for controlling the position and flight speed of the unmanned flight device 1, and notifies the instruction data creation unit 254 of the content of the accepted operation. Further, when the operation reception unit 253 receives an operation for permitting the operation of the unmanned flight apparatus based on the operation information, the operation reception unit 253 notifies the instruction data creation unit 254 that the operation has been accepted.

指示データ作成部254は、操作受付部253から通知された操作の内容に基づいて、無人飛行装置1を動作させるための指示データを作成する。指示データ作成部254は、作成した指示データを通信部23を介して無人飛行装置1に送信する指示データ送信部として機能する。指示データ作成部254は、操作情報に基づいて無人飛行装置1を動作させることを許可する操作を操作受付部253が受け付けた場合に、操作情報作成装置3から送信された操作情報に基づく指示データを作成し、作成した指示データを無人飛行装置1に送信する。 The instruction data creation unit 254 creates instruction data for operating the unmanned flight device 1 based on the content of the operation notified from the operation reception unit 253. The instruction data creation unit 254 functions as an instruction data transmission unit that transmits the created instruction data to the unmanned flight device 1 via the communication unit 23. The instruction data creation unit 254 receives instruction data based on the operation information transmitted from the operation information creation device 3 when the operation reception unit 253 receives an operation for permitting the unmanned flight device 1 to operate based on the operation information. Is created, and the created instruction data is transmitted to the unmanned flight device 1.

指示データ作成部254は、操作情報に基づいて無人飛行装置1を動作させることを許可する操作を操作受付部253が受け付けた場合であっても、操作者U1による無人飛行装置1を制御する操作が行われた場合には、操作者U1の操作に基づく指示データを優先的に無人飛行装置1に送信してもよい。このように指示データ作成部254が動作することで、無人飛行装置1を視認している操作者U1が危険な状況を認識した場合に、危険を回避する操作をすることができる。 The instruction data creation unit 254 is an operation for controlling the unmanned flight device 1 by the operator U1 even when the operation reception unit 253 accepts an operation for permitting the operation of the unmanned flight device 1 based on the operation information. When the above is performed, the instruction data based on the operation of the operator U1 may be preferentially transmitted to the unmanned flight apparatus 1. By operating the instruction data creation unit 254 in this way, when the operator U1 who is visually recognizing the unmanned flight device 1 recognizes a dangerous situation, he / she can perform an operation to avoid the danger.

一方、指示データ作成部254は、例えば記憶部24に記憶されている操作者U1のスキルが閾値レベル未満であり、かつ操作情報に基づいて無人飛行装置1を動作させることを許可する操作を操作受付部253が受け付けた場合、操作者U1による無人飛行装置1を制御する操作が行われたとしても、操作情報作成装置3から送信された操作情報に基づく指示データを優先的に無人飛行装置1に送信してもよい。このように指示データ作成部254が動作することで、スキルが低い操作者U1が誤操作をした場合に、スキルが高い操作者U2の操作により危険を回避することが可能になる。 On the other hand, the instruction data creation unit 254 operates an operation that permits the unmanned flight device 1 to be operated based on the operation information, for example, the skill of the operator U1 stored in the storage unit 24 is less than the threshold level. When the reception unit 253 accepts, even if the operation to control the unmanned flight device 1 by the operator U1 is performed, the instruction data based on the operation information transmitted from the operation information creation device 3 is given priority to the unmanned flight device 1. May be sent to. By operating the instruction data creation unit 254 in this way, when the operator U1 with a low skill makes an erroneous operation, the danger can be avoided by the operation of the operator U2 with a high skill.

[操作情報作成装置3の構成]
図3は、操作情報作成装置3の構成を示す図である。操作情報作成装置3は、図1に示したディスプレイ31及び検出デバイス32に加えて、通信部33と、記憶部34と、制御部35とを有する。制御部35は、情報取得部351と、表示制御部352と、動き特定部353と、操作情報作成部354とを有する。
[Configuration of operation information creation device 3]
FIG. 3 is a diagram showing the configuration of the operation information creating device 3. The operation information creating device 3 has a communication unit 33, a storage unit 34, and a control unit 35 in addition to the display 31 and the detection device 32 shown in FIG. The control unit 35 includes an information acquisition unit 351, a display control unit 352, a motion specifying unit 353, and an operation information creating unit 354.

ディスプレイ31は、無人飛行装置1の周辺の画像及びその他の情報を表示するディスプレイである。図4は、ディスプレイ31に表示される無人飛行装置1の周辺の画像を模式的に示す図である。図4においては、無人飛行装置1が撮影した無人飛行装置1の周辺の画像に重ねて、無人飛行装置1の現在位置(★)、無人飛行装置1を移動させる目的地の位置(■)を示す画像が表示されている。 The display 31 is a display that displays an image and other information around the unmanned flight apparatus 1. FIG. 4 is a diagram schematically showing an image of the periphery of the unmanned flight apparatus 1 displayed on the display 31. In FIG. 4, the current position (★) of the unmanned flight device 1 and the position (■) of the destination to move the unmanned flight device 1 are superimposed on the image of the periphery of the unmanned flight device 1 taken by the unmanned flight device 1. The image shown is displayed.

検出デバイス32は、操作者U2の指を検出する。検出デバイス32は、例えば複数の撮像素子を有するステレオカメラを有する。検出デバイス32は、例えば、複数の撮像素子それぞれにより作成された複数の撮像画像に基づいて、複数の撮像画像の各画素に対応する被写体とステレオカメラとの距離を示す距離データを作成する。検出デバイス32は、複数の撮像画像、及び作成した距離データを動き特定部353に入力する。 The detection device 32 detects the finger of the operator U2. The detection device 32 has, for example, a stereo camera having a plurality of image pickup elements. The detection device 32 creates distance data indicating the distance between the subject and the stereo camera corresponding to each pixel of the plurality of captured images, based on, for example, a plurality of captured images created by each of the plurality of image pickup elements. The detection device 32 inputs a plurality of captured images and the created distance data to the motion specifying unit 353.

通信部33は、無人飛行装置1の周辺の画像を受信したり、操作情報を送信したりするための通信インターフェースであり、例えば無線通信コントローラを有する。通信部33は、受信した画像を記憶部34に記憶させる。通信部33は、操作情報作成部354が作成した操作情報を無線通信回線W2に向けて送信する。 The communication unit 33 is a communication interface for receiving an image of the periphery of the unmanned flight device 1 and transmitting operation information, and has, for example, a wireless communication controller. The communication unit 33 stores the received image in the storage unit 34. The communication unit 33 transmits the operation information created by the operation information creation unit 354 to the wireless communication line W2.

記憶部34は、ROM及びRAM等の記憶媒体を有する。記憶部34は、制御部35が実行するプログラムを記憶している。また、記憶部34は、通信部33が受信した無人飛行装置1の周辺の画像を一時的に記憶する。 The storage unit 34 has a storage medium such as a ROM and a RAM. The storage unit 34 stores a program executed by the control unit 35. Further, the storage unit 34 temporarily stores the image around the unmanned flight device 1 received by the communication unit 33.

制御部35は、例えばCPUである。制御部35は、記憶部34に記憶されたプログラムを実行することにより、情報取得部351、表示制御部352、動き特定部353及び操作情報作成部354として機能する。 The control unit 35 is, for example, a CPU. The control unit 35 functions as an information acquisition unit 351, a display control unit 352, a motion specifying unit 353, and an operation information creation unit 354 by executing a program stored in the storage unit 34.

情報取得部351は、通信部33を介して、無人飛行装置1が飛行中の位置の周辺の状態を示す周辺画像情報を取得する。情報取得部351は、取得した周辺画像情報を表示制御部352に入力する。情報取得部351は、周辺画像情報に関連付けて、無人飛行装置1の飛行の障害物を特定するための障害物情報をさらに取得してもよい。 The information acquisition unit 351 acquires peripheral image information indicating a state around the position where the unmanned flight device 1 is in flight via the communication unit 33. The information acquisition unit 351 inputs the acquired peripheral image information to the display control unit 352. The information acquisition unit 351 may further acquire obstacle information for identifying an obstacle in flight of the unmanned flight apparatus 1 in association with peripheral image information.

表示制御部352は、周辺画像情報に基づく周辺画像をディスプレイ31に表示させる。表示制御部352は、例えば、操作者U2の指の動きに基づいて周辺画像における位置を変化させる無人飛行装置1の仮想画像を周辺画像に重ねて表示部に表示させる。一例として、表示制御部352は、図4に示したように、周辺画像とともに、無人飛行装置1の現在位置及び目的地の位置を示す画像をディスプレイ31に表示させる。 The display control unit 352 causes the display 31 to display a peripheral image based on the peripheral image information. The display control unit 352, for example, superimposes a virtual image of the unmanned flight device 1 that changes the position in the peripheral image based on the movement of the finger of the operator U2 on the peripheral image and displays it on the display unit. As an example, as shown in FIG. 4, the display control unit 352 causes the display 31 to display an image showing the current position and the position of the destination of the unmanned flight apparatus 1 together with the peripheral image.

動き特定部353は、検出デバイス32から入力された撮像画像及び距離データに基づいて、操作情報作成装置3の操作者U2の指の三次元空間における動きを特定する。図5は、指の動きについて説明するための図である。 The motion specifying unit 353 identifies the motion of the finger of the operator U2 of the operation information creating device 3 in the three-dimensional space based on the captured image and the distance data input from the detection device 32. FIG. 5 is a diagram for explaining the movement of the finger.

図5は、X軸、Y軸、Z軸により表される三次元空間における操作者U2の手の画像を示している。図5(a)は、操作者U2が指を動かす操作を開始する前の状態を示している。図5(b)は、操作者U2が指を動かす操作を開始する状態を示しており、指の先端の位置の三次元座標が(x0、y0、z0)となっている。図5(c)は、操作者U2が指を動かした後の状態を示しており、指の先端の位置の三次元座標が(x1、y1、z1)となっている。 FIG. 5 shows an image of the hand of the operator U2 in a three-dimensional space represented by the X-axis, Y-axis, and Z-axis. FIG. 5A shows a state before the operator U2 starts the operation of moving the finger. FIG. 5B shows a state in which the operator U2 starts the operation of moving the finger, and the three-dimensional coordinates of the position of the tip of the finger are (x0, y0, z0). FIG. 5C shows a state after the operator U2 moves the finger, and the three-dimensional coordinates of the position of the tip of the finger are (x1, y1, z1).

動き特定部353は、基準となる手の画像と撮像画像とを比較することにより、撮像画像における操作者U2の手の領域を特定し、特定した領域に基づいて指の先端の位置を特定する。続いて、動き特定部353は、距離データを参照することにより、検出デバイス32と指の先端の位置との距離を特定する。 The motion specifying unit 353 identifies the region of the operator U2's hand in the captured image by comparing the reference hand image with the captured image, and identifies the position of the tip of the finger based on the identified region. .. Subsequently, the motion specifying unit 353 specifies the distance between the detection device 32 and the position of the tip of the finger by referring to the distance data.

動き特定部353は、撮像画像における指の先端の位置と特定した距離とに基づいて、三次元空間における指の先端の位置を特定する。動き特定部353は、指の先端の位置を所定の時間間隔(例えば100ミリ秒間隔)で特定し、特定した位置の変化により指の動きを特定する。動き特定部353は、特定した指の動きを操作情報作成部354に通知する。 The motion specifying unit 353 specifies the position of the tip of the finger in the three-dimensional space based on the position of the tip of the finger in the captured image and the specified distance. The movement specifying unit 353 specifies the position of the tip of the finger at a predetermined time interval (for example, 100 millisecond interval), and specifies the movement of the finger by the change of the specified position. The movement specifying unit 353 notifies the operation information creating unit 354 of the specified finger movement.

動き特定部353は、操作者U2の指の状態を特定してもよい。動き特定部353は、例えば、図5(a)に示すように操作者U2の指が伸びていない状態(例えば手を握った状態)と、図5(b)及び図5(c)に示すように操作者U2が1本の指を伸ばしている状態とを特定する。動き特定部353は、特定した指の状態を操作情報作成部354に通知する。 The movement specifying unit 353 may specify the state of the finger of the operator U2. The motion specifying unit 353 is shown in, for example, a state in which the finger of the operator U2 is not extended (for example, a state in which the hand is held) as shown in FIG. 5 (a), and FIGS. 5 (b) and 5 (c). The operator U2 is identified as having one finger extended. The movement specifying unit 353 notifies the operation information creating unit 354 of the state of the specified finger.

動き特定部353は、操作者U2の手の状態が第1状態(例えば手を握った状態)から第2状態(例えば1本の指が伸びた状態)になった時点を起点として、指の動きを特定する。動き特定部353は、操作者U2の手の状態が第2状態になった後に、所定の時間間隔で、指の先端の位置の三次元座標を操作情報作成部354に通知する。動き特定部353は、指の先端の位置の動きを示すベクトルデータを操作情報作成部354に通知してもよい。 The movement specifying unit 353 starts from the time when the state of the hand of the operator U2 changes from the first state (for example, the state of holding the hand) to the second state (for example, the state where one finger is extended). Identify the movement. The motion specifying unit 353 notifies the operation information creating unit 354 of the three-dimensional coordinates of the position of the tip of the finger at predetermined time intervals after the state of the hand of the operator U2 is changed to the second state. The motion specifying unit 353 may notify the operation information creating unit 354 of vector data indicating the movement of the position of the tip of the finger.

操作情報作成部354は、周辺画像がディスプレイ31に表示されている間に動き特定部353が検出した指の動きに基づいて、無人飛行装置1を動作させるための操作情報を作成する。操作情報作成部354は、例えば、動き特定部353から通知される指の動きを示す情報(例えば三次元座標又はベクトルデータ)に対応する操作情報を作成する。一例として、操作情報作成部354は、時刻情報と指の位置に対応する三次元座標とが関連付けられた情報を操作情報として作成する。操作情報作成部354は、通信部33を介して、一以上の三次元座標を含む操作情報を所定の時間間隔で操作装置2に送信する。 The operation information creating unit 354 creates operation information for operating the unmanned flight device 1 based on the movement of the finger detected by the movement specifying unit 353 while the peripheral image is displayed on the display 31. The operation information creation unit 354, for example, creates operation information corresponding to information (for example, three-dimensional coordinates or vector data) indicating the movement of the finger notified from the movement identification unit 353. As an example, the operation information creation unit 354 creates information in which the time information and the three-dimensional coordinates corresponding to the position of the finger are associated with each other as the operation information. The operation information creation unit 354 transmits operation information including one or more three-dimensional coordinates to the operation device 2 at predetermined time intervals via the communication unit 33.

操作情報作成部354は、指の動きを示す情報を、無人飛行装置1が飛行する方向を示す操作情報に変換してもよい。操作情報作成部354は、例えば三次元空間におけるX軸方向の指の動き成分を無人飛行装置1の左右方向の移動成分、Y軸方向の指の動き成分を無人飛行装置1の上下方向の移動成分、Z軸方向の指の動き成分を無人飛行装置1の前後方向の移動成分に変換する。操作情報作成部354は、変換後の各移動成分を合成したベクトルを示す操作情報を作成する。 The operation information creation unit 354 may convert the information indicating the movement of the finger into the operation information indicating the direction in which the unmanned flight apparatus 1 flies. For example, the operation information creation unit 354 moves the movement component of the finger in the X-axis direction in the three-dimensional space in the left-right direction of the unmanned flight device 1 and the movement component of the finger in the Y-axis direction in the vertical direction of the unmanned flight device 1. The component and the movement component of the finger in the Z-axis direction are converted into the movement component in the front-back direction of the unmanned flight device 1. The operation information creation unit 354 creates operation information indicating a vector obtained by synthesizing each of the converted moving components.

操作情報作成部354は、操作者U2の手の状態が第1状態(例えば手を握った状態)から第2状態(例えば1本の指が伸びた状態)になった時点の無人飛行装置1の位置を起点として、動き特定部353が検出した指の動きに基づいて、無人飛行装置1を移動させるための操作情報を作成する。操作情報作成部354は、例えば、操作者U2が手を握っている状態(図5(a)の状態)から1本の指を伸ばした状態(図5(b)の状態)に変化したという通知を動き特定部353から受けた時点を起点として、その後の指の動きに対応する操作情報を作成する。 The operation information creation unit 354 is an unmanned flight device 1 at a time when the state of the hand of the operator U2 changes from the first state (for example, the state of holding the hand) to the second state (for example, the state of extending one finger). Based on the movement of the finger detected by the movement specifying unit 353, the operation information for moving the unmanned flight device 1 is created from the position of. The operation information creation unit 354 is said to have changed from, for example, a state in which the operator U2 is holding a hand (state in FIG. 5A) to a state in which one finger is extended (state in FIG. 5B). Starting from the time when the notification is received from the movement specific unit 353, the operation information corresponding to the subsequent finger movement is created.

具体的には、操作情報作成部354は、図5(b)に示す指の位置から図5(c)に示す指の位置までの指の動きに対応する操作情報を作成する。操作情報作成部354は、操作者U2の手の状態が第2状態から第1状態に変化するまで、指の動きに対応する操作情報を作成し続ける。このように、操作情報作成部354が、操作者U2の手の状態によって操作情報を作成する期間を決定することにより、操作者U2が無人飛行装置1を移動させる意思を持っていない間の指の動きに基づいて操作情報が作成されないようにすることができる。 Specifically, the operation information creation unit 354 creates operation information corresponding to the movement of the finger from the position of the finger shown in FIG. 5 (b) to the position of the finger shown in FIG. 5 (c). The operation information creation unit 354 continues to create operation information corresponding to the movement of the finger until the state of the hand of the operator U2 changes from the second state to the first state. In this way, the operation information creation unit 354 determines the period for creating the operation information according to the state of the hand of the operator U2, so that the finger while the operator U2 does not have the intention to move the unmanned flight device 1. It is possible to prevent the operation information from being created based on the movement of.

図6は、操作者U2が指を移動させた場合にディスプレイ31に表示される画面の一例を示す図である。図6に示すように、表示制御部352は、操作者U2の指の動きに対応する軌跡線を周辺画像に重ねてディスプレイ31に表示させてもよい。図6において破線で示す無人飛行装置1の軌跡線は、図5(c)において破線で示す指の軌跡線に対応する。表示制御部352がこのような軌跡線をディスプレイ31に表示することで、操作者U2は、無人飛行装置1の移動軌跡を確認しながら指を動かすことができるので、操作者U2の指の動かし方が適切であるか否かを把握しやすい。 FIG. 6 is a diagram showing an example of a screen displayed on the display 31 when the operator U2 moves his / her finger. As shown in FIG. 6, the display control unit 352 may display the locus line corresponding to the movement of the finger of the operator U2 on the peripheral image on the display 31. The locus line of the unmanned flight apparatus 1 shown by the broken line in FIG. 6 corresponds to the locus line of the finger shown by the broken line in FIG. 5 (c). By displaying such a locus line on the display 31 by the display control unit 352, the operator U2 can move the finger while checking the movement locus of the unmanned flight device 1, so that the operator U2 can move the finger. It is easier to understand whether it is more appropriate.

表示制御部352は、操作者U2が指を動かした場合に、無人飛行装置1が実際に移動する前に軌跡線をディスプレイ31に表示させてもよい。表示制御部352がこのように軌跡線をディスプレイ31に表示させることで、操作者U2は、軌跡線が示すルートが操作者U2の所望するルートでない場合に、操作をし直すことができる。 The display control unit 352 may display the trajectory line on the display 31 before the unmanned flight device 1 actually moves when the operator U2 moves the finger. By displaying the locus line on the display 31 in this way, the display control unit 352 can perform the operation again when the route indicated by the locus line is not the route desired by the operator U2.

操作者U2が操作をし直すことができるように、操作情報作成部354は、操作者U2の手が第3状態(例えば、手を開いた状態)になったことを特定した場合に、作成済の操作情報を取り消してもよい。この場合、操作情報作成部354は、操作者U2の手が第1状態を経て第2状態になった時点から動き特定部353が検出した指の動きに基づいて、無人飛行装置1を移動させるための操作情報を作成する。操作情報作成部354は、操作者U2の手が第2状態になった時点で、作成済の操作情報を新たな操作情報に切り替える。操作情報作成部354がこのように動作することで、操作情報を切り替えた場合にも、無人飛行装置1を連続的に移動させることができる。 The operation information creation unit 354 creates the operation information creation unit 354 when it is specified that the hand of the operator U2 is in the third state (for example, the hand is open) so that the operator U2 can perform the operation again. You may cancel the completed operation information. In this case, the operation information creating unit 354 moves the unmanned flight device 1 based on the movement of the finger detected by the movement specifying unit 353 from the time when the hand of the operator U2 enters the second state through the first state. Create operation information for. The operation information creation unit 354 switches the created operation information to new operation information when the hand of the operator U2 is in the second state. By operating the operation information creating unit 354 in this way, the unmanned flight apparatus 1 can be continuously moved even when the operation information is switched.

操作情報作成部354は、指の動きに基づいて無人飛行装置1を移動させると無人飛行装置1が許容されない動作をする場合に、指の動きに対応する動作と異なる動作を無人飛行装置1にさせるための操作情報を作成してもよい。操作情報作成部354は、例えば、無人飛行装置1の周辺の状態を示す画像に含まれている障害物を特定し、指の動きに基づいて無人飛行装置1を移動させると障害物に衝突すると判定した場合に、障害物に衝突しないように無人飛行装置1を動作させるための操作情報を作成する。なお、操作情報作成部354は、情報取得部351が周辺画像に関連付けて取得した障害物情報に基づいて無人飛行装置1の周辺の障害物を特定してもよい。 When the unmanned flight device 1 is moved based on the movement of the finger and the unmanned flight device 1 performs an unacceptable operation, the operation information creation unit 354 causes the unmanned flight device 1 to perform an operation different from the operation corresponding to the movement of the finger. You may create the operation information to make it. For example, the operation information creation unit 354 identifies an obstacle included in an image showing a state around the unmanned flight device 1, and when the unmanned flight device 1 is moved based on the movement of a finger, the operation information creation unit 354 collides with the obstacle. When it is determined, the operation information for operating the unmanned flight apparatus 1 so as not to collide with an obstacle is created. The operation information creation unit 354 may identify obstacles in the vicinity of the unmanned flight apparatus 1 based on the obstacle information acquired by the information acquisition unit 351 in association with the peripheral image.

図7は、無人飛行装置1が障害物を回避する動作を示す図である。図7(a)の破線矢印が示すように操作者U2が指を動かした場合であっても、操作情報作成部354は、図7(b)に示すように、★で示す無人飛行装置1が障害物となる建物を回避するように飛行するための操作情報を作成する。 FIG. 7 is a diagram showing the operation of the unmanned flight device 1 to avoid obstacles. Even when the operator U2 moves his / her finger as shown by the broken line arrow in FIG. 7 (a), the operation information creating unit 354 is the unmanned flight device 1 indicated by ★ as shown in FIG. 7 (b). Create operational information to fly to avoid obstacles.

操作情報作成部354は、動き特定部353が検出した指が動く速度に基づいて、無人飛行装置1の移動速度を示す操作情報を作成してもよい。操作情報作成部354は、例えば、予め記憶部34に記憶された変換テーブルを参照することにより、指が動く速度を無人飛行装置1が動く速度に変換する。 The operation information creating unit 354 may create operation information indicating the moving speed of the unmanned flight device 1 based on the speed at which the finger moves detected by the movement specifying unit 353. The operation information creation unit 354 converts the speed at which the finger moves into the speed at which the unmanned flight device 1 moves, for example, by referring to the conversion table stored in the storage unit 34 in advance.

ただし、操作情報作成部354は、指の動きに基づいて無人飛行装置1を移動させると無人飛行装置1の速度又は加速度が許容されない範囲になる場合に、無人飛行装置1の速度又は加速度が許容範囲になるように、指の動きに対応する動作を補正した動作を無人飛行装置1にさせるための操作情報を作成してもよい。例えば、無人飛行装置1が動く速度又は加速度に上限値が設けられており、操作情報作成部354は、指が動く速度又は加速度が閾値以上の場合に無人飛行装置1が動く速度又は加速度を上限値にしてもよい。 However, the operation information creation unit 354 allows the speed or acceleration of the unmanned flight device 1 when the speed or acceleration of the unmanned flight device 1 is within the allowable range when the unmanned flight device 1 is moved based on the movement of the finger. The operation information for making the unmanned flight device 1 perform the motion corrected for the motion corresponding to the movement of the finger may be created so as to be within the range. For example, an upper limit is set for the speed or acceleration at which the unmanned flight device 1 moves, and the operation information creation unit 354 limits the speed or acceleration at which the unmanned flight device 1 moves when the speed or acceleration at which the finger moves is equal to or greater than the threshold value. It may be a value.

図8は、操作者U2の指の速度と無人飛行装置1の速度との関係を示す図である。図8に示すように、操作情報作成部354は、指の速度が閾値以下の間は、指の速度が増加するにつれて無人飛行装置1の速度が増加する操作情報を作成する。操作情報作成部354は、指の速度が閾値よりも大きくなると、指の速度が増加しても無人飛行装置1の速度が増加しない操作情報を作成する。操作情報作成部354がこのように動作することで、無人飛行装置1が危険な速度又は加速度で飛行することを予防できる。 FIG. 8 is a diagram showing the relationship between the speed of the finger of the operator U2 and the speed of the unmanned flight device 1. As shown in FIG. 8, the operation information creation unit 354 creates operation information in which the speed of the unmanned flight device 1 increases as the speed of the finger increases while the speed of the finger is equal to or less than the threshold value. The operation information creation unit 354 creates operation information in which the speed of the unmanned flight device 1 does not increase even if the speed of the finger increases when the speed of the finger becomes larger than the threshold value. By operating the operation information creating unit 354 in this way, it is possible to prevent the unmanned flight apparatus 1 from flying at a dangerous speed or acceleration.

操作情報作成部354は、動き特定部353が検出した指の動きの軌跡線よりも滑らかに無人飛行装置1が移動するように操作情報を作成してもよい。操作情報作成部354は、例えば指の動きの軌跡線を低域通過フィルタに通すことにより、軌跡線に含まれている高周波成分を除去し、高周波成分を除去した後の軌跡線に基づいて操作情報を作成する。 The operation information creation unit 354 may create operation information so that the unmanned flight apparatus 1 moves more smoothly than the trajectory line of the finger movement detected by the movement identification unit 353. The operation information creation unit 354 removes the high frequency component contained in the locus line by, for example, passing the locus line of the finger movement through the low frequency passing filter, and operates based on the locus line after the high frequency component is removed. Create information.

図9は、指が細かく振動した場合の指の動きと無人飛行装置1の動きを示す図である。図9(a)においては、操作者U2の指が移動方向に対して左右に変位しているが、図9(b)においては、★で示す無人飛行装置1がほぼ直線上を移動している。このように操作情報作成部354が動作することで、指が細かく振動した場合に無人飛行装置1が細かく振動しながら飛行することを予防できる。 FIG. 9 is a diagram showing the movement of the finger and the movement of the unmanned flight device 1 when the finger vibrates finely. In FIG. 9A, the finger of the operator U2 is displaced to the left and right with respect to the moving direction, but in FIG. 9B, the unmanned flight device 1 indicated by ★ moves in a substantially straight line. There is. By operating the operation information creating unit 354 in this way, it is possible to prevent the unmanned flight apparatus 1 from flying while vibrating finely when the finger vibrates finely.

また、操作情報作成部354は、操作者U2の指が閾値以上の速度で移動した場合、当該移動の動作を含まない操作情報を作成してもよい。操作情報作成部354は、例えば、指が第1の向きに移動した後に、第1の向きとほぼ反対向きの第2の向きに、第1の向きへの移動速度よりも速い速度で移動した場合、第2の向きへの移動動作を含まない操作情報を作成する。 Further, when the finger of the operator U2 moves at a speed equal to or higher than the threshold value, the operation information creation unit 354 may create operation information that does not include the movement operation. For example, after the finger moves in the first direction, the operation information creating unit 354 moves in the second direction, which is almost opposite to the first direction, at a speed faster than the moving speed in the first direction. In this case, operation information that does not include the movement operation in the second direction is created.

図10は、操作者U2が指を第1の向きと第2の向きとに順次動かした場合の無人飛行装置1の動作を示す図である。図10(a)における実線は第1の向きを示しており、破線は第2の向きを示している。このように操作者U2が指を動かした場合であっても、図10(b)に示すように、無人飛行装置1は第1の向きに飛行を続ける。操作情報作成部354がこのように動作することで、操作者U2が手の状態を第1状態と第2状態に切り替えることなく、連続的に無人飛行装置1を移動させる操作をすることができる。 FIG. 10 is a diagram showing the operation of the unmanned flight apparatus 1 when the operator U2 sequentially moves his / her finger in the first direction and the second direction. The solid line in FIG. 10A shows the first direction, and the broken line shows the second direction. Even when the operator U2 moves his / her finger in this way, as shown in FIG. 10B, the unmanned flight device 1 continues to fly in the first direction. By operating the operation information creating unit 354 in this way, the operator U2 can continuously move the unmanned flight device 1 without switching the state of the hand between the first state and the second state. ..

[シーケンス図]
図11は、飛行制御システムSにおける処理シーケンスを示す図である。図11に示すシーケンス図は、操作者U1の操作により操作装置2から送信した第1指示データに基づいて無人飛行装置1が飛行している状態から開始している。
[Sequence Diagram]
FIG. 11 is a diagram showing a processing sequence in the flight control system S. The sequence diagram shown in FIG. 11 starts from a state in which the unmanned flight device 1 is flying based on the first instruction data transmitted from the operation device 2 by the operation of the operator U1.

操作受付部253は、操作者U2による遠隔操作を許可する操作を受け付けた場合(S1)、通信部23を介して、遠隔操作が許可されたことを操作情報作成装置3に通知する。操作情報作成装置3においては、遠隔操作が許可されたという通知を受けると、その旨を表示制御部352がディスプレイ31に表示させる(S2)。その後、動き特定部353が操作者U2の指の動きを特定すると(S3)、操作情報作成部354が、指の動きに基づいて操作情報を作成し(S4)、作成した操作情報を操作装置2に送信する。 When the operation reception unit 253 accepts the operation for permitting the remote operation by the operator U2 (S1), the operation reception unit 253 notifies the operation information creating device 3 that the remote operation is permitted via the communication unit 23. When the operation information creating device 3 receives the notification that the remote control is permitted, the display control unit 352 displays the notification on the display 31 (S2). After that, when the movement specifying unit 353 specifies the movement of the finger of the operator U2 (S3), the operation information creating unit 354 creates the operation information based on the movement of the finger (S4), and the created operation information is used as the operation device. Send to 2.

操作装置2においては、情報取得部251が操作情報作成装置3から操作情報を受信すると、指示データ作成部254が操作情報に基づいて第2指示データを作成し(S5)、作成した第2指示データを無人飛行装置1に送信する。指示データ作成部254は、操作受付部253が所定の操作を受け付けるまでの間は操作情報に基づいて第2指示データを作成する(ステップS6におけるNO)。指示データ作成部254は、操作受付部253が所定の操作を受け付けた後に(ステップS6におけるYES)、操作受付部253が受け付ける操作内容に基づいて指示データを作成する(S7)。 In the operation device 2, when the information acquisition unit 251 receives the operation information from the operation information creation device 3, the instruction data creation unit 254 creates the second instruction data based on the operation information (S5), and the created second instruction. The data is transmitted to the unmanned flight device 1. The instruction data creation unit 254 creates the second instruction data based on the operation information until the operation reception unit 253 accepts a predetermined operation (NO in step S6). The instruction data creation unit 254 creates instruction data based on the operation content received by the operation reception unit 253 after the operation reception unit 253 receives a predetermined operation (YES in step S6) (S7).

[第1変形例]
以上の説明においては、飛行制御システムSが操作装置2及び操作情報作成装置3を備えており、操作情報作成装置3が作成した操作情報を操作装置2が受信し、操作装置2が、操作情報に基づいて作成した指示データを無人飛行装置1に送信するという場合を例示したが、飛行制御システムSが操作装置2を有していなくてもよい。この場合、操作情報作成装置3は、操作情報に基づいて指示データを作成し、作成した指示データを無人飛行装置1に直接送信する。
[First modification]
In the above description, the flight control system S includes the operation device 2 and the operation information creation device 3, the operation device 2 receives the operation information created by the operation information creation device 3, and the operation device 2 receives the operation information. Although the case where the instruction data created based on the above is transmitted to the unmanned flight device 1 is exemplified, the flight control system S may not have the operation device 2. In this case, the operation information creating device 3 creates instruction data based on the operation information, and directly transmits the created instruction data to the unmanned flight device 1.

[第2変形例]
以上の説明においては、操作情報作成装置3が操作者U2の指又は手の三次元空間における動きのみに基づいて操作情報を作成する場合を例示したが、操作情報作成装置3は、操作者U2の指又は手の動きとともに、操作情報作成装置3が有する不図示のコントローラ(操作部)で行われた操作内容にさらに基づいて操作情報を作成してもよい。
[Second modification]
In the above description, the case where the operation information creating device 3 creates the operation information based only on the movement of the finger or the hand of the operator U2 in the three-dimensional space is illustrated, but the operation information creating device 3 is the operator U2. The operation information may be created based on the operation contents performed by the controller (operation unit) (not shown) included in the operation information creation device 3 together with the movement of the finger or the hand.

この場合、操作情報作成部354は、例えば、無人飛行装置1を移動させる向きに関する操作情報を操作者U2の指又は手の動きに基づいて作成し、無人飛行装置1を移動させる速度に関する操作情報をコントローラで行われた操作内容に基づいて作成する。操作情報作成部354がこのように動作することで、操作者U2は、例えば予めコントローラで速度を設定したり、コントローラの操作により速度を一定値に設定したりしやすい。したがって、操作者U2が、指又は手を動かす速さのことを気にすることなく、指又は手を動かす向きだけに注意すればよいので、操作性がさらに向上する。 In this case, the operation information creation unit 354 creates, for example, operation information regarding the direction in which the unmanned flight device 1 is moved based on the movement of the finger or hand of the operator U2, and the operation information regarding the speed at which the unmanned flight device 1 is moved. Is created based on the operation performed by the controller. By operating the operation information creating unit 354 in this way, the operator U2 can easily set the speed with the controller in advance, or set the speed to a constant value by operating the controller, for example. Therefore, the operator U2 does not have to worry about the speed at which the finger or the hand is moved, and only needs to pay attention to the direction in which the finger or the hand is moved, so that the operability is further improved.

[操作情報作成装置3による効果]
以上説明したように、操作情報作成装置3は、操作情報作成装置3の操作者U2の指又は手の三次元空間における動きを特定する動き特定部353と、周辺画像がディスプレイ31に表示されている間に動き特定部353が検出した指又は手の動きに基づいて、無人飛行装置1を動作させるための操作情報を作成する。操作情報作成装置3がこのように構成されていることで、操作者U2が、無人飛行装置1を動かしたい方向に指又は手を動かすことにより、所望の方向に無人飛行装置1を動かすことができるので、操作性が向上する。
[Effect of operation information creation device 3]
As described above, in the operation information creating device 3, the movement specifying unit 353 that specifies the movement of the finger or hand of the operator U2 of the operation information creating device 3 in the three-dimensional space, and the peripheral image are displayed on the display 31. The operation information for operating the unmanned flight apparatus 1 is created based on the movement of the finger or the hand detected by the movement specifying unit 353 while the movement is being performed. With the operation information creating device 3 configured in this way, the operator U2 can move the unmanned flight device 1 in a desired direction by moving a finger or a hand in the direction in which the unmanned flight device 1 is desired to be moved. Since it can be done, operability is improved.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

1 無人飛行装置
2 操作装置
3 操作情報作成装置
21 ディスプレイ
22 操作部
23 通信部
24 記憶部
25 制御部
31 ディスプレイ
32 検出デバイス
33 通信部
34 記憶部
35 制御部
251 情報取得部
252 表示制御部
253 操作受付部
254 指示データ作成部
351 情報取得部
352 表示制御部
353 動き特定部
354 操作情報作成部
1 Unmanned flight device 2 Operation device 3 Operation information creation device 21 Display 22 Operation unit 23 Communication unit 24 Storage unit 25 Control unit 31 Display 32 Detection device 33 Communication unit 34 Storage unit 35 Control unit 251 Information acquisition unit 252 Display control unit 253 Operation Reception unit 254 Instruction data creation unit 351 Information acquisition unit 352 Display control unit 353 Motion identification unit 354 Operation information creation unit

Claims (8)

無人飛行装置の操作を行うための操作装置と、前記操作装置を介して前記無人飛行装置の操作をするために用いられる操作情報を作成する操作情報作成装置と、を備え、
前記操作情報作成装置は、
前記無人飛行装置が飛行中の位置の周辺の状態を示す周辺画像情報を取得する情報取得部と、
前記周辺画像情報に基づく周辺画像を表示部に表示させる表示制御部と、
前記操作情報作成装置の操作者の指又は手の三次元空間における動きを特定する動き特定部と、
前記周辺画像が前記表示部に表示されている間に前記動き特定部が検出した前記指又は手の動きに基づいて、前記無人飛行装置を動作させるための操作情報を作成する操作情報作成部と、
前記操作情報を前記操作装置に送信する操作情報送信部と、
を有し、
前記操作装置は、
前記操作情報作成装置から前記操作情報を受信する操作情報受信部と、
前記操作情報受信部が受信した前記操作情報に基づく、前記無人飛行装置を動作させるための指示データを前記無人飛行装置に送信する指示データ送信部と、
を有する飛行制御システム。
An operation device for operating the unmanned flight device and an operation information creating device for creating operation information used for operating the unmanned flight device via the operation device are provided.
The operation information creating device is
An information acquisition unit that acquires peripheral image information indicating the state around the position where the unmanned flight device is in flight, and an information acquisition unit.
A display control unit that displays a peripheral image based on the peripheral image information on the display unit,
A movement specifying unit that specifies the movement of the finger or hand of the operator of the operation information creating device in the three-dimensional space.
An operation information creating unit that creates operation information for operating the unmanned flight device based on the movement of the finger or hand detected by the movement specifying unit while the peripheral image is displayed on the display unit. ,
An operation information transmission unit that transmits the operation information to the operation device,
Have,
The operating device is
An operation information receiving unit that receives the operation information from the operation information creating device, and
An instruction data transmitting unit that transmits instruction data for operating the unmanned flight device to the unmanned flight device based on the operation information received by the operation information receiving unit.
Flight control system with.
前記操作装置は、前記操作情報を受信したことを表示部に表示させる表示制御部と、
前記操作装置の使用者の操作を受け付ける操作受付部と、
をさらに有し、
前記指示データ送信部は、前記操作情報に基づいて前記無人飛行装置を動作させることを許可する操作を前記操作受付部が受け付けた場合に、前記操作情報に基づく前記指示データを前記無人飛行装置に送信する、
請求項1に記載の飛行制御システム。
The operation device includes a display control unit that displays on the display unit that the operation information has been received.
An operation reception unit that accepts operations by the user of the operation device,
Have more
When the operation receiving unit receives an operation that permits the unmanned flight apparatus to operate based on the operation information, the instruction data transmitting unit transmits the instruction data based on the operation information to the unmanned flight apparatus. Send,
The flight control system according to claim 1.
前記操作情報作成部は、前記指又は手の動きに基づいて前記無人飛行装置を移動させると前記無人飛行装置が許容されない動作をする場合に、前記指又は手の動きに対応する動作と異なる動作を前記無人飛行装置にさせるための前記操作情報を作成する、
請求項1又は2に記載の飛行制御システム。
When the unmanned flight device is moved based on the movement of the finger or hand and the unmanned flight device performs an unacceptable operation, the operation information creating unit performs an operation different from the operation corresponding to the movement of the finger or hand. To create the operation information for making the unmanned flight device
The flight control system according to claim 1 or 2.
前記操作情報作成部は、前記指又は手の動きに基づいて前記無人飛行装置を移動させると前記無人飛行装置が障害物に衝突すると判定した場合に、前記障害物に衝突しないように前記無人飛行装置を動作させるための前記操作情報を作成する、
請求項3に記載の飛行制御システム。
When the operation information creating unit determines that the unmanned flight device collides with an obstacle when the unmanned flight device is moved based on the movement of the finger or the hand, the unmanned flight so as not to collide with the obstacle. Creating the above-mentioned operation information for operating the device,
The flight control system according to claim 3.
前記操作情報作成部は、前記指又は手の動きに基づいて前記無人飛行装置を移動させると前記無人飛行装置の速度又は加速度が許容されない範囲になる場合に、前記無人飛行装置の速度又は加速度が許容範囲になるように、前記指又は手の動きに対応する動作を補正した動作を前記無人飛行装置にさせるための前記操作情報を作成する、
請求項1から4のいずれか一項に記載の飛行制御システム。
When the operation information creating unit moves the unmanned flight device based on the movement of the finger or the hand, the speed or acceleration of the unmanned flight device becomes an unacceptable range, and the speed or acceleration of the unmanned flight device is increased. The operation information for making the unmanned flight device perform the motion corrected for the motion corresponding to the motion of the finger or the hand so as to be within the permissible range is created.
The flight control system according to any one of claims 1 to 4.
前記操作情報作成部は、前記操作者の手の状態が所定の状態になった時点の前記無人飛行装置の位置を起点として、前記動き特定部が検出した前記指又は手の動きに基づいて、前記無人飛行装置を移動させるための前記操作情報を作成する、
請求項1から5のいずれか一項に記載の飛行制御システム。
The operation information creating unit is based on the movement of the finger or hand detected by the movement specifying unit, starting from the position of the unmanned flight device at the time when the state of the operator's hand is in a predetermined state. Creating the operation information for moving the unmanned flight device,
The flight control system according to any one of claims 1 to 5.
前記操作情報作成装置の前記表示制御部は、前記指又は手の動きに基づいて前記周辺画像における位置を変化させる前記無人飛行装置の仮想画像を前記周辺画像に重ねて前記操作情報作成装置の前記表示部に表示させる、
請求項1から6のいずれか一項に記載の飛行制御システム。
The display control unit of the operation information creating device superimposes a virtual image of the unmanned flight device that changes a position in the peripheral image based on the movement of the finger or a hand on the peripheral image, and the operation information creating device. Display on the display
The flight control system according to any one of claims 1 to 6.
前記操作情報作成装置の前記表示制御部は、前記の動きに対応する軌跡線を前記周辺画像に重ねて前記操作情報作成装置の前記表示部に表示させる、
請求項1から7のいずれか一項に記載の飛行制御システム。
The display control unit of the operation information creating device superimposes a locus line corresponding to the movement of the finger on the peripheral image and displays it on the display unit of the operation information creating device .
The flight control system according to any one of claims 1 to 7.
JP2019219760A 2019-12-04 2019-12-04 Flight control system Active JP7082351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019219760A JP7082351B2 (en) 2019-12-04 2019-12-04 Flight control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219760A JP7082351B2 (en) 2019-12-04 2019-12-04 Flight control system

Publications (2)

Publication Number Publication Date
JP2021089588A JP2021089588A (en) 2021-06-10
JP7082351B2 true JP7082351B2 (en) 2022-06-08

Family

ID=76220558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219760A Active JP7082351B2 (en) 2019-12-04 2019-12-04 Flight control system

Country Status (1)

Country Link
JP (1) JP7082351B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002211494A (en) 2001-01-17 2002-07-31 Todaka Seisakusho:Kk Flight scheduling device for unmanned helicopter
JP2018515838A (en) 2015-04-14 2018-06-14 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Multi-sensor control system and method for remote signal transmission control of drone
JP2018121267A (en) 2017-01-27 2018-08-02 セイコーエプソン株式会社 Display unit and method for controlling display unit
JP2018173992A (en) 2014-04-25 2018-11-08 ソニー株式会社 Information processing device, information processing method, computer readable medium and imaging system
WO2019168042A1 (en) 2018-02-28 2019-09-06 株式会社ナイルワークス Drone, control method thereof, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6436215B2 (en) * 2017-11-09 2018-12-12 富士ゼロックス株式会社 Working device and working system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002211494A (en) 2001-01-17 2002-07-31 Todaka Seisakusho:Kk Flight scheduling device for unmanned helicopter
JP2018173992A (en) 2014-04-25 2018-11-08 ソニー株式会社 Information processing device, information processing method, computer readable medium and imaging system
JP2018515838A (en) 2015-04-14 2018-06-14 ノースロップ グラマン システムズ コーポレイションNorthrop Grumman Systems Corporation Multi-sensor control system and method for remote signal transmission control of drone
JP2018121267A (en) 2017-01-27 2018-08-02 セイコーエプソン株式会社 Display unit and method for controlling display unit
WO2019168042A1 (en) 2018-02-28 2019-09-06 株式会社ナイルワークス Drone, control method thereof, and program

Also Published As

Publication number Publication date
JP2021089588A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US20180096536A1 (en) Information processing apparatus, information processing system, and information processing method
US11375162B2 (en) Remote terminal and method for displaying image of designated area received from mobile robot
JP6665506B2 (en) Remote control device, method and program
JP6586109B2 (en) Control device, information processing method, program, and flight system
KR20170090888A (en) Apparatus for unmanned aerial vehicle controlling using head mounted display
EP3333808B1 (en) Information processing device
JP2017163265A (en) Controlling support system, information processing device, and program
JP2015230682A (en) Information processing program, information processor, control method for information processor, and information processing system
WO2018214029A1 (en) Method and apparatus for manipulating movable device
KR20170062439A (en) Control device, control method, and program
JP2017183852A (en) Display device and display control method
WO2016079476A1 (en) Interactive vehicle control system
CN113544626A (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP7082351B2 (en) Flight control system
CN109155081B (en) Three-dimensional data display device, three-dimensional data display method, and program
JP6855616B2 (en) Operating devices, mobile devices, and their control systems
WO2020209167A1 (en) Information processing device, information processing method, and program
JP6685742B2 (en) Operating device, moving device, and control system thereof
CN111565898B (en) Operation guidance system
US9036194B2 (en) Operation input apparatus, image forming system, and storage medium for operation input program
US20160364011A1 (en) Human machine interface controller
US20180048824A1 (en) Transmission apparatus, setting apparatus, transmission method, reception method, and storage medium
WO2021220407A1 (en) Head-mounted display device and display control method
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
KR101615739B1 (en) Drone and method for measuring distance from user terminal to drone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220518

R150 Certificate of patent or registration of utility model

Ref document number: 7082351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150