JP2021102359A - Instruction system, control method, and program - Google Patents

Instruction system, control method, and program Download PDF

Info

Publication number
JP2021102359A
JP2021102359A JP2019233396A JP2019233396A JP2021102359A JP 2021102359 A JP2021102359 A JP 2021102359A JP 2019233396 A JP2019233396 A JP 2019233396A JP 2019233396 A JP2019233396 A JP 2019233396A JP 2021102359 A JP2021102359 A JP 2021102359A
Authority
JP
Japan
Prior art keywords
aerial vehicle
unmanned aerial
instruction
user
transmitter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019233396A
Other languages
Japanese (ja)
Other versions
JP7383473B2 (en
Inventor
忍 林
Shinobu Hayashi
忍 林
貴文 佐藤
Takafumi Sato
貴文 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takasago Thermal Engineering Co Ltd
Original Assignee
Takasago Thermal Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takasago Thermal Engineering Co Ltd filed Critical Takasago Thermal Engineering Co Ltd
Priority to JP2019233396A priority Critical patent/JP7383473B2/en
Publication of JP2021102359A publication Critical patent/JP2021102359A/en
Application granted granted Critical
Publication of JP7383473B2 publication Critical patent/JP7383473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To properly give instructions to a site worker and the like.SOLUTION: An instruction system includes an unmanned aircraft, and radio equipment for receiving an operation of the unmanned aircraft by a user. The unmanned aircraft has an instruction device that indicates a position instructed by the user. The instruction system provides a predetermined display by the instruction device on the basis of the instructions given by the user.SELECTED DRAWING: Figure 3

Description

本発明は、指示システム、制御方法、及びプログラムに関する。 The present invention relates to instructional systems, control methods, and programs.

従来、無人航空機(ドローン)を用いて撮影した画像に基づいて、監視等を行う技術が知られている(例えば、特許文献1を参照)。 Conventionally, a technique for monitoring or the like based on an image taken by an unmanned aerial vehicle (drone) is known (see, for example, Patent Document 1).

特開2018−018406号公報JP-A-2018-018406

しかしながら、従来技術では、例えば、無人航空機を用いて撮影した画像に基づいて、作業等の状況を確認する施工確認行う場合、及びトンネルや橋梁等の設備の老朽化等の点検を行う場合等に、現場の作業員等への指示が適切に行えない場合がある。 However, in the prior art, for example, when performing construction confirmation to confirm the status of work or the like based on an image taken by an unmanned aerial vehicle, or when performing inspection such as deterioration of equipment such as tunnels and bridges. , It may not be possible to properly give instructions to on-site workers.

一側面では、現場の作業員等への指示を適切に行える技術を提供することを目的とする。 On one side, the purpose is to provide technology that can appropriately give instructions to on-site workers and the like.

一つの案では、無人航空機と、ユーザによる前記無人航空機の操作を受け付ける無線機とを有する指示システムであって、前記無人航空機は、前記ユーザにより指示された位置を示す指示装置を有し、前記ユーザによる指示に基づいて、前記指示装置により所定の表示を行う、指示システムを提供する。 One idea is an instruction system having an unmanned aerial vehicle and a radio that accepts the operation of the unmanned aerial vehicle by a user, wherein the unmanned aerial vehicle has an instruction device indicating a position instructed by the user. Provided is an instruction system that performs a predetermined display by the instruction device based on an instruction by a user.

一側面によれば、現場の作業員等への指示を適切に行うことができる。 According to one aspect, it is possible to appropriately give instructions to on-site workers and the like.

実施形態に係る指示システムの構成例を示す図である。It is a figure which shows the configuration example of the instruction system which concerns on embodiment. 実施形態に係る無人航空機の構成例を示す図である。It is a figure which shows the structural example of the unmanned aerial vehicle which concerns on embodiment. 実施形態に係る送信機の構成例を示す図である。It is a figure which shows the structural example of the transmitter which concerns on embodiment. 実施形態に係る情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus which concerns on embodiment. 実施形態に係る無人航空機、及び送信機の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the unmanned aerial vehicle and the transmitter which concerns on embodiment. 実施形態に係る指示システムの処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the processing of the instruction system which concerns on embodiment. 実施形態に係る送信機での表示画面の一例について説明する図である。It is a figure explaining an example of the display screen in the transmitter which concerns on embodiment. 実施形態に係る送信機での表示画面の一例について説明する図である。It is a figure explaining an example of the display screen in the transmitter which concerns on embodiment. 実施形態に係る送信機での表示画面の一例について説明する図である。It is a figure explaining an example of the display screen in the transmitter which concerns on embodiment.

以下、図面を参照して、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<システム構成>
図1は、実施形態に係る指示システム1の構成例を示す図である。図1において、指示システム1は、無人航空機10、及び送信機20を有する。無人航空機10と送信機20は、例えば、無線電波、携帯電話網、インターネット等を介した無線LAN等により通信できるように接続される。なお、携帯電話網は、例えば、5G(5th Generation)、4G、LTE(Long Term Evolution)等の移動通信システムでもよい。
<System configuration>
FIG. 1 is a diagram showing a configuration example of the instruction system 1 according to the embodiment. In FIG. 1, the instruction system 1 has an unmanned aerial vehicle 10 and a transmitter 20. The unmanned aerial vehicle 10 and the transmitter 20 are connected so as to be able to communicate with each other by, for example, a wireless radio wave, a mobile phone network, a wireless LAN via the Internet, or the like. The mobile phone network may be, for example, a mobile communication system such as 5G (5th Generation), 4G, or LTE (Long Term Evolution).

無人航空機10は、例えば、遠隔操縦、または自律的飛行が可能な無人航空機(ドローン、UAV(Unmanned Aerial Vehicle)、UAS(Unmanned
Aerial System))である。無人航空機10は、例えば、送信機20からの指示に基づいて空中を移動(飛行)してもよい。また、無人航空機10は、例えば、予め設定された情報に基づいて、自動で空中を移動してもよい。
The unmanned aerial vehicle 10 is, for example, an unmanned aerial vehicle (drone, UAV (Unmanned Aerial Vehicle), UAS (Unmanned) capable of remote control or autonomous flight.
Aerial System)). The unmanned aerial vehicle 10 may move (fly) in the air based on an instruction from the transmitter 20, for example. Further, the unmanned aerial vehicle 10 may automatically move in the air based on, for example, preset information.

送信機20は、ユーザ(操作者、オペレータ、管理者、監督)の操作に応答して、無人航空機10の各種の制御を行う装置である。送信機20は、例えば、ユーザの操作に応答して、現場の作業員等に指示を行うための各種の制御を無人航空機10に実行させる。 The transmitter 20 is a device that performs various controls on the unmanned aerial vehicle 10 in response to operations by users (operators, operators, managers, supervisors). For example, the transmitter 20 causes the unmanned aerial vehicle 10 to execute various controls for giving instructions to workers at the site in response to the operation of the user.

<構成>
≪無人航空機10≫
図2Aは、実施形態に係る無人航空機10の構成例を示す図である。図2Aの例では、無人航空機10は、アンテナ11、情報処理装置12、プロペラ13A〜13D(以下で「プロペラ13A等」と称する。)、ジンバル14、カメラ(撮影装置)15、指示装置16、スピーカ17、及びマイク18等を有している。アンテナ11は、送信機20との無線通信を行うためのアンテナである。情報処理装置12は、無人航空機10の各部の制御を行うコンピュータである。
<Structure>
≪Unmanned aerial vehicle 10≫
FIG. 2A is a diagram showing a configuration example of the unmanned aerial vehicle 10 according to the embodiment. In the example of FIG. 2A, the unmanned aerial vehicle 10 includes an antenna 11, an information processing device 12, propellers 13A to 13D (hereinafter referred to as “propeller 13A, etc.”), a gimbal 14, a camera (photographing device) 15, an instruction device 16, and the like. It has a speaker 17, a microphone 18, and the like. The antenna 11 is an antenna for wireless communication with the transmitter 20. The information processing device 12 is a computer that controls each part of the unmanned aerial vehicle 10.

ジンバル14は、1以上の軸で、ジンバル14に取り付けられたカメラ15、及び指示装置16を回転させる回転台である。ジンバル14は、無人航空機10のロータ等による振動によるブレを低減させる。また、ジンバル14は、送信機20のユーザの指示によりアクチュエータを起動し、送信機20のユーザに指示された位置の方向にカメラ15、及び指示装置16を向ける制御を行う。 The gimbal 14 is a rotary table that rotates the camera 15 and the indicator device 16 attached to the gimbal 14 on one or more axes. The gimbal 14 reduces blurring due to vibration caused by the rotor or the like of the unmanned aerial vehicle 10. Further, the gimbal 14 activates the actuator according to the instruction of the user of the transmitter 20, and controls the camera 15 and the instruction device 16 to be directed in the direction of the position instructed by the user of the transmitter 20.

指示装置16は、送信機20のユーザにより指定された表示対象(指示対象)の物体を、現場の作業員等に示す(指示する)装置である。指示装置16は、例えば、当該位置にレーザー光線を照射するレーザーポインター(Laser Pointer、レーザー光指示具)、及び当該位置に光を照射する照明装置等でもよい。なお、当該照明装置は、発光ダイオード(LED、Light Emitting Diode)を用いた、比較的直進性が高いLED照明等でもよい。 The instruction device 16 is a device that indicates (instructs) an object to be displayed (instruction target) designated by the user of the transmitter 20 to workers and the like at the site. The indicator device 16 may be, for example, a laser pointer (Laser Pointer, a laser light indicator) that irradiates the position with a laser beam, a lighting device that irradiates the position with light, or the like. The lighting device may be LED lighting or the like using a light emitting diode (LED, Light Emitting Diode) and having a relatively high straightness.

また、指示装置16は、例えば、当該位置に所定の色の物質を付加(付着)する装置等でもよい。所定の色の物質を付加することにより、例えば、現場の作業員等が後で確認することが容易になる。また、作業員等が現場にいない場合でも、指示をしておくことができる。当該所定の色の物質を付加(噴射)する装置は、例えば、インク(インキ)を吹き付けるマーキングスプレー等でもよい。また、当該所定の色の物質を付加する装置は、例えば、ユーザの指示により電動で伸縮する電動シリンダー等の棒状アクチュエータの先端に取り付けられ、接触した際にインクを付加するスタンプ等でもよい。 Further, the instruction device 16 may be, for example, a device for adding (adhering) a substance of a predetermined color to the position. By adding a substance of a predetermined color, for example, it becomes easy for a worker at the site or the like to confirm it later. In addition, instructions can be given even when there are no workers or the like at the site. The device for adding (injecting) the substance of the predetermined color may be, for example, a marking spray for spraying ink. Further, the device for adding the substance of the predetermined color may be, for example, a stamp or the like which is attached to the tip of a rod-shaped actuator such as an electric cylinder which expands and contracts electrically according to a user's instruction and adds ink when it comes into contact with the device.

指示装置16は、例えば、カメラ15の撮影方向(パン、及びチルト)と同じ方向に、レーザー光の照射等による所定の表示を行えるようにジンバル14またはカメラ15に固定されてもよい。この場合、指示装置16は、カメラ15の光軸と指示装置16の照射方向等が平行になるようにジンバル14またはカメラ15に固定されてもよい。これにより、カメラ15で撮影される映像の中央部の物体(被写体)に対して、レーザー光の照射等よる所定の表示を行うことができる。 The instruction device 16 may be fixed to the gimbal 14 or the camera 15 so that a predetermined display can be performed by irradiating a laser beam or the like in the same direction as the shooting direction (pan and tilt) of the camera 15, for example. In this case, the instruction device 16 may be fixed to the gimbal 14 or the camera 15 so that the optical axis of the camera 15 and the irradiation direction of the instruction device 16 are parallel to each other. As a result, the object (subject) in the center of the image captured by the camera 15 can be displayed in a predetermined manner by irradiating the laser beam or the like.

なお、指示装置16は、カメラ15のジンバル14とは異なるジンバル等に取り付けられてもよい。これにより、例えば、カメラ15で撮影される画像の中央部以外の領域の物体を、指示装置16による表示対象とすることができる。 The instruction device 16 may be attached to a gimbal or the like different from the gimbal 14 of the camera 15. Thereby, for example, an object in a region other than the central portion of the image captured by the camera 15 can be displayed by the instruction device 16.

指示装置16は、レーザー光線等の照射、または所定の色の物質を付加等により物体に表示する図形を、送信機20のユーザの操作により設定してもよい。この場合、指示装置16は、送信機20のユーザの操作により情報処理装置12から送信された制御信号に基づいて、光源よりも前方に設置される物体を変更してもよい。これにより、例えば、ユーザは、物体に照射等をして作業員等に示す図形を、画像での点検結果に応じて、○形状、及び×形状等の一方に切り替えることができる。なお、光源よりも前方に設置される物体は、例えば、アクチュエータにより切り替えられる、光を通すための切れ目(スリット)が設けられた遮蔽版、及び当該光源をバックライトとする小型液晶等でもよい。 The instruction device 16 may set a figure to be displayed on the object by irradiating a laser beam or the like or adding a substance of a predetermined color by the operation of the user of the transmitter 20. In this case, the instruction device 16 may change the object installed in front of the light source based on the control signal transmitted from the information processing device 12 by the operation of the user of the transmitter 20. Thereby, for example, the user can switch the figure shown to the worker or the like by irradiating the object to one of the ○ shape, the × shape, and the like according to the inspection result in the image. The object installed in front of the light source may be, for example, a shielding plate provided with a slit for passing light, which is switched by an actuator, or a small liquid crystal having the light source as a backlight.

また、無人航空機10は、複数の指示装置16を有してもよい。この場合、無人航空機10は、例えば、レーザーポインターとマーキングスプレー等の、異なる種別の指示装置16を複数有してもよい。 指示装置16は、送信機20のユーザの操作により指定された位置の軌跡に沿って、レーザー光線等の照射、または所定の色の物質の付加等を行ってもよい。これにより、例えば、送信機20のユーザは、手書き入力のような操作で文字、及び図形等を現場の作業員等に示すことができる。 Further, the unmanned aerial vehicle 10 may have a plurality of instruction devices 16. In this case, the unmanned aerial vehicle 10 may have a plurality of different types of indicating devices 16 such as a laser pointer and a marking spray. The instruction device 16 may irradiate a laser beam or the like, add a substance of a predetermined color, or the like along a locus of a position designated by the operation of the user of the transmitter 20. Thereby, for example, the user of the transmitter 20 can show characters, figures, and the like to workers at the site by an operation such as handwriting input.

スピーカ17は、各種の音を出力するスピーカである。マイク18は、音を入力するマイクである。 The speaker 17 is a speaker that outputs various sounds. The microphone 18 is a microphone for inputting sound.

≪送信機20≫
図2Bは、実施形態に係る送信機20の構成例を示す図である。図2Bの例では、送信機20は、コントロールスティック21A、コントロールスティック21B、モニタ22、アンテナ23、クランプ24、情報処理装置25、情報処理装置28、及びタッチパネルディスプレイ29を有している。
Transmitter 20≫
FIG. 2B is a diagram showing a configuration example of the transmitter 20 according to the embodiment. In the example of FIG. 2B, the transmitter 20 has a control stick 21A, a control stick 21B, a monitor 22, an antenna 23, a clamp 24, an information processing device 25, an information processing device 28, and a touch panel display 29.

コントロールスティック21A、及びコントロールスティック21Bは、無人航空機10の移動の指示をユーザから受け付けるコントロールスティックである。モニタ22は、情報処理装置25により、無人航空機10の状態等が表示されるモニタである。アンテナ23は、無人航空機10との無線通信を行うためのアンテナである。なお、送信機20は、無人航空機10に対して直接送信する無線電波により、無人航空機10との無線通信を行ってもよい。また、送信機20は、送信機20側の無線LANアクセスポイント、インターネット、及び現場の周辺に設置された無線LANアクセスポイントを介して、より遠隔の無人航空機10との無線通信を行ってもよい。携帯電話網の基地局等を介して、より遠隔の無人航空機10との無線通信を行ってもよい。 The control sticks 21A and the control sticks 21B are control sticks that receive instructions for movement of the unmanned aerial vehicle 10 from the user. The monitor 22 is a monitor on which the state of the unmanned aerial vehicle 10 and the like are displayed by the information processing device 25. The antenna 23 is an antenna for wireless communication with the unmanned aerial vehicle 10. The transmitter 20 may perform wireless communication with the unmanned aerial vehicle 10 by radio waves directly transmitted to the unmanned aerial vehicle 10. Further, the transmitter 20 may perform wireless communication with the more remote unmanned aerial vehicle 10 via the wireless LAN access point on the transmitter 20 side, the Internet, and the wireless LAN access points installed around the site. .. Wireless communication with a more remote unmanned aerial vehicle 10 may be performed via a base station or the like of a mobile phone network.

クランプ24は、情報処理装置28を情報処理装置25に固定させる固定具である。情報処理装置25は、送信機20の各部の制御を行うコンピュータである。 The clamp 24 is a fixture that fixes the information processing device 28 to the information processing device 25. The information processing device 25 is a computer that controls each part of the transmitter 20.

情報処理装置28は、例えば、スマートフォン等でもよい。情報処理装置28は、情報処理装置25と、例えば、通信ケーブル、またはBLE(Bluetooth(登録商標) Low Energy)等の近距離無線通信等により通信できるように接続されてもよい。タッチパネルディスプレイ29は、情報処理装置28のタッチパネルディスプレイである。情報処理装置28は、無人航空機10のカメラ15で撮影された画像(動画像、及び静止画像)をタッチパネルディスプレイ29に表示させる。また、情報処理装置28は、無人航空機10の指示装置16等に対する操作をタッチパネルディスプレイ29によりユーザから受け付ける。 The information processing device 28 may be, for example, a smartphone or the like. The information processing device 28 may be connected to the information processing device 25 so as to be able to communicate with the information processing device 25 by, for example, a communication cable or short-range wireless communication such as BLE (Bluetooth (registered trademark) Low Energy). The touch panel display 29 is a touch panel display of the information processing device 28. The information processing device 28 causes the touch panel display 29 to display images (moving images and still images) taken by the camera 15 of the unmanned aerial vehicle 10. Further, the information processing device 28 receives an operation on the instruction device 16 and the like of the unmanned aerial vehicle 10 from the user by the touch panel display 29.

≪情報処理装置12、情報処理装置25、及び情報処理装置28≫
図2Cは、実施形態に係る情報処理装置12、情報処理装置25、及び情報処理装置28の構成例を示す図である。
<< Information processing device 12, information processing device 25, and information processing device 28 >>
FIG. 2C is a diagram showing a configuration example of the information processing device 12, the information processing device 25, and the information processing device 28 according to the embodiment.

以下では、情報処理装置12を例として説明する。なお、情報処理装置25、及び情報処理装置28の構成は、それぞれ、情報処理装置12の構成と同様でもよい。 Hereinafter, the information processing device 12 will be described as an example. The configuration of the information processing device 25 and the information processing device 28 may be the same as the configuration of the information processing device 12, respectively.

図2Cの例では、情報処理装置12は、それぞれバスBで相互に接続されているドライブ装置300、補助記憶装置302、メモリ装置303、CPU304、及びインタフェース装置305等を有する。 In the example of FIG. 2C, the information processing device 12 has a drive device 300, an auxiliary storage device 302, a memory device 303, a CPU 304, an interface device 305, and the like, which are connected to each other by a bus B, respectively.

補助記憶装置302は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。メモリ装置303は、プログラムの起動指示があった場合に、補助記憶装置302からプログラムを読み出して格納する。CPU304は、メモリ装置303に格納されたプログラムに従って情報処理装置12に係る機能を実現する。インタフェース装置305は、外部装置に接続するためのインタフェースとして用いられる。 The auxiliary storage device 302 stores the installed program and also stores necessary files, data, and the like. The memory device 303 reads and stores the program from the auxiliary storage device 302 when the program is instructed to start. The CPU 304 realizes the function related to the information processing device 12 according to the program stored in the memory device 303. The interface device 305 is used as an interface for connecting to an external device.

情報処理装置12での処理を実現するプログラムは、記録媒体301によって提供されてもよい。プログラムを記録した記録媒体301がドライブ装置300にセットされると、プログラムが記録媒体301からドライブ装置300を介して補助記憶装置302にインストールされる。但し、プログラムのインストールは必ずしも記録媒体301より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。 The program that realizes the processing in the information processing apparatus 12 may be provided by the recording medium 301. When the recording medium 301 on which the program is recorded is set in the drive device 300, the program is installed in the auxiliary storage device 302 from the recording medium 301 via the drive device 300. However, the program does not necessarily have to be installed from the recording medium 301, and may be downloaded from another computer via the network.

なお、記録媒体301の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置302の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体301及び補助記憶装置302のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。 An example of the recording medium 301 is a portable recording medium such as a CD-ROM, a DVD disc, or a USB memory. Further, as an example of the auxiliary storage device 302, an HDD (Hard Disk Drive), a flash memory, or the like can be mentioned. Both the recording medium 301 and the auxiliary storage device 302 correspond to computer-readable recording media.

≪無人航空機10、及び送信機20の機能構成≫
図2Dは、実施形態に係る無人航空機10、及び送信機20の機能構成の一例を示す図である。
<< Functional configuration of unmanned aerial vehicle 10 and transmitter 20 >>
FIG. 2D is a diagram showing an example of the functional configuration of the unmanned aerial vehicle 10 and the transmitter 20 according to the embodiment.

(無人航空機10)
無人航空機10は、送受信部101、飛行制御部102、撮影部103、及び制御部104を有する。これら各部は、情報処理装置12にインストールされた1以上のプログラムと、情報処理装置12のCPU104等のハードウェアとの協働により実現されてもよい。
(Unmanned aerial vehicle 10)
The unmanned aerial vehicle 10 has a transmission / reception unit 101, a flight control unit 102, a photographing unit 103, and a control unit 104. Each of these parts may be realized by the cooperation of one or more programs installed in the information processing device 12 and hardware such as the CPU 104 of the information processing device 12.

送受信部101は、送信機20からのデータを受信する。また、送受信部101は、送信機20にデータを送信する。 The transmitter / receiver 101 receives data from the transmitter 20. Further, the transmission / reception unit 101 transmits data to the transmitter 20.

飛行制御部102は、送信機20から受信したデータ等に基づいて、無人航空機10の空中の移動を制御する。撮影部103は、無人航空機10のカメラ15により画像を撮影する。制御部104は、無人航空機10の各部の制御を行う。 The flight control unit 102 controls the movement of the unmanned aerial vehicle 10 in the air based on the data received from the transmitter 20 and the like. The photographing unit 103 photographs an image with the camera 15 of the unmanned aerial vehicle 10. The control unit 104 controls each unit of the unmanned aerial vehicle 10.

制御部104は、例えば、送信機20のユーザの操作により、無人航空機10の付近の作業員等と送信機20のユーザとの音声通話を行う。この場合、制御部104は、マイク18で集音した作業員等の音声を送信機20に送信し、送信機20から受信したユーザの音声をスピーカ17に出力させる。この場合、制御部104は、送信機20のユーザの操作により、スピーカ17の音量を変更できるようにしてもよい。 The control unit 104 makes a voice call between a worker or the like in the vicinity of the unmanned aerial vehicle 10 and the user of the transmitter 20 by the operation of the user of the transmitter 20, for example. In this case, the control unit 104 transmits the voice of the worker or the like collected by the microphone 18 to the transmitter 20, and outputs the user's voice received from the transmitter 20 to the speaker 17. In this case, the control unit 104 may be able to change the volume of the speaker 17 by the operation of the user of the transmitter 20.

制御部104は、送信機20から受信したユーザの音声をスピーカ17に出力させる際、マイク18で集音した周囲の音(環境音)と逆位相の音をスピーカ17から出力してもよい。これにより、例えば、無人航空機10が飛行している際のプロペラ13A等による音(ホバリング音)が低減され、作業員等はユーザからの音声を聞き取り易くし、ユーザは作業員等からの音声を聞き取り易くすることができる。この場合、制御部104は、マイク18で集音した音から、プロペラ13A等による音を、ディープラーニング等を用いたAI(Artificial Intelligence)等により抽出し、抽出した音とは逆位相の音をスピーカ17から出力してもよい。 When the user's voice received from the transmitter 20 is output to the speaker 17, the control unit 104 may output a sound having a phase opposite to the ambient sound (environmental sound) collected by the microphone 18 from the speaker 17. As a result, for example, the sound (hovering sound) caused by the propeller 13A or the like when the unmanned aerial vehicle 10 is flying is reduced, the worker or the like can easily hear the voice from the user, and the user can hear the voice from the worker or the like. It can be made easier to hear. In this case, the control unit 104 extracts the sound produced by the propeller 13A or the like from the sound collected by the microphone 18 by AI (Artificial Intelligence) or the like using deep learning or the like, and outputs a sound having a phase opposite to the extracted sound. It may be output from the speaker 17.

(送信機20)
送信機20は、受付部201、送受信部202、表示部203、及び制御部204を有する。これら各部は、情報処理装置25、及び情報処理装置28の少なくとも一方にインストールされた1以上のプログラムと、CPU等のハードウェアとの協働により実現されてもよい。
(Transmitter 20)
The transmitter 20 has a reception unit 201, a transmission / reception unit 202, a display unit 203, and a control unit 204. Each of these parts may be realized by the cooperation of one or more programs installed in at least one of the information processing device 25 and the information processing device 28 and hardware such as a CPU.

受付部201は、ユーザからの各種の操作を受け付ける。送受信部202は、無人航空機10からのデータを受信する。また、送受信部202は、無人航空機10にデータを送信する。表示部203は、各種の情報を画面に表示させる。制御部204は、送信機20の各部を制御する。制御部204は、例えば、スマートフォン等である情報処理装置28マイク、及びスピーカ(図示せず)を用いて、無人航空機10との音声通話を行う。 The reception unit 201 receives various operations from the user. The transmission / reception unit 202 receives data from the unmanned aerial vehicle 10. Further, the transmission / reception unit 202 transmits data to the unmanned aerial vehicle 10. The display unit 203 displays various information on the screen. The control unit 204 controls each unit of the transmitter 20. The control unit 204 makes a voice call with the unmanned aerial vehicle 10 by using, for example, an information processing device 28 microphone such as a smartphone and a speaker (not shown).

<処理>
図3から図4Cを参照し、実施形態に係る指示システム1の処理の一例について説明する。図3は、実施形態に係る指示システム1の処理の一例を示すシーケンス図である。図4Aから図4Cは、実施形態に係る送信機20での表示画面の一例について説明する図である。
<Processing>
An example of the processing of the instruction system 1 according to the embodiment will be described with reference to FIGS. 3 to 4C. FIG. 3 is a sequence diagram showing an example of processing of the instruction system 1 according to the embodiment. 4A to 4C are diagrams illustrating an example of a display screen on the transmitter 20 according to the embodiment.

ステップS1において、送信機20の受付部201は、無人航空機10を飛行させて移動させる操作をユーザから受け付ける。ここで、送信機20は、例えば、コントロールスティック21A、及びコントロールスティック21Bでの操作を受け付ける。 In step S1, the reception unit 201 of the transmitter 20 receives from the user an operation of flying and moving the unmanned aerial vehicle 10. Here, the transmitter 20 accepts operations with, for example, the control stick 21A and the control stick 21B.

続いて、送信機20の送受信部202は、ユーザの操作に応答して、無人航空機10の飛行を指示するデータ(飛行制御指示)を無人航空機10に送信する(ステップS2)。続いて、無人航空機10の飛行制御部102は、受信したデータに基づいて、飛行を行う(ステップS3)。 Subsequently, the transmission / reception unit 202 of the transmitter 20 transmits data (flight control instruction) instructing the flight of the unmanned aerial vehicle 10 to the unmanned aerial vehicle 10 in response to the operation of the user (step S2). Subsequently, the flight control unit 102 of the unmanned aerial vehicle 10 makes a flight based on the received data (step S3).

続いて、無人航空機10の撮影部103は、カメラ15により画像を撮影する(ステップS4)。続いて、無人航空機10の送受信部101は、撮影した画像を送信機20に送信する(ステップS5)。なお、無人航空機10は、飛行している間、自動でカメラ15により動画像を撮影し、撮影している動画像をリアルタイムで送信機20にストリーミング配信してもよい。 Subsequently, the photographing unit 103 of the unmanned aerial vehicle 10 photographs an image with the camera 15 (step S4). Subsequently, the transmission / reception unit 101 of the unmanned aerial vehicle 10 transmits the captured image to the transmitter 20 (step S5). The unmanned aerial vehicle 10 may automatically take a moving image with the camera 15 while flying, and stream the taken moving image to the transmitter 20 in real time.

続いて、送信機20の表示部203は、受信した画像を画面に表示させる(ステップS6)。ここで、送信機20は、無人航空機10から受信した動画像を、タッチパネルディスプレイ29に表示させてもよい。これにより、ユーザは、例えば、無人航空機10からの動画像を見ながら、無人航空機10を遠隔で操縦することができる。 Subsequently, the display unit 203 of the transmitter 20 displays the received image on the screen (step S6). Here, the transmitter 20 may display the moving image received from the unmanned aerial vehicle 10 on the touch panel display 29. Thereby, for example, the user can remotely control the unmanned aerial vehicle 10 while viewing the moving image from the unmanned aerial vehicle 10.

また、無人航空機10は、送信機20でのユーザの操作に応答して、無人航空機10と送信機20との間の音声通話を接続させる。これにより、現場にいない監督等のユーザは、現場の画像を見ながら、現場の作業員等との会話を行うことができる。 Further, the unmanned aerial vehicle 10 connects a voice call between the unmanned aerial vehicle 10 and the transmitter 20 in response to a user operation on the transmitter 20. As a result, a user such as a supervisor who is not at the site can have a conversation with a worker at the site while viewing the image of the site.

また、無人航空機10は、送信機20でのユーザの操作に応答して、送信機20のユーザの識別情報を、現場の作業員等に報知してもよい。この場合、無人航空機10は、例えば、ランプの発行色、無人航空機10に搭載された表示装置(ディスプレイ)でのユーザの顔画像、所属部署、及び役職等の表示により、送信機20のユーザの識別情報を、現場の作業員等に報知してもよい。 Further, the unmanned aerial vehicle 10 may notify the on-site worker or the like of the identification information of the user of the transmitter 20 in response to the operation of the user by the transmitter 20. In this case, the unmanned aerial vehicle 10 uses, for example, the color issued by the lamp, the user's face image on the display device (display) mounted on the unmanned aerial vehicle 10, the department to which the unmanned aerial vehicle 10 belongs, the position, and the like. The identification information may be notified to on-site workers and the like.

図4Aの例では、送信機20は、タッチパネルディスプレイ29の表示画面401において、施設402、施設402への配管のフランジ403、現場の作業員404等が撮影された動画像を表示させている。 In the example of FIG. 4A, the transmitter 20 displays a moving image taken by the facility 402, the flange 403 of the pipe to the facility 402, the on-site worker 404, and the like on the display screen 401 of the touch panel display 29.

ここで、送信機20は、コントロールスティック21A等によるユーザの操作を受け付けて、無人航空機10をフランジ403の付近に移動されると、図4Bの表示画面411を表示させる。図4Bの表示画面411では、フランジ403と、ボルト(ナット)412等が撮影された動画像を表示させている。 Here, the transmitter 20 accepts the user's operation by the control stick 21A or the like, and when the unmanned aerial vehicle 10 is moved to the vicinity of the flange 403, the display screen 411 of FIG. 4B is displayed. On the display screen 411 of FIG. 4B, a moving image in which the flange 403 and the bolt (nut) 412 and the like are photographed is displayed.

続いて、送信機20の受付部201は、所定の指示操作をユーザから受け付ける(ステップS7)。続いて、送信機20の送受信部202は、ユーザの指示操作に応答して、無人航空機10の指示装置16等に対する制御を行うデータ(指示制御指示)を無人航空機10に送信する(ステップS8)。続いて、無人航空機10の制御部104は、受信したデータに基づいて、指示制御を行う(ステップS9)。ここで、無人航空機10は、ユーザに指示された画像上の位置に応じた位置に、指示装置16により所定の表示を行ってもよい。 Subsequently, the reception unit 201 of the transmitter 20 receives a predetermined instruction operation from the user (step S7). Subsequently, the transmission / reception unit 202 of the transmitter 20 transmits data (instruction control instruction) for controlling the instruction device 16 and the like of the unmanned aerial vehicle 10 to the unmanned aerial vehicle 10 in response to the user's instruction operation (step S8). .. Subsequently, the control unit 104 of the unmanned aerial vehicle 10 performs instruction control based on the received data (step S9). Here, the unmanned aerial vehicle 10 may perform a predetermined display by the instruction device 16 at a position corresponding to the position on the image instructed by the user.

ステップS7において、送信機20は、例えば、図4Bの表示画面411において、ボルト412の位置をタップする操作を受け付けてもよい。そして、無人航空機10は、カメラ15により撮影された画像を認識し、ボルト412の位置がカメラ15の撮影画像の中心となるように、ジンバル14を制御してもよい。この場合、無人航空機10は、ジンバル14の制御によりカメラ15の撮影方向を徐々に変えて行き、ボルト412の位置がカメラ15の撮影画像の中心となった時点で、ジンバル14の制御を停止するようにしてもよい。 In step S7, the transmitter 20 may accept, for example, an operation of tapping the position of the bolt 412 on the display screen 411 of FIG. 4B. Then, the unmanned aerial vehicle 10 may recognize the image taken by the camera 15 and control the gimbal 14 so that the position of the bolt 412 becomes the center of the image taken by the camera 15. In this case, the unmanned aerial vehicle 10 gradually changes the shooting direction of the camera 15 under the control of the gimbal 14, and stops the control of the gimbal 14 when the position of the bolt 412 becomes the center of the shot image of the camera 15. You may do so.

また、無人航空機10は、カメラ15により撮影された画像を認識し、ボルト412の位置がカメラ15の撮影画像の中心となるように、無人航空機10を移動させてもよい。この場合、無人航空機10は、センサ等により検出した周囲の障害物との接触等を回避しながら、ユーザに指定されたボルト412に近づくようにプロペラ13A等を制御してもよい。 Further, the unmanned aerial vehicle 10 may recognize the image taken by the camera 15 and move the unmanned aerial vehicle 10 so that the position of the bolt 412 becomes the center of the image taken by the camera 15. In this case, the unmanned aerial vehicle 10 may control the propeller 13A or the like so as to approach the bolt 412 designated by the user while avoiding contact with surrounding obstacles detected by the sensor or the like.

図4Cの表示画面421では、無人航空機10は、ユーザに指定されたボルト412の付近に移動し、ボルト412の位置がカメラ15の撮影画像の中心となるように、ジンバル14を制御している。そして、無人航空機10は、ユーザによりボルト412が表示対象として指定された場合、指示装置16を起動してボルト412に所定の表示を行う。この場合、例えば、送信機20のタッチパネルディスプレイ29の表示画面421において、ボルト412の位置(画面上の画素の座標)がダブルタップ等の操作をされた場合、無人航空機10は、指示装置16を起動してレーザー光線を照射する等により、ボルト412の位置に×マーク422を表示させている。これにより、例えば、ユーザは、足場が無い等により現場の作業員等が容易に確認できない場所のボルトのうち、マーキングが行われていないボルトの位置等を現場の作業員等に指示することができる。 On the display screen 421 of FIG. 4C, the unmanned aerial vehicle 10 moves to the vicinity of the bolt 412 designated by the user, and controls the gimbal 14 so that the position of the bolt 412 becomes the center of the captured image of the camera 15. .. Then, when the bolt 412 is designated as a display target by the user, the unmanned aerial vehicle 10 activates the instruction device 16 to perform a predetermined display on the bolt 412. In this case, for example, when the position of the bolt 412 (coordinates of the pixels on the screen) is double-tapped or the like on the display screen 421 of the touch panel display 29 of the transmitter 20, the unmanned aerial vehicle 10 uses the indicator device 16. The x mark 422 is displayed at the position of the bolt 412 by starting and irradiating the laser beam. As a result, for example, the user can instruct the on-site worker or the like the position of the bolt that is not marked among the bolts in the place where the on-site worker or the like cannot easily confirm due to lack of scaffolding or the like. it can.

<指示装置16の制御>
無人航空機10の制御部104は、図3のステップS9の処理において、送信機20のユーザにより指示された位置に存在する物体が人体である場合、その旨を送信機20のユーザに通知し、指示装置16の動作を制限してもよい。これにより、ユーザに指示された表示対象の物体が人である場合には、レーザー光線等の照射、またはインクの付加等を行わないようにすることができる。
<Control of indicator device 16>
In the process of step S9 of FIG. 3, the control unit 104 of the unmanned aerial vehicle 10 notifies the user of the transmitter 20 to that effect when the object existing at the position instructed by the user of the transmitter 20 is a human body. The operation of the indicator device 16 may be restricted. As a result, when the object to be displayed instructed by the user is a person, it is possible to prevent the irradiation of a laser beam or the like, the addition of ink, or the like.

この場合、無人航空機10は、カメラ15で撮影された被写体を、ディープラーニング等を用いたAI等により判定(推定、推論)してもよい。そして、無人航空機10は、送信機20のユーザにより表示対象として指示された被写体が人であると判定された場合、表示対象として指示された被写体が人である旨を示すメッセージを送信機20によりユーザに報知してもよい。そして、無人航空機10は、指示装置16を起動しないようにしてもよい。 In this case, the unmanned aerial vehicle 10 may determine (estimate, infer) the subject photographed by the camera 15 by AI or the like using deep learning or the like. Then, when the unmanned aerial vehicle 10 determines that the subject designated as the display target by the user of the transmitter 20 is a person, the transmitter 20 sends a message indicating that the subject designated as the display target is a person. The user may be notified. Then, the unmanned aerial vehicle 10 may not activate the instruction device 16.

また、無人航空機10の制御部104は、図3のステップS9の処理において、GPS(Global Positioning System)等の衛星測位システムを用いて取得した無人航空機10の現在位置が所定のエリア内等であり、送信機20のユーザにより指示された位置が、無人航空機10から見て所定の閾値(例えば、無人航空機10から見て水平)を超える角度である場合、その旨を送信機20のユーザに通知し、指示装置16の動作を制限してもよい。これにより、例えば、法令(例えば、航空法)等により、飛行場の周辺で、上空を飛行する航空機等に対してレーザー光線を照射する行為が禁止されている場合に、当該法令等を順守することができる。 Further, in the process of step S9 of FIG. 3, the control unit 104 of the unmanned aerial vehicle 10 determines that the current position of the unmanned aerial vehicle 10 acquired by using a satellite positioning system such as GPS (Global Positioning System) is within a predetermined area or the like. If the position instructed by the user of the transmitter 20 exceeds a predetermined threshold value (for example, horizontal when viewed from the unmanned aerial vehicle 10) when viewed from the unmanned aerial vehicle 10, the user of the transmitter 20 is notified to that effect. However, the operation of the indicator device 16 may be restricted. As a result, for example, when a law (for example, the Aviation Law) prohibits the act of irradiating an aircraft flying over the airfield with a laser beam, the law can be complied with. it can.

<飛行音の出力>
無人航空機10の制御部104は、ユーザの操作による移動、または自律飛行による移動をしている間、予め記録されている音データを再生し、再生した音データをスピーカ17に出力させてもよい。これにより、現場の作業員等は、付近で無人航空機10が空中を移動していることを認識できるため、作業員等が無人航空機10の移動経路上に飛び出す等の可能性をより低減することができる。なお、無人航空機10は、飛行していない間、送信機20との音声通話を行っている間、及び空中の一定位置で静止(ホバリング)している間等は、当該音データを出力しないようにしてもよい。
<Flight sound output>
The control unit 104 of the unmanned aerial vehicle 10 may reproduce the sound data recorded in advance and output the reproduced sound data to the speaker 17 while moving by the user's operation or by autonomous flight. .. As a result, on-site workers and the like can recognize that the unmanned aerial vehicle 10 is moving in the air in the vicinity, so that the possibility that the workers and the like jump out on the movement path of the unmanned aerial vehicle 10 can be further reduced. Can be done. The unmanned aerial vehicle 10 should not output the sound data while it is not flying, during a voice call with the transmitter 20, or while it is stationary (hovering) at a fixed position in the air. It may be.

また、無人航空機10は、空中を移動しながら指示装置16を動作させている場合は、通常時とは異なる音、または音量により、音をスピーカ17に出力させてもよい。この場合、無人航空機10は、指示装置16を動作させずに空中を移動している場合は、第1音を再生して第1音量でスピーカ17から出力させてもよい。そして、無人航空機10は、指示装置16を動作させながら空中を移動している場合は、第1音とは異なる第2音を再生して出力する、または第1音を再生して第1音量よりも大きい第2音量でスピーカ17から出力させるようにしてもよい。これにより、レーザー光線等を照射しながら空中を移動している場合に、作業員等がレーザー光線等の照射経路上に飛び出す等の可能性をより低減することができる。 Further, when the unmanned aerial vehicle 10 is operating the instruction device 16 while moving in the air, the unmanned aerial vehicle 10 may output the sound to the speaker 17 with a sound different from the normal time or a volume. In this case, when the unmanned aerial vehicle 10 is moving in the air without operating the instruction device 16, the unmanned aerial vehicle 10 may reproduce the first sound and output it from the speaker 17 at the first volume. Then, when the unmanned aerial vehicle 10 is moving in the air while operating the instruction device 16, the unmanned aerial vehicle 10 reproduces and outputs a second sound different from the first sound, or reproduces the first sound and produces the first volume. The speaker 17 may output at a second volume louder than that. Thereby, when moving in the air while irradiating the laser beam or the like, the possibility that the worker or the like jumps out on the irradiation path of the laser beam or the like can be further reduced.

<変形例1>
無人航空機10は、指示装置16とは異なる照明装置を有してもよい。これにより、室内、及びトンネル等の比較的暗い場所でも、より鮮明な画像をカメラ15で撮影することができる。この場合、当該照明装置は、無人航空機10の前方を照らす位置に取り付けられてもよい。または、ジンバル14、カメラ15、または指示装置16に取り付けられてもよい。
<Modification example 1>
The unmanned aerial vehicle 10 may have a lighting device different from the indicator device 16. As a result, a clearer image can be taken by the camera 15 even in a relatively dark place such as a room or a tunnel. In this case, the lighting device may be installed at a position that illuminates the front of the unmanned aerial vehicle 10. Alternatively, it may be attached to the gimbal 14, the camera 15, or the indicator 16.

また、無人航空機10の制御部104は、送信機20のユーザの操作により、当該照明装置の照度(明るさ)を設定(変更)できるようにしてもよい。 Further, the control unit 104 of the unmanned aerial vehicle 10 may be able to set (change) the illuminance (brightness) of the lighting device by the operation of the user of the transmitter 20.

<変形例2>
無人航空機10、及び送信機20の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、無人航空機10の処理の一部を、送信機20にて実行させてもよい。
<Modification 2>
Each functional unit of the unmanned aerial vehicle 10 and the transmitter 20 may be realized by cloud computing composed of, for example, one or more computers. Further, a part of the processing of the unmanned aerial vehicle 10 may be executed by the transmitter 20.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the examples of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications are made within the scope of the gist of the present invention described in the claims.・ Can be changed.

1 指示システム
10 無人航空機
11 アンテナ
12 情報処理装置
13A プロペラ
13B プロペラ
13C プロペラ
13D プロペラ
14 ジンバル
15 カメラ
16 指示装置
17 スピーカ
18 マイク
20 送信機
21A コントロールスティック
21B コントロールスティック
22 モニタ
23 アンテナ
24 クランプ
25 情報処理装置
28 情報処理装置
29 タッチパネルディスプレイ
101 送受信部
102 飛行制御部
103 撮影部
104 制御部
201 受付部
202 送受信部
203 表示部
204 制御部
1 Instruction system 10 Unmanned aerial vehicle 11 Antenna 12 Information processing device 13A Propeller 13B Propeller 13C Propeller 13D Propeller 14 Gimbal 15 Camera 16 Instruction device 17 Speaker 18 Microphone 20 Transmitter 21A Control stick 21B Control stick 22 Monitor 23 Antenna 24 Clamp 25 Information processing device 28 Information processing device 29 Touch panel display 101 Transmitting / receiving unit 102 Flight control unit 103 Imaging unit 104 Control unit 201 Reception unit 202 Transmitting / receiving unit 203 Display unit 204 Control unit

Claims (11)

無人航空機と、ユーザによる前記無人航空機の操作を受け付ける無線機とを有する指示システムであって、
前記無人航空機は、
前記ユーザにより指示された位置を示す指示装置を有し、
前記ユーザによる指示に基づいて、前記指示装置により所定の表示を行う、指示システム。
An instruction system having an unmanned aerial vehicle and a radio that accepts the operation of the unmanned aerial vehicle by a user.
The unmanned aerial vehicle
It has an instruction device that indicates the position instructed by the user.
An instruction system that performs a predetermined display by the instruction device based on an instruction by the user.
前記指示装置は、
前記位置にレーザー光線を照射するレーザー光指示具、前記位置に光を照射する照明装置、及び前記位置に所定の色の物質を付加する装置の少なくとも一つにより前記所定の表示を行う、
請求項1に記載の指示システム。
The indicator is
The predetermined display is performed by at least one of a laser light indicator that irradiates a laser beam at the position, a lighting device that irradiates light at the position, and a device that adds a substance of a predetermined color to the position.
The instruction system according to claim 1.
前記無人航空機は、
前記ユーザにより指示された前記位置の物体が人体である場合、その旨を前記ユーザに通知し、前記指示装置の動作を制限する、
請求項1または2に記載の指示システム。
The unmanned aerial vehicle
When the object at the position instructed by the user is a human body, the user is notified to that effect and the operation of the instruction device is restricted.
The instruction system according to claim 1 or 2.
前記無人航空機は、
前記指示装置を動作させずに移動している場合は、第1音を再生して第1音量で出力し、
前記指示装置を動作させながら移動している場合は、前記第1音とは異なる第2音を再生して出力する、または前記第1音を再生して前記第1音量よりも大きい第2音量で出力する、
請求項1から3のいずれか一項に記載の指示システム。
The unmanned aerial vehicle
When moving without operating the indicator, the first sound is played and output at the first volume.
When moving while operating the instruction device, a second sound different from the first sound is reproduced and output, or the first sound is reproduced and a second volume larger than the first volume is produced. Output with,
The instruction system according to any one of claims 1 to 3.
前記無人航空機は、
撮影装置により撮影された画像を前記無線機により表示させ、
前記ユーザに指示された前記画像上の位置に応じた位置に、前記指示装置により前記所定の表示を行う、
請求項1から4のいずれか一項に記載の指示システム。
The unmanned aerial vehicle
The image taken by the photographing device is displayed by the radio, and the image is displayed.
The predetermined display is performed by the instruction device at a position corresponding to the position on the image instructed by the user.
The instruction system according to any one of claims 1 to 4.
前記指示装置は、
前記無線機により表示させる画像を撮影する撮影装置が支持される台、または当該撮影装置に設置される、
請求項1から5のいずれか一項に記載の指示システム。
The indicator is
A table on which a photographing device for capturing an image to be displayed by the radio is supported, or installed on the photographing device.
The instruction system according to any one of claims 1 to 5.
前記無人航空機は、
前記ユーザによる指示に基づいて、前記指示装置により表示する図形を設定する、
請求項1から6のいずれか一項に記載の指示システム。
The unmanned aerial vehicle
Based on the instruction by the user, the figure to be displayed by the instruction device is set.
The instruction system according to any one of claims 1 to 6.
前記無人航空機は、
プロペラ、マイク、及びスピーカを有し、
前記無線機から受信した音声を前記スピーカから出力させる際、前記マイクで集音した音のうち、前記プロペラによる音と逆位相の音をスピーカから出力する、
請求項1から7のいずれか一項に記載の指示システム。
The unmanned aerial vehicle
It has a propeller, a microphone, and a speaker,
When the sound received from the radio is output from the speaker, the sound collected by the microphone and having a phase opposite to that of the propeller is output from the speaker.
The instruction system according to any one of claims 1 to 7.
ユーザにより指示された位置を示す指示装置を有し、
前記ユーザによる指示に基づいて、前記指示装置により所定の表示を行う、無人航空機。
It has an instruction device that indicates the position instructed by the user.
An unmanned aerial vehicle that performs a predetermined display by the instruction device based on the instruction by the user.
ユーザにより指示された位置を示す指示装置を有する無人航空機と、前記ユーザによる前記無人航空機の操作を受け付ける無線機とを有する指示システムが、
前記ユーザによる指示に基づいて、前記無人航空機の前記指示装置により所定の表示を行う、指示方法。
An instruction system having an unmanned aerial vehicle having an instruction device indicating a position instructed by a user and a radio device for receiving an operation of the unmanned aerial vehicle by the user.
An instruction method in which a predetermined display is performed by the instruction device of the unmanned aerial vehicle based on the instruction by the user.
コンピュータに、
ユーザによる位置を指定する操作を受け付ける処理と、
当該操作に応答して、無人航空機の指示装置により所定の表示を行わせる情報を前記無人航空機に送信する処理と、を実行させるプログラム。
On the computer
The process of accepting the operation of specifying the position by the user,
A program for executing a process of transmitting information to the unmanned aerial vehicle to perform a predetermined display by an instruction device of the unmanned aerial vehicle in response to the operation.
JP2019233396A 2019-12-24 2019-12-24 Instruction system, unmanned aircraft and instruction method Active JP7383473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019233396A JP7383473B2 (en) 2019-12-24 2019-12-24 Instruction system, unmanned aircraft and instruction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233396A JP7383473B2 (en) 2019-12-24 2019-12-24 Instruction system, unmanned aircraft and instruction method

Publications (2)

Publication Number Publication Date
JP2021102359A true JP2021102359A (en) 2021-07-15
JP7383473B2 JP7383473B2 (en) 2023-11-20

Family

ID=76754661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233396A Active JP7383473B2 (en) 2019-12-24 2019-12-24 Instruction system, unmanned aircraft and instruction method

Country Status (1)

Country Link
JP (1) JP7383473B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003270719A (en) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projector, and method and system for supporting work
JP2013230547A (en) * 2012-04-30 2013-11-14 Boeing Co:The System, apparatus and method for laser projection-assisted fastener installation
CN105416604A (en) * 2015-12-14 2016-03-23 深圳市多尼卡电子技术有限公司 Aircraft and cabin noise reduction method and device of aircraft
JP2018030407A (en) * 2016-08-23 2018-03-01 株式会社日立製作所 Transportation system and transportation method
JP2018096770A (en) * 2016-12-12 2018-06-21 株式会社竹中土木 Method for automatic setting-out to ceiling plane and unmanned flying body for automatic setting-out
US20190129055A1 (en) * 2017-11-02 2019-05-02 Institute Of Geology And Geophysics, Chinese Academy Of Sciences Method, Apparatus and System for Arranging Survey Points in Field Operation with Ground Electromagnetic Instrument
JP2019074782A (en) * 2017-10-12 2019-05-16 能美防災株式会社 Mobile robot
US20190177002A1 (en) * 2017-12-07 2019-06-13 Gopro, Inc. Detection and signaling of conditions of an unmanned aerial vehicle
JP2019168229A (en) * 2018-03-22 2019-10-03 株式会社トプコン Gauge marking system using uav

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003270719A (en) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization Projection method, projector, and method and system for supporting work
JP2013230547A (en) * 2012-04-30 2013-11-14 Boeing Co:The System, apparatus and method for laser projection-assisted fastener installation
CN105416604A (en) * 2015-12-14 2016-03-23 深圳市多尼卡电子技术有限公司 Aircraft and cabin noise reduction method and device of aircraft
JP2018030407A (en) * 2016-08-23 2018-03-01 株式会社日立製作所 Transportation system and transportation method
JP2018096770A (en) * 2016-12-12 2018-06-21 株式会社竹中土木 Method for automatic setting-out to ceiling plane and unmanned flying body for automatic setting-out
JP2019074782A (en) * 2017-10-12 2019-05-16 能美防災株式会社 Mobile robot
US20190129055A1 (en) * 2017-11-02 2019-05-02 Institute Of Geology And Geophysics, Chinese Academy Of Sciences Method, Apparatus and System for Arranging Survey Points in Field Operation with Ground Electromagnetic Instrument
US20190177002A1 (en) * 2017-12-07 2019-06-13 Gopro, Inc. Detection and signaling of conditions of an unmanned aerial vehicle
JP2019168229A (en) * 2018-03-22 2019-10-03 株式会社トプコン Gauge marking system using uav

Also Published As

Publication number Publication date
JP7383473B2 (en) 2023-11-20

Similar Documents

Publication Publication Date Title
JP6729561B2 (en) Light irradiation device and light irradiation system
CN109074101B (en) Imaging using multiple drones
US10440323B2 (en) Facilitating wide view video conferencing through a drone network
WO2017114504A1 (en) Facilitating wide-view video conferencing through a uav network
WO2017150433A1 (en) Unmanned air vehicle, unmanned air vehicle control system, flight control method, and program storage medium
WO2018152849A1 (en) Control method, remote monitoring device, base station, server and steaming media server
CN107992064B (en) Slave unmanned aerial vehicle flight control method, device and system based on master unmanned aerial vehicle
JP5949133B2 (en) Mobile training support system
WO2019080113A1 (en) Patrol planning method for unmanned aerial vehicle, control terminal, unmanned aerial vehicle, and unmanned aerial vehicle system
US20180336768A1 (en) Systems and methods for outdoor evacuation guidance using an uav
JP2019184414A (en) Overhead conductor inspection system and method for inspecting overhead conductor
JP2018070010A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP2006270404A (en) Device and method for controlling photographing and photographing control program
JP2018070011A (en) Unmanned aircraft controlling system, controlling method and program thereof
CN110333736A (en) Unmanned plane during flying system, method and remote control method and controlled method
KR20240020718A (en) Air traffic control expert support system using smart glass
JP7383473B2 (en) Instruction system, unmanned aircraft and instruction method
CN110772728A (en) Special unmanned aerial vehicle and system for fire fighting and fire fighting method thereof
JP2018069744A (en) Unmanned flight vehicle and aerial image display system
JP6840441B2 (en) Imaging system and flying object
JP2020078209A (en) Inspection system, inspection support method, and inspection support program
WO2022188151A1 (en) Image photographing method, control apparatus, movable platform, and computer storage medium
US20220185472A1 (en) Information processing apparatus and method, and program
KR20200124899A (en) Apparatus and method for checking facility
KR102468933B1 (en) Successive building information management system based on drone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R150 Certificate of patent or registration of utility model

Ref document number: 7383473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150