JP2021179956A - Remote operation system and operation device thereof - Google Patents
Remote operation system and operation device thereof Download PDFInfo
- Publication number
- JP2021179956A JP2021179956A JP2020177843A JP2020177843A JP2021179956A JP 2021179956 A JP2021179956 A JP 2021179956A JP 2020177843 A JP2020177843 A JP 2020177843A JP 2020177843 A JP2020177843 A JP 2020177843A JP 2021179956 A JP2021179956 A JP 2021179956A
- Authority
- JP
- Japan
- Prior art keywords
- multicopter
- control device
- information
- control
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 49
- 238000010586 diagram Methods 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 230000005856 abnormality Effects 0.000 description 7
- 230000003028 elevating effect Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008054 signal transmission Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000007664 blowing Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000087 stabilizing effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- LIWAQLJGPBVORC-UHFFFAOYSA-N ethylmethylamine Chemical compound CCNC LIWAQLJGPBVORC-UHFFFAOYSA-N 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 229910052741 iridium Inorganic materials 0.000 description 1
- GKOZUEZYRPOHIO-UHFFFAOYSA-N iridium atom Chemical compound [Ir] GKOZUEZYRPOHIO-UHFFFAOYSA-N 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Selective Calling Equipment (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は移動体の遠隔操縦技術に関する。 The present invention relates to a remote control technique for a mobile body.
下記特許文献1には、無人航空機の着陸操作装置が開示されている。 The following Patent Document 1 discloses a landing operation device for an unmanned aerial vehicle.
本発明が解決しようとする課題は、遠方にある移動体をより高い精度で管理することにある。 The problem to be solved by the present invention is to manage a distant moving object with higher accuracy.
上記課題を解決するため、本発明の遠隔操縦システムは、移動体と、前記移動体を遠隔操作する操縦装置と、を備え、前記移動体は撮影手段を有し、前記操縦装置は、前記移動体の内界および/または外界に関する情報である移動体情報を表示する表示部を有し、前記移動体は、撮影した画像または映像についてエッジ検出を行い、その画像または映像のエッジ情報、輪郭情報またはセグメント情報を前記操縦装置に送信可能であることを特徴とする。 In order to solve the above problems, the remote control system of the present invention includes a moving body and a control device for remotely controlling the moving body, the moving body has a photographing means, and the control device is the moving body. It has a display unit that displays moving body information that is information about the inner world and / or the outer world of the body, and the moving body performs edge detection on a captured image or video, and edge information and contour information of the image or video. Alternatively, the segment information can be transmitted to the control device.
また、本発明の遠隔操縦システムは、前記移動体が前記操縦装置の位置からは目視不能な場所にあってもよい。 Further, in the remote control system of the present invention, the moving body may be in a place invisible from the position of the control device.
以上のように、本発明の遠隔操縦システムおよびその操縦装置によれば、遠方にある移動体をより高い精度で管理することが可能となる。 As described above, according to the remote control system of the present invention and the control device thereof, it is possible to manage a distant moving object with higher accuracy.
以下、本発明の実施形態について図面を用いて説明する。以下に説明する実施形態は、移動体であるマルチコプター10を操縦装置50により遠方から監視および操縦する遠隔操縦システムSの例である。本形態のマルチコプター10は、複数の水平回転翼で飛行する小型のUAV(Unmanned aerial vehicle:無人航空機)である。マルチコプター10はこれに搭載された機器で取得した情報を操縦装置50に送信し、操縦装置50はマルチコプター10自体やこれに搭載された機器の動作を遠隔制御する。マルチコプター10および操縦装置50の組み合わせは一対一とは限らず、一台の操縦装置50で複数機のマルチコプター10を管理することや、逆に複数台の操縦装置50で一機のマルチコプター10を管理することもあり得る。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below is an example of a remote control system S that monitors and controls a
[操縦装置]
以下、操縦装置50の構成について説明する。図1は操縦装置50の一例を示す模式図である。図2は操縦装置50の機能構成を示すブロック図である。図3はマルチコプター10の機能構成を示すブロック図である。
[Control device]
Hereinafter, the configuration of the
(モニタシステム)
操縦装置50の操縦席59は複数のモニター70(表示部)に取り囲まれている。本形態のモニター70は、操縦席59の前に配置されたモニターである前方モニター71、操縦席59の左右に配置された側方モニター72、操縦装置50の床面に配置された下方モニター73、操縦装置50の天井面に配置された上方モニター74、および、操縦席59の背後に配置された後方モニター75により構成されている。
(Monitor system)
The
本形態のマルチコプター10には複数台のカメラ41(撮影手段)が搭載されている。マルチコプター10はこれらカメラ41により機体の前後、左右、および上下の映像を撮影する。操縦装置50の映像表示プログラム61は、マルチコプター10から受信したこれらの映像をその撮影方向に対応するモニター70にそれぞれ表示する。具体的には、前方モニター71にはマルチコプター10の前方の映像が広範囲に表示され、側方モニター72にはマルチコプター10の左右の映像が、下方モニター73にはマルチコプター10の真下または前方斜め下の映像が、上方モニター74にはマルチコプター10の真上または前方斜め上の映像が、後方モニター75にはマルチコプター10の後方の映像が表示される。これにより操縦者は、あたかもマルチコプター10に搭乗しているかのようにマルチコプター10の周辺環境を把握することができる。
The
なお、本形態の下方モニター73は操縦装置50の床面に設置されているが、下方モニター73の位置は床面には限られず、操縦者の足元付近(操縦者が視線を下に落として見る位置)に配置されていればよい。下方モニター73は、例えばこれを見るときに操縦者の足で画面が隠れてしまわないよう、前方モニター71の下に画面を斜め上に向けて配置されてもよい。同様に、本形態の上方モニター74は操縦装置50の天井面に設置されているが、上方モニター74の位置は天井面には限られず、操縦者の頭上(操縦者が見上げる位置)に配置されていればよい。上方モニター74は、例えば操縦者が視線を真上に向けなくても確認できるよう、前方モニター71の上に、画面を斜め下に向けて配置されてもよい。
Although the
本形態の映像表示プログラム61は、各カメラ41で撮影された映像をそれぞれ別のモニター70に表示するだけでなく、これらの映像を一つのモニター70上に並べて又は重ねて同時に表示したり、逆に一つの広画角の映像を複数のモニター70に分割して表示したりすることができる。例えば、マルチコプター10の上下、左右、および後方の映像を前方の映像の端に重ねて前方モニター71に同時に表示したり、全天球カメラや半天球カメラの映像を平面化および分割し、それぞれの撮影方向に対応するモニター70に表示したりすることができる。
The
マルチコプター10に搭載されるカメラ41の台数や撮影方向は任意であり、その用途や目的に応じて適宜変更すればよい。マルチコプター10は、例えば一台のカメラ41でマルチコプター10の前方やその斜め下のみを撮影してもよく、一台のカメラ41をカメラジンバル49で操作して所望の方向を撮影してもよい。さらには、マルチコプター10にカメラ41を搭載せず、他のセンサ装置の出力値またはその加工値のみを操縦装置50に送信してもよい。
The number of
また、マルチコプター10に搭載されるカメラ41はFPV(First Person View)方式には限られず、例えば図4に示すように、マルチコプター10の機体から延びるカメラ用アーム42の先端にカメラ41を搭載し、マルチコプター10自身を第三者視点で撮影することも考えられる。カメラ用アーム42は、可動式のファイバースコープのようにカメラ41の撮影位置とその撮影方向を自在に変更することができる。これによりマルチコプター10の胴部11の上面や下面、周囲の環境を広く確認することができる。また、カメラ用アーム42は図示しない駆動機構によりマルチコプター10の胴部11から伸ばしたり胴部10の中に引っ込めたりすることができる。カメラ用アーム42を使用しないときにはこれを胴部11の中に収納しておくことにより、例えばマルチコプター10の墜落時にカメラ用アーム42が折損することが防止され、非常時におけるカメラ用アーム42の信頼性が高められる。
Further, the
その他、例えば地上に設置された固定カメラで撮影したマルチコプター10の撮影や、他のUAVにより撮影されたマルチコプター10の映像を操縦装置50に送信してもよい。実機の様子を外部から撮影すること(視認可能とすること)は移動体の目視外操縦において極めて有益である。このような映像をモニター70に表示することで、操縦者は、マルチコプター10の状態・状況をより客観的に把握することが可能となる。
In addition, for example, the image of the
操縦装置50は、マルチコプター10の機体情報またはマルチコプター10が置かれた環境に関する情報である移動体情報iを受信する通信装置52(情報取得部)を有している。なお、ここでいうマルチコプター10の機体情報とはマルチコプター10の内界(機体の姿勢やヘディングの方位、バッテリー残量など)に関する情報であり、マルチコプター10が置かれた環境に関する情報とはマルチコプター10の外界(経緯度や周辺物など)に関する情報である。なおここでいう「内界」および「外界」の定義は便宜上のものであり、個々のセンサ値や取得情報がどちらに分類されても構わない。マルチコプター10の状態や状況に関するあらゆる情報が移動体情報iの候補となる。本形態の移動体情報iは、マルチコプター10が撮影した画像または映像、マルチコプター10が有するセンサ装置の出力値またはその加工値、マルチコプター10とその周辺物との位置関係を示す情報、および、マルチコプター10の現在地における風向および風速に関する情報である。
The
より具体的には、本形態のマルチコプター10は、カメラ41で撮影した映像、LiDAR37(Light Detection And Ranging)で取得した周辺物の点群データやその加工値、飛行制御センサ群S等で取得した機体の向きや姿勢、飛行位置(経緯度および気圧高度)、バッテリー残量、風向風速センサ36で取得した現在地における風向および風速を示すデータを操縦装置50に送信する。
More specifically, the
なお、移動体情報iは必ずしもマルチコプター10のみにより取得および送信される必要はない。移動体情報iには、例えばUTM(UAV Traffic Management)システムが有する、マルチコプター10とその周辺物との位置関係に関する情報や、他のシステムで観測された気象情報、他のUAVにより撮影された第三者視点でのマルチコプター10の撮影映像などが含まれてもよい。
The mobile information i does not necessarily have to be acquired and transmitted only by the
本形態の映像表示プログラム61は、マルチコプター10の周辺物のうち、最もマルチコプター10の近くに存在する周辺物との距離を示す数値を映像上に表示する(例えば図6の例を参照)。映像表示プログラム61は、周辺物との距離が危険域に近づいてきたときには、その周辺物近傍を赤く表示したり、数値を点滅させたりして操縦者の注意を促す。
The
(通信遅延対策)
図5は、操縦装置50のモニター70に表示される地図画像Mの表示例を示す模式図である。図6は、予め取得された三次元の地図データN上にマルチコプター10の現在位置を示すアイコン(図形)を重ねて表示した例である。図7は、三次元の地図データN上でマルチコプター10の現在位置から特定の方向を見たときの地物の様子を表示した例である。図8は、マルチコプター10が撮影した映像上にマルチコプター10の現在位置を示す立体画像を重ねて表示した例である。
(Measures against communication delay)
FIG. 5 is a schematic diagram showing a display example of the map image M displayed on the
マルチコプター10の撮影制御装置40は、操縦装置50や他のシステムからの指示により、または予めプログラムされた条件に従い、カメラジンバル49を操作したり、カメラ41による撮影を開始・停止したり、カメラ41で撮影された映像データを加工したりする。
The
マルチコプター10がカメラ41により撮影した映像のデータは、例えばマルチコプター10の現在地などを示すテレメトリデータに比べてデータ量が著しく多く、転送時の遅延が大きくなりやすい。つまり、モニター70に表示された映像から把握されるマルチコプター10の周辺環境と、映像確認時点でのマルチコプター10の実際の周辺環境にはずれが生じている。そのため操縦者は、映像を見ながら手動でマルチコプター10を操縦するときには、自身の見ている映像がどの程度遅延して表示されているのか意識しながら操縦する必要がある。
The amount of video data captured by the
本形態の撮影制御装置40は、カメラ41で撮影した映像について例えばハイパスフィルタによりエッジ検出を行い、抽出したエッジ情報のみを操縦装置50に送信したり、さらに物体検出やセグメンテーションを行って、物体の輪郭情報やセグメント情報のみを操縦装置50に送信したりすることができる。これによりマルチコプター10から操縦装置50に送信されるデータ量が抑えられ、カメラ41のよる情報がモニター70に表示されるまでのタイムラグが軽減される。また、本形態の撮影制御装置40は、映像から検出された周辺物の中にマルチコプター10との距離が所定の閾値よりも近いものがあったときに、その周辺物に関する映像情報のみを他に優先して送信することができる。これにより警戒すべき周辺物が速やかにモニター70上に表示され、操縦者がこれに対処するための猶予時間をより長く確保することができる。
The photographing
図5に示されるように、地図画像Mには、マルチコプター10のテレメトリデータから特定されるマルチコプター10の現在位置のアイコン10aと、モニター70に表示されている映像がどの位置からどの方向に向かって撮影されたものかを示すアイコン10bとが表示されている。また、アイコン10bの近傍には遅延時間(本形態の例では300msec)も表示されている。アイコン10bの撮影ポイントや遅延時間は、例えば先に受信したNMEAセンテンス(GPSデータ)のタイムスタンプや経緯度情報と、RTPヘッダ(映像データ)のタイムスタンプとを組み合わせることで特定することができる。撮影方向に関する情報は映像データに含めてもよく、テレメトリデータに含めてもよい。
As shown in FIG. 5, in the map image M, the
また本形態の映像表示プログラム61は、図6に示すように、三次元の地図データN上にマルチコプター10の現在位置を示すアイコン10aを重ねて表示することもできる。図6の例では操縦者はマルチコプター10の飛行状況をあらゆる方向から第三者視点で確認することができる。例えば物流センター間の物品の輸送など、マルチコプター10に同じ空路を繰り返し飛行させるような用途においては、その空路の地形や地物、標高を経緯度情報とともに取得しておき、またこれに地物の外観写真を重ねるなどして、空路の三次元の地図データNを予め用意しておくことができる。なお、精度が十分であれば市販の三次元地図データを用いてもよい。マルチコプター10の現在位置情報(経緯度と気圧高度)に基づいて操縦装置50側でその飛行状況を仮想的に再現することにより、少ないデータ通信量でマルチコプター10の飛行状況を把握することができる。またこれにより、マルチコプター10に搭載される周辺監視用の機器を削減することもできる。
Further, as shown in FIG. 6, the
本形態の映像表示プログラム61はこれに加え、図7に示すように、地図データNにおけるマルチコプター10の現在位置(経緯度と気圧高度)から特定の方向を見たときの地物の様子を仮想的に再現することもできる。ここでいう「特定の方向」は操縦者が任意に設定および変更してよい。これにより操縦者は、あたかもマルチコプター10に搭乗しているかのようにマルチコプター10の周辺環境を一人称視点で確認することができる。なお地図データNは、図6や図7の例のように地物の輪郭のみを示す軽量なデータとしてもよく、写真画像を使ってよりリアリティのある眺望を再現してもよい。またはこれらを切替可能としてもよい。
In addition to this, the
本形態では、操縦者は映像表示プログラム61によりこれら第三者視点の表示と一人称視点の表示とを任意に切り替えることができ、また、これらの表示を同時にモニター70上に表示することもできる。
In this embodiment, the operator can arbitrarily switch between the display of the third-party viewpoint and the display of the first-person viewpoint by the
さらに、本形態の映像表示プログラム61は、図8に示すように、マルチコプター10が撮影したその進行方向の映像をモニター70に表示し、そこに、マルチコプター10のテレメトリデータから特定したマルチコプター10の現在位置を示す立体画像を重ねて表示することもできる。マルチコプター10が撮影したその進行方向の映像をモニター70に表示するときに、その映像の撮影位置から見た現在のマルチコプター10の位置を表わす画像を立体的に重ねて表示することにより、操縦者は、遅延した映像からでもマルチコプター10の現在位置を誤解なく把握することができる。
Further, as shown in FIG. 8, the
例えばマルチコプター10がその進行方向の映像を撮影しており、映像データの遅延がそれほど大きくないときには上述のAR(Augmented Reality)的な手法(タイムラグのある進行方向の映像にマルチコプター10の現在位置を示す立体画像を重ねる方法)により遅延に対処し、進行方向の映像がないときや遅延が大きいとき、または夜間には、上述のVR(Virtual Reality)的な手法(予め取得した地図データを使ってマルチコプター10の飛行環境を仮想的に再現する方法)に切り替えてもよい。これらAR的手法またはVR的手法によりモニター70に表示する情報の種類は特に制限されず、マルチコプター10の用途やその時々において注視すべき情報に応じてマルチコプター10の各種センサ情報や事前に用意しておいた情報を追加表示すればよい。
For example, when the
(操舵システム)
操縦装置50は、操縦桿であるハンドル53および昇降レバー54を有している。本形態の操縦装置50は、ハンドル53を傾倒させることによりマルチコプター10のピッチおよびロールを制御し、ハンドル53をひねることでマルチコプター10のヨーを制御する。操縦者によるハンドル53および昇降レバー54の操作は制御信号送信プログラム63によりマルチコプター10に送信される。操縦装置50と操縦者とのインタフェースは本形態のハンドル53や昇降レバー54には限られず、マルチコプター10に対してスロットル、エルロン、ラダー、エレベータの各舵を打つことができれば、例えばラジコン用のプロポや家庭用ゲーム機のコントローラのようなものであってもよい。なお、操縦装置50には一般的な入力装置であるタッチパネルやキーボード、マウス等も備えられており、これらからマルチコプター10にコマンドを送ることもできる。。
(Steering system)
The
また、本形態の操縦装置50は、操縦者がハンドル53や昇降レバー54を操作する際の抵抗量を制御する抵抗制御プログラム62を有している。抵抗制御プログラム62は、マルチコプター10の重量やマルチコプター10の現在地における風向および風速に応じて、ハンドル53や昇降レバー54を各方向へ操作するときの抵抗量を変化させる。例えばマルチコプター10の右前方からマルチコプター10に向かって強い風が吹いている場合には、操縦者を右前方へ移動させる操作は重く、左後方へ移動させる操作は軽くする。これにより操縦者Pは、マルチコプター10の性質や飛行環境をハンドル53や昇降レバー54の抵抗量から直感的に把握することができる。
Further, the
図9は、ハンドル53の操作量(操舵量)とマルチコプター10の実舵角との関係を示すグラフである。マルチコプター10のカメラ41で撮影された映像が遅延してモニター70に表示されている場合、操縦者がハンドル53等を操作してもそのレスポンスが得られるまでにはタイムラグが生じる。特に経験の浅い操縦者の場合、レスポンスが遅れることで必要以上に深く舵を打つおそれがある。操縦装置50の制御信号送信プログラム63は、映像データの遅延が大きくなるに従って、操舵量と実舵角との本来の関係(図9のP)から舵のニュートラル付近を鈍感化し(図9のEXP)、また、実舵角の範囲を狭める(図9のDR)。これにより映像の遅延に伴う過剰な操舵を軽減している。
FIG. 9 is a graph showing the relationship between the operation amount (steering amount) of the
その他、制御信号送信プログラム63は、操舵量と実舵角との正比例関係は維持しつつ、映像データの遅延量に応じて実舵角の範囲のみを狭めてもよい。つまり映像データの遅延量に応じて飛行速度の上限のみを変化させてもよい。なお、制御信号送信プログラム63による操舵量および実舵角の調節機能は、あくまで手動操縦時の機能であり、オートパイロット時には自動的に無効化されてもよい。
In addition, the control
(制御共有機能)
図10は、多数の操縦装置50が一拠点に集められたオペレーションセンターCの様子を示す模式図である。図11は、二人の操縦者のペアが協働してマルチコプター10を管理する操縦装置50の模式図である。
(Control sharing function)
FIG. 10 is a schematic diagram showing a state of the operation center C in which a large number of
操縦装置50は、マルチコプター10やこれに搭載された機器の制御主体を他の操縦装置50に切り替える手段(制御切替手段)である制御切替プログラム66を有している。制御切替プログラム66は、マルチコプター10の運航に異常が発生した際や難易度の高い操縦操作が必要となった場合に、その対処が可能な操縦者にマルチコプター10の制御を委ねる機能である。またはマルチコプター10やこれに搭載された機器のコントロール(制御権)をユーザに与えたり、単に他の操縦者に業務を引き継いだりするときにもこれを用いることができる。
The
ここでいう「制御主体」とは、例えばマルチコプター10を操縦する権限やこれに搭載された機器を操縦する権限、移動体情報iを取得・表示する権限などが帰属する操縦装置50または他の装置を意味している。制御切替プログラム66はこれらの権限を一括で、または部分的に他の操縦装置50やその他の装置に切り替えることができる。制御切替プログラム66は手動でも実行可能であるが、以下に説明するように自動的に実行することもできる。
The "control subject" here means, for example, the
例えば図11のような一組の操縦装置50を用いて訓練中の下級操縦者とその指導にあたる上級操縦者とがペアになってマルチコプター10の操縦にあたる場合、両方の操縦装置50のモニター70にマルチコプター10の移動体情報iを表示しておき、上級操縦者による何らかの操縦操作が行われたときには、制御切替プログラム66によりその制御主体を強制的に上級操縦者の操縦装置50に切り替えることがなど考えられる。このときに用いられる制御切替プログラム66は上級操縦者の操縦装置50のものでも下級操縦者の操縦装置50のものでもよく、またはこれら両方の操縦装置50の制御切替プログラム66が協働して行ってもよい。または後述するように、これら操縦装置50の上位装置である管理装置80が有する制御切替プログラム66により行ってもよい。同様に、例えば現地に人員を配置してマルチコプター10の操縦を支援する場合、現地の人員がプロポ等を使ってマルチコプター10を直接操縦している間は操縦装置50からの操作を無効にする(マルチコプター10の制御主体を操縦装置50から現地のプロポ等の装置に切り替える)ことも考えられる。なお、制御切替手段の実装形態はソフトウェア(プログラム)には限られず、ハードウェアで構成されてもよい。
For example, when a lower-level operator under training and a higher-level operator who is instructing the training are paired to operate the
また、制御切替プログラム66が自動実行されるときにその切替先の操縦装置50の候補が複数ある場合、制御切替プログラム66は移動体情報iの内容に応じてその切替先を自動選択する。より具体的には、制御切替プログラム66は、操縦者の熟練度や職権を予めクラス分けし、移動体情報iから判定された異常の種類、必要とされる判断や操縦操作の難易度、または緊急度等に応じて、どの操縦装置50、すなわちどの操縦者に制御主体を切り替えるかを自動的に決定する。
If there are a plurality of candidates for the
例えばマルチコプター10から機械的な異常が検知されたときには、墜落に備えてただちに安全を確保する必要があるため、高度な操縦技能と決定権とをもつ操縦者に制御主体を切り替える必要がある。また、例えば運搬・配送用の多数のマルチコプター10がその飛行コース上で渋滞しているときは、基本的にはこれらマルチコプター10の間隔や飛行速度に注意を払うだけなので経験の浅い操縦者でも対処することができる。しかしバッテリーの枯渇が懸念され始めた場合には、経路変更の判断や不時着陸の判断が可能な操縦者に切り替える必要がある。また、例えばプロペラが一部損傷した場合、揚力が十分であれば基本的には見守るだけだが、マルチコプター10の運行が困難になった場合には不時着陸の判断が可能な操縦者に切り替える必要がある。プロペラの一部が損傷して揚力が不足した場合、マルチコプター10の機体は徐々に降下するが、この際、残りのプロペラの回転域は限界に近い状態にあり、操縦には熟練した技能が要求される。また、例えばGPS受信機32の動作に異常が生じた場合、異常の内容によってはマルチコプター10が誤動作を起こすおそれがある。GPS受信機32が捕捉する衛星数の減少程度であれば経験の浅い操縦者でも対処可能であるが、測定精度の著しい低下により自律運航に支障がある場合には手動操縦が可能な操縦者に切り替える必要がある。また、例えば操縦装置50とマルチコプター10との通信に異常が生じた場合、マルチコプター10からの映像が表示不能であっても、マルチコプター10の操舵が可能であり、その他のテレメトリデータが受信可能な状態にあればさほど緊急性は高くない。しかしそれが飛行環境に起因する一時的な通信障害ではなく、通信機器の故障によるものである場合は緊急性が高くなる。その他、異常が生じた場所が人口集中地区であったり、故障時に低空を飛行中であった場合にはさらに高度な判断や高い操縦技能が求められる。制御切替プログラム66はこのような状況・条件に基づいてこれに対処可能な操縦者(操縦装置50)にマルチコプター10の制御主体の一部または全部を自動的に切り替えることができる。
For example, when a mechanical abnormality is detected from the
本形態の制御切替プログラム66は、マルチコプター10等の制御主体を他の操縦装置50やその他の装置に切り替えるだけでなく、移動体情報iの内容に応じてマルチコプター10との通信に使用する回線を自動的に切り替えることもできる。例えば、マルチコプター10の平常飛行時にはベストエフォート型の通信回線を使用し、緊急時にはQoS(Quality of Service)が保証されたギャランティー型の通信回線に切り替えることなどが考えられる。なお、通信回線の切替は制御切替プログラム66とは別のプログラムで行ってもよい。
The
なお、これまでにも述べたように、制御切替プログラム66が制御主体を切り替える対象は他の操縦装置50には限られず、操縦装置50以外の他の装置に制御主体を切り替えることもできる。例えば遠隔操縦システムSを用いたサービスのユーザ、すなわちそのユーザが使用する一般的なパソコンやタブレット端末等に、カメラ41やカメラジンバル49のコントロールを与え、ユーザに所望の画像・映像を撮影させることなどが考えられる。また例えば、操縦者がマルチコプター10を操縦するためのカメラ41と、ユーザが所望の画像・映像を撮影するためのカメラとを別々に搭載し、ユーザ用のカメラの通信経路を操縦装置50とマルチコプター10との通信経路とは別に設け、ユーザ用のカメラの通信経路やプロトコルをよりアクセスしやすいものとすることで(例えばウェブブラウザでのアクセスを可能にするなど)、ユーザが操縦装置50から離れたところにいても容易にカメラ41等にアクセスすることが可能となる。その他、ユーザ用のカメラで撮影した映像を操縦者と共有し、さらに、マルチコプター10の現在位置情報をユーザと共有することにより、操縦者とユーザとがスムーズに連携しながら撮影作業を行うこともできる。なお、ユーザにコントロールを与えることができる機器はカメラには限られず、目的に応じて任意の機器のコントロールをユーザに与えることができる。
As described above, the target for switching the control subject by the
図10に示すように、オペレーションセンターCには多数の操縦装置50が設置されている。この場合、例えば図12に示すように、操縦装置50の上位装置である管理装置80に制御切替プログラム66を実装し、管理装置80で一元的に制御主体の切り替えを行ってもよい。なお図12の例では遠隔操縦システムSを用いたサービスのユーザ(他の装置90)にカメラ41のコントロールが与えられており、カメラ41で撮影された映像は他の装置90のモニター91に表示されている。この場合でも、制御切替プログラム66の本質的な機能や役割に変わりはない。単に個々の操縦装置50に実装されているか、操縦装置50から独立しているかの違いである。個々の操縦装置50に制御切替プログラム66が実装されている場合でも、これらを互い協働させたり、一の操縦装置50の制御切替プログラム66をマスターとし、他の操縦装置50の制御切替プログラム66をスレーブとすることで主従関係をもたせたりして、管理装置80が行うことと同じことを行うことができる。
As shown in FIG. 10, a large number of
また、オペレーションセンターCは、オペレーションセンターCが管轄する複数の又は全てのマルチコプター10に関する情報や、オペレーションセンターCが管轄する空域の一部または全体を、色やレイヤーを分けるなどして網羅的・包括的に表示する中央監視スクリーン79を有している。オペレーションセンターCでは、場合によっては危険飛行している他社のドローンを乗っ取って危険を回避するようなことも考えられる。
In addition, the operation center C comprehensively covers information on a plurality of or all
また、例えば深刻な問題が生じたマルチコプター10の撮影映像やテレメトリデータをこの中央監視スクリーン79に表示し、管理者や複数人の操縦者のチームでその問題に対処するようなことも考えられる。その他、例えば状況を注視すべき複数のマルチコプター10の情報を中央監視スクリーン79に並べて表示したり、またはこれらの情報を所定秒ごとに切り替えて表示したりして、複数人でその状況の推移を監視することも可能である。
Further, for example, it is conceivable to display the captured image and telemetry data of the
(カメラ固定機能)
本形態のマルチコプター10は、マルチコプター10の姿勢変化を吸収してカメラ41の姿勢を維持するカメラジンバル49(姿勢安定化装置)を有している。そして、操縦装置50は、カメラジンバル49の姿勢安定化動作を停止し、カメラ41の向きを固定するカメラ固定ボタン531(カメラ固定手段)を有している。カメラ41の向きを意図的に固定することにより、機体の実際の傾きや振動を実態的に把握することができ、例えばマルチコプター10の着陸をより安全に行うことが可能となる。
(Camera fixing function)
The
本形態のマルチコプター10は多方向に向けられた複数のカメラ41を有しているが、例えばマルチコプター10が1台のカメラ41のみを備える場合には、カメラ固定ボタン531は、カメラ41をマルチコプター10の前方または下方に自動的に向けてからカメラ41の向きを固定してもよい。
The
[マルチコプター]
以下、図3を参照してマルチコプター10の機能構成について説明する。本形態のマルチコプター10は、全国各地に配置された専用の離発着設備であるいわゆるドローンポートに格納されており、操縦装置50または他のシステムからの指示により自動的にドローンポートから出航する。なお、このようなドローンポートは必須ではなく、例えば現地に人員を配置してマルチコプター10の離発着の準備を行ったり、現地に配置された人員が操縦者と協働して手動操縦によるサポートを行ったりしてもよい。
[Multicopter]
Hereinafter, the functional configuration of the
本形態のマルチコプター10は、主に、制御部であるフライトコントローラFC、複数の水平回転翼であるロータR、操縦者(操縦装置50)との通信を行う通信装置25、複数台のカメラ41およびこれらの全て又は一部を支持するカメラジンバル49、並びにこれらに電力を供給するバッテリー(不図示)により構成されている。
The
フライトコントローラFCはマイクロコントローラである制御装置20を有している。制御装置20は、中央処理装置であるCPU21と、RAMやROM・フラッシュメモリなどの記憶装置からなるメモリ22とを有している。制御装置20は単体のマイクロコントローラには限られず、いわゆるコンパニオンコンピュータとの組み合わせであってもよい。その他、制御装置20を例えばFPGA(field-programmable gate array)やASIC(Application Specific Integrated Circuit)などで構成することも考えられる。
The flight controller FC has a
フライトコントローラFCはさらに、IMU31(Inertial Measurement Unit:慣性計測装置)、GPS受信器32、気圧センサ34、および電子コンパス35を含む飛行制御センサ群Sを有しており、これらは制御装置20に接続されている。
The flight controller FC further has a flight control sensor group S including an IMU 31 (Inertial Measurement Unit), a
IMU31はマルチコプター10の傾きを検出するセンサであり、主に3軸加速度センサおよび3軸角速度センサにより構成されている。気圧センサ34は、検出した気圧値からマルチコプター10の海抜高度(標高)を得る高度センサである。電子コンパス35はフライトコントローラFCのヘディング(機首)の方位角を検出するセンサであり、主に3軸地磁気センサで構成されている。GPS受信器32は、正確には航法衛星システム(NSS:Navigation Satellite System)の受信器である。GPS受信器32は、全地球航法衛星システム(GNSS:Global Navigation Satellite System)または地域航法衛星システム(RNSS:Regional Navigational Satellite System)から現在の経緯度値を取得する。
The
フライトコンローラFCは、これら飛行制御センサ群Sにより、機体の傾きや回転のほか、飛行中の経緯度、高度、および機首の方位角を含む自機の位置情報を取得する。 The flight control sensor group S acquires the position information of the aircraft including the latitude and longitude, altitude, and the azimuth angle of the nose in addition to the tilt and rotation of the aircraft by the flight control sensor group S.
制御装置20は、マルチコプター10の飛行時における姿勢や基本的な飛行動作を制御するプログラムである飛行制御プログラムFSを有している。飛行制御プログラムFSは、飛行制御センサ群Sから取得した情報を基に個々のロータRの回転数を調節し、機体の姿勢や位置の乱れを補正しながらマルチコプター10を飛行させる。
The
制御装置20はさらに、マルチコプター10を自律飛行させるプログラムである自律飛行プログラムAPを有している。そして、制御装置20のメモリ22には、マルチコプター10を飛行させるコースの経緯度、飛行中の高度や速度などが指定されたパラメータである飛行計画FPが登録されている。自律飛行プログラムAPは、操縦装置50や他のシステムからの指示や所定の時刻などを開始条件として、飛行計画FPに従ってマルチコプター10を自律的に飛行させる。
The
その他、本形態のマルチコプター10は、現在地における風向および風速を取得する風向風速センサ36と、マルチコプター10とその周辺物との位置関係や距離を取得するLiDAR37とを備えている。本形態のマルチコプター10では、LiDAR37により取得された点群データは主にフライトコントローラFCの内部処理で用いられ、必要に応じて周辺物との距離などの加工値が映像データとともに操縦装置50に送信される。その他、例えばLiDAR37で取得した点群データを適宜間引いて操縦装置50にリアルタイムで転送することも考えられる。これにより操縦者は、カメラ41で撮影された映像の転送を待つよりも速やかに周辺物の情報を得ることができる。
In addition, the
その他、例えばマイクアレイなどの集音器を別途搭載し、マルチコプター10周辺の環境音を収集することもマルチコプター10の飛行状態や飛行環境を把握する上で有意である。これに加え、操縦装置50にマイクを備え、マルチコプター10にスピーカーを備えることにより、操縦者はマルチコプター10を介してその近傍の人間と会話することができる。また、マルチコプター10に搭載されるカメラ41は一般的な可視光カメラには限定されず、例えば暗視カメラ(高感度カメラや赤外線カメラ)、深度カメラなどであってもよい。その他、マルチコプター10に搭載される装置や機材には特に制限はなく、例えばパラシュートやフラッシュライト、警告灯、アラーム・ブザー等を搭載してもよい。
In addition, it is also significant to separately mount a sound collector such as a microphone array to collect environmental sounds around the
マルチコプター10の通信装置25と操縦装置50とは、制御信号やデータの送受信が可能であれば、その具体的な通信方式やプロトコル、使用する回線は問わない。例えば3GやLTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)、5Gなどの移動体通信網(以下、このような地上の基地局を用いた移動体通信網を「携帯電話通信網」という。)で操縦装置50とマルチコプター10とを接続することにより、操縦者(操縦装置50)は、携帯電話通信網のサービスエリア内からであればどこからでもマルチコプター10にアクセスすることが可能となる。または、マルチコプター10の飛行経路上にアクセスポイントを適宜設置し、アクセスポイントと操縦装置50とを光回線で接続することも考えられる。アクセスポイントとマルチコプター10との接続方法は特に限定されず、例えば、Wi−Fi(Wireless Fidelity)や周波数ホッピング方式のPCM(pulse code modulation:パルス符号変調)信号でもよく、アクセスポイントから携帯電話通信網を使ってマルチコプター10に接続してもよい。また、複数の通信方法を併用することでマルチコプター10と操縦装置50との間の通信経路を冗長化してもよい。その他、例えば中継器が搭載された他のUAVを別途用意し、そのUAVを介してマルチコプター10と操縦装置50やアクセスポイントを接続することも考えられる。
The
ここで、マルチコプター10から操縦装置50への通信遅延が問題となる場合には、例えばこれらを接続する通信経路のうち、その少なくとも一部の通信方式をアナログ方式とデジタル方式との間で切り替え可能とすることが考えられる。アナログ方式の通信は一般にデジタル方式の通信よりもデータの再現性に劣るが、アナログ方式の通信にはデジタル方式の通信よりも遅延が少ないという利点がある。通信方式の切り替えは操縦装置50側で手動または自動で行ってもよく、マルチコプター10側で自動的に行ってもよい。切替を自動的に行うときの条件としては、例えば送受信するデータ量や遅延量、通信障害、その他任意の条件が考えられる。
Here, when the communication delay from the
また、マルチコプター10の移動範囲が、例えば沖合や山間部など、携帯電話通信網のサービス圏外にまで及ぶ場合には、例えばイリジウム(登録商標)やインマルサット(登録商標)などの衛星通信モジュールをマルチコプター10に搭載することで、携帯電話通信網のサービス圏外でもマルチコプター10との通信を保つことができる。ここで、マルチコプター10に接続する手段を衛星通信回線と他の通信回線との間で切り替え可能とすることにより、マルチコプター10との通信経路を冗長化することができるとともに、マルチコプター10との通信品質を極力保ちつつマルチコプター10の移動可能範囲を拡大することができる。例えば、マルチコプター10と操縦装置50とを5G回線で接続しているときには、カメラ41による撮影映像を含む全情報を操縦装置50に送信し、衛星通信回線に切り替えた後は経緯度や気圧高度のテレメトリデータのみを送信するようにしたり、衛星通信回線に切り替えた後は送信する映像データを物体のエッジ情報や輪郭情報、セグメント情報のみに絞って送信したりすることが考えられる。通信回線の切り替えは操縦装置50側で手動または自動で行ってもよく、マルチコプター10側で自動的に行ってもよい。切替を自動的に行うときの条件としては、例えば現在位置(経緯度や気圧高度)、携帯電話通信網などの他の通信回線の電波強度、その他任意の条件が考えられる。その他、衛星通信回線と他の通信回線の両方を常時併用して通信することも考えられる。
If the range of movement of the
[操縦装置の変形例]
図13は操縦装置50の変形例である操縦装置50bを示す模式図である。図14は操縦装置50bの機能構成を示すブロック図である。以下、図13および図14を参照して操縦装置50bについて説明する。
[Modification example of control device]
FIG. 13 is a schematic view showing a
操縦装置50bでは、操縦者は球形状のモニターである球形モニター76の中に入ってマルチコプター10を操縦する。本変形例ではマルチコプター10はそのカメラ41として半天球カメラや全天球カメラを備えており、カメラ41による撮影映像はそのまま球形モニター76に表示される。本変形例では天球カメラおよび球形モニター76を採用するにより、複数のカメラで全方向を撮影するときの映像の隙間や重なり、平面画像と球面画像とを変換する負荷が軽減され、映像データを効率的に取得・転送・表示することが可能とされている。なお球形モニター76は本形態のような全球形状に限られず、半球形状であってもよい。
In the
操縦装置50bはさらに、操縦者の視線方向を検知可能な視線センサ55を有している。映像表示プログラム61は、視線センサ55で検知された操縦者の視線方向の映像を拡大表示する。また、視線センサ55の出力値はマルチコプター10にも転送されている。マルチコプター10の撮影制御装置40はこの情報を受信し、操縦者の視線方向の映像は解像度を高く、その他の方向は解像度を低くした映像データを操縦装置50bに送信する。これによりマルチコプター10から送信される映像データの通信量が抑えられ、モニター76に表示される映像の遅延が軽減される。その他、操縦者の視線方向とその周辺の映像のみを送信し、その他の範囲の映像については送信を省略してもよい。なお、操縦者の視線方向は眼球の向きには限られず、顔の向きであってもよい。
The
(スピーカーシステム)
また操縦装置50bは、操縦者の周囲に配置された複数のスピーカー56を有している。本形態のスピーカー56は、操縦者の前後左右を周方向に取り囲むように配置されている。
(Speaker system)
Further, the
操縦装置50bはスピーカー56の動作を制御するスピーカー制御プログラム64(スピーカー制御部)を有している。スピーカー制御プログラム64は、移動体情報iの内容に基いてスピーカー56から操縦者に対して音を発することで、マルチコプター10とのその周辺物との位置関係および距離を操縦者に通知する。例えばマルチコプター10の右前方に障害物がある場合には、操縦者の右前方のスピーカー56から音を発し、その障害物が近づくにつれ音量を大きくする。これにより操縦者は、障害物の位置やその距離を視覚によらず認識することができる。
The
スピーカー56の配置は本形態のものには限られず、例えば操縦者の周囲に左右のスピーカー56を含む3基または4基のスピーカー56を配置し、位相制御により音源方向を擬似的に制御することも可能である。また、例えば周辺物の種類(建物等の構造物、他のUAV、人)に応じて音の種類を変化させることも考えられる。スピーカー56の用途は本形態のものには限られず、例えばスピーカー56から発する音によりマルチコプター10の現在地における風向および風速を表現することも可能である。
The arrangement of the
(送風システム)
また操縦装置50bは、操縦者の周囲に配置され、操縦者に対して風を吹き付ける送風装置57と、送風装置57による風向および風量を制御する送風制御プログラム65(送風制御部)と、を有している。送風制御プログラム65は、マルチコプター10の現在地における風向および風速に応じて操縦者に吹き付ける風の風向および風量を変化させる。例えばマルチコプター10の右前方からマルチコプター10に向かって風が吹いている場合には、操縦者の右前方の送風装置57から風速に応じた風量の風を操縦者に吹き付ける。これにより操縦者は、遠方にいながらあたかも現場にいるかのようにマルチコプター10を操縦することができる。
(Blower system)
Further, the
以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更を加えることができる。例えば、本発明の移動体は無人航空機には限られず、乗客を輸送するいわゆるパッセンジャードローンや、パイロットが搭乗する有人航空機であってもよい。また、本発明は航空機にも限られず、操縦可能な移動体であれば例えば車両や船舶であってもよい。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited thereto, and various modifications can be made without departing from the gist of the invention. For example, the moving object of the present invention is not limited to an unmanned aerial vehicle, and may be a so-called passenger drone that transports passengers or a manned aircraft on which a pilot is boarded. Further, the present invention is not limited to an aircraft, and may be, for example, a vehicle or a ship as long as it is a maneuverable mobile body.
S:遠隔操縦システム,C:オペレーションセンター,10:マルチコプター(移動体,無人航空機),11:胴部,R:ロータ,FC:フライトコントローラ,FS:飛行制御プログラム,AP:自律飛行プログラム,FP:飛行計画,25:通信装置,S:飛行制御センサ群,31:IMU,32:GPS受信器,34:気圧センサ,35:電子コンパス,36:風向風速センサ,37:LiDAR,40:撮影制御装置,41:カメラ(撮影手段),42:カメラ用アーム,49:カメラジンバル(姿勢安定化装置),50:操縦装置,51:制御部,511:CPU,512:メモリ,52:通信装置(情報取得部),53:ハンドル,531:カメラ固定ボタン(カメラ固定手段),54:昇降レバー,55:視線センサ,56:スピーカー,57:送風装置,59:操縦席,61:映像表示プログラム,62:抵抗制御プログラム(抵抗制御部),63:制御信号送信プログラム,64:スピーカー制御プログラム(スピーカー制御部),65:送風制御プログラム,66:制御切替プログラム(制御切替手段),70:モニター(表示部),71:前方モニター,72:側方モニター,73:下方モニター,74:上方モニター,75:後方モニター,76:球形モニター,79:中央監視スクリーン,80:管理装置,90:他の装置,i:移動体情報,M:地図画像,N:地図データ S: Remote control system, C: Operation center, 10: Multicopter (mobile body, unmanned aircraft), 11: Body, R: Rotor, FC: Flight controller, FS: Flight control program, AP: Autonomous flight program, FP : Flight plan, 25: Communication device, S: Flight control sensor group, 31: IMU, 32: GPS receiver, 34: Pressure sensor, 35: Electronic compass, 36: Wind direction and speed sensor, 37: LiDAR, 40: Shooting control Device, 41: camera (shooting means), 42: camera arm, 49: camera gimbal (posture stabilization device), 50: control device, 51: control unit, 511: CPU, 512: memory, 52: communication device ( Information acquisition unit), 53: Handle, 531: Camera fixing button (camera fixing means), 54: Elevating lever, 55: Line-of-sight sensor, 56: Speaker, 57: Blower, 59: Driver's seat, 61: Video display program, 62: Resistance control program (resistance control unit), 63: control signal transmission program, 64: speaker control program (speaker control unit), 65: blower control program, 66: control switching program (control switching means), 70: monitor ( Display unit), 71: Front monitor, 72: Side monitor, 73: Lower monitor, 74: Upper monitor, 75: Rear monitor, 76: Spherical monitor, 79: Central monitoring screen, 80: Management device, 90: Other Device, i: moving object information, M: map image, N: map data
Claims (3)
前記移動体を遠隔操作する操縦装置と、を備え、
前記移動体は撮影手段を有し、
前記操縦装置は、前記移動体の内界および/または外界に関する情報である移動体情報を表示する表示部を有し、
前記移動体は、撮影した画像または映像についてエッジ検出を行い、その画像または映像のエッジ情報、輪郭情報またはセグメント情報を前記操縦装置に送信可能であることを特徴とする遠隔操縦システム。 With a mobile body
It is equipped with a control device for remotely controlling the moving body.
The moving body has a means of photographing, and the moving body has a means of photographing.
The control device has a display unit that displays moving body information that is information about the inner world and / or the outer world of the moving body.
The remote control system is characterized in that the moving body can perform edge detection on a captured image or video and transmit edge information, contour information or segment information of the image or video to the control device.
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019136765 | 2019-07-25 | ||
JP2019136765 | 2019-07-25 | ||
JP2019153253 | 2019-08-23 | ||
JP2019153253 | 2019-08-23 | ||
JP2020082771 | 2020-05-08 | ||
JP2020082771 | 2020-05-08 | ||
JP2020091993A JP6873515B1 (en) | 2019-07-25 | 2020-05-27 | Remote control system and its control device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020091993A Division JP6873515B1 (en) | 2019-07-25 | 2020-05-27 | Remote control system and its control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6925670B1 JP6925670B1 (en) | 2021-08-25 |
JP2021179956A true JP2021179956A (en) | 2021-11-18 |
Family
ID=75896374
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020091993A Active JP6873515B1 (en) | 2019-07-25 | 2020-05-27 | Remote control system and its control device |
JP2020177844A Active JP6925671B1 (en) | 2019-07-25 | 2020-10-23 | Remote control system and its control device |
JP2020177843A Active JP6925670B1 (en) | 2019-07-25 | 2020-10-23 | Remote control system and its control device |
JP2021067256A Pending JP2021179976A (en) | 2019-07-25 | 2021-04-12 | Remote operation system and operation device thereof |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020091993A Active JP6873515B1 (en) | 2019-07-25 | 2020-05-27 | Remote control system and its control device |
JP2020177844A Active JP6925671B1 (en) | 2019-07-25 | 2020-10-23 | Remote control system and its control device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021067256A Pending JP2021179976A (en) | 2019-07-25 | 2021-04-12 | Remote operation system and operation device thereof |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP6873515B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023062751A1 (en) * | 2021-10-13 | 2023-04-20 | 株式会社Acsl | Controller and drone system |
WO2023188270A1 (en) * | 2022-03-31 | 2023-10-05 | 三共木工株式会社 | Aircraft and monitoring device |
WO2024219899A1 (en) * | 2023-04-20 | 2024-10-24 | 에이치디한국조선해양 주식회사 | Control right transfer system, ship management system comprising same, and operating method thereof |
JP7495561B1 (en) | 2023-07-10 | 2024-06-04 | 楽天グループ株式会社 | Information processing device and display control method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001309233A (en) * | 2000-04-19 | 2001-11-02 | Japan Aviation Electronics Industry Ltd | Remote controlling system of photographing apparatus |
US20030212478A1 (en) * | 2002-05-09 | 2003-11-13 | Rios Jeffrey P. | Control system for remotely operated vehicles for operational payload employment |
JP2006027448A (en) * | 2004-07-16 | 2006-02-02 | Chugoku Electric Power Co Inc:The | Aerial photographing method and device using unmanned flying body |
JP2011039727A (en) * | 2009-08-10 | 2011-02-24 | Ihi Corp | Image display device for vehicle control, and method of the same |
JP2013114329A (en) * | 2011-11-25 | 2013-06-10 | Chiba Inst Of Technology | Environment information obtaining system using unattended traveling body |
JP2017503226A (en) * | 2014-07-30 | 2017-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Goal tracking system, device and method |
JP2017081246A (en) * | 2015-10-23 | 2017-05-18 | ソニー株式会社 | Flight control device, flight control method, multicopter, and program |
JP2018074757A (en) * | 2016-10-28 | 2018-05-10 | 株式会社東芝 | Patrol inspection system, information processing apparatus, and patrol inspection control program |
CN108563238A (en) * | 2018-06-15 | 2018-09-21 | 歌尔科技有限公司 | A kind of method, apparatus of remote controlled drone, equipment and system |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2787061B2 (en) * | 1993-04-28 | 1998-08-13 | 日本航空電子工業株式会社 | Flight control display |
JP2001306144A (en) * | 2000-04-21 | 2001-11-02 | Yamaha Motor Co Ltd | Flight control system for unmanned helicopter |
JP4012749B2 (en) * | 2002-03-14 | 2007-11-21 | 国立大学法人 奈良先端科学技術大学院大学 | Remote control system |
JP3671024B2 (en) * | 2002-04-25 | 2005-07-13 | 三菱重工業株式会社 | Remote control system |
JP2007093045A (en) * | 2005-09-27 | 2007-04-12 | Mitsubishi Electric Corp | Command device and command method |
WO2008013568A2 (en) * | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
JP5635333B2 (en) * | 2010-08-20 | 2014-12-03 | 公益財団法人鉄道総合技術研究所 | Radio control aircraft for reflective target formation |
JP6026088B2 (en) * | 2011-08-09 | 2016-11-16 | 株式会社トプコン | Remote control system |
JP2014220604A (en) * | 2013-05-07 | 2014-11-20 | 三菱電機株式会社 | Photographing position information display device |
CN110254716B (en) * | 2014-04-25 | 2023-09-01 | 索尼公司 | Information processing apparatus, information processing method, and imaging system |
CN107077113B (en) * | 2014-10-27 | 2020-10-20 | 深圳市大疆创新科技有限公司 | Unmanned aerial vehicle flight display |
JP6710114B2 (en) * | 2016-06-21 | 2020-06-17 | 株式会社日立製作所 | Pipeline inspection vehicle and pipeline inspection system using it |
JP2019081456A (en) * | 2017-10-31 | 2019-05-30 | セイコーエプソン株式会社 | Head-mounted type display device and steering method of unmanned aircraft |
JP7011908B2 (en) * | 2017-08-29 | 2022-01-27 | 株式会社トプコン | Optical information processing equipment, optical information processing method and optical information processing program |
JP6666316B2 (en) * | 2017-09-14 | 2020-03-13 | Kddi株式会社 | Management device, program, management method, and flight device |
JP7096662B2 (en) * | 2017-12-06 | 2022-07-06 | フォルシアクラリオン・エレクトロニクス株式会社 | Image display device and parking support system |
-
2020
- 2020-05-27 JP JP2020091993A patent/JP6873515B1/en active Active
- 2020-10-23 JP JP2020177844A patent/JP6925671B1/en active Active
- 2020-10-23 JP JP2020177843A patent/JP6925670B1/en active Active
-
2021
- 2021-04-12 JP JP2021067256A patent/JP2021179976A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001309233A (en) * | 2000-04-19 | 2001-11-02 | Japan Aviation Electronics Industry Ltd | Remote controlling system of photographing apparatus |
US20030212478A1 (en) * | 2002-05-09 | 2003-11-13 | Rios Jeffrey P. | Control system for remotely operated vehicles for operational payload employment |
JP2006027448A (en) * | 2004-07-16 | 2006-02-02 | Chugoku Electric Power Co Inc:The | Aerial photographing method and device using unmanned flying body |
JP2011039727A (en) * | 2009-08-10 | 2011-02-24 | Ihi Corp | Image display device for vehicle control, and method of the same |
JP2013114329A (en) * | 2011-11-25 | 2013-06-10 | Chiba Inst Of Technology | Environment information obtaining system using unattended traveling body |
JP2017503226A (en) * | 2014-07-30 | 2017-01-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Goal tracking system, device and method |
JP2017081246A (en) * | 2015-10-23 | 2017-05-18 | ソニー株式会社 | Flight control device, flight control method, multicopter, and program |
JP2018074757A (en) * | 2016-10-28 | 2018-05-10 | 株式会社東芝 | Patrol inspection system, information processing apparatus, and patrol inspection control program |
CN108563238A (en) * | 2018-06-15 | 2018-09-21 | 歌尔科技有限公司 | A kind of method, apparatus of remote controlled drone, equipment and system |
Also Published As
Publication number | Publication date |
---|---|
JP6873515B1 (en) | 2021-05-19 |
JP2021179976A (en) | 2021-11-18 |
JP2021179939A (en) | 2021-11-18 |
JP6925671B1 (en) | 2021-08-25 |
JP2021179957A (en) | 2021-11-18 |
JP6925670B1 (en) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6785018B1 (en) | Remote control system and its control device | |
JP6925670B1 (en) | Remote control system and its control device | |
US11837102B2 (en) | Deep stall aircraft landing | |
US10533851B2 (en) | Inverted-landing aircraft | |
CN106200681B (en) | Method and system for assisting take-off of movable object | |
JP2016203978A (en) | System for piloting a drone in immersed state | |
JP2787061B2 (en) | Flight control display | |
CN112114593A (en) | Control system | |
KR101682797B1 (en) | Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof | |
JP6986303B2 (en) | Remote control system and its control device | |
JP3223500U (en) | Remote control system | |
WO2024009447A1 (en) | Flight control system and flight control method | |
KR20230115436A (en) | Drone landing assistance system using fifth generation mobile communications | |
JP7289152B2 (en) | flight control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210208 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6925670 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |