JP2020138681A - 無人飛行体の制御システム - Google Patents

無人飛行体の制御システム Download PDF

Info

Publication number
JP2020138681A
JP2020138681A JP2019037313A JP2019037313A JP2020138681A JP 2020138681 A JP2020138681 A JP 2020138681A JP 2019037313 A JP2019037313 A JP 2019037313A JP 2019037313 A JP2019037313 A JP 2019037313A JP 2020138681 A JP2020138681 A JP 2020138681A
Authority
JP
Japan
Prior art keywords
landing
control
drone
vehicle
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019037313A
Other languages
English (en)
Inventor
達也 宮▲崎▼
Tatsuya Miyazaki
達也 宮▲崎▼
真吾 入方
Shingo Irikata
真吾 入方
宗義 難波
Muneyoshi Nanba
宗義 難波
悠希 西村
Yuki Nishimura
悠希 西村
山内 直樹
Naoki Yamauchi
直樹 山内
有本 和民
Kazutami Arimoto
和民 有本
藤井 知
Satoshi Fujii
知 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2019037313A priority Critical patent/JP2020138681A/ja
Publication of JP2020138681A publication Critical patent/JP2020138681A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】車両上の着陸地点に無人飛行体を精度よく着陸させる。
【解決手段】任意の方向に飛行可能なドローン100を、車両200に設けられた離着陸ポート401の上方から降下して着陸させるドローン100の制御システムであって、ドローン100に設けられ当該ドローン100の下方を撮影するカメラ101と、ドローンの飛行制御を行う機体制御コントローラ103と、カメラ101によって撮影した画像より着陸地点の画像上の位置を抽出し、ドローン100を着陸地点の上方から、カメラ101の下方位置に対応する撮影画像の中心Cと着陸地点の画像上の位置Qとの差を減少しつつ降下させ、着陸地点Pに着陸するように機体制御コントローラ103を制御する。
【選択図】図2

Description

本発明は、無人飛行体の飛行制御技術に関する。
近年、ドローン(無人飛行体)の利用方法として、車両とドローンとを連携する技術が各種提案されている。例えば、ドローンを搭載した車両を災害場所等の近くまで派遣し、車両で到達できない場所や危険な場所の撮影、探索等に、ドローンを使用する方法が提案されている。
ドローンを搭載可能とした車両においては、ドローンの使用後に車両に格納する際に、自動的にドローンの飛行制御をして、車両上に設けた着陸地点に着陸させることが望ましい。
また、搭載する電池の容量の制約によりドローンの飛行可能時間は比較的短時間であるので、付近に待機している車両上にドローンを着陸させて充電する場合もあり、このような場合にも、自動的にドローンの飛行制御をして車両上に着陸させることが望ましい。
このように、格納や充電のために自動的に車両にドローンを着陸させる方法として、例えば特許文献1には、ドローンにGPSセンサを搭載し、ドローンの位置情報を逐時取得して、車両の位置と一致させるようにドローンを誘導する技術が開示されている。
特開2010−250478号公報
しかしながら、特許文献1のようにGPSによるドローンの位置情報を使用した着陸制御では、比較的狭い範囲である車両上の着陸地点に精度よくドローンを誘導することは困難である。特に車両が移動している場合には、GPSによるドローン及び車両の位置情報の誤差だけでなく、位置情報を取得するタイムラグによっても相対的な位置情報の誤差が発生するので、車両上にドローンを着陸させることが困難となってしまう。
本発明はこのような問題点を解決するためになされたもので、車両上の着陸地点に無人飛行体を精度よく着陸させることが可能となる無人飛行体の制御システムを提供することにある。
上記の目的を達成するために、本発明は、任意の方向に飛行可能な無人飛行体を、車両に設けられた着陸地点に着陸させる無人飛行体の制御システムであって、前記無人飛行体に設けられ当該無人飛行体の周囲を撮影するカメラと、前記無人飛行体の飛行制御を行う機体制御部と、前記カメラの撮影画像より前記着陸地点の前記撮影画像での位置を抽出し、前記無人飛行体を前記着陸地点から、前記カメラの位置に対応する前記撮影画像の中心位置と前記着陸地点の前記撮影画像での位置との差を減少するように前記機体制御部を制御して、前記無人飛行体を前記着陸地点に着陸させる第1の着陸制御を実行する制御部と、を備えたことを特徴とする。
これにより、無人飛行体を着陸地点の上方位置から着陸地点に近づくように降下させて、着陸地点に着陸させることができる。このように無人飛行体を着陸させる際に、カメラの撮影画像に基づいて無人飛行体の着陸制御を行うので、精度よく無人飛行体を着陸させることができる。
また、好ましくは、前記制御部は、前記車両に配置され、前記無人飛行体は、前記カメラの撮影画像を無線通信を介して前記機体制御部に送信し、前記制御部は、前記無人飛行体の機体を飛行制御する制御コマンドを無線通信を介して前記機体制御部に送信するとよい。
これにより、車両に配置された制御部において、無人飛行体の機体を飛行制御する制御コマンドを演算し、無線通信を介して機体制御部に送信して、無人飛行体を飛行制御するので、無人飛行体側での演算、制御負荷を低減させることができる。
また、好ましくは、前記制御コマンドは、少なくとも前記車両の識別情報、前記無人飛行体の前記着陸地点への着陸予定時刻情報及び着陸予定位置情報を有する着陸指令情報を含むとよい。
これにより、特に車両の識別情報を含むことで、カメラの撮影画像に複数の車両が存在したり、着陸制御中に車両が移動したりしても着陸目標となる車両を容易に特定することができ、迅速な着陸を可能にすることができる。
また、好ましくは、前記無人飛行体は、プロポーショナルシステムによって飛行制御可能であり、前記制御コマンドは、前記プロポーショナルシステムによる制御情報と互換性のあるロール、ピッチ、ヨーとXYZ直交座標軸上の移動量に関する情報を含むとよい。
これにより、プロポーショナルシステムからの制御情報と互換性のあるロール、ピッチ、ヨーとXYZ直交座標軸上の移動量に関する情報を含むことにより、従来のドローンの制御システムであるプロポーショナルシステムを利用して本発明の制御システムを容易に実現させることができる。
また、好ましくは、前記無人飛行体の位置を検出する第1のGPSセンサと、前記車両の位置を検出する第2のGPSセンサと、を備え、前記制御部は、前記第1のGPSセンサ及び前記第2のGPSセンサの検出値に基づいて前記着陸地点と前記無人飛行体との相対位置及び相対距離を演算し、前記相対位置に基づいて、前記無人飛行体を前記着陸地点に向けて移動するように前記機体制御部を制御する第2の着陸制御を実行可能であり、前記無人飛行体を前記着陸地点に着陸させる際に、前記相対距離が所定距離以上の場合には前記第2の着陸制御により前記機体制御部を制御し、前記相対距離が所定距離未満の場合には前記第1の着陸制御により前記機体制御部を制御するとよい。
これにより、無人飛行体を着陸地点に着陸させる際に、無人飛行体と着陸地点との距離が所定距離に近づくまでは、GPSによる無人飛行体と車両の位置情報に基づいて、広い範囲で無人飛行体を制御することが可能となる。そして、無人飛行体と着陸地点との距離が所定距離未満に近づいてから、カメラによる撮影画像に基づいて、無人飛行体を精度よく着陸地点まで飛行制御することができる。
また、好ましくは、前記制御部は、前記第1の着陸制御の際に、前記着陸地点と前記無人飛行体との相対距離に基づいて、前記カメラによって撮影する画像の画素数を変更するとよい。
これにより、第1の着陸制御の際に、例えば相対距離が大きい場合に画素数を低くすることで、カメラによって撮影した画像を認識する制御の負荷を低減させることができる。
また、好ましくは、前記無線通信は、複数の周波数帯のうち、干渉の少ない周波数帯を自動的に選択して用いられるとよい。
これにより、車両の制御部と無人飛行体との通信を安定させることができる。
本発明の無人飛行体の制御システムによれば、無人飛行体を着陸させる際に、カメラの撮影画像に基づいて飛行体の着陸制御を行うので、無人飛行体を車両の着陸地点に精度よく着陸させることができる。
本発明の実施形態のドローン制御システムにおけるドローンの運用イメージ図である。 本実施形態のドローン制御システムの構成を示すブロック図である。 本実施形態のドローン制御システムにおける飛行制御要領を示すフローチャートである。 ドローンの着陸時のイメージ図である。 本実施形態のドローン制御システムにおける自動着陸制御要領を示すフローチャートである。 ドローンの着陸時における撮影画像の一例を示す図である。 カメラ撮影画像と実空間との関係を示す説明図である。 ドローンの制御軸を示す説明図である。 回転角度からの制御入力値の算出用のマップの一例である。 移動距離からの制御入力値の算出用のマップの一例である。 認識対象画像のリサイズ化による処理時間の変化の一例を示すグラフである。 認識対象画像の色による処理時間の変化の一例を示すグラフである。 着陸地点のマーカーの配置例を示す図である。
以下、図面に基づき本発明の実施形態について説明する。
図1は、本発明の実施形態のドローン制御システムにおけるドローンの運用イメージ図である。
本発明のドローン制御システムは、車両及び当該車両に搭載可能としたドローンを含むドローンシステムに適用され、ドローンの飛行制御を実行するシステムである。
図1に示すように、ドローンシステムは、ドローン100(無人飛行体)、車両200、車両200に搭載した制御機器である車載機300、車両200のルーフ上に設けられドローン100を格納する車頂架台400から構成される。
車頂架台400には、ドローン100の離着陸を行う基地としての離着陸ポート401、ドローン100のバッテリ109を非接触充電するための充電部402が備えられている。
ドローン100は、図示しない電気モータによりプロペラを駆動して上下左右方向に移動可能であり、また上空で停止可能であるとともに、上空より下方を撮影可能である。本実施形態のドローン制御システムは、車載機300において目的地の位置を指示することで、ドローン100が目的地上空まで自動的に飛行して撮影を行い、撮影後に自動的に車両200に戻り、車頂架台400に自動的に着陸可能となっている。
なお、ドローン100が車両200に搭載可能となっているので、ドローン100を搭載した状態で車両200を目的地付近まで走行させることで、目的地が遠隔地であってもドローン100によって撮影可能である。また、ドローン100の移動用の飛行時間を短縮させ、ドローン100の目的地付近での撮影時間を増加させることが可能となっている。
図2は、本実施形態に係るドローン制御システムの構成を示すブロック図である。
ドローン100は、カメラ101、第1のGPSセンサ102、機体制御コントローラ103(機体制御部)、通信制御部104、映像データ用無線送信部105、送信アンテナ106、機体制御用無線受信部107、受信アンテナ108、バッテリ109を備えている。
カメラ101は、ドローン100の下部に設置され、少なくともドローン100の下方を撮影可能となっている。
第1のGPSセンサ102は、ドローン100の位置を取得する機能を有する。
機体制御コントローラ103は、ドローン100の各プロペラの回転制御により飛行制御を行うものであり、後述するように、プロポーショナルシステム(プロポ)を用いたドローン100の機体制御信号に基づいて飛行制御を行う機能を有する。
通信制御部104は、映像情報や機体制御情報を車載機300と通信するための情報の変復調、符号化・復号化を行う機能を有する。
映像データ用無線送信部105は、カメラ101で撮影した画像情報を、送信アンテナ106を介して無線によって車載機300に送信する機能を有する。
機体制御用無線受信部107は、受信アンテナ108を介して車載機300から発信した機体制御信号を受信する機能を有する。
バッテリ109は、ドローン100に搭載したプロペラ駆動用の電気モータ等の電気機器に電力を供給する機能を有するとともに、充電可能な構成となっている。
車両200には、車載機300(制御部)及び車頂架台400が備えられている。車頂架台400は車両200の上部に設置され、ドローン100の離着陸を行う基地としての離着陸ポート401、ドローン100のバッテリ109を非接触充電するための充電部402が備えられている。
車載機300は、受信アンテナ301、映像データ用無線受信部302、機体制御用無線送信部303、送信アンテナ304、通信制御部305、AIパターン認識部306、表示部307、音声認識部308、マイクロフォン309、コマンド生成部310、制御部312を備えている。
映像データ用無線受信部302は、受信アンテナ301を介してドローン100からの映像データを受信する機能を有する。
機体制御用無線送信部303は、機体制御信号をドローン100に送信する機能を有する。
通信制御部305は、送信アンテナ304を介してドローン100との無線通信を行うための情報の変復調、符号化・復号化を行う機能を有する。
AIパターン認識部306は、ドローン100のカメラ101で撮影した画像データのパターンを認識・分析し、ドローン100の機体制御情報を得る機能を有する。
表示部307は、AIパターン認識部306による認識結果をグラフィック表示する機能を有する。
音声認識部308は、マイクロフォン309を介して入力した作業者等の音声から指示を認識する機能を有する。
コマンド生成部310は、AIパターン認識部306や音声認識部の認識結果に基づいてコマンドテーブル311を参照してドローン100を制御するための制御コマンドを生成する機能を有する。なお、制御コマンドは、少なくとも車両200の識別情報、ドローン100の離着陸ポート401への着陸予定時刻情報及び着陸予定位置情報を有する着陸指令情報を含む。
制御部312は、入出力装置、記憶装置(ROM、RAM、不揮発性RAM等)、時計、タイマ及び中央演算処理装置(CPU)等を含んで構成され、通信制御部305を介して後述するドローン100の飛行制御を行う機能を有する。
また、車載機300には、車両200に設けられた第2のGPSセンサ313より、車両200の現在位置情報が入力される。なお、第2のGPSセンサ313については、例えば車両200に搭載したナビゲーションシステムから車両200の現在位置情報を取得してもよい。
図3は、本実施形態のドローン制御システムにおける飛行制御要領を示すフローチャートである。
本制御は、車載機300及びドローン100が共同して実行する。図3には、車両200にドローン100が格納された状態からドローン100の離陸、撮影、車両200への着陸までの制御要領が示されている。なお、図3の右側に記載したフローはドローン100が実行する制御であり、図3の左側に記載したフローは車載機300が実行する制御である。
車載機300及びドローン100の電源がオン状態で飛行制御を開始し、図3に示すステップS101に進む。
ステップS101では、車載機300は、マイクロフォン309より離陸指令が入力した場合に、離陸指令情報をドローン100に送信する。離陸指令情報は、離陸時刻、撮影場所、撮影時間等を含む。本ステップにおいて、音声認識部308は、マイクロフォン309から入力した作業者による音声を認識する。コマンド生成部310は、通信制御部305経由で音声認識部308より入力した音声認識情報に基づいて、コマンドテーブル311を用いて例えば撮影場所の緯度経度情報を取得し、制御コマンドを生成する。制御コマンドは、通信制御部305、機体制御用無線送信部303、送信アンテナ304を介して、ドローン100に無線による離陸指令情報として送信される。そして、ステップS102に進む。
ステップS102では、ドローン100の通信制御部104は、ステップS101において車載機300側から送信した離陸指令情報を受信する。例えばポケットWiFiを使用してドローン100と車載機200間の通信用のIPアドレスは事前に固定しておき、同じネットワークとして常時接続可能状態としておくとよい。ドローン100の通信制御部104は、離陸指令情報を受信するまで待機し、離陸指令情報を受信した場合には、ステップS103に進む。
ステップS103では、ドローン100は、離陸指令情報として受信した離陸時刻に車両200から離陸する。そして、ステップS104に進む。
ステップS104では、ドローン100は、ステップS102で受信した離陸指令情報の撮影場所に向けて移動する。なお、本ステップにおいては、第1のGPSセンサ102によって検出したドローン100の位置が、離陸指令情報における撮影場所の上方位置となるように、機体制御コントローラ103を作動制御すればよい。そして、ステップS105に進む。
ステップS105では、ドローン100は、目的地である撮影場所の上方位置に到着後に、カメラ101を用いて撮影場所の撮影を行う。そして、ステップS106に進む。
ステップS106では、ドローン100は、カメラ101により撮影した画像データを通信制御部104、映像データ用無線送信部105、送信アンテナ106を経由して車載機300に送信する。そして、ステップS107に進む。なお、本ステップにおける画像データ用の無線周波数は、例えば電波干渉の少ない5GHz帯を使用するとよい。また、後述するステップS110において使用する機体制御用情報用の無線周波数は、例えば電波障害物に強い920MHz帯や2GHz帯を使用するとよい。また、これらの無線通信は、複数の周波数帯のうち、干渉の少ない周波数帯を自動的に選択して用いるとよい。これにより機体制御用情報通信用のエリアを映像データ通信用のエリアより大きく設定できドローン100の機体制御を安定して可能となる一方、映像データについてはデータ量の多い鮮明な映像を受信することが可能となる。
ステップS107では、車載機300は、受信アンテナ301を介して映像データ用無線受信部302によって映像データを受信する。映像データは通信制御部305を経由して表示部307に表示される。そして、ステップS108に進む。
ステップS108では、車載機300は、離陸指令情報に含まれる撮影時間を経過した時点で着陸指令情報をドローン100に送信する。着陸指令情報は、車両200のID情報、ドローン100の着陸予定時刻情報、着陸予定位置情報、車両200の移動経路、移動速度を含み、機体制御用無線送信部303及び送信アンテナ304を介して送信される。そして、ステップS109に進む。
ステップS109では、ドローン100は、受信アンテナ108を介して機体制御用無線受信部107によって、着陸指令を受信する。そして、ステップS110に進む。
ステップS110では、ドローン100を自動的に離着陸ポート401に着陸させる自動着陸制御を行う。自動着陸制御の詳細は後述する。そして、ドローン100の着陸が完了したら、ステップS111に進む。
ステップS111では、ドローン100から車載機300に、着陸完了したことを知らせる着陸完了信号を送信する。そして、ステップS112に進む。
ステップS112では、車載機300が着陸を受信する。そして、本ルーチンを終了する。
以上の制御により、ドローン100の離陸から、撮影、着陸までの制御が完了する。なお、本制御の後、即ちドローン100の離着陸ポート401への着陸の後に、車両充電部403によってドローン100のバッテリ109を自動的に充電させるとよい。
次に、図4〜図13を用いて、上記ステップS110にて実行する自動着陸制御について詳細に説明する。
図4は、自動着陸制御時のドローン100及び離着陸ポート401のイメージ図である。図4に示すように、離着陸ポート401には、着陸地点として、例えばHマークが記載されている。本実施形態の自動着陸制御では、ドローン100は着陸指令情報に基づいて第1のGPSセンサ102及び第2のGPSセンサ313の情報を用いて離着陸ポート401の上方まで移動する(第2の着陸制御)。そして、着陸位置の上方位置からドローン100に搭載したカメラ101により撮影した画像を解析して離着陸ポート401のHマーク上に自動着陸させる(第1の着陸制御)。
図5は、自動着陸制御の制御要領を示すフローチャートである。
図5に示すように、自動着陸制御は、始めにステップS201で、第1のGPSセンサ102によるドローン100の現在位置情報と、第2のGPSセンサ313による車両200の現在位置情報を使用して、離着陸ポート401の上方の所定高度(例えば5m)まで移動する。本ステップでは、車載機300において離着陸ポート401とドローン100との相対位置及び相対距離を演算し、離着陸ポート401とドローン100との相対位置に基づいて、ドローン100の機体制御コントローラ103を制御して、ドローン100を離着陸ポート401の上方の所定高度に向けて移動させる。そしてステップS202に進む。なお、本ステップにおいて第1のGPSセンサ102による現在位置情報を使用して所定高度(所定距離)までドローンを移動させる制御が、本発明の第2の着陸制御に該当する。
ステップS202では、まず、AIパターン認識部306において、ドローン100に搭載したカメラ101によって撮影した下方の映像から着陸地点を認識する。
図6は、離着陸ポート401上の所定高度でのドローン100のカメラ101による撮影画像の一例を示す
ドローン100の撮影画像410は例えば写真のL版サイズ(89×127mm)とし、画素数は3000×4000(px)とする。そして、車載機300は、図6に示すように、ドローン100を、規定の位置(Hマーク上)に自動着陸させる際に、撮影画像内で認識された離着陸ポート401のHマークのQと撮影画像410の中心Cが重なるように移動させる。
なお、ドローン100の移動距離は撮影画像410内と実空間とで異なるため、車載機300は、以下のように、撮影画像410における画像内距離から実距離へ変換する演算を行う。
図7にカメラ撮影画像と実空間の関係を示す。
ドローン100に搭載したカメラ101の位置Aから離着陸ポート401上の実空間MNRSを撮影した画像をIJKLとする。カメラ101の視野角をθ、実空間MNRS内の中心をF(本発明のカメラの下方位置に該当する)、撮影画像410(IJKL)内の中心をC(本発明の撮影画像の中心位置に該当する)、実空間MNRS内の着陸地点をP、撮影画像410内の着陸地点をQとする。また、撮影画像IJKLにおけるIJの中心をB、LKの中心をD、実空間MNRSにおけるMNの中心をE、RS方向の中心をGとする。また、撮影画像IJKLにおけるCを中心とした直交座標を(x,y,z)とする。
図7に示すように、中心と着陸地点との間の
実距離/画像内距離=FP/CQ=EG/BD=AF/AC・・・(1)
となる。一方、
BC/AC=tan(θ/2)・・・(2)
となる。(2)式より、
AC=BC/tan(θ/2)・・・(3)
となる。上記式(1)、(3)より、
実距離FP=画像内距離CQ×(AF/AC)
=画像内距離CQ×(AF/BC)tan(θ/2)
=画像内距離CQ×2AF/(BD×tan(θ/2))・・・(4)
式(4)により、画像内距離CQを実距離FPに変換することができる。
例えばAF=5m、BD=127mm、AC=5cmとすれば、式(2)より、
θ=2Arctan(BC/AC)=137(度)
実距離FP=画像内距離CQ×62・・・(5)
となる。なおAF=2mの場合は、
実距離FP=画像内距離CQ×24.8・・・(6)
となる。
このように、画像内距離CQから実距離FPを演算して、ドローン100の高度AFが0となるようにドローン100を降下させながら、実距離FPが0となるようにドローン100を飛行制御する。なお、本ステップにおいてカメラ101の画像に基づいてドローン100を着陸地点に向けて移動させる制御が、本発明の第1の着陸制御に該当する。そして、ステップS203に進む。
ステップS203では、ドローン100の高度AFが0以下であるか否かを判別する。高度AFが0以下である場合には、ステップS204に進む。高度AFが0より大きい場合には、ステップS202に戻る。
ステップS204では、ドローン100の着陸完了とし、図3に示すステップS111に進む。
以上のように、本実施形態のドローン制御システムでは、離着陸ポート401の上方5mの所定位置まで、即ちドローン100と離着陸ポート401との相対距離が5m(所定距離)以上では、第1のGPSセンサ102の情報を用いて離着陸ポート401の上方まで移動し、当該所定位置からはカメラ101により撮影した画像を解析して離着陸ポート401に自動着陸させる。これにより、離着陸ポート401の上方の所定位置から離着陸ポート401に着陸するまでは、カメラ101の撮影画像に基づいてドローン100の着陸制御を行うので、ドローン100精度よく離着陸ポート401に着陸させることができる。
また、ドローン100が離着陸ポート401の上方の所定位置までは、第1のGPSセンサ102によるドローン100の位置情報に基づいて移動させるので、広い範囲でドローン100を制御することが可能となる。
ところで、ドローン100の飛行制御(フライトコントロール)として広く使用されているプロポーショナルシステムでは、図8に示すピッチ、ロール、ヨーと、直交座標(x,y,z)、即ちXYZ直交座標軸上の移動量を用いて制御が行われる。ピッチはドローン100のY軸を中心とした傾き角の値であり、この値に応じて機体が前後に傾く。ロールはドローン100のX軸を中心とした傾き角の値であり、この値に応じて機体が左右に傾く。ヨーは、ドローン100のZ軸を中心とした傾き角の値で、この値に応じて機体が回転する仕様となっている。また、直交座標(x,y,z)の値に応じてドローン100の移動量をコントロールしている。
本実施形態では、プロポーショナルシステムにより飛行制御されるドローン100を使用し、図7で算出した(x,y,z)面での移動を、プロポーショナルシステムにおける制御情報と互換性のあるx,y,z軸周りの角度θ,φ,ψと移動距離に変換して、ドローン100への飛行制御入力とする。
図9は、ドローン100の回転角度からの制御入力値の算出用のマップの一例である。図10は、ドローン100の移動距離からの制御入力値の算出用のマップの一例である。ドローン100の回転角度や移動距離とドローン100への制御入力値は事前に実測しておいた換算式を参照する。図9の換算は、回転角度をα(度)、移動距離をd(m)とした場合、例えば、
回転角度(α度)に対応する制御入力値=0.05α・・・(7)
移動距離を(dm) に対応する制御入力値=0.03d2+0.02d・・・(8)
で与えられる。
式(7)、(8)の換算式を用いて、(x,y,z)面での移動と(θ,φ,ψ)方向での回転に対する制御入力値を算出できる。式(7)、(8)の換算式を用いて制御入力をプロポーショナルシステムが使用するものと同じインタフェースにしてドローン100を流用することができ、経済的にドローン100の制御システムを構築することができる。
なお、上記式(8)に示すように、移動距離と制御入力値とは二次関数の関係となっており、移動距離が小さくなるほど制御入力値が比例関係の場合よりも小さくなるように設定される。したがって、ドローン100が着陸地点に近づくほどドローン100の移動量を抑え、滑らかな着地を実現することができる。
また、ドローン100は、カメラ101の撮影画像を無線通信を介して車載機300に送信し、車両200に配置された車載機300によって、撮影画像の認識、ドローン100の着陸制御を行うための演算、制御コマンドの生成等が行われ、車載機300から無線通信を介して制御コマンドをドローン100に送信して、ドローン100の飛行制御を行うので、ドローン100側での演算、制御負荷を低減することができ、ドローン100の流用性を向上させることができる。
また、制御コマンドは、車両200の識別情報を備えているので、カメラ101の撮影画像から複数の車両が認識されたり、着陸制御中に車両200が移動したりしても、着陸目標となる車両を容易に特定することができ、迅速な着陸を可能にすることができる。
また、ドローン100のカメラ101によって着陸地点を撮影すると、ドローン100の高度が低くなり着陸地点が近くなるにしたがって、着陸目標であるHマークの撮影画像におけるサイズが大きくなる。図6で高度AFが1/2になると、式(5)、式(6)より撮影画像410での離着陸ポート401のHマークの面積は4倍になることから、AIパターン認識部306における画像認識の処理が同じ処理方法であると4倍になる。
これに対して、ステップS202において、本実施形態のAIパターン認識部306は、注目領域(ROI;Region of interest)に応じたリサイズ化、ピクセルサイズの削減、HD(High Definition)からSD(Standard Definition )への切換えを行うとよい。このように、着陸地点とドローン100との相対距離に基づいて画素数を変更する等、画像認識の処理方法を切換えることで、AIパターン認識部306における画像認識時間を短縮させることができる。
また、AIパターン認識部306は、認識対象画像のリサイズ化、グレースケール処理をするとよい。
図11にAIパターン認識部306での認識対象画像のリサイズ化(等倍から0.1倍まで)による処理時間の測定結果例を示す。
図11で認識対象画像(図6のHマークの部分)を等倍から0.5倍、0.1倍に縮小することで、処理時間は9.3秒から3.3秒、1.1秒に短縮される。
図12には、認識対象画像をそのままカラー画像として認識処理する場合(Raw)とグレースケール(Grey)処理して認識処理する場合の処理時間の差の一例を示す。なお、図12中の処理時間差は、グレースケール処理の処理時間からカラー画像処理の処理時間を減算した値である。
図12に示すように、概ね画像の倍率が0.6倍より小さくなればグレースケール(Grey)処理はカラー処理(Raw)より処理時間が短くなる。
一般に、AIパターン認識部306で、カラー画像をグレースケールに変換する処理時間の増加と、グレースケールにすることで、輝度勾配による特徴量抽出(HOG;(Histograms of Oriented Gradients)処理が短縮される効果のトレードオフとなる。そして、画像の倍率が例えば0.6倍より小さくなるとグレースケールに変換する処理時間の増加分より、グレースケールにより輝度勾配による特徴量抽出処理時間が短縮される。このように、所定の倍率の範囲において撮影画像をグレースケールに変換してから、画像認識させることで、AIパターン認識部306における画像認識時間を短縮させることができる。
また、AIパターン認識部306で対象画像を認識する場合、識別機に学習させた画像と撮影された画像の傾きが小さいほうが、識別機に学習させるサンプル数が小さくなり、正解画像と判断するに要する時間を短くできる。
そこで、AIパターン認識部306は、撮影画像の傾きを減少させてから画像認識を行うようにするとよい。
図13には、離着陸ポート401のHマークの対角線上の2点に、マーカー405を配置した例を示す。対角線上の2点であるマーカー405の撮影画像上での座標からHマークの回転角度を算出でき、得られた角度分だけ撮影画像を回転させることで、回転位置をそのままにした撮影画像からHマークを認識する場合よりも、撮影画像の認識時間を短くすることができる。なお、Hマークに配置するマーカー405は座標情報を含むQGコード型にしてもよいし、車両IDを含めてもよい。
以上のように、AIパターン認識部306における画像認識時間を短縮させることで、自動着陸制御において、撮影画像410から実距離の算出を短時間に行うことができ、離着陸ポート401のHマークの中心Qへ向かって降下させるドローン100の飛行制御を正確に行うことができる。また、認識、制御時間を短縮させることで、車両200が移動していても、ドローン100を車両200の離着陸ポート401に正確に着陸させることが可能となる。
なお、本願発明は、上記実施形態に限定するものではない。上記実施形態では離着陸ポート401(着陸地点)を車両200のルーフ上に設けた場合を記載したが、離着陸ポート401(着陸地点)を車両200の側方に設けてもよい。また、例えば、上記の自動着陸制御における各制御入力値の算出、画像のリサイズ、色処理等の詳細については適宜変更してもよい。
100 ドローン
101 カメラ
102 第1のGPSセンサ
103 機体制御コントローラ(機体制御部)
200 車両
300 車載機(制御部)
313 第2のGPSセンサ
401 離着陸ポート(着陸地点)

Claims (7)

  1. 任意の方向に飛行可能な無人飛行体を、車両に設けられた着陸地点に着陸させる無人飛行体の制御システムであって、
    前記無人飛行体に設けられ当該無人飛行体の周囲を撮影するカメラと、
    前記無人飛行体の飛行制御を行う機体制御部と、
    前記カメラの撮影画像より前記着陸地点の前記撮影画像での位置を抽出し、前記無人飛行体を前記着陸地点から、前記カメラの位置に対応する前記撮影画像の中心位置と前記着陸地点の前記撮影画像での位置との差を減少するように前記機体制御部を制御して、前記無人飛行体を前記着陸地点に着陸させる第1の着陸制御を実行する制御部と、を備えたことを特徴とする無人飛行体の制御システム。
  2. 前記制御部は、前記車両に配置され、
    前記無人飛行体は、前記カメラの撮影画像を無線通信を介して前記機体制御部に送信し、
    前記制御部は、前記無人飛行体の機体を飛行制御する制御コマンドを無線通信を介して前記機体制御部に送信することを特徴とする請求項1に記載の無人飛行体の制御システム。
  3. 前記制御コマンドは、少なくとも前記車両の識別情報、前記無人飛行体の前記着陸地点への着陸予定時刻情報及び着陸予定位置情報を有する着陸指令情報を含むことを特徴とする請求項2に記載の無人飛行体の制御システム。
  4. 前記無人飛行体は、プロポーショナルシステムによって飛行制御可能であり、
    前記制御コマンドは、前記プロポーショナルシステムによる制御情報と互換性のあるロール、ピッチ、ヨーとXYZ直交座標軸上の移動量に関する情報を含むことを特徴とする請求項2または3に記載の無人飛行体の制御システム。
  5. 前記無人飛行体の位置を検出する第1のGPSセンサと、
    前記車両の位置を検出する第2のGPSセンサと、を備え、
    前記制御部は、前記第1のGPSセンサ及び第2のGPSセンサの検出値に基づいて前記着陸地点と前記無人飛行体との相対位置及び相対距離を演算し、前記相対位置に基づいて、前記無人飛行体を前記着陸地点に向けて移動するように前記機体制御部を制御する第2の着陸制御を実行可能であり、
    前記無人飛行体を前記着陸地点に着陸させる際に、前記相対距離が所定距離以上の場合には前記第2の着陸制御により前記機体制御部を制御し、前記相対距離が所定距離未満の場合には前記第1の着陸制御により前記機体制御部を制御することを特徴とする請求項1から4のいずれか1項に記載の無人飛行体の制御システム。
  6. 前記制御部は、前記第1の着陸制御の際に、前記着陸地点と前記無人飛行体との相対距離に基づいて、前記カメラによって撮影する画像の画素数を変更することを特徴とする請求項1から5のいずれか1項に記載の無人飛行体の制御システム。
  7. 前記無線通信は、複数の周波数帯のうち、干渉の少ない周波数帯を自動的に選択して用いられることを特徴とする請求項2に記載の無人飛行体の制御システム。
JP2019037313A 2019-03-01 2019-03-01 無人飛行体の制御システム Pending JP2020138681A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019037313A JP2020138681A (ja) 2019-03-01 2019-03-01 無人飛行体の制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019037313A JP2020138681A (ja) 2019-03-01 2019-03-01 無人飛行体の制御システム

Publications (1)

Publication Number Publication Date
JP2020138681A true JP2020138681A (ja) 2020-09-03

Family

ID=72264301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019037313A Pending JP2020138681A (ja) 2019-03-01 2019-03-01 無人飛行体の制御システム

Country Status (1)

Country Link
JP (1) JP2020138681A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114919487A (zh) * 2022-05-18 2022-08-19 台州职业技术学院 一种携带无人机的智能汽车
KR20220118008A (ko) * 2021-02-18 2022-08-25 광주과학기술원 다중 드론 측위 및 촬영 시스템
WO2022181130A1 (ja) * 2021-02-26 2022-09-01 ソニーグループ株式会社 情報処理方法、情報処理装置、および情報処理システム、並びにプログラム
KR102630688B1 (ko) * 2023-11-01 2024-01-31 한국해양과학기술원 선박에서 활용되는 드론의 리턴홈 모드 지원 시스템 및 방법
WO2024116276A1 (ja) * 2022-11-29 2024-06-06 日本電信電話株式会社 飛行支援システム、飛行支援方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002198975A (ja) * 2000-11-08 2002-07-12 At & T Corp 無線lanにおける無線リンクのサービス品質の維持管理方法
JP2012071645A (ja) * 2010-09-28 2012-04-12 Topcon Corp 自動離着陸システム
JP2016535879A (ja) * 2014-05-30 2016-11-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uavドッキングのためのシステムおよび方法
JP2017021757A (ja) * 2015-07-15 2017-01-26 三菱自動車工業株式会社 車両の運転支援装置
US20180130008A1 (en) * 2016-11-06 2018-05-10 Yan Liu System and Method for Aerial Vehicle Automatic Landing and Cargo Delivery
WO2018110598A1 (ja) * 2016-12-13 2018-06-21 株式会社自律制御システム研究所 無人航空機、無人航空機の制御装置、無人航空機の制御方法、及び無人航空機の障害検出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002198975A (ja) * 2000-11-08 2002-07-12 At & T Corp 無線lanにおける無線リンクのサービス品質の維持管理方法
JP2012071645A (ja) * 2010-09-28 2012-04-12 Topcon Corp 自動離着陸システム
JP2016535879A (ja) * 2014-05-30 2016-11-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uavドッキングのためのシステムおよび方法
JP2017021757A (ja) * 2015-07-15 2017-01-26 三菱自動車工業株式会社 車両の運転支援装置
US20180130008A1 (en) * 2016-11-06 2018-05-10 Yan Liu System and Method for Aerial Vehicle Automatic Landing and Cargo Delivery
WO2018110598A1 (ja) * 2016-12-13 2018-06-21 株式会社自律制御システム研究所 無人航空機、無人航空機の制御装置、無人航空機の制御方法、及び無人航空機の障害検出装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220118008A (ko) * 2021-02-18 2022-08-25 광주과학기술원 다중 드론 측위 및 촬영 시스템
KR102562672B1 (ko) * 2021-02-18 2023-08-02 광주과학기술원 다중 드론 측위 및 촬영 시스템
WO2022181130A1 (ja) * 2021-02-26 2022-09-01 ソニーグループ株式会社 情報処理方法、情報処理装置、および情報処理システム、並びにプログラム
CN114919487A (zh) * 2022-05-18 2022-08-19 台州职业技术学院 一种携带无人机的智能汽车
WO2024116276A1 (ja) * 2022-11-29 2024-06-06 日本電信電話株式会社 飛行支援システム、飛行支援方法およびプログラム
KR102630688B1 (ko) * 2023-11-01 2024-01-31 한국해양과학기술원 선박에서 활용되는 드론의 리턴홈 모드 지원 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11604479B2 (en) Methods and system for vision-based landing
US11693428B2 (en) Methods and system for autonomous landing
US12007761B2 (en) Unmanned aerial vehicle inspection system
JP2020138681A (ja) 無人飛行体の制御システム
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
US9513635B1 (en) Unmanned aerial vehicle inspection system
US9977434B2 (en) Automatic tracking mode for controlling an unmanned aerial vehicle
EP3251953B1 (en) Method and apparatus for landing flight device
AU2018388887A1 (en) Image based localization for unmanned aerial vehicles, and associated systems and methods
US20190243356A1 (en) Method for controlling flight of an aircraft, device, and aircraft
CN111465556B (zh) 信息处理系统、信息处理方法及电脑可读存储媒体
CN107820585B (zh) 飞行器降落方法、飞行器和计算机可读存储介质
JP2020149640A (ja) 飛行システム及び着陸制御方法
CN112119428A (zh) 获取降落位置的方法、设备、无人机、系统及存储介质
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
KR102231574B1 (ko) 이동하는 랜딩패드에 안전하게 착륙 가능한 무인 항공기 착륙방법 및 이를 이용한 무인 항공기 착륙시스템
KR20190097350A (ko) 드론의 정밀착륙을 위한 방법, 이를 수행하기 위한 기록매체, 및 이를 적용한 드론
JP2020135327A (ja) 飛行体システム、飛行体、位置測定方法、プログラム
US20200307788A1 (en) Systems and methods for automatic water surface and sky detection
CN116762354A (zh) 影像拍摄方法、控制装置、可移动平台和计算机存储介质
CN113778125B (zh) 基于语音的飞行设备控制方法、装置、车辆及存储介质
KR102562599B1 (ko) 무인항공기 최적 착륙경로 설정 방법
WO2023181036A2 (en) System and method for autonomously landing a vertical take-off and landing (vtol) aircraft
KR20230105412A (ko) 드론의 정밀 착륙 방법 및 장치
CN114489102A (zh) 一种电力杆塔自巡检方法、装置、无人机及存储介质

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230628