JP2024054889A - 管制装置、並びに管制方法 - Google Patents
管制装置、並びに管制方法 Download PDFInfo
- Publication number
- JP2024054889A JP2024054889A JP2022161319A JP2022161319A JP2024054889A JP 2024054889 A JP2024054889 A JP 2024054889A JP 2022161319 A JP2022161319 A JP 2022161319A JP 2022161319 A JP2022161319 A JP 2022161319A JP 2024054889 A JP2024054889 A JP 2024054889A
- Authority
- JP
- Japan
- Prior art keywords
- aircraft
- information
- visibility
- unit
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012544 monitoring process Methods 0.000 claims abstract description 24
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000005540 biological transmission Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 description 125
- 230000008569 process Effects 0.000 description 31
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】飛行体ごとの最適飛行経路が得られる飛行体の管制装置並びに管制方法を提供する。【解決手段】センサが検知する情報を用いて飛行体の周辺状況を監視する周辺監視部と、飛行体の自己位置を求める自己位置推定部と、周辺状況及び飛行体の自己位置を機体周辺環境情報として送信する機体周辺環境送信部と、経路情報を受信する経路情報受信部と、経路情報に応じて飛行体を運行制御する飛行制御部とを備え、周辺監視部からの周辺状況には飛行体からの各方位における視程の情報を含むことを特徴とする管制装置。【選択図】図4
Description
本発明は、管制装置、並びに管制方法に関する。
航空機などの飛行体を交通・物流インフラとして社会実装する場合、多数の機体を安全かつ高効率に制御することが必要になる。
この点に関して、従来、航空機などの飛行体の移動経路を設定する際には、この移動体の外囲状況に関する情報が用いられる。例えば航空機の飛行経路は、機体の各種センサなどで取得された現在時点での情報に基づいて作成・設定される。そのため、この飛行経路に沿った飛行途中において、情報取得時には認識されなかった何らかの障害に遭遇してしまう可能性があった。
この点に関して例えば特許文献1では、移動時の安全性を脅かし得る様々な要因を考慮した安全な移動経路を作成・設定することを目的として、移動時の安全性を脅かし得る要因(大気条件、鳥、他飛行体等)を考慮した安全な移動経路を作成・設定することとし、取得された外囲情報及び確率モデルに基づいて、将来の複数の所定時刻毎に外囲状況を予測したシナリオを作成し、それに基づいて飛行経路を探索するとしている。
特許文献1によれば、移動時における想定要因に対して安全な移動経路を作成可能であるが、遠方の経路計画ができず、最適飛行経路が得られないという問題が残る。また都市部近郊で運用される飛行体に対して、特に離着陸場周辺の数km四方における飛行時の安全・安心と運用効率を両立することが望ましい。
しかるに、飛行経路を決定する際、自機からなるべく遠方までの視程を考慮したいが、自機単体のセンシングだけでは、必要な視程推定精度やセンシング距離を確保できるとは限らない。
このことから本発明においては、飛行体ごとの最適飛行経路が得られる管制装置、並びに管制方法を提供することを目的とする。
以上のことから本発明においては、「センサが検知する情報を用いて飛行体の周辺状況を監視する周辺監視部と、飛行体の自己位置を求める自己位置推定部と、周辺状況及び飛行体の自己位置を機体周辺環境情報として送信する機体周辺環境送信部と、経路情報を受信する経路情報受信部と、経路情報に応じて飛行体を運行制御する飛行制御部とを備え、周辺監視部からの周辺状況には飛行体からの各方位における視程の情報を含むことを特徴とする管制装置」としたものである。
また本発明においては、「センサが検知する情報を用いて飛行体の周辺状況を監視し、飛行体の自己位置を求め、周辺状況及び飛行体の自己位置を機体周辺環境情報として送信して、経路情報を受信し、経路情報に応じて飛行体を運行制御するとともに、周辺状況には飛行体からの各方位における視程の情報を含むことを特徴とする管制方法」としたものである。
飛行体ごとの最適飛行経路が得られる管制装置、並びに管制方法を提供することができる。
以下,本発明の実施例について、図面を用いて説明する。
図1は、飛行体の運行管理を行うに必要な設備の概要を示す図である。図1において複数の飛行体4はポート11を離着陸場とし、管制センタ13が作成した計画運行経路を飛行する。
管制センタ13は、飛行体4の運行経路を作成するにあたり、民家8の上空の飛行禁止エリア9を避けながら、始点から終点に至る運行経路を作成するが、その際に各所のセンサなどから入手した以下の情報を利用する。これらは、ポート11の周辺に設置されたカメラ2やレーダ3が把握したポート上空の情報であり、気象会社7からの気象の情報であり、あるいはビル12の屋上に設置された風況センサ5が把握した風況6の情報であり、飛行体4で把握した機体情報などである。
図1の運行管理では、地上設備と飛行体4が互いに協調することにより飛行運用が行われている。この場合に地上設備は、管制センタ13内の運行管理装置10を主体として構成される図2に例示するような管制システム100であり、飛行体4は図3に例示するような機体装置20を主体として構成される機体システム200を搭載するのがよいが、本発明はこのような構成に限定されない。例えば他の構成例としては管制システム側にある機能の一部が機体システム側にあっても良い。
図2、図3に示すように運行管理装置10及び機体装置20は計算機装置により構成されており、その主な構成機器は演算を行う演算部であるCPU,情報やプログラムを記憶するROM,演算過程の情報を一時記憶するRAM,外部との通信を行う通信装置Tなどであり、運行管理装置10ではさらに入力装置I,表示装置Vなどを含んでいる。なお、これらを区別するために運行管理装置10の構成機器には記号Aを付し、機体装置20の構成機器には記号Bを付けることで区別している。
なお図2の管制システム100では、風況センサ5A,カメラ2A,レーダ3Aからの情報を入力するがこれらはいずれも地上設置のセンサであるのに対し、図3の機体システム200におけるカメラ2B,レーダ3B,GNSSは、飛行体4に設置しているセンサである。図2の管制システム100における通信装置TAでは、機体装置20の通信装置TBからのカメラの画像、レーダの情報並びにGNSSで検知した位置の各情報を入手し、通信装置TAからは通信装置TBを介して、飛行経路の指令情報を飛行体4に与える。
図4は、運行管理装置10及び機体装置20内のCPU(CPUA,CPUB)の処理機能を示す図である。なお図4は全体として管制装置を構成したものである。図4の左に示す機体装置20のCPUBは、視程推定部201と障害物検知部202の機能を含む周辺監視部207と、自己位置推定部203と、機体周辺環境送信部204と、経路情報受信部205と、飛行制御部206の各処理機能を有している。なお、機体周辺環境送信部204と、経路情報受信部205が通信装置TBにおける処理を示している。
図4の右に示す運行管理装置10のCPUAは、機体周辺環境受信部101と、視程予測部102と、風況予測部103と、障害物検知部104と、飛行可能経路算出部105と、経路情報送信部106の各処理機能を有している。なお、機体周辺環境受信部101と、経路情報送信部106が通信装置TAにおける処理を示している。
図5は、機体装置20の各種機能のうち、周辺監視部207、自己位置推定部203,機体周辺環境送信部204の機能による処理内容の詳細を示すフロー図である。このフローでは、最初に処理ステップS201においてGNSSから飛行体4の自己位置を入手し、処理ステップS202ではレーダ3Bからレーダデータを入手し、処理ステップS203ではカメラ2Bからカメラ画像データを入手する。
図5の処理ステップS204からS210は、周辺監視部207の処理を示している。ここでは、処理ステップS204と処理ステップS210の間の処理を、レーダ照射回数を変更しながら繰り返し実行する。レーダ照射回数は例えば3回であり、第1回目の照射の時の反射波についての一連の処理後に、第2回目の照射と反射波の処理をおこない、さらに第3回目の照射と反射波の処理をおこなう。各回での処理内容は以下のとおりである。
処理ステップS205では、レーダ照射を行う方位を決定して、当該方向へのレーダ照射を行い、このときのこの方位からの反射波の有無を処理ステップS206で判断する。反射波がある場合には処理ステップS207に移動してレーダと画像を用いた視程判定を行い、反射波がない場合には処理ステップS208に移動して画像を用いた視程判定を行う。なお、処理ステップS207の詳細処理内容を図6で別途説明し、処理ステップS208の詳細処理内容を図10で別途説明する。
視程判定結果は、例えば図7に示すような視程の状態に応じてレベル1からレベル4に分類される。レベル1は空域が雲または霧で視界が悪い状態であり、この時の値を「-1」とし、レベル2は空域に障害物がある状態であり、この時の値を「0」とし、レベル3は視界良好な状態であり、この時の値を「1」とし、レベル4は民家上空などの視界禁止空域にある状態であり、この時の値を「-10」とする、などに区分される。
処理ステップS209では、求められた空域の視界レベルを、各回のレーダ照射ごとに、ROMなどの記憶装置に記憶していく。所定回数の照射と反射波の処理が完了すると、処理ステップS211に移動して、自己位置推定部203においてGNSSからの位置情報を用いた自己位置(飛行体の機体位置)推定を行い、処理ステップS211において機械周辺環境送信部204から処理結果情報D1が管制システム100側に送信される。なお機体システム200から管制システム100に送られる処理結果情報D1の例を、図11を用いて別途説明する。
これに対し、図4の運行管理装置10側では、まず機体周辺環境受信部101から飛行体が測定した処理結果情報D1(視程判定結果並びに推定した自己位置の情報)を受信する。また風況予測部5Aの処理として風況を予測し、障害物検知部104の処理として障害物を検知する。また予め設定されている民家8の上空の飛行禁止エリア9の情報を得る。また視程予測部102において後述する図12の処理により図13に例示する視程予測マップを作成する。
その後に、飛行可能経路算出部105,経路情報送信部106の処理として、ここでは、管制システム100が管理対象とする飛行体104が一般には複数であることから、飛行体数分の繰り返し処理を実行する。繰り返し処理の内部では、飛行可能経路算出部105の処理として飛行可能経路を計算し、経路情報送信部106の処理として各飛行体104へ経路データD2を送信する。
図4において、機体システム200の経路情報受信部205は管制システム100で修正し送信してきた経路データD2を受信し、飛行制御部206により視程された経路での運行を行う。
上記した機体システム200側の処理(図5)と、管制システム100側の処理が協調して制御されることにより、本発明においては飛行体ごとの最適飛行経路を得ることができるが、これら一連処理の中で本発明の主要な機能についてさらに詳細に説明する。
まず機体システム200側の処理として図5の処理ステップS207では、当該方位からのレーダ反射波が計測される(処理ステップS206)という条件下において、レーダと画像による視程判定処理を行うが、この詳細を図6のフローに示している。
図6ではまず処理ステップS207aにおいて、レーダとカメラ画像からの情報のいずれか、または双方により物体までの距離を計測する。また処理ステップS207bにおいて、カメラ画像情報から物体を検知する処理を行う。処理ステップS207cでは、カメラ画像の物体検知処理の結果、物体が検知できたか否かを判断して、物体検知した場合(Yes)には処理ステップS207dの処理に移り、物体検知しなかった場合(No)には処理ステップS207eの処理に移る。
処理ステップS207dの処理では、カメラ画像から検知した物体の方位がレーダ照射の反射波の方向に近いか否かを確認し、近い場合には処理ステップS207hにおいて当該方位視程レベル2(図7参照:障害物あり)と判断する。つまり、カメラ画像の判断とレーダ反射波の判断のいずれもが同じ方向に物体検知していることをもって障害物有りとする。
またカメラ画像から検知した物体の方位がレーダ照射の反射波の方向に近くない場合であっても、さらに処理ステップS207fの処理で物体の距離が閾値よりも近い場合(No)には、同様に処理ステップS207hにおいて当該方位視程レベル2(図7参照:障害物あり)と判断する。なお処理ステップS207fの処理で物体の距離が閾値よりも遠い場合(Yes)には、処理ステップS207gにおいて当該方位視程レベル3(図7参照:視界良好)と判断する。
ここで、処理ステップS207dの処理について、図8、図9を用いて説明する。まず図8は、機体側視程判定の様子を示す図であり、飛行体4に搭載するセンサ(レーダ3B,カメラ2B)が他の飛行体などの物体1003を検知した様子を示している。ここで1001はレーダ3Bで物体1003を検知した時の照射方位、1002はカメラ2Bの画像を処理して物体1003を検知した時の方位であり、方位1001と方位1002がなす角θが閾値を超えるか否かで検知方位の近さを判定する。
また図9は、検知方位と照射方位の判定について説明する図である。ここでは、飛行体4の位置を三次元座標の原点位置において、レーダ3Bで検知した物体1003の位置をグローバル座標により(X0,Y0,Z0)として示している。また1102は、カメラで撮影したカメラ画像であり、二次元のカメラ座標上に物体1003を投影した時の座標を(u,v)で示している。なお1101は、画像1102上で物体1003が写っている画素である。この場合に、カメラ画像における物体の座標位置は、カメラ2Bの焦点距離fを用いて、u=f×X0/Z0,v=f×Y0/Z0で表すことができる。
図6の処理ステップS207eを除いた処理では、カメラ画像とレーダ照射の反射波の双方に物体痕跡がある場合にこれら双方を用いて視程レベルを判断する。これに対し、物体検知しなかった場合(No)の処理ステップS207eの処理では、飛行体その他の物体を画像上に検知していない場合の視程レベルの判断を行う。これは雲や霧の有無を判断することになる。
図10は、図6の処理ステップS207eの詳細フローを示す図であるが、この処理は図5の処理ステップS208と同一内容であり、いずれの場合でもこの処理により雲や霧の状況を判断するが、ここでは処理ステップS207eを意図した説明とする。
図6の処理ステップS207eの詳細フローでは、まず処理ステップS207e1においてレーダ照射方位に対応する画素座標を得る。これは図9においてカメラ画像1102の領域の中で1101の点の座標(u,v)に着目することである。次に処理ステップS207e2で例えば25近傍の画素値を得る。これは、座標(u,v)の点を含む近傍の25個の点の画素値に着目することを意味し、これにより25画素で定まる小領域を抽出する。
処理ステップS207eの詳細フローでは、25画素のうち白画素数の割合が閾値を越えるか否かを確認し、閾値を越えない場合には着目した方位の状態が暗いことから、雲、霧の可能性が大であると判断し、図7の当該方位視程レベル1(雲または霧で視界が悪い)とする。逆に閾値を越える場合には着目した方位の状態が明るいことから、雲、霧の可能性が小さいと判断し、図7の当該方位視程レベル3(視程良好)とする。尚、画素の色はカメラ画像1102から得られる画素値をRGBカラーチャートと比較することで判定が可能である。あるいはモノクロ画像の場合は、輝度値が最大値に近い場合に白画素と判定することでもよい。このようにして、周辺監視部207はカメラの画像の明るさと撮影内容及び、カメラの撮影方向とレーダ照射方向から、周辺状況を求めているが、視程の求め方は他の手法によるものであってもよい。
図11は、機体システム200から管制システム100に送られる処理結果情報D1の詳細内容を示す図である。この例では、処理結果情報D1は飛行体ID(D1a),送信時刻D1b,自己位置D1c、飛行速度D1d、視程推定結果D1e、障害物検知結果D1fを含んで構成される。なお、各情報はさらに詳細に定義されており、自己位置D1cは3次元座標、飛行速度D1dは垂直と水平角度で表される方位情報と速さ、視程推定結果D1eは方位数と視程レベルを含む方位情報、障害物検知結果D1fは検知数と視程レベルを含む方位情報などにより、詳細に定義された計測情報を含んで構成されている。
ここで視程予測マップを作成する手順について説明する。最初に現在の視程状況を求める処理を実行して図12に示す視程マップを作成し、次に所定時間後の視程状況を求める処理を実行して図13に例示する視程予測マップを作成する。
具体的には、まず受信した処理結果情報D1から自己位置推定結果D1cを取り出し、受信した処理結果情報D1から視程位置推定結果D1eを取り出す。この情報を用いて、現在の視程状況を求める。
現在状況を求める処理では、全ての飛行体を対象とする繰り返し計算を行う。またこのループの内部で、全ての方位を対象とする繰り返し計算を行う。
繰り返し処理の内部では、まず例えばブレゼンハムのアルゴリズムを用いて視程を割り当てるボクセル座標を算出する。これは例えば図12に示すような横14,縦16のマトリクスで区分される各ボクセルについて、1機目の飛行体4-1の自己位置を図12(a)に示すように横6、縦2の位置(以下単純に(6,2))の座標としたとき、31,32,33の観測方位に対して視程位置推定結果D1eを有していたものであり、視程を割り当てるボクセル座標を決定したものである。
同様の処理は、繰り返し処理により図12(b)の2機目に対しても行われ、2機目の飛行体4-2の自己位置を図12(b)に示すように横10、縦7の位置(10,7)の座標としたとき、34,35,36の観測方位に対して視程位置推定結果D1eを有していたものであり、視程を割り当てるボクセル座標を決定したものである。
次に、さらに内部ループとして全ての割り当てボクセル数を対象とする繰り返し計算を行う。ここでは、視程を割り当てるボクセル座標に、視程レベルの情報を付与している。図12では各ボクセル位置にそれぞれ「0,1,―1」などの情報を付与して示したものである。
上記3種類の繰り返し処理により、マトリクス状のマップ上には図12(c)に示す視程マップが形成される。これは複数台の飛行体の情報を寄せ集めて形成した現時点での空の視程状態である。この視程状態は、対象とする飛行体数が多いほど広域にかつ正確に把握可能となる。
次に所定時間後の視程状況を求める処理を実行して図13に例示する視程予測マップを作成する処理について説明する。
視程予測を行う処理では、予測時刻を対象とする繰り返し計算を行う。またこのループの内部で、全てのボクセル数を対象とする繰り返し計算を行う。
予測時刻とボクセル数による繰り返し処理の中では、まずボクセル座標における風況予測結果を風況予測部103から入手する。図13において、(a)は図12で求めた現在の視程マップであり、(b)は全てのボクセルに風況の情報を反映したものである。この処理では、各ボクセル位置における風況が反映された図13(b)を形成する。
次に、風向と風速に基づいてボクセルの値(図7のレベル)を移動させる。図13(c)は(a)と(b)を単純に重畳したものであるが、これを風向と風速に応じて当該方向に移動させ、t時間後の視程として求めたのが、図13(d)の視程予測マップである。なお視程予測マップは、一定時間後であっても、さらには連続する時間帯として把握したものであってもよい。
このように視程予測を行うときには、各ボクセルにおける視程レベルが風によって別のボクセルに移動するというモデルを仮定して視程予測マップを作成する。なお実際の適用場面では、3次元空間をボクセルに区切って実施するが、ここでは簡単のため、2次元で描画している。また1時刻だけの予測マップを記載しているが、複数の未来時刻における予測は、各時刻データを用いて実施することができる。
図14は、飛行可能経路算出部105の処理の考え方を示す図である。図14において(a)は時刻tにおける視程マップであり、(b)は時刻t+1における視程マップである。これによれば、時刻tにおける各ボクセルに記載の視程情報が時刻t+1に(b)のような位置に移動したことになる。これに対し、(c)は飛行体4-1の飛行予定経路1601を示しており、これによれば現在位置が(6,2)の座標にある飛行体4-1は時刻tに(6,6)のボクセル位置1602を通過し、時刻t+1に(8,12)のボクセル位置1603を通過することになるが、これらの位置の視程はいずれも「―1」の雲または霧で視界が悪い状況である。
飛行可能経路算出部105では、視程予測マップから運行経路と視程の関係を判断して、図14(c)のような関係にある時には、ポイント1602,1603を経由する計画飛行経路を通過しないように経路変更する。これが(d)に示す変更経路1604である。
以上述べたように本発明においては、飛行体が検知した視程の情報をもとにして視程の予測を行い、不良視程の空域を避けて新たな飛行経路を提案していく。
実施例2では、実施例1で述べた処理の変形代案例について説明する。上記した管制側処理では、飛行体4からデータを受信して視程予測マップ作成を行っているが、監視領域の状況によっては十分な数の飛行体4が飛行しておらず、十分なデータが確保できないということが想定される。
このため、実施例2では、気象会社からも気象情報を得られるようにしたものである。図4の機体周辺環境受信部101は、実施例1では各飛行体からデータD1を受信する機能のものであったが、実施例2では機体周辺環境受信部101の処理(この処理を処理ステップS101とする)をさらに図15のように機能拡大する。
図15に示す代替処理案では、まず処理ステップS101aにおいて各飛行体の位置を把握しておき、処理ステップS101bにおいてチェックポイントにおける各飛行体の通過時刻を把握しておく。
そのうえで飛行体の距離間隔及び通過時間間隔をそれぞれ処理ステップS101c、101dにおいて判断し、閾値よりも大きいと判断されるときには飛行体の飛行頻度が低いことから十分なデータが確保できないものとして、処理ステップS101fにおいて気象会社が取得した気象情報を用いて、視程マップを作成するものとする。閾値よりも小さいと判断されるときには飛行体の飛行頻度が高いことから十分なデータが確保できるものとして、処理ステップS101eにおいて各飛行体が取得した情報を用いて、視程マップを作成する
このように、ここでは処理ステップS101aで、飛行体4の運行が疎な場合、取得できる視程情報も疎になってくるため、気象会社のデータで視程予測する。但し、気象会社のデータが飛行体4によるデータよりも密な場合だけにするのがよい。また下記のいずれかの場合は気象会社の気象データを優先的に利用するのがよく、これは飛行体の距離間隔が一定以上(気象会社のデータメッシュの大きさ以上)であるとき、および飛行体の運行時間間隔が一定以上(気象会社のデータ提供時間間隔以上)であるときなどである。
このように、ここでは処理ステップS101aで、飛行体4の運行が疎な場合、取得できる視程情報も疎になってくるため、気象会社のデータで視程予測する。但し、気象会社のデータが飛行体4によるデータよりも密な場合だけにするのがよい。また下記のいずれかの場合は気象会社の気象データを優先的に利用するのがよく、これは飛行体の距離間隔が一定以上(気象会社のデータメッシュの大きさ以上)であるとき、および飛行体の運行時間間隔が一定以上(気象会社のデータ提供時間間隔以上)であるときなどである。
なお、気象会社のデータは、機体計測データと比較すると、少なくとも視程推定結果D1eの情報を含んでおり、また観測している空域の座標情報に対応付けして把握されていることから、空域の位置の情報も備えている。従って、完成センタ側での視程予測マップの作製に利用可能である。
実施例3では、図4の管制システム側の障害物検知部104での処理について説明する。図16は、障害物検知部104の機能構成例を示しており、ここには対象飛行体データベース104bを備え、かつセンシング部104a、機種推定部104c、位置推定部104d、速度推定部104e,個体同定部104f、追跡部104gの各処理機能部を備えている。
障害物検知部104の処理では、まずセンシング部104aが地上設置のレーダ3A,カメラ2Aから反射波やカメラ画像の情報(センサデータ)を入手する。そのうえでセンサデータの中から、飛行体からの反射波部分のデータや飛行体が撮影されている画像データを、飛行体周辺のデータとして抽出する。
図16の対象飛行体データベース104bには、飛行体の形状や大きさ、飛行予定経路、飛行予定時間などの情報が記憶されており、機種推定部104cにおいて飛行体周辺のデータを用いて対象飛行体データベース104bを参照し、飛行体機種を特定する。なおここでは飛行体機種が特定されたものとして以下の説明を行う。また位置推定部104d、速度推定部104eにおいて飛行体の位置と速度を推定する。
次に機体同定部104fの処理として、飛行体の位置の推定値と予測値に例えばハンガリー法を適用して飛行体の機種を同定する。これは機種特定された飛行体の時間的な位置の推移を用いて、予め知られている飛行体の飛行経路の情報に合致することをもって飛行体の個体を同定するものである。前時刻で検知したものと現在時刻で検知したものが同じ個体か否かを判定する。
これらに基づいて追跡部104gにおいて、飛行体の位置を追跡すべくセンシング部104aのレーダ3A、カメラ2Aの駆動部を操作する。なお、飛行体の追跡にはカルマンフィルタを用いるのがよい。
実施例4では、非制御対象の取り扱いについて説明する。離着陸場の上空には、制御対象となる飛行体4ばかりではなく、自然界の鳥など非制御対象の物体が存在する。そのため、上空の物体が制御対象となる飛行体4であるか、鳥などの非制御対象であるかを弁別して取り扱いを変更する必要がある。
図17は、非制御対象の取り扱いを説明するための図である。管制センタ13は、離着陸場周辺のセンサ(カメラ2A,レーダ3A)及び上空を飛行中の飛行体4からの情報を入手しており、この場合に監視領域が2002であるセンサ2A,3A,あるいは2003を監視領域とする飛行体は物体2001の存在を管制センタ13に報知してくる。
ここでは、この報知結果に応じて、管制センタ13の対応を変更する。これは、非制御対象側からの安全確保の観点からすると、非制御対象物を識別することであり、例えば、自己位置を管制センタ13に送ってくる飛行体4は制御対象とし、それ以外に飛行体4が検知されれば、それらは非制御対象とする。また、管制センタ13にて、非制御対象からの視程を推定し、視程が長い場合、制御対象の飛行体4は、当該非制御対象の動く方向への飛行を不可とする。これは、非制御対象は、自己位置から見た視程が長い方向へ飛行すると仮定したものである。
図18は、管制センタ13における非制御対象の識別手法の一例を示すフロー図である。このフローS104cは、障害物検知部104における図16の機種推定部104cの処理の一部として組み込まれている。つまり、処理ステップS104cはデータベース104bとのマッチングにより飛行体機種を特定する処理であるが、該当する飛行体機種が存在しないときの処理が図18にフローS104cとして示されている。なお、図16では飛行体が特定されたことを前提とする説明を行っているが、実際には図18のように一致しない、特定できない場合がある。
図18の最初の処理では、まず処理ステップS104c1において、図4の障害物検知部が検知した障害物の検知結果を得る。これに基づいて、処理ステップS104c2とS104c8の間で、検知した障害物数の全ての処理が完了するまで、繰り返し処理が実行される。繰り返しループ内では、処理ステップS104c3において、検知した障害物の位置の情報を得る。これらは、図17の飛行体4-1からの送信情報、あるいは地上センサ2A,3Aからの情報として得られる。
処理ステップS104c4では、飛行体4-1からの送信情報を用いて、自己位置に近い位置の他の飛行体の情報を探す。仮に図17の物体2001が飛行体であれば、自己位置に近い位置の他の飛行体の情報が存在するはずであるが、鳥などの場合にはこの位置情報が存在しない。このことから処理ステップS104c5では近い位置の情報が見つかったか、否かを判断し、見つかった場合には処理ステップS104c6で制御対象と認定し、見つからなかった場合には処理ステップS104c7で非制御対象と認定する。
なお、処理ステップS104c4の判断では、地上センサが検知する位置を基準として近い位置の情報の有無を判断するものであってもよい。
図18の処理では、非制御対象を認知したが、これに対し自然界の鳥などを保護する観点、あるいは衝突による飛行体の墜落防止の観点から、飛行体4が自然界の鳥などを避ける方向に経路変更することが望ましい。
このため、図19では非制御対象からの視程を想定して作成した視程マップ上で以下のように対応する。飛行体4-1の飛行する計画運行経路は2202であるのに対し、鳥2001の進行方向は2201と推定されることから、飛行体4-1の進路を視程情報と参照しながら2203に変更することを示している。ただし、鳥2001の進行方向が2201と推定する根拠は、鳥は視程がよい方向へ飛行するという仮定に基づいて定めたものである。
図20は、機種を特定する処理のフローを示す図である。この処理では、管制センタ13の監視区域に入る前であっても、飛行体4は管制センタ13と通信可能であることから、そのときに受信したデータを用いることで、飛行予定との整合性判断が可能になり、また飛行体4がポートに近づいてきたら、機種特定精度を上げるため、カメラも併用することにしたものである。
図20の最初の処理ステップS104c10では、レーダで飛行体を検知し、処理ステップS104c11で当該飛行体の位置を求める。次に処理ステップS104c12では対象飛行体データベース104bを参照するなどして、飛行予定との整合性を確認する。この結果、対象飛行体データベース104bに記載のない飛行位置である場合には、処理ステップS104c16に移り、これを非制御対象と判断する。
レーダで検知した飛行体が、その位置から飛行予定と整合している場合には、処理ステップS104c13において、当該飛行体までの距離が閾値以内であるか否かを判定し、遠くの位置にある場合(No)には処理ステップS104c18においてその飛行体の機種は不明と判断する。近くの位置に存在している場合(Yes)には、処理ステップS104c14に移り、カメラで当該飛行体を検知し撮影する。
処理ステップS104c15では、撮影結果を対象飛行体データベース104の情報と比較して、マッチするか否かを確認する。マッチしない(対応する情報がない)場合には、処理ステップS104c18においてその飛行体の機種は不明と判断する。マッチする場合には、処理ステップS104c17においてマッチしたその飛行体の機種と判断する。具体的には、対象飛行体データベース104には、対象飛行体の画像あるいは画像の学習結果を収めておき、処理ステップS104c15における判定には、処理ステップS104c14で得られたカメラ画像とのテンプレートマッチングや、深層学習等の機械学習の結果を用いた物体検知アルゴリズムを用いるのが好適である。例えば深層学習を用いる場合、マッチするか否かの判定においては、検知アルゴリズムが出力する確率値が閾値より大きければマッチする、そうでなければマッチしないという判定にしてもよい。
図21は、処理ステップS104c12の、対象飛行体データベース104bとの整合判定処理のフローを示す図である。最初のステップS104c20では、当該時刻における監視範囲の飛行計画を得る。飛行計画は、飛行予定の飛行体IDと各時間帯における通過予定位置から構成される。次のステップS104c21~23で、当該時刻において監視範囲で検知されたすべての飛行体の検知位置を得て、当該飛行体の検知位置と全飛行体の通過予定位置との距離を総当たりで求める。次のステップS104c24では、一致確率をベイズ更新し、検知飛行体が各運行予定飛行体と整合する確率を求める。次のステップS104c25では、すべての組合せについて算出された一致確率から最適な値を選択する。これにはハンガリー法が好適であり,各検知飛行体に対する最適な飛行体IDと一致確率の組合せを、重複なく出力することが可能となる。最後のステップS104c26~30で、一致確率と閾値を比較し、閾値より大きければ対象飛行体データベース104bと整合すると判断し、そうでなければ整合しないと判断する。
2、2A,2B:カメラ
3、3A,3B:レーダ
4:飛行体
5:風況センサ
6:風況
7:気象会社
8:民家
9:飛行禁止エリア
10:運行管理装置
11:ポート
12:ビル
13:管制センタ
20:機体装置
100:管制システム
101:機体周辺環境受信部
102:視程予測部
103:風況予測部
104:障害物検知部
105:飛行可能経路算出部
106:経路情報送信部
200:機体システム
201:視程推定部
202:障害物検知部
207:周辺監視部
203:自己位置推定部
204:機体周辺環境送信部
205:経路情報受信部
206:飛行制御部
CPU:演算部
T:通信装置
I:入力装置
V:表示装置
3、3A,3B:レーダ
4:飛行体
5:風況センサ
6:風況
7:気象会社
8:民家
9:飛行禁止エリア
10:運行管理装置
11:ポート
12:ビル
13:管制センタ
20:機体装置
100:管制システム
101:機体周辺環境受信部
102:視程予測部
103:風況予測部
104:障害物検知部
105:飛行可能経路算出部
106:経路情報送信部
200:機体システム
201:視程推定部
202:障害物検知部
207:周辺監視部
203:自己位置推定部
204:機体周辺環境送信部
205:経路情報受信部
206:飛行制御部
CPU:演算部
T:通信装置
I:入力装置
V:表示装置
Claims (11)
- センサが検知する情報を用いて飛行体の周辺状況を監視する周辺監視部と、飛行体の自己位置を求める自己位置推定部と、前記周辺状況及び飛行体の自己位置を機体周辺環境情報として送信する機体周辺環境送信部と、経路情報を受信する経路情報受信部と、前記経路情報に応じて飛行体を運行制御する飛行制御部とを備え、
前記周辺監視部からの周辺状況には飛行体からの各方位における視程の情報を含むことを特徴とする管制装置。 - 請求項1に記載の管制装置であって、
前記周辺監視部からの周辺状況には障害物の検知情報を含むことを特徴とする管制装置。 - 請求項1に記載の管制装置であって、
前記センサは、レーダ及びカメラであって、前記周辺監視部はカメラの画像の明るさと撮影内容及び、カメラの撮影方向とレーダ照射方向から、前記周辺状況を求めることを特徴とする管制装置。 - 請求項1に記載の管制装置であって、
前記視程の情報は、視程の良、不良並びに障害物の有無の情報を含むことを特徴とする管制装置。 - 請求項1に記載の管制装置であって、
管制装置は、さらに前記機体周辺環境情報を受信する機体周辺環境受信部と、飛行体が飛行する空域の風況を求める風況予測部と、前記機体周辺環境情報に含まれる視程の情報を将来時点に亘り予測する視程予測部と、前記視程と前記風況を用いて前記飛行体の飛行可能経路を算出する飛行可能経路算出部と、求めた飛行可能経路の情報を前記飛行体に送信する経路情報送信部とを備え、
前記視程予測部は、複数の視程の情報を三次元的に重ね合わせて前記空域における現時点の視程情報とし、かつ前記風況の情報を用いて前記空域における将来時点の視程情報を得、前記飛行可能経路算出部は、前記飛行体の飛行経路と前記将来時点の視程情報を用いて、前記飛行体の飛行経路を修正することを特徴とする管制装置。 - 請求項5に記載の管制装置であって、
前記視程予測部は、気象会社が計測した気象情報を用いて視程予測を行うことを特徴とする管制装置。 - 請求項5に記載の管制装置であって、
管制装置は、監視対象とする飛行体のデータを保有する対象飛行体データベースと、レーダ及びカメラを含むセンサと、障害物検知部を備えており、
前記障害物検知部は、センサで検知した飛行体周辺のデータを前記対象飛行体データベースのデータを参照して飛行体の機種を推定し、その飛行位置及び速度から機体を同定し、飛行体を追跡監視することを特徴とする管制装置。 - 請求項7に記載の管制装置であって
前記障害物検知部は、飛行体が監視制御の対象である飛行体と、監視制御の対象外である飛行体とを識別し、監視制御の対象外である飛行体であるとき、前記監視制御の対象である飛行体に対する前記飛行経路を、前記監視制御の対象外である飛行体を避けるように修正することを特徴とする管制装置。 - 請求項5に記載の管制装置であって、
少なくとも前記周辺監視部と、前記自己位置推定部と、前記機体周辺環境送信部と、前記経路情報受信部と、前記飛行制御部を前記飛行体に搭載していることを特徴とする管制装置。 - センサが検知する情報を用いて飛行体の周辺状況を監視し、飛行体の自己位置を求め、前記周辺状況及び飛行体の自己位置を機体周辺環境情報として送信して、経路情報を受信し、前記経路情報に応じて飛行体を運行制御するとともに、前記周辺状況には飛行体からの各方位における視程の情報を含むことを特徴とする管制方法。
- 請求項10に記載の管制方法であって、
前記機体周辺環境情報を受信し、飛行体が飛行する空域の風況を求め、前記機体周辺環境情報に含まれる視程の情報を将来時点に亘り予測し、前記視程と前記風況を用いて前記飛行体の飛行可能経路を算出し、求めた飛行可能経路の情報を前記飛行体に送信するとともに、
複数の視程の情報を三次元的に重ね合わせて前記空域における現時点の視程情報とし、かつ前記風況の情報を用いて前記空域における将来時点の視程情報を得、前記飛行体の飛行経路と前記将来時点の視程情報を用いて、前記飛行体の飛行経路を修正することを特徴とする管制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022161319A JP2024054889A (ja) | 2022-10-06 | 2022-10-06 | 管制装置、並びに管制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022161319A JP2024054889A (ja) | 2022-10-06 | 2022-10-06 | 管制装置、並びに管制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024054889A true JP2024054889A (ja) | 2024-04-18 |
Family
ID=90716671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022161319A Pending JP2024054889A (ja) | 2022-10-06 | 2022-10-06 | 管制装置、並びに管制方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024054889A (ja) |
-
2022
- 2022-10-06 JP JP2022161319A patent/JP2024054889A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11885910B2 (en) | Hybrid-view LIDAR-based object detection | |
US10408936B2 (en) | LIDAR light fence to cue long range LIDAR of target drone | |
US10310087B2 (en) | Range-view LIDAR-based object detection | |
US20190310651A1 (en) | Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications | |
US20180349746A1 (en) | Top-View Lidar-Based Object Detection | |
CN109307869B (zh) | 用于增加激光雷达探测器的视场的设备和照明装置 | |
CN110441790B (zh) | 激光雷达系统中的方法和装置串扰和多径降噪 | |
US20090018712A1 (en) | Method and system for remotely monitoring and controlling a vehicle via a virtual environment | |
CN109387857B (zh) | 激光雷达系统中的跨网段检测方法和设备 | |
US11983935B2 (en) | Estimating auto exposure values of camera by prioritizing object of interest based on contextual inputs from 3D maps | |
US20220388547A1 (en) | Method for training a machine learning algorithm for predicting an intent parameter for an object on a terrain | |
US11898851B2 (en) | Apparatus and method for estimating location of vehicle | |
EP4027318A1 (en) | Probability-based obstacle avoidance | |
KR20150003893U (ko) | 레이더와 드론을 이용한 경계 및 경비 자동화 시스템 | |
EP4148529A2 (en) | Method for operating a robotic vehicle | |
CN112330915A (zh) | 无人机森林防火预警方法、系统、电子设备和存储介质 | |
JP2024054889A (ja) | 管制装置、並びに管制方法 | |
JP2019020992A (ja) | カバレッジ装置、制御装置、移動体の分散制御プログラム | |
EP4160269A1 (en) | Systems and methods for onboard analysis of sensor data for sensor fusion | |
KR101865835B1 (ko) | 비행체 감시 장치 | |
EP3989034B1 (en) | Automatic safe-landing-site selection for unmanned aerial systems | |
CN113433965B (zh) | 无人机避障方法,装置,存储介质及电子设备 | |
EP3792719A1 (en) | Deduction system, deduction device, deduction method, and computer program | |
EP4174611A1 (en) | Mobile robot and a method for controlling the mobile robot | |
US20200333803A1 (en) | Method of assisting with the driving of vehicles, computer program and associated system |