JP2019022178A - 管制支援装置、管制支援方法および管制支援プログラム - Google Patents

管制支援装置、管制支援方法および管制支援プログラム Download PDF

Info

Publication number
JP2019022178A
JP2019022178A JP2017141798A JP2017141798A JP2019022178A JP 2019022178 A JP2019022178 A JP 2019022178A JP 2017141798 A JP2017141798 A JP 2017141798A JP 2017141798 A JP2017141798 A JP 2017141798A JP 2019022178 A JP2019022178 A JP 2019022178A
Authority
JP
Japan
Prior art keywords
image
display
processing unit
aircraft
control support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017141798A
Other languages
English (en)
Other versions
JP6494699B2 (ja
Inventor
寛夫 松村
Hiroo Matsumura
寛夫 松村
達也 岡部
Tatsuya Okabe
達也 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017141798A priority Critical patent/JP6494699B2/ja
Publication of JP2019022178A publication Critical patent/JP2019022178A/ja
Application granted granted Critical
Publication of JP6494699B2 publication Critical patent/JP6494699B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】色情報を残しながら、管制のために表示する画像の視認性を向上させる。【解決手段】管制支援装置100は、画像処理部110と、表示制御部120とを備える。画像処理部110は、管制対象の移動体が行き交う場所を撮影した撮影画像211をもとに、撮影範囲の一部の領域を他の領域よりも少ない色で表示する表示画像261を生成する。表示制御部120は、画像処理部110により生成された表示画像261をディスプレイ260に表示する制御を行う。【選択図】図1

Description

本発明は、管制支援装置、管制支援方法および管制支援プログラムに関するものである。
特許文献1には、空港面の数箇所に設置したビデオカメラの画像データと画像処理による文字認識とを用いて、空港面を移動するすべての航空機および車両の識別符号、移動方向および位置を認識し、空港面探知レーダとの相関をとって表示する技術が記載されている。
非特許文献1には、管制塔からの目視確認に代えて、遠隔塔での映像確認により空港の管制業務を行うための技術が記載されている。
特開平11−160424号公報
"SESAR REMOTE TOWER SERVICES"、[online]、2014年、SESAR Joint Undertaking、[平成29年7月3日検索]、インターネット<URL:https://www.sesarju.eu/sites/default/files/documents/events/atcglobal2014/ATC−2014−RTS.pdf>
光学カメラで撮影したカラー映像は、人の目で見る場合に比べて色味および明るさが異なり見づらい印象を与えることがある。ここで映像から視認対象を見つけ、監視する場合、カラー映像に比べて白黒映像の方が必要以上の情報が無いため対象物の視認性が高いと感じられることがある。また赤外線カメラで撮影した映像は白黒映像だが、熱源が白く映るため、特に夜間に利用すると視認対象が熱を持つ場合、視認対象の視認性が高いと考えられる。しかし、白黒映像では色情報が無くなるため、色で見分けていたことができなくなるという課題がある。
本発明は、色情報を残しながら、管制のために表示する画像の視認性を向上させることを目的とする。
本発明の一態様に係る管制支援装置は、
管制対象の移動体が行き交う場所を撮影した撮影画像をもとに、撮影範囲の一部の領域を他の領域よりも少ない色で表示する表示画像を生成する画像処理部と、
前記画像処理部により生成された表示画像をディスプレイに表示する制御を行う表示制御部とを備える。
本発明では、撮影範囲の一部の領域を他の領域よりも少ない色で表示することで、色情報を残しながら、管制のために表示する画像の視認性を向上させることができる。
実施の形態1に係る管制支援システムの構成を示すブロック図。 実施の形態1に係る管制支援装置の動作を示すフローチャート。 実施の形態1に係る管制支援装置により生成される表示画像の例を示す図。 実施の形態1に係る管制支援装置により生成される表示画像の例を示す図。 実施の形態2に係る管制支援装置により生成される表示画像の例を示す図。 実施の形態3に係る管制支援システムの構成を示すブロック図。 実施の形態3に係る管制支援装置により生成される表示画像の例を示す図。
以下、本発明の実施の形態について、図を用いて説明する。各図中、同一または相当する部分には、同一符号を付している。実施の形態の説明において、同一または相当する部分については、説明を適宜省略または簡略化する。なお、本発明は、以下に説明する実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。例えば、以下に説明する実施の形態のうち、2つ以上の実施の形態が組み合わせられて実施されても構わない。あるいは、以下に説明する実施の形態のうち、1つの実施の形態または2つ以上の実施の形態の組み合わせが部分的に実施されても構わない。
実施の形態1.
本実施の形態について、図1から図4を用いて説明する。
***構成の説明***
図1を参照して、本実施の形態に係る管制支援システム200の構成を説明する。
管制支援システム200は、少なくとも1つの管制支援装置100と、複数のカメラ210と、1つ以上のPTZカメラ220と、1つ以上の第1センサ230と、1つ以上の第2センサ240と、1つ以上の入力機器250と、複数のディスプレイ260とを備える。「PTZ」は、pan−tilt−zoomの略語である。
管制支援装置100は、コンピュータである。管制支援装置100は、プロセッサ101を備えるとともに、メモリ102および通信装置103といった他のハードウェアを備える。プロセッサ101は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
カメラ210は、管制対象の移動体が行き交う場所を撮影して撮影画像211を生成する機器である。カメラ210の配置および向きは、当該場所の全体を複数のカメラ210によって撮影できるように決定される。このとき、2つ以上のカメラ210の撮影範囲が重複していてもよい。カメラ210は、例えば、撮影画像211としてカラー映像を撮影する光学カメラである。なお、複数のカメラ210のうち一部のカメラ210は、撮影画像211としてモノクローム映像を撮影する赤外線カメラ等であってもよい。複数のカメラ210のうち全部または一部のカメラ210は、PTZカメラであってもよいし、パノラマカメラであってもよい。
PTZカメラ220は、撮影画像211と同じ場所の特定の領域を撮影して撮影画像221を生成する機器である。「特定の領域」は、ユーザによって設定される。すなわち、PTZカメラ220の撮影対象の領域は、PTZカメラ220がユーザによって遠隔操作され、撮影方向および撮影倍率が調節されることで設定される。
「管制対象の移動体が行き交う場所」は、本実施の形態では空港および空港周辺の管制対象となる範囲を含む領域、すなわち、空港および空港周辺の航空機が行き交う領域である。「管制対象の移動体」としては、空港および空港周辺の空域を飛行する航空機、空港の地上面を走行する航空機、および、空港の地上面を走行する車両がある。「ユーザ」は、管制官である。なお、本実施の形態は、航空交通の管制に限らず、海上交通の管制等、他の交通の管制に適用することが可能である。本実施の形態を海上交通の管制に適用する場合、「管制対象の移動体が行き交う場所」としては、港、または、海上の係留施設、「管制対象の移動体」としては、船舶が考えられる。本実施の形態を他の交通の管制に適用する場合、「管制対象の移動体」としては、車両、飛翔体、列車、ロボットまたは人間等が考えられる。
第1センサ230は、管制対象の領域を観測し、観測結果としてセンサ情報231を生成する機器である。センサ情報231には、第1センサ230により観測された領域内に存在する移動体の識別子と、第1センサ230により検出された当該移動体の位置を示す位置情報と、第1センサ230により当該移動体から受信されたその他の情報とが含まれる。識別子は、例えば、航空機の便名、または、車両の車両番号である。位置情報は、例えば、航空機の緯度、経度および高度、または、車両の緯度および経度を示す情報である。その他の情報は、例えば、航空機からの機上情報、または、車両からの受信情報である。なお、センサ情報231は、第1センサ230で検出された移動体の位置を2次元かつ水平のマップ上に表示した画像であってもよい。第1センサ230は、例えば、ASR、ARSR、ORSR、ASDEまたはSSRといったレーダである。あるいは、第1センサ230は、例えば、MLAT、WAMまたはADS−B等のセンサである。「ASR」は、Airport Surveillance Radarの略語である。「ARSR」は、Air Route Surveillance Radarの略語である。「ORSR」は、Oceanic Route Surveillance Radarの略語である。「ASDE」は、Airport Surface Detection Equipmentの略語である。「SSR」は、Secondary Surveillance Radarの略語である。「MLAT」は、Multilaterationの略語である。「WAM」は、Wide Area MLATの略語である。「ADS−B」は、Automatic Dependent Surveillance−Broadcastの略語である。
第2センサ240は、管制対象の領域を観測し、観測結果としてセンサ情報241を生成する機器である。センサ情報241には、センサ情報231と同様に、第2センサ240により観測された管制対象の領域内に存在する移動体の識別子と、第2センサ240により検出された当該移動体の位置を示す位置情報と、第2センサ240により当該移動体から受信されたその他の情報とが含まれる。なお、センサ情報241は、第1センサ230で検出された移動体の位置を2次元かつ水平のマップ上に表示した画像であってもよい。第2センサ240は、例えば、第1センサ230と同種のレーダ、または、第1センサ230とは異種のレーダである。あるいは、第2センサ240は、例えば、第1センサ230と同種のセンサ、または、第1センサ230とは異種のセンサである。
入力機器250は、管制支援装置100への設定情報251の入力のためにユーザにより操作される機器である。入力機器250は、例えば、マウス、キーボード、ジョイスティックまたはタッチパネルである。
ディスプレイ260は、管制支援装置100から出力される表示画像261を画面に表示する機器である。ディスプレイ260は、例えば、LCDである。「LCD」は、Liquid Crystal Displayの略語である。
管制支援装置100は、機能要素として、画像処理部110と、表示制御部120とを備える。画像処理部110は、伝送処理部131と、画像変換部132と、パノラマ生成部133と、ターゲット検出部134と、ターゲット追尾部135と、設定処理部136と、位置・画素変換部137,138と、画素追尾部139,140と、相関処理部141と、画像生成部142とを備える。画像処理部110および表示制御部120の機能は、ソフトウェアにより実現される。
プロセッサ101は、管制支援プログラムを実行する装置である。管制支援プログラムは、画像処理部110および表示制御部120の機能を実現するプログラムである。プロセッサ101は、例えば、CPU、または、CPUとGPUとの組み合わせである。「CPU」は、Central Processing Unitの略語である。「GPU」は、Graphics Processing Unitの略語である。
メモリ102は、管制支援プログラムを記憶する装置である。メモリ102は、例えば、フラッシュメモリまたはRAMである。「RAM」は、Random Access Memoryの略語である。
通信装置103は、管制支援プログラムに入力されるデータを受信するレシーバと、管制支援プログラムから出力されるデータを送信するトランスミッタとを含む。通信装置103は、例えば、通信チップまたはNICである。「NIC」は、Network Interface Cardの略語である。
管制支援プログラムは、プロセッサ101に読み込まれ、プロセッサ101によって実行される。メモリ102には、管制支援プログラムだけでなく、OSも記憶されている。「OS」は、Operating Systemの略語である。プロセッサ101は、OSを実行しながら、管制支援プログラムを実行する。
管制支援プログラムおよびOSは、補助記憶装置に記憶されていてもよい。補助記憶装置は、例えば、フラッシュメモリまたはHDDである。「HDD」は、Hard Disk Driveの略語である。補助記憶装置に記憶されている管制支援プログラムおよびOSは、メモリ102にロードされ、プロセッサ101によって実行される。
なお、管制支援プログラムの一部または全部がOSに組み込まれていてもよい。
管制支援装置100は、プロセッサ101を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、管制支援プログラムの実行を分担する。それぞれのプロセッサは、例えば、CPU、または、CPUとGPUとの組み合わせである。
管制支援プログラムにより利用、処理または出力されるデータ、情報、信号値および変数値は、メモリ102、補助記憶装置、または、プロセッサ101内のレジスタまたはキャッシュメモリに記憶される。
管制支援プログラムは、それぞれ画像処理部110および表示制御部120の処理である「画像処理」および「制御処理」をコンピュータに実行させるプログラムである。あるいは、管制支援プログラムは、画像処理部110および表示制御部120の「部」を「手順」に読み替えた各手順をコンピュータに実行させるプログラムである。管制支援プログラムは、コンピュータ読取可能な媒体に記録されて提供されてもよいし、プログラムプロダクトとして提供されてもよい。
管制支援装置100は、1台のコンピュータで構成されていてもよいし、複数台のコンピュータで構成されていてもよい。管制支援装置100が複数台のコンピュータで構成されている場合は、画像処理部110および表示制御部120の機能が、各コンピュータに分散されて実現されてもよい。
***動作の説明***
図1のほかに図2から図4を参照して、本実施の形態に係る管制支援装置100の動作を説明する。管制支援装置100の動作は、本実施の形態に係る管制支援方法に相当する。
ステップS11において、画像処理部110の伝送処理部131は、複数のカメラ210から、それぞれのカメラ210により生成された撮影画像211を、通信装置103を用いて受信する。撮影画像211は、管制対象の移動体が行き交う場所を撮影した画像である。
本実施の形態では、伝送処理部131は、撮影画像211として、空港および空港周辺の航空機が行き交う領域を撮影した画像を取得する。具体的には、伝送処理部131は、撮影画像211として、空港および空港周辺の空域と空港の地上面とを撮影したカラー映像を取得する。
ステップS12において、画像処理部110の画像変換部132は、伝送処理部131により受信された撮影画像211を、より色の少ない画像に加工する。
本実施の形態では、画像変換部132は、撮影画像211として、空港および空港周辺の航空機が行き交う領域を撮影した画像を、より色の少ない画像に加工する。具体的には、画像変換部132は、撮影画像211として、空港および空港周辺の空域と空港の地上面とを撮影したカラー映像をモノクローム映像に変換する。より具体的には、画像変換部132は、撮影画像211として、空港および空港周辺の空域と空港の地上面とを撮影したカラー映像を白黒映像に変換する。「モノクローム映像」とは、単色の映像、すなわち、背景色を除いて1つの色のみで表現された映像のことである。白黒映像に限らず、セピア調映像等、他の単色の映像もモノクローム映像に含まれる。「白黒映像」は、2階調の映像でもよいが、本実施の形態ではグレースケール映像である。
なお、複数のカメラ210の中に、撮影画像211としてモノクローム映像を撮影する赤外線カメラ等が含まれている場合、その撮影画像211で、画像変換部132により得られる画像を代替してもよい。その場合、画像変換部132により画像を変換する必要がなくなる。
画像変換部132は、撮影画像211を加工する際に、モノクローム化以外の任意のフィルタ処理を実行してもよい。1つの例として、画像変換部132は、撮影画像211に対し、平滑化処理を実行してノイズを除去してもよい。
ステップS13において、画像処理部110のパノラマ生成部133は、伝送処理部131により複数のカメラ210から受信された撮影画像211を合成することで第1パノラマ画像を生成する。また、パノラマ生成部133は、画像変換部132による変換後の画像を合成することで、第1パノラマ画像よりも色の少ない第2パノラマ画像を生成する。第1パノラマ画像は、具体的には、空港および空港周辺の空域と空港の地上面とを写したカラーのパノラマ映像である。第2パノラマ画像は、具体的には、空港および空港周辺の空域と空港の地上面とを写した白黒のパノラマ映像である。
ステップS14において、画像処理部110のターゲット検出部134は、画像変換部132から変換後の画像を受け取る。あるいは、ターゲット検出部134は、パノラマ生成部133から第1パノラマ画像および第2パノラマ画像の少なくともいずれかを受け取る。ターゲット検出部134は、受け取った画像から管制対象の移動体を検出する。具体的には、ターゲット検出部134は、空港および空港周辺の空域と空港の地上面とを写したカラーまたは白黒の映像から、画像認識によって、空港または空港周辺の空域を飛行する航空機、空港の地上面を走行する航空機、または、空港の地上面を走行する車両を検出する。画像変換部132による変換後の画像の代わりに、あるいは、第1パノラマ画像および第2パノラマ画像の代わりに、伝送処理部131により受信された撮影画像211が用いられてもよい。
ステップS15において、画像処理部110のターゲット追尾部135は、画像変換部132による変換後の画像、第1パノラマ画像および第2パノラマ画像の少なくともいずれかの画像内で、ターゲット検出部134により検出された移動体を追尾する。具体的には、ターゲット追尾部135は、空港および空港周辺の空域と空港の地上面とを写したカラーまたは白黒の映像内で、画像認識によって、ステップS14で一度検出された航空機および車両を追尾する。
ステップS16において、画像処理部110の位置・画素変換部137は、第1センサ230から、第1センサ230により生成されたセンサ情報231を、通信装置103を用いて受信する。前述したように、センサ情報231には、第1センサ230により観測された領域内に存在する移動体の識別子と、第1センサ230により検出された当該移動体の位置を示す位置情報と、第1センサ230により当該移動体から受信されたその他の情報とが含まれる。位置・画素変換部137は、移動体の識別子ごとに、位置情報を画素情報に変換する。具体的には、位置・画素変換部137は、空港または空港周辺の空域を飛行する航空機の便名等の識別子ごとに、位置情報に示されている、航空機の位置を表すXY座標を、画素の位置を表すUV座標に変換する。また、位置・画素変換部137は、空港の地上面を走行する航空機の便名等の識別子ごとに、位置情報に示されている、航空機の位置を表すXY座標を、画素の位置を表すUV座標に変換する。また、位置・画素変換部137は、空港の地上面を走行する車両の車両番号等の識別子ごとに、位置情報に示されている、車両の位置を表すXY座標を、画素の位置を表すUV座標に変換する。
同様に、画像処理部110の位置・画素変換部138は、第2センサ240から、第2センサ240により生成されたセンサ情報241を、通信装置103を用いて受信する。前述したように、センサ情報241には、第2センサ240により観測された領域内に存在する移動体の識別子と、第2センサ240により検出された当該移動体の位置を示す位置情報と、第2センサ240により当該移動体から受信されたその他の情報とが含まれる。位置・画素変換部138は、移動体の識別子ごとに、位置情報を画素情報に変換する。具体的には、位置・画素変換部138は、空港または空港周辺の空域を飛行する航空機の便名等の識別子ごとに、位置情報に示されている、航空機の位置を表すXY座標を、画素の位置を表すUV座標に変換する。また、位置・画素変換部138は、空港の地上面を走行する航空機の便名等の識別子ごとに、位置情報に示されている、航空機の位置を表すXY座標を、画素の位置を表すUV座標に変換する。また、位置・画素変換部138は、空港の地上面を走行する車両の車両番号等の識別子ごとに、位置情報に示されている、車両の位置を表すXY座標を、画素の位置を表すUV座標に変換する。
ステップS17において、画像処理部110の画素追尾部139は、移動体の識別子ごとに、位置・画素変換部137により得られた画素情報を追尾する。
同様に、画像処理部110の画素追尾部140は、移動体の識別子ごとに、位置・画素変換部138により得られた画素情報を追尾する。
ステップS18において、画像処理部110の相関処理部141は、移動体の識別子ごとに、ターゲット追尾部135により移動体が追尾された結果と、画素追尾部139,140により画素情報が追尾された結果との相関をとる。相関処理部141は、一定以上の相関がある移動体の識別子と、その移動体の位置を示す位置情報とを出力する。具体的には、相関処理部141は、空港または空港周辺の空域を飛行する航空機の便名等の識別子ごとに、ターゲット追尾部135により映像から検出された航空機の画素位置と、画素追尾部139,140によりセンサ位置情報等から検出された航空機の画素位置との相関をとる。そして、相関処理部141は、一定以上の相関がある航空機の便名等の識別子と、その航空機の位置を示す位置情報と、位置・画素変換部137,138により受信された、その航空機のセンサ情報231,241とを出力する。また、相関処理部141は、空港の地上面を走行する航空機の便名等の識別子ごとに、ターゲット追尾部135により映像から検出された航空機の画素位置と、画素追尾部139,140によりセンサ位置情報等から検出された航空機の画素位置との相関をとる。そして、相関処理部141は、一定以上の相関がある航空機の便名等の識別子と、その航空機の位置を示す位置情報と、位置・画素変換部137,138により受信された、その航空機のセンサ情報231,241とを出力する。また、相関処理部141は、空港の地上面を走行する車両の車両番号等の識別子ごとに、ターゲット追尾部135により映像から検出された車両の画素位置と、画素追尾部139,140によりセンサ位置情報等から検出された車両の画素位置との相関をとる。そして、相関処理部141は、一定以上の相関がある車両の車両番号等の識別子と、その車両の位置を示す位置情報と、位置・画素変換部137,138により受信された、その車両のセンサ情報231,241とを出力する。ここで、相関処理部141から出力される位置情報は、センサ情報231,241に含まれる位置情報のように、航空機の緯度、経度および高度、または、車両の緯度および経度を示す情報ではなく、位置・画素変換部137,138により得られた画素情報のように、画素の位置を示す情報である。位置・画素変換部137,138により得られた画素情報そのものが位置情報として相関処理部141から出力されてもよい。
ステップS19において、画像処理部110の画像生成部142は、パノラマ生成部133から第1パノラマ画像と第2パノラマ画像とを受け取る。画像処理部110の設定処理部136は、入力機器250を介して、撮影範囲の一部の領域を示す設定情報251の入力をユーザから受け付ける。すなわち、設定処理部136は、撮影範囲の一部の領域を設定するユーザの入力を受け付ける。画像生成部142は、受け取った第2パノラマ画像から、設定処理部136に入力された設定情報251に示されている領域の画像を抽出し、抽出した画像を、受け取った第1パノラマ画像に合成することで表示画像261を生成する。表示画像261は、撮影範囲の一部の領域を他の領域よりも少ない色で表示する画像である。
なお、ユーザにより任意に設定された領域の画像を抽出する方法の代わりに、ユーザにより任意に設定された領域以外の領域の画像を抽出する方法が用いられてもよい。その場合、設定処理部136は、入力機器250を介して、撮影範囲のうち、画像が切り出される領域ではなく、他の領域を示す設定情報251の入力をユーザから受け付ける。すなわち、設定処理部136は、当該他の領域を設定するユーザの入力を受け付ける。画像生成部142は、受け取った第2パノラマ画像から、設定処理部136に入力された設定情報251に示されている領域以外の領域の画像を抽出し、抽出した画像を、受け取った第1パノラマ画像に合成することで表示画像261を生成する。
本実施の形態では、画像生成部142は、表示画像261として、空港および空港周辺の空域を空港の地上面よりも少ない色で表示する画像を生成する。具体的には、画像生成部142は、表示画像261として、空域をモノクロームで表示し、地上面をカラーで表示する画像を生成する。撮影範囲のうち、どの領域が空域であるかは、本実施の形態では、設定処理部136を介してユーザにより手動で設定されるが、後述する変形例のように自動的に認識されてもよい。
図3に例示している表示画像261は、夜間の撮影画像221をもとに生成された画像である。図3の表示画像261では、空域の映像がモノクローム映像262になっているため、必要以上の情報が無くなり、離陸直後または着陸直前のものを含む飛行中の航空機の視認性が向上している。一方、地上面の映像がカラー映像263になっているため、滑走路を含む誘導路に設置されたライトの色情報が無くならず、色で地上面の対象等を見分けることが可能になっている。
図4に例示している表示画像261は、昼間の撮影画像221をもとに生成された画像である。図4の表示画像261でも、空域の映像がモノクローム映像262になっているため、飛行中の航空機の視認性が向上している。一方、地上面の映像がカラー映像263になっているため、色で地上面の対象等を見分けることが可能になっている。図4の表示画像261では、地上面にある一部の建屋がフレーム264のみで表示され、その後方にある航空機が見える状態になっている。すなわち、一部の建屋がスケルトン表示になっている。このような表示のしかたは、複数のカメラ210の設置位置等の条件を整えることで実現可能である。
なお、表示画像261は、空港および空港周辺の空域の代わりに、あるいは、当該空域とともに、当該空域以外の領域をモノクロームで表示し、空港の地上面の代わりに、あるいは、当該地上面とともに、当該地上面以外の領域をカラーで表示する画像であってもよい。1つの例として、表示画像261は、空港および空港周辺の空域とともに、高速道路等、空港の敷地外をモノクロームで表示し、空港の地上面を含む敷地内をカラーで表示する画像であってもよい。別の例として、表示画像261は、空港および空港周辺の空域とともに、航空機の格納庫等、空港の敷地内であっても管制の対象外となる領域をモノクロームで表示し、空港の地上面における、管制の対象となる領域のみをカラーで表示する画像であってもよい。撮影範囲のうち、どの領域をモノクロームで表示するかは、設定処理部136を介してユーザにより手動で設定されるが、自動的に認識されてもよい。
本実施の形態では、画像生成部142は、移動体の識別子と、移動体の位置を示す位置情報とを取得する。画像生成部142は、表示画像261内で移動体が写っている位置と、取得した位置情報に示されている位置とが一致していれば、表示画像261内で移動体の隣に、取得した識別子を表す文字を付加する。具体的には、画像生成部142は、相関処理部141から、空港または空港周辺の空域を飛行する航空機の便名等の識別子と、その航空機の位置を示す位置情報と、その航空機のセンサ情報231,241とを受け取る。前述したように、相関処理部141から出力される位置情報は、画素の位置を示す情報である。画像生成部142は、空域のモノクローム映像262における、受け取った位置情報に示されている位置に航空機が写っていれば、表示画像261内で、その航空機の隣に、受け取った識別子を表すタグを付加する。図3の表示画像261では、「AAA0001」というタグ、および、「JJJ0004」というタグが、対応する航空機の隣に表示されている。図4の表示画像261では、「CAB0001」というタグも、対応する航空機の隣に表示されている。また、画像生成部142は、相関処理部141から、空港の地上面を走行する航空機の便名等の識別子と、その航空機の位置を示す位置情報と、その航空機のセンサ情報231,241とを受け取る。画像生成部142は、地上面のカラー映像263における、受け取った位置情報に示されている位置に航空機が写っていれば、表示画像261内で、その航空機の隣に、受け取った識別子を表すタグを付加する。また、画像生成部142は、相関処理部141から、空港の地上面を走行する車両の車両番号等の識別子と、その車両の位置を示す位置情報と、その車両のセンサ情報231,241とを受け取る。画像生成部142は、地上面のカラー映像263における、受け取った位置情報に示されている位置に車両が写っていれば、表示画像261内で、その車両の隣に、受け取った識別子を表すタグを付加する。画像生成部142は、受け取ったセンサ情報231,241に含まれる任意の情報をタグに含めてもよい。すなわち、センサ情報231,241に含まれる位置情報によって示される航空機の緯度、経度および高度の少なくともいずれかが、タグによって表示画像261内で航空機の隣に表示されてもよい。また、センサ情報231,241に含まれる航空機からの機上情報の少なくとも一部が、タグによって表示画像261内で航空機の隣に表示されてもよい。あるいは、センサ情報231,241に含まれる位置情報によって示される車両の緯度および経度の少なくともいずれかが、タグによって表示画像261内で車両の隣に表示されてもよい。また、センサ情報231,241に含まれる車両からの受信情報の少なくとも一部が、タグによって表示画像261内で車両の隣に表示されてもよい。
本実施の形態では、画像生成部142は、表示画像261内で移動体の周囲に移動体の種類および属性の少なくともいずれかに応じて異なる色の枠を付加する。移動体の種類としては、航空機および車両がある。移動体の属性としては、移動体が航空機であれば、到着機、出発機、および、滑走路を通過するだけの通過機がある。図3の表示画像261には、「AAA0001」便の航空機と、「JJJ0004」便の航空機とが写っている。仮に、航空機を示す色が赤、車両を示す色が青であるとした場合、「AAA0001」便の航空機の周囲に付加される枠、および、「JJJ0004」便の航空機の周囲に付加される枠は、いずれも赤色に設定される。仮に、到着機を示す色が赤、出発機を示す色が青、通過機を示す色が黄であるとした場合、「AAA0001」便の航空機と「JJJ0004」便の航空機とがいずれも到着機であれば、「AAA0001」便の航空機の周囲に付加される枠、および、「JJJ0004」便の航空機の周囲に付加される枠は、いずれも赤色に設定される。
なお、画像生成部142は、表示画像261に移動体として航空機が写っている場合、表示画像261内で当該航空機の周囲に当該航空機の運航者に応じて異なる色の枠を付加してもよい。図3の表示画像261には、前述したように、「AAA0001」便の航空機と、「JJJ0004」便の航空機とが写っている。仮に、航空会社JJJを示す色が赤、航空会社AAAを示す色が青であるとした場合、「AAA0001」便の航空機の周囲に付加される枠は青色に設定され、「JJJ0004」便の航空機の周囲に付加される枠は赤色に設定される。
表示画像261内で移動体の周囲に付加される枠の形状は、図3および図4の例では四角形であるが、楕円形等、他の形状であってもよい。枠の形状は、移動体の種類および属性の少なくともいずれか、あるいは、航空機の運航者に応じて異なる形状に設定されてもよい。
前述したタグの文字色は、枠の色と同様に、移動体の種類および属性の少なくともいずれか、あるいは、航空機の運航者に応じて異なる色に設定されてもよい。
図示していないが、本実施の形態では、画像生成部142は、設定処理部136の設定に基づいて、滑走路および誘導路といった対象の輪郭を線または画像として生成し、表示画像261内で、生成した輪郭を当該対象に重畳する。
本実施の形態では、画像生成部142は、PTZカメラ220から、PTZカメラ220により生成された撮影画像221を、通信装置103を用いて受信する。撮影画像221は、撮影画像211と同じ場所の特定の領域を撮影した画像である。画像生成部142は、ユーザの操作に応じて、受信した撮影画像221を表示画像261の隅等に嵌め込んでもよい。
ステップS20において、画像処理部110により生成された表示画像261をディスプレイ260に表示する制御を行う。ディスプレイ260の数は1つでもよいが、本実施の形態では複数であり、それぞれのディスプレイ260は、1人のユーザによって使用されるか、あるいは、複数人のユーザによって共用される。表示画像261がパノラマ映像として出力される場合は、複数のディスプレイ260を組み合わせるか、あるいは、1つの大型のディスプレイ260によって構成されたパノラマディスプレイに表示画像261が出力されてもよい。
本実施の形態では、ユーザ入力に対してオンデマンドでカラーと白黒の表示領域を切り替えやすくするために、両方のパノラマ映像を作っておく手法が用いられているが、次に説明する変形例のように、あらかじめ白黒に変換する領域を選んでおく手法が用いられてもよい。
以下、本実施の形態の変形例について、主に本実施の形態との差異を説明する。
ステップS12において、画像変換部132は、伝送処理部131により受信された撮影画像211から撮影範囲の一部の領域の画像である第1画像を抽出する。画像変換部132は、第1画像を撮影範囲の他の領域の画像である第2画像よりも色の少ない第3画像に加工する。
本例では、画像変換部132は、第1画像として、空港および空港周辺の空域の画像を抽出する。具体的には、画像変換部132は、伝送処理部131により取得された撮影画像211から、画像認識によって空域と地上面との境界線を検出する。そして、画像変換部132は、撮影画像211を、検出した境界線で上下に分割し、上側の画像を第1画像として切り出す。
なお、撮影画像211から第1画像を抽出する方法として、撮影画像211を境界線で分割する方法とは別の方法が用いられてもよい。1つの例として、ユーザにより任意に設定された領域の画像を第1画像として抽出する方法が用いられてもよい。その場合、設定処理部136は、入力機器250を介して、撮影範囲の一部の領域を示す設定情報251の入力をユーザから受け付ける。すなわち、設定処理部136は、撮影範囲の一部の領域を設定するユーザの入力を受け付ける。画像変換部132は、伝送処理部131により取得された撮影画像211から、設定処理部136に入力された設定情報251に示されている領域の画像を第1画像として切り出す。別の例として、ユーザにより任意に設定された領域以外の領域の画像を第1画像として抽出する方法が用いられてもよい。その場合、設定処理部136は、入力機器250を介して、撮影範囲のうち、画像が切り出される領域ではなく、他の領域を示す設定情報251の入力をユーザから受け付ける。すなわち、設定処理部136は、当該他の領域を設定するユーザの入力を受け付ける。画像変換部132は、伝送処理部131により取得された撮影画像211から、設定処理部136に入力された設定情報251に示されている領域以外の領域の画像を第1画像として切り出す。
本例では、画像変換部132は、空港および空港周辺の空域の画像である第1画像を、空港の地上面の画像である第2画像よりも色の少ない第3画像に加工する。第1画像は、具体的には空域のカラー映像である。第2画像は、具体的には地上面のカラー映像である。第3画像は、具体的には空域のモノクローム映像であり、より具体的には空域の白黒映像である。
なお、複数のカメラ210の中に、撮影画像211としてモノクローム映像を撮影する赤外線カメラ等が含まれている場合、画像変換部132は、その撮影画像211から第3画像を抽出してもよい。その場合、第1画像を抽出して第3画像に加工する必要がなくなる。
画像変換部132は、第1画像を第3画像に加工する際に、モノクローム化以外の任意のフィルタ処理を実行してもよい。1つの例として、画像変換部132は、第1画像に対し、平滑化処理を実行してノイズを除去してもよい。
ステップS13において、パノラマ生成部133は、伝送処理部131により複数のカメラ210から受信された撮影画像211を合成することでパノラマ画像を生成する。パノラマ画像は、具体的には、空港および空港周辺の空域と空港の地上面とを写したパノラマ映像である。本例では、前述した第2パノラマ画像を生成する必要はない。
ステップS14において、ターゲット検出部134は、画像変換部132から第2画像と第3画像とを受け取る。ターゲット検出部134は、受け取った第2画像と第3画像とから管制対象の移動体を検出する。具体的には、ターゲット検出部134は、空港の地上面のカラー映像である第2画像と、空港および空港周辺の空域のモノクローム映像である第3画像とから、画像認識によって、空港または空港周辺の空域を飛行する航空機、空港の地上面を走行する航空機、または、空港の地上面を走行する車両を検出する。第2画像および第3画像の代わりに、あるいは、第2画像および第3画像とともに、パノラマ生成部133により生成されたパノラマ画像が用いられてもよいし、伝送処理部131により受信された撮影画像211が用いられてもよい。
ステップS15において、ターゲット追尾部135は、第2画像内および第3画像内で、ターゲット検出部134により検出された移動体を追尾する。具体的には、ターゲット追尾部135は、空港の地上面のカラー映像である第2画像内、および、空港および空港周辺の空域のモノクローム映像である第3画像内で、画像認識によって、ステップS14で一度検出された航空機および車両を追尾する。
ステップS19において、画像生成部142は、画像変換部132から第2画像と第3画像とを受け取る。画像生成部142は、受け取った第2画像と第3画像とを合成することで表示画像261を生成する。表示画像261は、撮影範囲の一部の領域を他の領域よりも少ない色で表示する画像である。
本例では、画像生成部142は、パノラマ生成部133からパノラマ画像を受け取る。画像生成部142は、表示画像261を生成する際に、画像変換部132から受け取った第2画像の代わりに、パノラマ生成部133から受け取ったパノラマ画像を用いてもよい。すなわち、画像生成部142は、パノラマ生成部133から受け取ったパノラマ画像に含まれる第2画像と、画像変換部132から受け取った第3画像とを合成することで表示画像261を生成してもよい。その場合、表示画像261は、具体的には、空域にモノクローム映像262が重畳されたパノラマ映像として出力される。
***実施の形態の効果の説明***
本実施の形態では、撮影範囲の一部の領域を他の領域よりも少ない色で表示することで、色情報を残しながら、管制のために表示する画像である表示画像261の視認性を向上させることができる。具体的には、カラー映像と白黒映像とを混在した表示によって、撮影範囲の各範囲に応じた視認性が得られる。
本実施の形態では、ユーザがカラー情報が欲しい範囲はカラー映像表示し、白黒で対象物の視認性を向上させたい範囲は白黒映像表示することができる。すなわち、カラー映像と白黒映像との混在はオンデマンド対応可能である。例えば、全体はカラー映像表示にしておいて、ユーザ入力に応じて一部撮影範囲を白黒映像に切り替えるといったことが可能である。ユーザが何があるかを知りたいときだけ白黒表示にすることもできる。
本実施の形態では、表示画像261内で移動体の周囲に移動体の種類および属性の少なくともいずれかに応じて異なる色の枠を付加することで、表示画像261の視認性をさらに向上させることができる。
映像確認により空港の管制業務を行う場合、映像では視認対象が視認しづらい場合がある。例えば、雨、霧または雪等の天候により映像が不鮮明になったり、映像上で対象物が小さく映ったり、映像上で対象物が遮蔽されたりすることがある。本実施の形態では、視認性の向上のために、映像上の航空機および車両といった対象を囲む検出枠として、四角形枠を映像に重畳表示したり、映像上の航空機および車両といった対象に対するタグを映像に重畳表示したり、映像上の滑走路および誘導路といった対象に対する輪郭等を映像に重畳表示したりすることができる。
検出枠またはタグに決まったルールで色づけをすることにより、利便性を向上させることができる。色づけのルールとしては、航空会社JJJは赤、航空会社AAAは青といったように運航者で色づけをしたり、到着は赤、出発は青といったように運用属性で色づけをしたりすることが考えられる。タグに運航者で色づけをし、検出枠に運用属性で色づけをすること、あるいは、その逆も有用である。運航者による色づけと、運用属性による色づけとで互いに重複しない色を用いることも有用である。
輪郭等の例として、滑走路のセンターラインおよび境界線に決まったルールで色づけをすることにより、利便性を向上させることができる。色づけのルールとしては、センターラインは赤、境界線は青といったように対象の種類で色づけをすることが考えられる。対象の種類または位置によって線の太さを変えることも有用である。
***他の構成***
本実施の形態では、画像処理部110および表示制御部120の機能がソフトウェアにより実現されるが、変形例として、画像処理部110および表示制御部120の機能がソフトウェアとハードウェアとの組み合わせにより実現されてもよい。すなわち、画像処理部110および表示制御部120の機能の一部が専用のハードウェアにより実現され、残りがソフトウェアにより実現されてもよい。
専用のハードウェアは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGAまたはASICである。「IC」は、Integrated Circuitの略語である。「GA」は、Gate Arrayの略語である。「FPGA」は、Field−Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。
プロセッサ101および専用のハードウェアは、いずれも処理回路である。すなわち、画像処理部110および表示制御部120の機能がソフトウェアにより実現されるか、ソフトウェアとハードウェアとの組み合わせにより実現されるかに関わらず、画像処理部110および表示制御部120の機能は、処理回路により実現される。
実施の形態2.
本実施の形態について、主に実施の形態1との差異を、図5を用いて説明する。
***構成の説明***
本実施の形態に係る管制支援システム200の構成については、図1に示した実施の形態1のものと同じであるため、説明を省略する。
***動作の説明***
本実施の形態に係る管制支援装置100の動作については、図2に示した実施の形態1のものと比較して、ステップS19に相当する動作のみが異なる。そのため、ステップS11からステップS18、および、ステップS20に相当する動作の説明は省略する。
図1、図2および図5を参照して、画像処理部110の画像生成部142の動作を説明する。この動作を含む管制支援装置100の動作は、本実施の形態に係る管制支援方法に相当する。
本実施の形態では、画像生成部142は、表示画像261内で移動体に移動体の種類に応じて異なる図形を重畳する。移動体の種類としては、航空機および車両がある。図5に例示している表示画像261では、「CAB0001」便の航空機、「AAA0001」便の航空機、および、「JJJ0004」便の航空機に重なるように、円柱が表示されている。仮に、表示画像261に車両が写っているとした場合は、車両に重なるように、直方体等、円柱以外の図形が表示されることになる。特に、移動体の種類が航空機である場合、移動体の向きに合わせて、その移動体に重畳される図形の向きが調整されてもよい。
なお、図形としては、円柱および直方体以外の任意の形状が用いられてよい。1つの例として、移動体の種類に応じたワイヤーフレームの画像が用いられてもよい。その場合、特に、移動体の種類が航空機であれば、移動体の型式に応じてワイヤーフレームの形状が調整されてもよい。
画像生成部142は、表示画像261に移動体として航空機が写っている場合、表示画像261内で当該航空機に当該航空機の運航者および属性の少なくともいずれかに応じて異なる色の図形を重畳してもよい。すなわち、表示画像261内で航空機に重畳される図形の色は、当該航空機の運航者および属性の少なくともいずれかに応じて異なる色に設定されてもよい。移動体の属性としては、移動体が航空機であれば、到着機、出発機、および、滑走路を通過するだけの通過機がある。図5の表示画像261において、仮に、航空会社JJJを示す色が赤、航空会社AAAを示す色が青、航空会社CABを示す色が黄であるとした場合、「CAB0001」便の航空機に重畳される図形は黄色に設定され、「AAA0001」便の航空機に重畳される図形は青色に設定され、「JJJ0004」便の航空機に重畳される図形は赤色に設定される。
***実施の形態の効果の説明***
本実施の形態では、対象物を模した任意形状画像を映像に重畳して仮想的に表示することで、対象物の視認性を向上させることができる。「任意形状画像」としては、航空機および車両といった対象物の種類、あるいは、対象物の型式に応じたワイヤーフレーム構造画像を用いてもよいし、立方体、直方体、円柱および円錐といった任意の立体画像を用いてもよい。
なお、画像を線で構成し、中抜きまたは透明とすることにより、映像に透過的に表示してもよい。その場合、遮蔽物の奥に存在する対象物も仮想的に表示できる。
実施の形態3.
本実施の形態について、主に実施の形態1との差異を、図6および図7を用いて説明する。
***構成の説明***
図6を参照して、本実施の形態に係る管制支援システム200の構成を説明する。
本実施の形態では、管制支援装置100の画像処理部110が、伝送処理部131と、画像変換部132と、パノラマ生成部133と、ターゲット検出部134と、ターゲット追尾部135と、設定処理部136と、位置・画素変換部137,138と、画素追尾部139,140と、相関処理部141と、画像生成部142とに加えて、トラジェクトリ取得部143を備える。
***動作の説明***
本実施の形態に係る管制支援装置100の動作については、図2に示した実施の形態1のものと比較して、ステップS19に相当する動作のみが異なる。そのため、ステップS11からステップS18、および、ステップS20に相当する動作の説明は省略する。
図2、図6および図7を参照して、画像処理部110の画像生成部142およびトラジェクトリ取得部143の動作を説明する。この動作を含む管制支援装置100の動作は、本実施の形態に係る管制支援方法に相当する。
本実施の形態では、画像生成部142は、トラジェクトリ取得部143により取得されるデータに基づいて、表示画像261内で移動体が辿る経路を表す点および線のいずれかを付加する。具体的には、トラジェクトリ取得部143は、外部から4DT等のトラジェクトリを取得するか、ターゲット追尾部135または相関処理部141から取得した、追尾されている移動体の位置およびFPL等からトラジェクトリを生成し、結果としてトラジェクトリを取得する。「4DT」は、4 Dimensional Trajectoryの略語である。トラジェクトリは、移動体が辿る経路の計画または予測結果を示すデータである。「FPL」は、Flight Planの略語である。画像生成部142は、トラジェクトリ取得部143からトラジェクトリを受け取る。画像生成部142は、受け取ったトラジェクトリによって示されている経路を表す点群または線を表示画像261に付加する。図7に例示している表示画像261では、「JJJ0004」便の航空機が辿る経路を表す矢印線265が付加されている。
本実施の形態では、画像生成部142は、表示画像261内で移動体の管制に用いられる情報を表す記号および文字の少なくともいずれかを付加する。具体的には、画像生成部142は、トラジェクトリ取得部143より受け取ったトラジェクトリから、ユーザが管制のための交信を行う時刻と、その交信の内容とを示す情報を取得する。画像生成部142は、取得した情報を表す記号または文字を表示画像261に付加する。図7の表示画像261では、「JJJ0004」便の航空機に対して、10時00分に滑走路進入許可、10時05分に離陸許可の交信を行うべきことを示す管制情報266が付加されている。
***実施の形態の効果の説明***
本実施の形態では、映像画面を見ることで管制官が状況認識できるだけでなく、空港または航空機等の過去、現在および将来の、管制に関わる情報を同じ画面で見ることができるため、一旦別画面を見るために頭を動かす等のアクションが不要となる。すなわち、管制官が映像から目を離したり、頭を動かしたりしなくて済むようになる。管制に関わる情報としては、各航空機の4次元トラジェクトリに基づく情報を参照できる。そのような情報としては、現在時刻以降に辿る飛行経路および走行経路、出発機の滑走路進入および離陸等のアクションを起こす地点、および、利用が制限される領域等を確認できるようにすることが望ましい。
100 管制支援装置、101 プロセッサ、102 メモリ、103 通信装置、110 画像処理部、120 表示制御部、131 伝送処理部、132 画像変換部、133 パノラマ生成部、134 ターゲット検出部、135 ターゲット追尾部、136 設定処理部、137,138 位置・画素変換部、139,140 画素追尾部、141 相関処理部、142 画像生成部、143 トラジェクトリ取得部、200 管制支援システム、210 カメラ、211 撮影画像、220 PTZカメラ、221 撮影画像、230 第1センサ、231 センサ情報、240 第2センサ、241 センサ情報、250 入力機器、251 設定情報、260 ディスプレイ、261 表示画像、262 モノクローム映像、263 カラー映像、264 フレーム、265 矢印線、266 管制情報。

Claims (15)

  1. 管制対象の移動体が行き交う場所を撮影した撮影画像をもとに、撮影範囲の一部の領域を他の領域よりも少ない色で表示する表示画像を生成する画像処理部と、
    前記画像処理部により生成された表示画像をディスプレイに表示する制御を行う表示制御部と
    を備える管制支援装置。
  2. 前記画像処理部は、前記撮影画像として、空港および空港周辺の航空機が行き交う領域を撮影した画像を取得する請求項1に記載の管制支援装置。
  3. 前記画像処理部は、前記表示画像として、空域を地上面よりも少ない色で表示する画像を生成する請求項1または2に記載の管制支援装置。
  4. 前記画像処理部は、前記撮影画像から前記撮影範囲の一部の領域の画像である第1画像を抽出し、前記第1画像を前記他の領域の画像である第2画像よりも色の少ない第3画像に加工し、前記第2画像と前記第3画像とを合成することで前記表示画像を生成する請求項1から3のいずれか1項に記載の管制支援装置。
  5. 前記画像処理部は、前記表示画像として、前記撮影範囲の一部の領域をモノクロームで表示し、前記他の領域をカラーで表示する画像を生成する請求項1から4のいずれか1項に記載の管制支援装置。
  6. 前記画像処理部は、前記撮影範囲の一部の領域と前記他の領域とのいずれかを設定するユーザの入力を受け付ける請求項1から5のいずれか1項に記載の管制支援装置。
  7. 前記画像処理部は、前記表示画像内で前記移動体の周囲に前記移動体の種類および属性の少なくともいずれかに応じて異なる色の枠を付加する請求項1から6のいずれか1項に記載の管制支援装置。
  8. 前記画像処理部は、前記表示画像に前記移動体として航空機が写っている場合、前記表示画像内で当該航空機の周囲に当該航空機の運航者に応じて異なる色の枠を付加する請求項1から6のいずれか1項に記載の管制支援装置。
  9. 前記画像処理部は、前記表示画像内で前記移動体に前記移動体の種類に応じて異なる図形を重畳する請求項1から6のいずれか1項に記載の管制支援装置。
  10. 前記画像処理部は、前記表示画像に前記移動体として航空機が写っている場合、前記表示画像内で当該航空機に当該航空機の運航者および属性の少なくともいずれかに応じて異なる色の図形を重畳する請求項1から6のいずれか1項に記載の管制支援装置。
  11. 前記画像処理部は、前記移動体の識別子と、前記移動体の位置を示す位置情報とを取得し、前記表示画像内で前記移動体が写っている位置と、取得した位置情報に示されている位置とが一致していれば、前記表示画像内で前記移動体の隣に、取得した識別子を表す文字を付加する請求項1から10のいずれか1項に記載の管制支援装置。
  12. 前記画像処理部は、前記表示画像内で前記移動体が辿る経路を表す点および線のいずれかを付加する請求項1から11のいずれか1項に記載の管制支援装置。
  13. 前記画像処理部は、前記表示画像内で前記移動体の管制に用いられる情報を表す記号および文字の少なくともいずれかを付加する請求項1から12のいずれか1項に記載の管制支援装置。
  14. コンピュータが、管制対象の移動体が行き交う場所を撮影した撮影画像をもとに、撮影範囲の一部の領域を他の領域よりも少ない色で表示する表示画像を生成し、
    ディスプレイが、生成された表示画像を表示する管制支援方法。
  15. コンピュータに、
    管制対象の移動体が行き交う場所を撮影した撮影画像をもとに、撮影範囲の一部の領域を他の領域よりも少ない色で表示する表示画像を生成する画像処理と、
    前記画像処理により生成された表示画像をディスプレイに表示する制御を行う制御処理と
    を実行させる管制支援プログラム。
JP2017141798A 2017-07-21 2017-07-21 管制支援装置、管制支援方法および管制支援プログラム Active JP6494699B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141798A JP6494699B2 (ja) 2017-07-21 2017-07-21 管制支援装置、管制支援方法および管制支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141798A JP6494699B2 (ja) 2017-07-21 2017-07-21 管制支援装置、管制支援方法および管制支援プログラム

Publications (2)

Publication Number Publication Date
JP2019022178A true JP2019022178A (ja) 2019-02-07
JP6494699B2 JP6494699B2 (ja) 2019-04-03

Family

ID=65353204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141798A Active JP6494699B2 (ja) 2017-07-21 2017-07-21 管制支援装置、管制支援方法および管制支援プログラム

Country Status (1)

Country Link
JP (1) JP6494699B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023018398A (ja) * 2021-07-27 2023-02-08 三菱電機株式会社 管制支援装置、管制支援方法及び管制支援プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160424A (ja) * 1997-11-27 1999-06-18 Nec Corp 空港面監視装置
JP2001250200A (ja) * 2000-03-07 2001-09-14 Toshiba Corp 空港面誘導システム
JP2002277544A (ja) * 2001-03-21 2002-09-25 Toshiba Corp 空港滑走路監視装置
JP2006270404A (ja) * 2005-03-23 2006-10-05 Mitsubishi Electric Corp 撮影制御装置、撮影制御方法および撮影制御プログラム
JP2010221874A (ja) * 2009-03-24 2010-10-07 Denso Corp 車載用の灯火器制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160424A (ja) * 1997-11-27 1999-06-18 Nec Corp 空港面監視装置
JP2001250200A (ja) * 2000-03-07 2001-09-14 Toshiba Corp 空港面誘導システム
JP2002277544A (ja) * 2001-03-21 2002-09-25 Toshiba Corp 空港滑走路監視装置
JP2006270404A (ja) * 2005-03-23 2006-10-05 Mitsubishi Electric Corp 撮影制御装置、撮影制御方法および撮影制御プログラム
JP2010221874A (ja) * 2009-03-24 2010-10-07 Denso Corp 車載用の灯火器制御装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023018398A (ja) * 2021-07-27 2023-02-08 三菱電機株式会社 管制支援装置、管制支援方法及び管制支援プログラム
JP7241818B2 (ja) 2021-07-27 2023-03-17 三菱電機株式会社 管制支援装置、管制支援方法及び管制支援プログラム

Also Published As

Publication number Publication date
JP6494699B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
US11365014B2 (en) System and method for automated tracking and navigation
US20150329217A1 (en) Aircraft strike zone display
US11086339B2 (en) Automatic camera driven aircraft control for radar activation
US11398078B2 (en) Gradual transitioning between two-dimensional and three-dimensional augmented reality images
US20080074494A1 (en) Video Surveillance System Providing Tracking of a Moving Object in a Geospatial Model and Related Methods
US20230162449A1 (en) Systems and methods for data transmission and rendering of virtual objects for display
US9726486B1 (en) System and method for merging enhanced vision data with a synthetic vision data
CN108024070A (zh) 在合成图像上覆盖传感器图像的方法及相关显示系统
US9571801B2 (en) Photographing plan creation device and program and method for the same
CN113286081A (zh) 机场全景视频的目标识别方法、装置、设备及介质
KR102004455B1 (ko) 증강현실을 이용한 항로표지 관제 시스템 및 방법
US20200088831A1 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
JP6494699B2 (ja) 管制支援装置、管制支援方法および管制支援プログラム
Vygolov et al. Enhanced, synthetic and combined vision technologies for civil aviation
ES2882103T3 (es) Detección y seguimiento a distancia de objetos
Vygolov Enhanced and synthetic vision systems development based on integrated modular avionics for civil aviation
US11703354B2 (en) Video display system and method
EP3905223A1 (en) Aircraft display systems and methods for identifying target traffic
Wang et al. A real-time sensor guided runway detection method for forward-looking aerial images
WO2019049197A1 (ja) 飛行体、飛行体制御装置、飛行体制御方法および飛行体制御プログラム
Sakaino Deepscene, deepvis, deepdist, and deepreject: Image-based visibility estimation system for uav
EP3876217A1 (en) Methods and systems for highlighting ground traffic on cockpit displays
US11604478B2 (en) Information processing apparatus, information processing method, and information processing program
JP5911623B1 (ja) 道路のジョイント部の検出装置及び検出方法
US20240203142A1 (en) Scanning aid for camera-based searches

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190305

R150 Certificate of patent or registration of utility model

Ref document number: 6494699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250