JP2014513642A - 監視システムおよび飛行場内の異物、破片、または損害を検出する方法 - Google Patents

監視システムおよび飛行場内の異物、破片、または損害を検出する方法 Download PDF

Info

Publication number
JP2014513642A
JP2014513642A JP2013554422A JP2013554422A JP2014513642A JP 2014513642 A JP2014513642 A JP 2014513642A JP 2013554422 A JP2013554422 A JP 2013554422A JP 2013554422 A JP2013554422 A JP 2013554422A JP 2014513642 A JP2014513642 A JP 2014513642A
Authority
JP
Japan
Prior art keywords
runway
image
airfield
damage
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013554422A
Other languages
English (en)
Other versions
JP6110316B2 (ja
Inventor
キエン ミュウ デビッド チュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stratech Systems Pte Ltd
Original Assignee
Stratech Systems Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stratech Systems Pte Ltd filed Critical Stratech Systems Pte Ltd
Publication of JP2014513642A publication Critical patent/JP2014513642A/ja
Application granted granted Critical
Publication of JP6110316B2 publication Critical patent/JP6110316B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/02Mechanical actuation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/06Traffic control systems for aircraft, e.g. air-traffic control [ATC] for control when on the ground
    • G08G5/065Navigation or guidance aids, e.g. for taxiing or rolling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

飛行場の画像を獲得するための1つまたは複数のカメラと、1つまたは複数のカメラによって獲得された画像から飛行場内の異物、破片または損害を検出するための処理装置と、飛行場内の兵器衝撃を検出して、1つまたは複数のカメラに検出された兵器衝撃の領域中の画像を獲得するよう指示するための兵器衝撃監視システムとを備える監視システム、および飛行場内の異物、破片、または損害を検出する方法。

Description

本発明は、監視システムおよび飛行場内の異物、破片、または損害を検出する方法、特に、飛行場監視(飛行場内の滑走路および/または誘導路および/または進入路および/またはインフィールド/草地および/またはエプロンおよび/または舗装路の監視が含まれる)、異物、破片(FOD)や損害(亀裂、弾孔、破砕、UXO、地下爆発)の検出/測定/分類ならびに飛行場損害評価のための方法に幅広く関する。
滑走路監視は空港運用に非常に重要である。滑走路は、航空機または滑走路を使用する他の車両の磨損の結果として生じた深い穴などの損害に絶えずさらされている。時折、破片または異物が滑走路上に現れる場合があり、これはジェット噴流、航空機の離陸/着陸、自然の原因などに起因している可能性がある。航空機の移動を伴う現役滑走路上では、異物、破片または損害(FOD)の存在は飛行機墜落およびその結果として人命の損失をもたらす場合があり、航空会社に顕著な損失をもたらす。
様々な方法が滑走路監視を実施するために用いられている。慣習的には、検査官が空港滑走路を動き回って、目視検査および手動監視を定期的に実施する。目視検査は遅く、労働集約的である。さらに、目視検査は滑走路の周辺条件の影響を受けやすいため信頼できない。
一部の空港では、空港滑走路およびその隣接領域上の損害、破片および他の危険を検出するためにレーダーを用いる自動システムを使用している。レーダーを使用するシステムでは、通常はマイクロ波シグナルを滑走路一面に送出し、任意の異物からの反射されたシグナルを検出して分析する。マイクロ波シグナルはパルスまたは構造的であるため、シグナルが受信機に到達するまでにかかった時間を計算し、そこから、異物までの距離を導き出す。より短い波長およびより高いパルス繰返し周波数を有するレーダーセンサを使用することによって、より高い距離分解能を得ることが可能となり、立ち代ってこれは背景クラッタを低下させ得る。
しかし、滑走路監視のために任意のレーダーを使用するシステムはそれぞれの制限を有する。レーダーは金属物体の検出に優れた手段であるが、他方でゴムなどの非金属物質の検出には感度がより低い。レーダーシグネチャが乏しい材料(たとえばゴム)から作製された物体は、そのようなレーダーに基づくシステムにおいて大きな問題を引き起こす可能性がある。さらに、レーダーは、より小さな非金属物質の検出には信頼できない場合がある。さらなる制限には、他の物体または基礎構造によって引き起こされる遮断が原因の、レーダーの盲点または影が含まれる。さらに、レーダーは、それほど危険ではあり得ない小さな金属物体から反射されたシグナルについてさえも強力なシグナルを示すことによって、誤認警報を作動させ得る。したがって、レーダーに基づく監視システムは「知能」を欠いており、操作員によって検証および特徴づけするための物体の視覚画像を提供できないことに悩まされる。
一部の空港では、滑走路上の物体、亀裂、空洞などを検出するために赤外線または熱イメージングシステムを利用している。しかし、赤外線または熱イメージングシステムを用いるシステムは周辺の熱平衡外にある赤外線放射(物体から放出されたもの)しか感知することができず、すなわち、赤外線または熱イメージングシステムは十分な熱コントラストを有する物体(たとえば冷えた滑走路上の温かい金属破片)しか検出することができない。熱コントラストが乏しい小さな物体は、赤外線/熱イメージングシステムに顕著な課題を提示し得る。さらに、そのようなシステムの性能は悪天候(たとえば寒空)条件下では予測できない。さらに、赤外線/熱イメージングシステムは、物体の検出、特徴づけおよび分類に必要な分解能も欠く。
近年、滑走路の近くに配置された1つまたは複数のビデオカメラを使用する監視が提案されている。カメラから得られたビデオシグナルは、空港管制室の制御盤上で操作員によって視覚的に監視される。
また、画像処理(たとえば背景減算)に頼って監視カメラから受信された滑走路のビデオ画像を処理することによって任意のFODまたは飛行場滑走路損害を検出することも提案されている。
背景減算を使用するFODまたは飛行場滑走路損害の検出はいくつかの問題を有する。第一に、ピクセル特性が背景と前景とのピクセル間を正しく識別するために必ずしも十分とは限らない。さらに、背景は、ノイズ、クラッタ、外部事象、照明条件および気象条件の変動などが原因の変化を受けやすい。
さらに、現在使用されている画像処理システムは周囲の照明条件に依存しており、低照度条件に適しておらず、これはピクセルの特徴づけにおいて顕著な問題を引き起こす。
既存の監視システムで使用されているビデオカメラは、夜の監視にはレーザー光または赤外光などの追加の補助照明を必要とする。立ち代ってこれは、そのようなシステムを使用する空港において顕著な基礎構造を必要とし、費用を増加させる。また、レーザー光または赤外光などの光学光の存在は、空港で使用されている他のシステムと干渉する可能性があり、空港での航空機航行に対する安全性の問題をもたらし得、パイロットなどに危険をもたらし得る。
さらに、攻撃軍の最も有効な戦術の一つは敵の飛行場への先制攻撃である。滑走路が破壊されて航空機が飛行不能となった後、これらの飛行場はさらなる攻撃のより容易な標的となる。この脅威は、滑走路を破壊するために設計された現代兵器、たとえば、クラスター爆弾、複数ロケット発射装置(MRL)の開発によって大きくなっている。
標的(たとえば軍用飛行場滑走路)に対する戦闘損害評価(BDA)は戦時中において非常に重要である。伝統的に、偵察チームを送って滑走路の全長を偵察させ、滑走路を参照とした弾孔の直径、深度、および位置に関する損害のチャートを作成する。典型的なチャート作成には約60〜120分間を要する。そのような長い手引き書に基づいた活動は戦闘状況では非効率的であり、必然的に兵士をさらなる爆撃の危険性に曝す。
したがって、上記問題のうちの1つまたは複数に取り組むことに努める、滑走路監視および飛行場損害評価を提供する必要性が存在する。
本発明の一態様に従って、飛行場の画像またはビデオを獲得するための1つまたは複数のカメラと、1つまたは複数のカメラによって獲得された画像から飛行場内の異物、破片または損害を検出するための処理装置と、飛行場内の兵器衝撃を検出して、1つまたは複数のカメラに、検出された兵器衝撃の領域中の画像を獲得するよう指示するための兵器衝撃監視システムとを備える、飛行場内の異物、破片、または損害を検出するための監視システムが提供される。
1つまたは複数のカメラは静止および非静止カメラの組合せを備え得る。
1つまたは複数のカメラは、損害の種類を検出するための詳細を有する画像を得るために、検出された兵器衝撃の領域にズームインまたはフォーカスし得る。
兵器衝撃は、兵器衝撃によって引き起こされた爆発、煙、埃もしくは閃光の画像または音によって検出され得る。
監視システムは、飛行場内で検出された異物、破片、または損害の位置に基づいて航空機の着陸の最小稼働仮設滑走路(MOS)を導き出すための計算モジュールを備え得る。
監視システムは、飛行場内の亀裂、弾孔、地下爆発、破砕、UXO、または動物を検出し得る。
処理装置は、弾孔、地下爆発または破砕の周りの破片の量をそれぞれ検出することによって弾孔、地下爆発または破砕の大きさを決定し得る。
1つまたは複数のカメラは、飛行場の広域画像獲得を提供するために広角レンズを備え得る。
1つまたは複数のカメラは、飛行場の画像を獲得するために飛行場の上空を飛行するよう手配された航空機上に装着され得る。
監視システムは、低視度または低周囲照度条件下で人工照明を提供するための1つまたは複数の赤外線または可視スペクトル照明器を備え得る。
処理装置は、異物、破片、または損害の大きさまたは物理的属性を測定するように構成され得る。
飛行場内で検出された損害は、飛行場マップ上にマッピングし得る。
監視システムは、異物、破片または損害の可能性がある獲得画像中の領域を検出するための領域に基づく検出器と、獲得画像中のすべての物体のエッジを検出するためのエッジに基づく検出器とを備え、画像中のエッジに基づく検出器によって検出されたエッジと重複する、画像中の領域に基づく検出器によって検出された領域が記憶され得る。
1つまたは複数のカメラによって獲得された画像を一緒にまとめて、先に獲得されたステッチ画像と後に獲得されたステッチ画像との間の差分領域を、後に獲得されたステッチ画像中でハイライトし得る。
兵器衝撃監視システムは、兵器衝撃を検出した際に視覚または音声警報を作動させるように構成され得る。
監視システムは、兵器衝撃の位置および損害の情報に基づいて修復作業を推定および計画するための修復の推定および計画モジュールを備え得る。
1つまたは複数のカメラは飛行場内の滑走路の対向する側に設置してよく、その視界は重複し得る。
1つまたは複数のカメラの視界は重複し得る。
監視システムは、飛行場内の損害を修復するまたは異物を取り除くための遠隔警報および重要情報を受信するための1つまたは複数の携帯用手持ち機器を備え得る。
監視システムは、現在の獲得画像および参照画像中に位置する共通物体の位置に基づいて、カメラによって撮影された現在の獲得画像と参照画像との間のオフセットを補正するための画像オフセット補償器を備え得る。
画像オフセット補償器は、現在の獲得画像と参照画像との間の補正するオフセットを決定するために、現在の獲得画像および参照画像中の複数の共通物体を使用し得る。
直線回帰を使用して現在の獲得画像と参照画像との間の補正するオフセットを決定し、現在の獲得画像および参照画像中の共通物体をマッチさせることによって決定されたスコアが事前に決定された閾値よりも大きい場合に、現在の獲得画像および参照画像中の共通物体に基づいて計算されたオフセット値を直線回帰について検討し得る。
監視システムは、飛行場内で検出された異物、破片、または損害の位置に基づいて航空機の最小飛行場稼働表面(MAOS)を導き出すための計算モジュールをさらに備え得る。
監視システムは、低視度または低周囲照度条件下で人工照明を提供するための1つまたは複数の可視スペクトル照明器を備え得る。
兵器衝撃は、兵器衝撃によって引き起こされた音によって検出され得る。
本発明の別の態様に従って、飛行場の画像を獲得するステップと、獲得された画像から飛行場内の異物、破片または損害を検出するステップと、飛行場内の兵器衝撃を検出するステップと、1つまたは複数のカメラに、検出された兵器衝撃の領域中の画像を獲得するよう指示するステップとを含む、飛行場内の異物、破片、または損害を検出する方法を提供する。
本発明を、添付の図面を参照しながら、非限定的な実施形態によってさらに説明する。
滑走路および/または誘導路上の異物、破片または損害(FOD)および飛行場損害を検出するための監視システムにおける監視カメラの配置を例示する模式図である。 一実施形態によるFODおよび飛行場損害の検出の基本的な流れ図である。 本発明の一実施形態の詳細な流れ図である。 図3Aにおいてエッジマップを抽出するために使用したルックアップテーブルを示すグラフである。 滑走路および/または誘導路上のFODまたは飛行場損害を検出するための監視システムにおける監視カメラの冗長カバレッジを例示する模式図である。 代替実施形態による滑走路表面の走査を例示する模式図である。 画像較正(ピクセル対実世界の座標較正)のために滑走路の線を活用する、一実施形態による滑走路の線を例示する模式図である。 例示的な実施形態の方法およびシステムを実装するためのコンピュータシステムを例示する模式図である。 異物、破片または損害(FOD)および飛行場滑走路損害を検出するためのシステムと、例示的な実施形態の兵器衝撃監視システムとを備える総合飛行場損害評価システムを例示する模式図である。 図9の兵器衝撃監視システムを使用した衝撃検出システムを例示する模式図である。 図9の総合飛行場損害評価システムで使用されているソフトウェアモジュールを示すレイアウトである。 戦時中の図11のソフトウェアモジュールの対話を示すレイアウトである。 平時中の図11のソフトウェアモジュールの対話を示すレイアウトである。 図9の総合飛行場損害評価システムのハードウェアレイアウトを例示する模式図である。 滑走路のステッチ画像を示す図であり、滑走路画像中の特定の異物破片および損害領域がハイライトされている。 2種類の検出器を使用した、飛行場画像中の異物、破片(FOD)または損害の検出を例示する流れ図である。 画像の較正に使用される飛行場の様々な領域に存在するマーカーを例示する図である。 現在の画像と基準画像との間のオフセットを例示する図である。 現在の画像と基準画像との間のオフセット補正を例示する図である。 飛行場画像のオフセット補償のために直線回帰を使用することを例示する流れ図である。
図1Aは、例示的な実施形態による、滑走路(106)上の異物、破片または損害(FOD)および滑走路損害を検出するための飛行場滑走路監視システム(100)における監視カメラの配置を例示する模式図である。滑走路(106)は中央に位置し、誘導路(103、104)および草地(102)に隣接している。滑走路に向けられた複数の監視カメラ(108)は、それぞれの監視カメラ(108)の軸が滑走路(106)の長さに垂直であるように、誘導路(104)の片方の端に沿って配置されている。それぞれの監視カメラ(108)は視野(110)を走査するように操作可能であり、水平画角(111)を有する。それぞれの視野(110)には誘導路(103、104)、滑走路(106)および草地(102)の一部分が含まれる。また、それぞれの視野(110)には滑走路(106)に沿って隣接カメラ(108)からの交差部分(112)も含まれる。
監視カメラ(108)は滑走路から150m〜700m離れて位置しており、隣接カメラ間で約10〜50%の重複を生じる。
カメラ(108)のそれぞれからのビデオおよび/または画像は空港の管制塔または管制室(135)内の応用コンピュータシステム(示さず)に送られる。受信されたビデオおよび/または画像は応用コンピュータシステムのビデオ処理装置によって処理される。応用コンピュータシステムは、監視カメラからのビデオおよび/または画像を連続的に処理して、FODおよび滑走路損害を検出し、FODまたは滑走路損害が検出された場合に操作員に警報を出す。また、管制塔または管制室(135)内の操作員は、リアルタイムの滑走路のビデオおよび/または画像をビデオディスプレイ(示さず)上で視覚的に監視することもできる。応用コンピュータシステムがビデオデータを処理中に何らかの異物、破片または損害(FOD)が検出された場合は、操作員はそれについて警告を受ける(視覚警報および/もしくは音声警報ならびに/またはGSM、SMSもしくはMMSなどの移動通信手段を介した遠隔無線警報による)。警報および/または遠隔無線警報を受信した際、操作員は監視カメラ(108)を検出された物体へとズームし、FODまたは滑走路損害を視覚的に検証する。FODまたは飛行場滑走路損害が確認された場合は、警報(音および/または視覚)が管制塔または管制室(135)内で作動される。また、FODまたは飛行場滑走路損害の検出は滑走路(106)の近くに位置する遠隔警報(音および/または視覚)も作動させる。また、滑走路復旧チームまたは飛行場修復チームに通知するために無線警報(GSM、SMSまたはMMSなど)も作動される。したがって、すぐに滑走路復旧チームが復旧車両を派遣して、検出されたFODを片付ける、すなわち異物、破片を取り除く、または損害を修復する。
使用される監視カメラは受動的であり、照明器(レーザーまたは赤外線照明器など)を備えていない。監視カメラ(108)のそれぞれは、高分解能昼間視/暗視カメラ、低照度高感度カラーカメラ、光増感CCDを備えたカメラ(ICCDカメラ)、電子増倍管CCDを備えたカメラ(EM−CCDカメラ)、暗視カメラ、静止カメラ、高分解能メガピクセルカメラ、非静止カメラ(パニングカメラ、パン・チルト・ズーム(PTZ)カメラもしくはズームカメラなど)、近赤外線(SWIR)カメラ、中赤外線(MWIR)カメラ、または熱イメージング装置のうちの1つであることができる。したがって、監視システムは、受動的カメラのみを使用して、追加の補助照明(赤外線照明器またはレーザー照明器など)の設置を必要とせずに稼働することができる。
システム(100)において使用される監視カメラ(108)は、画像処理用の滑走路のビデオ画像またはデジタル画像を生成することができる。しかし、静止画デジタルカメラを使用して画像処理用の滑走路のデジタル静止画像を生成してもよい。
たとえば、ズームカメラまたはパン・チルト・ズーム(PTZ)カメラを使用して滑走路上の任意の領域に自動的にズームインして、FODまたは飛行場滑走路損害の詳細な視界を得ることができる。ズームインビデオ画像は滑走路上の目的領域のさらなる詳細を提供するため、操作員は、検出されたFODまたは滑走路損害によって引き起こされた潜在的な危険を評価し、適切な行動をすぐに開始させるためにより良好な立場にある。例示的な実施形態では、PTZカメラまたはズームカメラは、応用コンピュータシステムがFODまたは滑走路損害を検出した場合にはいつでも応用コンピュータシステムによって遠隔制御し、滑走路上の目的領域にズームインすることができる。あるいは、PTZカメラまたはズームカメラは、操作員によって手動で制御し、飛行場内の特定の領域にズームインしてズームインビデオまたは画像を得ることもできる。
図1Bは、滑走路(106)上のFODまたは滑走路損害を検出するための滑走路監視システム(500)における監視カメラの代替配置を例示する模式図である。滑走路に向けられた複数の監視カメラ(508)は誘導路(104)の片方の端に沿って配置されている。滑走路に向けられた別の複数の監視カメラ(509)は、誘導路(103)の他方の遠方の端に沿って配置されている。それぞれの監視カメラ(508、509)の軸は滑走路(106)の長さに垂直である。それぞれの監視カメラ(508)は視野(510)を監視するように操作可能であり、水平画角(511)を有する。それぞれの監視カメラ(509)は視野(515)を監視するように操作可能であり、水平画角(521)を有する。それぞれの視野(510、515)には、誘導路(103、104)、滑走路(106)および草地(102)からの一部分が含まれる。カメラ(508、509)は、隣接カメラの視野(510および515)が互いに交互し、明確な分界線または一部のカバレッジ重複を有するように、交互に配置されている。また、隣接監視カメラの重複カバレッジ(視野)は、1つの監視カメラが故障した場合に隣接監視カメラが故障したカメラの視野もカバーできるように、一部の冗長も提供する。また、監視カメラを、滑走路のすべてのセクターが少なくとも2台の監視カメラによってカバーされて視野カバレッジの冗長を提供するように配置することも可能である。したがって、少なくとも2台の監視カメラが同じ滑走路セクターおよび同じ滑走路損害(弾孔、地下爆発、破砕、UXO)またはFODを見ている可能性がある。これは、飛行場の特定の滑走路セクターまたは領域をカバーするために単一の監視カメラのみを使用する場合に起こる可能性がある、飛行場滑走路損害/FODの閉塞の問題を克服することも助ける。したがって、この配置では、2台の異なるカメラによって見られる、同じ滑走路損害(弾孔、地下爆発、破砕、UXO)またはFODの2つの異なる視界を獲得することが可能である。これは、滑走路損害またはFODの検出、測定および分類の率の改善を助ける。
図1Cは、滑走路(105)上の滑走路損害またはFODを検出するための滑走路監視システム(550)における監視カメラのさらに別の代替実施形態を示す模式図である。滑走路に向けられた複数の監視カメラ(551)は誘導路(104)の片方の端に沿って配置されている。滑走路に向けられた別の複数の監視カメラ(552)は、誘導路(103)の他方の遠方の端に沿って配置されている。それぞれの監視カメラ(551、552)の軸は滑走路(105)の長さに垂直である。それぞれの監視カメラ(551)は視野(555)を監視するように操作可能であり、水平画角(553)を有する。それぞれの監視カメラ(552)は視野(556)を監視するように操作可能であり、水平画角(554)を有する。それぞれの視野(555、556)には、誘導路(103、104)、滑走路(105)および草地(インフィールドが含まれる)(102)からの一部分が含まれる。この配置により、滑走路および/または誘導路のそれぞれのセクターが、滑走路の両側から1台ずつの少なくとも2台の監視カメラによってカバーされることが可能となる。これは監視カバレッジの冗長を提供する。それに加えて、これは、飛行場滑走路損害(弾孔、地下爆発、破砕、UXO)またはFODにおける、監視カメラ視界の遮断が原因の閉塞の問題を克服することも助ける。そのような閉塞は、監視カメラのカメラ視界内に存在する他のFOD物体または滑走路損害によって引き起こされる場合があり、飛行場の特定の領域をカバーするために単一のカメラしか使用しない場合に起こる場合がある。
滑走路の対向する側の監視カメラの視野は、滑走路および/または誘導路のカバレッジの冗長を提供するために一部の重複を有する。したがって、監視カメラを滑走路の対向する側に設置することは、滑走路および/または誘導路上の弾孔/地下爆発/破砕/UXOおよびFODの正確な検出/測定/分類における閉塞が原因の問題を克服することも助ける。
以下の説明の一部は、明示的かつ暗黙的に、アルゴリズムおよびコンピュータメモリ内のデータの操作の関数または記号表示に関して提示されている。これらのアルゴリズム記述および関数または記号表示は、データ処理分野の技術者によって、その仕事の内容を当技術分野の他の技術者に最も有効に伝えるために使用される手段である。アルゴリズムとは、本明細書中および一般的に、所望の結果をもたらす自己矛盾のない一連のステップであると理解される。ステップとは、記憶、転送、結合、比較、および他の様式で操作することができる、電気的、磁気的または光学的シグナルなどの物理量の物理的操作を必要とするものである。
別段に具体的に記述した場合以外は、かつ以下から明らかなように、本明細書全体にわたって、「計算する」、「決定する」、「置換する」、「生成する」、「初期化する」、「出力する」などの用語を利用した議論は、コンピュータシステム内で物理量として表されるデータを、コンピュータシステムまたは他の情報記憶、伝送もしくは表示装置内で物理量として同様に表される他のデータへと操作および変換する、コンピュータシステムまたは同様の電子装置の動作および処理をいうことを理解されたい。
また、本明細書は、方法の処理を行うための装置も開示する。そのような装置は、所要の目的のために特別に構築されていてよい、またはコンピュータ内に記憶されているコンピュータプログラムによって選択的に起動もしくは再構成される汎用コンピュータもしくは他の装置を備えていてよい。本明細書中に提示するアルゴリズムおよび表示は、任意の特定のコンピュータまたは他の装置に固有に関連していない。本明細書中の教示に従って様々な汎用機器をプログラムと共に使用し得る。あるいは、所要の方法ステップを行うためのより特化した装置の構築が適切であり得る。以下の説明から、慣用の汎用コンピュータの構造が見えるであろう。
さらに、本明細書は、本明細書中に記載の方法の個々のステップはコンピュータコードによって実行され得ることが当業者には明らかであろう点で、コンピュータプログラムも暗黙的に開示する。コンピュータプログラムは、任意の特定のプログラミング言語およびその実装に限定されることを意図しない。本明細書中に包含される開示の教示を実装するために様々なプログラミング言語およびそのコードを使用し得ることを理解されよう。さらに、コンピュータプログラムは任意の特定の制御フローに限定されることを意図しない。コンピュータプログラムの数多くの他の変形が存在し、これらは本発明の精神または範囲から逸脱せずに異なる制御フローを使用することができる。
さらに、コンピュータプログラムのステップのうちの1つまたは複数を順次ではなく並行して行い得る。そのようなコンピュータプログラムは任意のコンピュータ読取可能媒体に記憶させ得る。コンピュータ読取可能媒体には、磁気または光学ディスク、メモリチップ、または汎用コンピュータとの対話に適した他の記憶装置などの記憶装置が含まれ得る。コンピュータ読取可能媒体には、インターネットシステムに例示されるものなどの有線媒体、またはGSM移動電話システムに例示されるものなどの無線媒体も含まれ得る。コンピュータプログラムは、そのような汎用コンピュータにロードして実行した場合に、好ましい方法のステップを実装する装置を有効にもたらす。
また、本発明はハードウェアモジュールとしても実装し得る。より詳細には、ハードウェアの意味では、モジュールとは他の構成要素またはモジュールと共に使用するために設計された機能的ハードウェアユニットである。たとえば、個別の電子部品を使用してモジュールを実装し得るか、これが特定用途集積回路(ASIC)などの電子回路全体の一部分を形成することができる。数々の他の可能性が存在する。当業者は、システムをハードウェアおよびソフトウェアのモジュールの組合せとしても実装できることを理解されよう。
管制塔または管制室(135)(図1A)内の応用コンピュータシステムは以下の機能を有する。
1.カメラの数、それぞれのカメラのカバレッジ領域(視野)、カメラの較正、警報を生成すべき事象、警報の種類などに関する監視システムの構成を行う。
2.操作員が、FODまたは滑走路損害を有効に確認すること、FODが滑走路上の異物、破片または損害(弾孔、地下爆発、破砕、UXO)であるかを決定すること、ならびに異物または飛行場滑走路損害を測定および分類することを可能にするために、それぞれの監視カメラの視野を選択する(カメラの画角を遠隔調節することによる)。ビデオディスプレイは複数の監視カメラからの多重化ビデオを示すことができる。
3.それぞれのPTZまたはズームカメラが飛行場滑走路上の所望の目的領域にパン、チルトおよび/またはズームインするよう自動的に調節することによって、それぞれのパン・チルト・ズーム(PTZ)またはズームカメラの視野(画角)を選択する。関連するPTZまたはズームカメラは、損害を受けたまたは破片もしくは異物を含むことが疑われる飛行場滑走路の部分に自動的にズームするために、応用コンピュータシステムによって遠隔制御されている。また、この機能は応用コンピュータシステムを用いて操作員によって手動および遠隔で行うこともできる。
4.音または視覚警報を構成する。ここで、滑走路上に問題が表れた(すなわちFODまたは滑走路損害が検出された)場合は、警報の優先リストが自動的に生成されるようにシステムを操作可能であり、最大の弾孔あるいは最も危険な破片もしくは異物または滑走路損害(弾孔、地下爆発、破砕、UXO)が最優先されて、操作員が必要な修正行動をとることを可能にする。警報は音声および/もしくは視覚または両方であるように構成することができる。警報には、GSM、SMSもしくはMMSまたは3G移動通信などの移動通信手段を介した遠隔無線警報も含めることができる。
5.システムが滑走路または誘導路上のFODまたは滑走路損害を検出した場合に様々な監視カメラによって獲得されたビデオ画像および/または静止画画像を処理および記録し、滑走路シーンの記録されたビデオ画像および/または静止画画像を再生する。
6.事象、ビデオデータおよび記憶された他のデータの管理。容易な読み出しおよび様々な報告書の生成のために、すべての関連するデータはデータベース内にログ付けされている。
7.他のシステムがデータベースにアクセスすることを可能にするシステムインタフェース。
8.他のシステムがリアルタイムデータおよびすべての現場機器の詳細を含めたシステム全体にわたるステータスを得ることを可能にするための、リアルタイムデータを共有するためのシステムインタフェース。リアルタイムデータを航空機の着陸/離陸の制御システムと統合することは、航空機およびクルーに即時の安全性を提供するために有用である。
図2は、一実施形態によるFODまたは飛行場滑走路損害の検出の基本的な流れ図である。
ステップ201では、監視カメラが滑走路の一部分のそれぞれの画像を獲得する。獲得された画像の処理に関与するステップは以下の段落で説明されている。
ステップ203では、獲得された画像の前処理を行うために画像強調を行う。X方向(滑走路方向に平行)の段階的なグレースケール変化および高コントラストの滑走路の白線は、滑走路に平行な方向に高い勾配変化を有する特長(ほぼすべての実3D異物、損害、または破片(FOD)はこれらの特性を有する)を強調するために排除されている。
出力画像中のすべてのピクセルは、一部の顕著な滑走路灯およびFOD以外はほぼゼロとなる(白い滑走路の線および移動する雲または雨が原因でグレースケールの勾配変化を有する領域が含まれる)。このステップは、低い誤認警報率を有する信頼性のあるFODまたは滑走路損害の検出を支援することができる。
最適な結果を達成するために、Sobel Xの左から右+右から左またはScharr Xなどの高域フィルターを使用する。
ステップ205では、異常光検出を夜間での検出に適用する。滑走路シーン上の突然の明るい光または明るいスポットは監視カメラ(108)をブルームする場合がある。これは、航空機が着陸する際、離陸する際、または地上車両が夜間に移動する際に起こり得る。検出アルゴリズムがそのような状況を決定する。異常光が検出された場合、画像は無視される。アルゴリズムは、グローバルヒストグラムおよび統計分析(たとえば平均グレースケール)を行って、獲得された画像を進行的に更新される画像と比較する。また、アルゴリズムは、明るいスポットのパラメータ(大きさ、領域など)も活用して、異常光条件が存在するかどうかを決定する。
ステップ207では、最適検出パラメータが推定され、適応ピクセル・レベル・エッジ・マップが抽出される。様々な気象および昼/夜条件下では、飛行場または滑走路(106)の画像は非常に異なって見え得る。画像は、滑らかもしくは荒い、または反射が多い場合がある。このステップは、最小限のノイズで実際のFODまたは損害のエッジを抽出するために、最適なFODまたは損害のエッジ抽出閾値を適応的に推定することである。アルゴリズムは、元の(動作領域を除く)または進行的に学習された背景画像に基づく統計方法(たとえば平均、偏差)を使用して、ピクセルレベルの閾値マップの生成に使用するグレースケールのルックアップテーブル(LUT)を決定する。
ステップ209では、時間的フィルタリングを大量のエッジマップに適用して、ノイズが減少したロバストエッジを保持する。時間的フィルタリングはピクセルレベルで適用する。蓄積されて特定の閾値を通過したピクセルのみがロバスト・エッジ・ピクセルとみなされる(ロバスト・エッジ・マップで使用される)。明滅するピクセルは蓄積されて閾値を通過することができず、したがって削除される(ロバスト・エッジ・マップで使用されない)。
ステップ211では、適応背景学習は、背景学習の無限インパルス応答(IIR)の原理を使用して行う。
:時間tでの背景画像であり、
t−1:時間t−1での背景画像であり、
:時間tでの現在の画像であり、
この場合、背景画像は
=Bt−1*α+I*(1−α)
によって更新される。
システムは、背景学習に主にエッジマップを使用する。学習された特長には主に中央燈が含まれ、低いカメラ角度が原因で一部の端燈が滑走路領域内にわずかに入る。適応背景学習の主な目的は、誤認警報を生成せずに、背景に溶け込ませるために滑走路上のゆっくりとした特長変化過程を獲得すること、および翌日に背景エッジマップとして使用するために学習された背景エッジマップをファイルまたはデータベースに毎日保存することである。これにより、システムが滑走路のマーキングの変化にできる限り素早く適応することが可能となる。
ステップ213では、複合背景エッジマップが得られる。複合背景エッジマップは飛行場滑走路/誘導路のマーキングを表す。複合背景エッジマップは、適応背景エッジマップ、前日の保存された背景エッジマップ、および任意選択で季節的なマーキング(季節的なマーキングは雪などの特定の季節または気象条件中に生成される)からなる。これらを単純に加算するか、またはさらに処理して、最終背景エッジを形成することができる。
ステップ215では、エッジマップと複合背景エッジマップとを比較することによって疑いのあるエッジを抽出する。このステップでは、ステップ213で処理された画像(複合背景エッジマップ)から滑走路/誘導路のマーキングのエッジが除去される。残ったエッジはおそらくFODまたは飛行場損害である。
ステップ217では、エッジフィルタリングを行って、FODまたは滑走路誘導路の損害の一部ではないが雪、雨または朝のグレアなどの他の気象条件が原因であり得るエッジの一部をフィルタリングする。気象条件はセンサおよび/または画像処理方法によって検出される。このステップは、これらの気象条件を検出するために1つまたは複数の選択可能なアルゴリズムを使用することを含み、たとえば、雨のために滑走路灯が点灯している場合は滑走路上に反射が生じる場合がある。特定のフィルタリングアルゴリズムが光を位置決定して反射エッジをフィルタリングする。
ステップ219で物体の分類を行って、ステップ217からの検出された物体が実際にFODまたは飛行場滑走路/誘導路の損害(弾孔、地下爆発、破砕、UXO)であるかどうかを決定する。物体の分類方法の一部の例は、パターンマッチング、ベイズ分類器、線形班別分類器、ニューラルネットワーク分類器、ファジー分類器およびニューラルファジー分類器、最近傍分類器である。また、飛行場滑走路/誘導路の損害が弾孔または地下爆発または破砕であるかを決定し、弾孔または地下爆発または破砕の周りの破片の量を検出および測定することによってその大きさを測定することも可能である。
ステップ217からのフィルタリングしたエッジを使用して、システムは関連する物体属性、たとえば、長さ、高さ、周長、領域、質感、色特性(色相および彩度)、光強度(グレーレベル)を抽出する。これらの物体属性は物体が分類の入力ベクターを形成して、検出された物体が実際にFODまたは飛行場損害であるかどうかを決定する。
ステップ221では、FODまたは飛行場滑走路損害が検出された後、管制塔または管制室内の操作員は、視覚警報および/もしくは音声警報ならびに/または無線警報(GSM、SMSもしくはMMSなど)のいずれかによってその警告を受ける。警報および/または無線警報を受信した際、操作員は監視カメラを検出されたFODまたは飛行場滑走路/誘導路の損害にズームする。FODまたは飛行場滑走路/誘導路の損害が確認された場合、別の警報(音および/または視覚)が管制塔または管制室内で作動される。また、FODの確認により、滑走路または誘導路の近くに位置する遠隔警報(音および/または視覚)も作動される。それに加えてまたはその代わりに、無線警報(GSM、SMSまたはMMSなど)を作動させて滑走路復旧チームに通知することもできる。すぐに飛行場復旧チームが復旧車両を派遣して、検出されたFODを片付ける、すなわち異物もしくは破片を取り除く、または飛行場滑走路/誘導路の損害を修復する。
図3Aおよび3Bは、本発明の一実施形態の詳細な流れ図である。ステップ301の処理を開始した際、ステップ302でシステムは初期化される。ステップ303では、監視カメラが飛行場の滑走路または誘導路の一部分の初期画像を獲得する。
画像を分析してすべての動作を検出する。本例の実施形態では、動作がまったくない画像のみを背景学習に使用し、最終的には参照背景画像としてデータベース内に記憶される。
ステップ305では、獲得された画像は、獲得された画像の前処理を行うために画像強調に供する。画像前処理の後、一部の顕著な滑走路灯以外は、画像中のすべてのピクセルはゼロとなる(白い滑走路の線および移動する雲または雨が原因でグレースケールの勾配の変化を有する領域に対応するピクセルを含めて)。
ステップ307では、昼から夜、または夜から昼の変化が存在するかどうかを調べるための検査を行う。たとえば、これはセンサまたはカメラの光強度の差異を監視することによって達成することができる。昼から夜または夜から昼の変化の光強度の変化は、通常は気象の変化が原因のものよりはるかに大きい。昼から夜もしくは夜から昼の変化または夜間条件が検出された場合は、ステップ309で異常光検出検査が行われる。ステップ311で異常光が検出された場合は、以前に獲得された画像は無視され、ステップ303から次の画像が獲得される。異常光が検出されなかった場合は、ステップ315で感知される様々な環境条件(たとえば、昼/夜、雨、雪、煙など)について、ステップ313で推定される最適な異物、破片または損害(FOD)の検出パラメータが導き出される。
たとえば、様々な環境条件(たとえば、昼/夜、雨、煙など)は1つまたは複数のセンサによって検出することができる。また、変更を行うために1つまたは複数の閾値が組み込まれた、カメラの絞り(iris)に基づくシステムを使用することもできる。たとえば、閾値は昼には50に設定することができ、夜には70まで上げることができる。また、時間フィルターを使用することもでき、昼であるか夜であるかを確認するために特定の値を一定期間維持させる。また、応用コンピュータシステムは、昼または夜の条件を確認するために、そのリアルタイムクロック(RTC)および電子カレンダーからの入力を含めた他の日時の入力を使用することもできる。
飛行場の滑走路または誘導路のマーキングは昼間および夜間で異なる。通常は夜間の方がマーキングが多い。夜のマーキングを昼のマーキングに優先する。
ステップ317は適応ピクセル・レベル・エッジ・マップの抽出(図4を参照)を提供し、最小限のノイズで実際のFODまたは損害のエッジを抽出するために、最適なFODまたは飛行場滑走路/誘導路の損害のエッジ抽出閾値がルックアップテーブル(LUT)から導き出される。
ステップ319(図3B)では、動作エッジフィルタリング行って静止エッジマップを生成する。ステップ321では、時間的フィルタリングを行ってロバスト・エッジ・マップを抽出する。蓄積されて特定の閾値を通過したピクセルのみがロバスト・エッジ・ピクセルとみなされる(ロバスト・エッジ・マップで使用される)。明滅するピクセルは蓄積されて閾値を通過することができず、したがって削除される(ロバスト・エッジ・マップで使用されない)。
ステップ323では、適応背景が学習されたかどうかを決定するための検査を行う。システムは背景学習にエッジマップを使用する。適応背景323が学習されていない場合は、ステップ325で適応背景エッジマップが初期化/更新される。ステップ327では、適応背景マップが事前に定義された条件に達成するかどうかを決定するための検査を行う。達成していた場合は、ステップ329で表示がフラグされて、適応背景が学習されたことを通知する。達成していない場合は、処理はステップ303(図3A)に戻り、画像を獲得し続ける。
適応背景323が学習されている場合は、ステップ331で複合背景エッジマップが生成される。複合背景マップは、ステップ325で生成/更新された適応背景マップ、以前に保存された昼/夜背景マップ、およびステップ302(図3A)で処理が初期化された後にステップ333で提供される季節的マーキングマップからなる。季節的なマーキングは、特定の季節または気象条件(たとえば、雪または雨)下での滑走路のマーキングに関連している。画像を処理することまたは外部センサを使用することによって、誤認警報を減らすためにシステムは季節または気象条件を同定することができる。複合背景マップには滑走路のマーキングが含まれる。
ステップ335では、複合背景マップとエッジマップとを比較することによって疑いのあるエッジマップを抽出する。ステップ337では、エッジフィルターを適用して、雨が原因の反射などの突然の環境変化に関連する所望しないエッジをすべてフィルタリングする。たとえば、雨条件下では、滑走路灯の画像は、FODまたは飛行場滑走路/誘導路の損害に類似し得る明るいスポットとして検出される場合がある。システムは、以前に記憶された画像と比較することによってそのような潜在的な誤認警報を検出することができる。
ステップ337の後、適応背景マップはステップ339で更新され、ステップ341で、昼から夜の変化、または夜から昼の変化が存在するかを調べるための検査を行う。昼から夜の変化、または夜から昼の変化が存在する場合は、ステップ343ですぐに使用するための最後の昼または夜の背景マップが読み込まれ、ステップ345で適応背景マップが翌日に使用するための昼/夜の背景エッジマップとして記憶される。ステップ341で昼から夜の変化、または夜から昼の変化が存在しない場合は、処理はステップ303(図3A)に戻り、画像を獲得し続ける。
ステップ347では、ステップ337からのフィルタリングした疑いのあるエッジマップからエッジパラメータ(大きさ、領域など)が計算される。ステップ349では、エッジパラメータが閾値を超えるかどうかを決定するための検査を行う。超える場合は、ステップ351で、滑走路上の疑いのある領域をビデオディスプレイ上でオーバーレイし、管制塔または管制室内の操作員は音シグナルおよび/または視覚的ならびに/あるいは無線警報(GSM、SMSもしくはMMS、または3Gなど)のいずれかによってその警報を受ける。ステップ353では、警報を受けた際、操作員は、視覚検証のために監視カメラを使用してパンおよび/またはチルトおよび/またはズーム操作を行う。ステップ353では、FODまたは飛行場滑走路損害が確認された場合、357で飛行場滑走路復旧チームが無線手段(GSM、SMS、もしくはMMSまたは3Gなど)によってすぐに通知される。FODまたは飛行場滑走路/誘導路の損害の画像はビデオディスプレイ上に表示され続け、警報シグナルはステップ359で復旧チームがFODを飛行場滑走路から回復または片付ける(すなわち異物もしくは破片を取り除く、または飛行場滑走路/誘導路の損害を修復する)まで持続する。
図4は、上述のステップ207(図2)およびステップ317(図3A)で適応ピクセル・レベル・エッジ・マップを抽出するために使用するルックアップテーブル(LUT)を示すグラフである。
P1、P2〜PnおよびT1、T2〜Tnは、獲得された画像、進行的に学習された画像および外部センサ入力の統計分析に基づいた推定であり、これにより、最小限のノイズでFODまたは損害のエッジマップを抽出するために使用するピクセルレベルの閾値を生成するための最適区分的ルックアップテーブル(LUT)が計算される。
獲得された画像または進行的に学習された背景画像中のピクセル値を上記LUTによって閾値画像中の閾値にマッピングする。その後、獲得された画像はこの閾値画像を減算する。0を超えるすべてのピクセル値を255に設定する。この生じた画像は適応ピクセル・レベル・エッジ・マップに対応する(図2のステップ207および図3Aのステップ317)。
滑走路のシーン較正および飛行場滑走路/誘導路の損害、ならびにFODおよび損害の位置決定、測定ならびに/または分類を本発明の実施形態で行い得る。
また、本発明の実施形態はカラー監視カメラも使用し、カラーイメージング処理を提供する。
しかし、上述のすべての技法および画像処理方法は、白黒画像処理およびカラー画像処理のどちらにも機能する。したがって、滑走路監視システムは白黒カメラ(可視スペクトルカメラ、赤外線カメラおよび熱イメージング装置が含まれる)またはカラーカメラのどちらを使用することもできる。
例示的な実施形態において監視カメラによって獲得された飛行場滑走路/誘導路のシーン画像は、シーン画像上のそれぞれのピクセルに対応する物理的な位置および範囲が、数式、または滑走路のシーン画像中のそれぞれのピクセルを滑走路などの監視領域上に定義された参照データ(WGS84もしくは空港グリッドなど)の2Dもしくは3Dの物理的実世界座標フレーム(x,y,z)中の特定の正確な座標にマッピングする、事前に計算されたルックアップテーブルのどちらかを使用して計算されるように、事前に較正されている。
システムは、滑走路のシーン較正のために静止飛行場滑走路/誘導路特長を活用する。たとえば、何らかの固定された実世界参照位置に対するこれらの静止滑走路特長の位置および範囲を、地上測量、物理的測定または滑走路マップから事前に決定することができる。たとえば、1つのそのような有用な特長は、マーカーを配置すること、または滑走路の縦方向に沿った、滑走路の側方から同じ垂直(y軸)距離の滑走路上の滑走路端燈を使用することである。これらのマーカーは滑走路の縦(水平)方向に沿っており、滑走路の側方から同じ垂直距離であるため、これらのマーカーの水平(x軸)距離分離も滑走路のシーン画像中のピクセル計数にマッピングすることができる。したがって、水平(x軸)ピクセルマッピング比(メートル/ピクセル)は、2つのマーカー間の物理的な地上水平距離を水平ピクセル幅(滑走路画像上の2つのマーカー間のピクセル数)で除算することによって導き出すことができる。既知の位置を有する最低2つの静止滑走路特長を使用してそれぞれのシーン画像を較正することができる。
たとえば、より正確なシーン較正のため、および不均一な滑走路表面に対応するために、好ましくは数対の滑走路マーカーを滑走路の縦方向に沿って(滑走路の側方から同じ垂直距離で)配置して、滑走路上に一連の仮想水平線を印す。これらの水平仮想線の地上物理的距離(それぞれのマーカー対の間)は、巻尺または測定ホイールまたはGPS受信機を使用して測定することができる。特定のカメラ設定におけるこの水平仮想線上のピクセル数は、滑走路のセクション画像から測定される。
たとえば、滑走路上の監視カメラの視野は台形形状を有する。したがって、滑走路画像のピクセルマッピング比(メートル/ピクセル)は滑走路の垂直方向(Y軸)にわたって異なる。したがって、滑走路の遠方側はより狭く、より大きなピクセルマッピング比(メートル/ピクセル)を有する一方で、手前側はより幅広く、より小さなピクセルマッピング比(メートル/ピクセル)を有する。システムは、中央線の両側の2本の平行な水平滑走路の線および中央線を活用して、画像ピクセルを使用したデータ(WGS84、空港グリッドまたはデカルト座標系であることができる)に基づいて、実世界参照座標フレーム上の正確な座標へとマッピングするための正しいピクセルマッピング比(垂直なy軸用)を決定する。したがって、滑走路の水平線と中央線との間の物理的垂直(y軸)距離は地上で測定できるため、垂直ピクセルマッピング比(メートル/ピクセル)は、これらの線の間の物理的垂直距離(地上で測定)を、これらの線の間のピクセル数(滑走路画像上で垂直ピクセル幅から誘導)で除算することによって導き出すことができる。
図7は、例示的な実施形態による例示的な滑走路の線を例示する模式図である。滑走路の遠方側に1本の水平滑走路線(802)が存在し、滑走路の手前側に別の水平滑走路線(803)が存在する。802は遠方側の滑走路縁線であることもでき、803は滑走路の手前側の滑走路縁線であることもできる。これらの線(802、803)はどちらも中央線(801)に平行であり、これらの線はすべて滑走路の水平方向(x軸)に沿っている。手前側の水平線(803)と中央線(801)との間の物理的垂直距離は805であり、滑走路画像上のこれら2本の線の間の垂直ピクセル幅(ピクセル数)はy1ピクセルである。したがって、手前側の垂直ピクセルマッピング比は、805をy1で除算することによって得られる(メートル/ピクセル)。同様に、遠方側の水平線(802)と中央線(801)との間の物理的垂直距離は804である一方で、滑走路画像上のこれら2本の線の間の垂直ピクセル幅(ピクセル数)はy2ピクセルである。したがって、滑走路の遠方側の垂直ピクセルマッピング比は804をy2で除算することによって得られる(メートル/ピクセル)。したがって、2つの異なる垂直(y軸)ピクセルマッピング比(805/y1および804/y2)を使用して、中央線を参照として使用してピクセルが滑走路の手前側または遠方側にあるかに応じて、滑走路画像上のピクセルを実世界参照座標フレーム上の正確な座標へとマッピングする。
上記技法は、ピクセルマッピングの正確性を改善することができる。較正は、様々な実世界座標データ、たとえば、WGS84、空港グリッドまたはデカルト座標系に基づくことができる。
滑走路の縁/中央/水平の線は任意の色であることができる。滑走路の縁/水平/中央の線と滑走路表面との間にコントラストが存在する限りは、較正を行うことができる。さらに、滑走路の縁および中央の線は連続的である必要はない。連続的な線は、隣接線を補間することによって導き出すことができる。
本発明の代替実施形態は、任意選択でまたはそれに加えて、一対の監視カメラを使用した立体視を活用して、滑走路の同じセグメントをカバーすることができる。立体視を使用する場合、飛行場滑走路/誘導路の損害またはFODの範囲および位置は、滑走路上の監視領域(視野)上の同じ領域をカバーしている2台のカメラによって獲得された2つの画像を比較することによって得られた差分画像から計算することもできる。
立体画像対のそれぞれの画像中で局所的な特長を検出し、その後、画像間でマッチさせる。これにより、疎らであるが高品質な相違ベクトル組がもたらされる(これは、それぞれの画像中でみられる画像特長の相対位置を測定するものである)。これらの相違ベクトルから、特長位置の2Dおよび3Dの推定を計算し、滑走路表面の平坦な(または少なくとも滑らかな)モデルと比較することができる。あるいは、画像をピクセルレベルで登録し、より可変的な品質のために密な相違ベクトル組を提供することができる。
立体イメージングの課題のうちの1つは、範囲の計算に使用した2つの画像の対応の決定である。用いられるピクセル対応技法には、相互相関演算子の使用、関係制約を用いた記号マッチング、およびこれらの技法の組合せが含まれる。
たとえば、一組の立体カメラによって獲得された2つの画像(画像1、画像2)間でピクセルを相関させる必要がある場合は、相互関連は、画像1中の所定の点P1に対して画像2の固定領域があり、画像2中にはP1に対応する点P2が存在しなければならないという仮定に基づいている。この領域の大きさは、カメラの較正処理から得られたカメラ設定に関するパラメータによって決定される。対応を決定するための記号マッチング手法では、一方の画像中の特長にマッチする他方中の特長を検索する。使用される典型的な特長は、分岐点、線セグメントまたは領域である。分岐点の対応は疎らな深度マップを生じ、深度は小さな点集合でのみ知られている。線セグメントの対応は、その端点間の対応をもたらすことができる。
一代替実施形態は、飛行場滑走路および/または誘導路および/またはインフィールドの広域カバレッジを提供するために、広角レンズを備えた1つまたは複数の静止監視カメラを活用する。静止監視カメラは、任意の飛行場の侵入、襲撃または爆撃を検出し、1つまたは複数のパン・チルト・ズーム(PTZ)カメラを飛行場滑走路/誘導路上の検出された損害またはFODの特定の領域(複数可)に向けさせて滑走路損害(弾孔、地下爆発、破砕、UXO)およびFODの迅速な検出/測定/分類を可能にすることができる。
また、本発明の代替実施形態は、飛行場滑走路/誘導路の上空を飛行して飛行場滑走路/誘導路の航空デジタル画像またはビデオを獲得する、無人航空機または無人航空車両(UAV)などの航空機も活用することができる。また、滑走路および/または誘導路の上空を飛行して飛行場滑走路/誘導路の航空デジタル画像またはビデオを獲得する垂直離着陸航空機(VTOL)も使用することができる。デジタル画像またはビデオは、UAVまたはVTOL上に装着された、搭載された電気光学センサ(EOセンサ)を活用することによって獲得される。EOセンサは受動的であることができ、人工照明の使用を必要としない。EOセンサによって獲得された、獲得ジタル画像およびビデオはリアルタイムで分析/処理されて滑走路損害(弾孔/地下爆発/破砕およびUXO)ならびにFODの検出/測定/分類を可能にする。夜間などの低照度条件下では、滑走路損害またはFOD検出能力を増強するために赤外線(IR)人工照明を使用することもできる。
また、本発明の代替実施形態は、赤外線(IR)照明器または可視スペクトル照明器も活用して、低視度および低周囲照度条件下(夜間など)で人工照明を提供する。IRまたは可視スペクトル照明器は、IRまたは可視スペクトル光の狭いフォーカスビームを、監視カメラ(複数可)によって走査されている飛行場滑走路/誘導路/インフィールドのセクターにもたらす。また、IRまたは可視スペクトル照明器はパン、チルト、ズーム(PTZ)能力も有することができる。IR照明器または可視スペクトル照明器の制御(オン/オフ、光力、PTZ)は、低視度条件下での最適な人工照明のためにビデオ・プロセッサ・ユニット(VPU)または中央コンピュータシステム(CCS)によって制御することができる。
本発明の代替実施形態は、監視カメラの冗長カバレッジを提供する。図5は、滑走路上のFODまたは損害を検出するための監視システム(600)における監視カメラの冗長カバレッジを例示する模式図である。監視カメラ(601、603、605、607、609)は誘導路(104)の片方の端に位置する。すべての監視カメラ(601、603、605、607、609)が正常に機能している場合は、それぞれの監視カメラ(601、603、605、607、609)のカバレッジ角度(画角)(611)は通常は等しく保たれる。カメラ(603)が故障および冗長となった場合、冗長カメラ(603)に隣接する監視カメラ(601および605)のそれぞれの通常のカバレッジ角度(画角)(611)は、冗長カメラ(603)の視野に向かって613まで広がる。このようにして、監視カメラ(601、603、605、607、609)からなる飛行場滑走路/誘導路の監視システムは、1つまたは複数の監視カメラが機能しない場合でも飛行場滑走路の完全なカバレッジが提供されるように機能するよう操作可能である。たとえば、カメラのカバレッジ視野(画角)は、手動で調節するか、または操作員によって、カメラのズームもしくはPTZ機能を遠隔制御する応用コンピュータシステムを使用して遠隔で行うことができる。また、調節は応用コンピュータシステムによって自動的に行うこともできる。たとえば、ズーム機能を有するカメラまたはパン・チルト・ズーム(PTZ)カメラを使用してカバレッジ視野(画角)を変更し得る。
図6は、代替実施形態による滑走路表面の走査を例示する模式図である。
監視下の滑走路表面領域(700)は滑走路表面(700)上の小さな領域をカバーする数々のセグメント(702)へと分割されている。水平画角(711)を有する視野をカバーすることができる1つまたは複数の非静止カメラ(708)を使用して、滑走路表面(700)領域全体がセグメント毎に走査される。非静止カメラの例はパン・チルト・ズーム(PTZ)カメラまたはズームカメラである。PTZカメラのパン・チルト・ズーム機能またはズームカメラのズーム機能は、応用コンピュータシステムまたはカメラ制御装置によって遠隔制御されている。滑走路表面領域(700)は、1つまたは複数の非静止カメラを使用することによって縦方向(703)に沿って一端(710)から他端(720)まで順次走査される。
代替実施形態による飛行場滑走路表面の走査は、応用コンピュータシステムまたはカメラ制御装置によって制御されている。この滑走路走査方法の課題は、特にFODまたは滑走路損害が走査サイクルの終わり近くのセグメントに位置している場合に、FODまたは滑走路損害の検出時間が長いことである。滑走路の走査サイクル時間を加速させるために、代替方法では、1つまたはさらには2つのセグメントを省略すること、すなわち、2つまたはさらには3つのセグメント毎に1つのセグメントを走査する。以前に走査しなかったセグメントは次の走査サイクル中に走査し、一方で以前のサイクル中に走査したものはこのサイクル中では走査しない。滑走路走査方法の代償は、滑走路表面上の走査していないセグメントに存在するFODを検出するために長い検出時間がかかることである。
滑走路上のFODは主に航空機の離着陸に起因するため、代替実施形態においてFOD検出時間を短縮するための別の方法は、非静止または静止監視カメラの組合せを活用することである。静止カメラは、好ましくは、滑走路および/または誘導路の重要なセクションをカバーするために十分に広い視野(広い画角)を有する。静止監視カメラによって獲得された画像をリアルタイムで処理することによって、応用コンピュータシステムは滑走路上の航空機の離着陸の発生および位置を検出することができる。その後、非静止監視カメラは、応用コンピュータシステムによって、航空機の着陸または離陸が先ほど起こった滑走路上の特定の位置をカバーするセグメントを最初に走査するように指示されることができる。この方法は、FOD検出時間の短縮を援助することができる。
静止監視カメラがFODまたは飛行場滑走路損害を検出した場合は、管制塔または管制室内の応用コンピュータシステムが、静止カメラによって獲得されたシーン画像に基づいて滑走路上の検出されたFODまたは滑走路損害の位置および範囲を決定する。飛行場滑走路/誘導路表面上の検出されたFODまたは飛行場滑走路/誘導路の損害の位置および範囲の決定は、滑走路の較正されたシーン画像を用いたモノスコープビジョンを使用することによって達成する。たとえば、較正された滑走路のシーン画像中で、それぞれのピクセルを実世界座標フレーム上の正確な座標にマッピングする(WGS84または空港グリッドデータに基づくことができる)。あるいは、ステレオスコープビジョンに基づいた物体の位置決定および範囲決定技法を使用することもできる。
静止監視カメラ(モノスコープまたはステレオスコープ)によって検出されたFODまたは飛行場滑走路/誘導路の損害の範囲および位置に関する情報は、非静止カメラ(たとえば、パニングカメラまたはパン・チルト・ズーム(PTZ)カメラまたはズームカメラ)を自動制御してFODまたは飛行場滑走路/誘導路の損害または飛行場滑走路/誘導路上の目的領域にパンおよび/またはチルトおよび/またはズームおよび/またはフォーカスさせるため、ならびに検出されたFODもしくは飛行場滑走路/誘導路の損害の存在を確認するまたは誤認警報をフィルタリングするために十分な詳細を有するFODまたは目的領域または飛行場滑走路/誘導路の損害のビデオディスプレイの望遠写真画像を得るために、システムによって利用される。また、これらの望遠写真画像は、検出されたFODまたは飛行場滑走路/誘導路の損害の正確な測定、特徴づけおよび分類にも利用される。物体の長さ、高さ、領域、曲率、周長、質感、色特性を含めた正確な物体特長をこれらの望遠写真画像から抽出することができ、これらは事前に訓練した物体分類器への入力として使用することができる。
また、本発明の実施形態は、異物、破片または損害(FOD)、誘導路または滑走路損害を検出/測定/分類するためのシステム(100)(図9)と、兵器衝撃監視システムとを備える総合的飛行場および滑走路誘導路の損害評価システムとして使用するために拡張することもできる。
図9は、例示的な実施形態による、異物、破片または損害(FOD)、飛行場滑走路/誘導路の損害を検出するためのシステム(100)と、兵器衝撃監視システム(950)とを備える総合飛行場損害評価システム(952)を例示する模式図である。
図10は、図9の兵器衝撃監視システムを使用した衝撃検出システムを例示する模式図である。
飛行場に対する敵の攻撃の後、まず、すべての損害(たとえば1003)が検出され、兵器衝撃監視システムの静止カメラ(951)からのビデオまたは画像データを入力として使用して情報を飛行場設計図(1000)上にプロットする。その後、航空機の種類、積載量および周囲条件に応じて最小飛行場稼働表面(MAOS)および/または最小稼働仮設滑走路(MOS)(1007)、ならびに飛行運用を再開させるために必要な最小量の初期修復作業を導き出す。MAOSおよびMOS(1007)の確立において、1つまたは複数、好ましくはすべての弾孔(1003)の大きさおよび位置、弾孔(1003)の位置への接近しやすさ、損害を受けた誘導路または進入路(1009)を介した航空機のMOS(907)への接近しやすさ、および不発爆弾(UXO)または弾孔(たとえば1011)の位置が考慮される。
本発明の実施形態は、以下を有利に提供することができる知的ビデオ/画像処理を利用する。
・飛行場滑走路/誘導路の損害(弾孔、地下爆発、UXO、破砕)およびFODのリアルタイム自動検出、
・飛行場滑走路/誘導路の損害項目(弾孔、地下爆発、UXO、破砕)およびFODの視覚検証および正確な位置、
・飛行場滑走路/誘導路の損害(弾孔、地下爆発、UXO、破砕)およびFODの大きさ/物理的属性の測定、ならびに
・飛行場マップまたは飛行場滑走路マップへの飛行場損害または飛行場滑走路損害の程度のマッピング。
知的ビデオ/画像処理に基づくシステムから導き出された集合情報は、好ましくは有効な決断支援システムを提供する。
コンピュータビジョンに基づく兵器衝撃監視システム(950)は、空軍、海軍および陸軍の現実的な武器訓練および防衛訓練を容易にするために、ロケットおよび爆弾の衝撃を自動的に検出してスコア付けする。監視システム(950)は、昼および夜のどちらに運用中の陸上および水上の単一または複数の打撃もスコア付けすることができる。兵器衝撃監視システム(950)は開放型アーキテクチャで設計されているため、空中戦操縦用計装(ACMI)と一体化させて電子戦闘訓練システム(EWTS)のサブシステムのうちの1つとすることができる。
先端戦闘損害評価(BDA)システム(950)の実施形態は、好ましくは以下に基づいて実装される。
・知的ビデオ/画像処理の技術経験、
・軍事および/または飛行場環境における現場で実証された、コンピュータビジョンに基づくシステムの適応、
・空軍に組み込むことができる、システム設計、ハードウェアおよびソフトウェアの信頼性およびロバスト性、
・戦時および平時における投資の回収の最適化に関する経済的実行可能性。
本発明の実施形態は、兵器衝撃監視システム(950)(図9)ならびに飛行場滑走路/誘導路の損害およびFODの検出システム(100)(図9)の統合によって先端自動BDAシステム(950)を提供する。
兵器衝撃監視システム(1000)(図10)は、単一または複数の目に見える兵器衝撃を飛行場領域の広角または普通角または挟角の視界角から自動的かつ正確に検出およびプロットする能力を有する。兵器衝撃シグネチャの種類には、通常は爆発、煙、埃または何らかの形態の閃光(夜間)などの目に見える衝撃を生成する、空対地および地対地のミサイル、ロケット、爆弾および砲撃の一斉射撃などに由来するものが含まれる。兵器衝撃監視システム(1000)は兵器衝撃によって生じる音も活用して兵器衝撃の位置を決定し得ることが可能である。これは、マイクを戦略的な位置に配置し、音源追跡技法を使用することによって達成することができる。
他方では、飛行場滑走路/誘導路の損害およびFODの検出システム(100)(図9)は、飛行場内滑走路/誘導路/エプロン環境内の非常に小さな物体(たとえば4cmの大きさのFOD)、UXO、飛行場滑走路/誘導路の損害(弾孔、地下爆発、破砕)および舗装状態(たとえば亀裂)を走査、検索および検出するように事前にプログラミングされたズームイン視界を備えて有利に設計されている。特殊電気光学(EO)センサを備えたFOD検出システム(100)(図9)は24時間稼働し、画像処理および強調ソフトウェア技術と一体化して、システムが夜間の稼働中でさえも非常に小さな物体を「見て」検出することを可能にする。飛行場滑走路/誘導路の損害およびFODの検出システム(100)(図9)は飛行場の指定された舗装路を安全な距離から遠隔で監視および検査し、検出された標的の位置を正確に示す。
図11は、図9の総合飛行場損害評価システム(952)で使用されるソフトウェアモジュールを示すレイアウトを示す。BDAソフトウェアは、変化する環境的飛行場条件に強い複数のソフトウェア技法を使用して変化するシーンを自己学習してそれに適応し、爆撃(弾孔、地下爆発、破砕)もしくはUXOまたはFODのシグネチャを潜在的な誤警報から識別することができる。検出アルゴリズムが長さ、高さ、深度、周長、領域、質感、曲率、色特性(色相および彩度)、光強度(グレーレベル)などの標的の関連属性を抽出して、標的を決定および測定する。例示的な実施形態において用いられている技法の一部には以下が含まれる。
・動的背景モデリングおよびシーン変化検出技法に基づく知的ビデオ分析。滑走路上のタイヤ跡さえも、確実な検出のために背景シーンに常に更新される、
・気象の変化、熱波などの影響が原因のビデオまたは画像のノイズ構成要素を低下(減弱)させるためのノイズフィルタリング処理、
・分析/処理のために微光/視界不良条件下で最良品質の画像を生成するための画像集約技法、
・静止標的を飛行場滑走路/誘導路上の航空機、車両、人、野生生物などの正当な移動物体から区別するための静止標的検出、
ならびに
・連続的な自己学習および昼から夜への環境変化、曇り影や雨、雪などのシーン変化に適応するために適用された人工知能技術。
同時に、別個の専用センサから同時画像処理が行われる。
・兵器衝撃監視およびスコア付けに使用されたセンサ(951)(図9)の入力からの処理:アルゴリズムは、実際の同定可能な兵器衝撃シグネチャを他の背景効果から検出および区別するために、最初に滑走路/誘導路の指定された広域視野を分析する。検出された際、ソフトウェアは視覚および音声警報を作動し、衝撃点の特定の位置で詳細な画像またはビデオを獲得するように、FODセンサ(108)(図9)のパン−チルト−ズーム機能に指令を出す。FODおよび損害の検出アルゴリズムは損害の程度を検索、検出および測定する、ならびに
・FODセンサの入力からの処理:アルゴリズムは、飛行場の滑走路または誘導路の舗装路の指定されたズームイン視界をセクター毎に走査および分析し、弾孔、地下爆発、破砕またはUXOを検出するように事前にプログラミングされている。検出された際、ソフトウェアは画像またはビデオを獲得し、正確な位置を計算し、ユーザに対する視覚および音声警報を作動した後に、滑走路または誘導路の次のセクターの検査を続ける。
ピクセルレベルの画像分解能によって、BDAソフトウェアは、好ましくは±1m(3.28ft)の位置の正確性で弾孔、地下爆発、破砕もしくはUXOまたはFODを位置決定すること、および弾孔/地下爆発/破砕/UXO/FODの大きさ/寸法を測定することができる。
それ以降、ソフトウェアは、検出された弾孔、地下爆発、破砕もしくはUXOまたはFOD(1003)(図10)のスナップショットを獲得し、発生日時、弾孔/地下爆発/破砕/UXO/FOD標的(1003)(図10)の座標および大きさを示し、検出を二次元(2D)のグラフィカル情報システム(GIS)マップ(1000)(図10)上にプロットおよび表示することができる。
さらに、すべてのセンサ(951および108)(図9)からのリアルタイムビデオ画像は、戦闘損害の程度、滑走路および誘導路の状態ならびに舗装状態を評価するためにユーザが利用可能である。
図11を参照して、BDAシステムモジュール(1103)は兵器衝撃監視システムモジュールおよびFOD検出モジュールを一体化する。これは例示的な実施形態における開放型標準モジュール設計のおかげで可能であり、拡張性、保守性、カスタマイズ、およびトラブルシューティングの容易さを有利にもたらす。
例示的な実施形態における主要なモジュールは以下のとおりである。
・飛行場の標的領域のビデオまたは画像を獲得する兵器衝撃監視システムのEOセンサ(EOS)モジュール(1129)。
・FODおよび損害の検出システムのPTZレベルに飛行場上の特定の標的領域を走査(パン/チルト/ズーム)するよう指令を出すための、飛行場監視システムのEOセンサ(EOS)およびパン−チルト−ズーム(PTZ)モジュール(1131)(FODおよび損害の検出用)。
・EOセンサおよびPTZセンサからの画像をVPU(有線/無線)に伝送するための画像伝送モジュール(1133)。
・画像の品質およびフレームレートを検査、補正および細かく時間決定する(fine−time)ための画像収集モジュール(1135)。
・各フレーム内の参照マーカーを検出し、センサの振動に遭遇した際に画像をその元の位置に戻して安定化/回復するための画像安定化モジュール(1137)。
・前景抽象化モジュールにおいて使用する、各フレーム内の参照背景画像を作成および更新するための参照画像計算モジュール(1139)。
・画像ピクセルの顕著な変化を検出するために現在のフレームを参照背景画像から減算するための前景抽象化モジュール(1141)。
・兵器衝撃が検出された際にいくつかの連続的なフレーム内で見つかるパターンに基づいて検出された顕著な変化を同定するための衝撃検出モジュール(1143)。
・物体(FODまたは飛行場損害など)が検出された際に様々な属性に基づいて検出された顕著な変化を同定するためのFOD検出モジュール(1145)。
・検出されたFODまたは損害の位置(弾孔の位置、地下爆発、破砕、UXOの位置が含まれる)を抽出するためのBDA位置抽出モジュール(1147)。
・FODまたは損害(弾孔、地下爆発、破砕、UXOが含まれる)の物理的寸法を測定するためのBDA大きさ測定モジュール(1149)。
・最良の(最適な)MAOSおよびMOSを計算するための最良MAOSおよびMOS計算モジュール(1151)。
・最良MOSおよび/またはMAOSに必要な修復作業の推定および計画を含めて、必要な修復作業を推定および計画するための修復の推定および計画モジュール(1153)。
・調査/分析のためにビデオ映像の記録および再生を可能にするための記録モジュール(1155)。
・ビデオまたは画像および計算された飛行場損害データをグラフィカル・ユーザ・インタフェース上に表示するための表示モジュール(1157)。
図12は、戦時中の図11のソフトウェアモジュールの対話を示すレイアウトを示す。本発明のBDAシステム(952)(図9)の実施形態は戦時中に以下の利点を提供することができる。
BDAシステム(952)(図9)は飛行場爆撃の24時間検出を提供し、戦時中に弾孔、地下爆発、破砕、UXOおよびFODを位置決定および測定する。軍事活動中に被る飛行場/滑走路上の損害の適時かつ正確な評価は戦時中には重大である。飛行場(滑走路および誘導路が含まれる)に与えられた物理的損害の程度に関する情報を提供することによって、航空機の離着陸の再計画および飛行場滑走路/誘導路の修復の優先順位づけが有利に容易となる。
ピクセルレベルの分析によって、BDAシステム(952)(図9)は自動的に爆撃を検出し、位置を決定し、弾孔、地下爆発、破砕、UXO、FODの大きさを正確に測定する。この情報に基づいて、ユーザ(飛行場の指揮官)は飛行場滑走路/誘導路の損害を最速で修復するために必要なリソース、時間および材料を評価および決定することができる。
さらに、BDAシステム(952)(図9)は飛行場損害の程度のマッピングを提供することができる。
弾孔の大きさおよび位置の情報の自動分析によって、システム(952)は飛行場損害の程度を2D飛行場マップ上にマッピングし、ユーザが以下を含めた飛行場滑走路/誘導路全体の運用状況を決定することを知的に支援する。
a.滑走路上の弾孔、地下爆発、破砕、UXO、FODの量、位置および大きさ、
b.航空機の離陸/着陸運用に使用可能な滑走路の位置/「仮設滑走路」、
c.損害を受けており修復作業を必要とする滑走路の位置/「仮設滑走路」、ならびに
d.航空機の種類および隊の位置に基づいて推奨される最小飛行場稼働表面(MAOS)および最小稼働仮設滑走路(MOS)。
BDAシステム(952)(図9)は、地上および空中システムのどちらにもまったく危険/妨害なく、すべての飛行場環境での運用に安全な「受動的」システムである。これは完全に非侵入型であり、能動的放出がなく、能動的光源によって支援されない。人に健康上の危険をもたらさず、地上および航空機内のすべての既存の機器もしくは将来のシステムの実装に運用上の妨害を与えない。「能動的」システムとは異なり、提案された「受動的技術」は、高速対レーダーミサイル(HARM)からの攻撃を回避するため、戦争中に空軍基地において特に重大である。
BDAシステムの実施形態は、飛行場、滑走路および誘導路を保護するために、すべての気象条件下で24時間稼働するように設計および構築することができる。BDAシステム(950)(図9)の実施形態は、昼間および夜間の稼働のどちらでも非常に小さな物体(FOD)および滑走路誘導路の損害(弾孔、地下爆発、破砕、UXO)を「見て」検出することが現場で実証されている。BDAシステムの実施形態は、煙霧(空気汚染指数120、可視距離200メートル)および大雨(28mm/時)の極端な気象条件下で有利に行われる。
BDAシステムの実施形態は、戦時中のシステムの生存性を高めるために部分的または包括的な重複カバレッジを有する冗長で設計することができる。
冗長を提供するために、FODまたは損害の検出センサ(508および509)(図1B)は数百メートル間隔で、滑走路の対向する側に設置される。いずれかのセンサが故障した場合、隣接および/または対向のセンサが、故障したセンサによって監視されるはずの「失われた」セクターのカバレッジを提供し続ける。
さらに、後置システムには、予定外のダウン時間を最小限に短縮するために冗長サーバー(複数可)が含まれる。故障した構成要素の適時の交換を可能にするために、緊急予備部品が提案される。
図13は、平時中の図11のソフトウェアモジュールの対話を示すレイアウトを示す。本発明のBDAシステムの実施形態は平時中に以下の利点を提供することができる。
飛行場滑走路上の走査/弾孔の検索/UXOの測定に加えて、FOD EOセンサ(108)(図9)は他のFODならびに滑走路/誘導路の損害(地下爆発および破砕など)も検出することができる。これはFODおよび滑走路損害の検出をリアルタイム基準で自動化し、空軍基地の状況認識および作戦即応性の増強を助ける。組込み人工知能技術は、人が原因の誤りまたは自己満足が回避されるように、FODおよび滑走路/誘導路の損害の客観的かつ確実な同定を確かにする。
FOD EOセンサの採用は、操作員が超微光飛行場環境で明確に見ることを可能にする。FOD EOセンサが飛行場監視に貢献できる状況の一部には以下のものがある。
重要監視状況
・飛行場滑走路/誘導路の侵入/攻撃
・飛行場、滑走路および/または誘導路の損害評価
・飛行場滑走路および/または誘導路の損害(弾孔、地下爆発、破砕、UX)およびFODの検出/測定/分類
・翼端の衝突
・航空機の破損
・緊急着陸/胴体着陸
・一般的監視状況
・一般的エアサイド監視
・滑走路表面状況の監視
・飛行場内(たとえば、航空機牽引、舗装または建設作業など)の安全性順守の強化
滑走路/誘導路の表面/舗装状態の監視
すべての他の空港システムと同様、滑走路および誘導路は長年の間に環境因子が原因で老朽化する。不定期の時間がかかる手動検査では、石材が失われた領域が一般的に見つかる。滑走路または誘導路の特定部分、特に航空機の離着陸領域が一般的に損傷しており、アスファルト/コンクリートの塊の顕著な剥離を伴っている。
FOD EOセンサは、滑走路および/または誘導路を連続的に検査し、滑走路および/または誘導路の表面の非常に高い分解能のズームイン画像を獲得するため、表面状況を精査して滑走路または誘導路の破片、顕著な亀裂または損害を検出する能力を有利に提供する。
たとえば、鳥衝突事故が地上レベルで起こる場合がある。いくつかの種類の鳥が年間を通して通常見られ、渡りの月間中には鳥の活動が典型的には増加する。本発明の実施形態は、滑走路および/または誘導路上の鳥の存在の検出に有効な場合があり、飛行場の操作員が地上での鳥衝突事故を防止することを助けるために有効な、決断支援システムを提供する。
また、例示的な実施形態における滑走路安全性は、好ましくは、滑走路をさまよう動物などの問題も考慮する。知的ビジョン技術を使用して、例示的な実施形態は、好ましくは、滑走路および/または誘導路上のヘビ、カメ、オオトカゲおよび他の野生生物を見つけ出す。航空機の安全性のために、滑走路および/または誘導路上の野生生物を検出する能力は、滑走路および/または誘導路を閉鎖し、滑走路から野生生物を捕まえてその危険を取り除くように地上クルーを派遣するよう、飛行場操作員に指示することができる。
図14は、例示的な実施形態による総合飛行場損害評価システムのハードウェアシステム(1400)のレイアウトを例示する模式図を示す。
統合BDAのハードウェアシステム(1400)(図14)は、電気光学(EO)システム(1401)と(1403および1409)からなる中央コンピュータシステム(CCS)とを備える。
EOシステム(1401)(図14)は、一連のEOセンサユニット(カメラ)(1405a〜d)およびそのそれぞれの専用ビデオ処理装置(VPU)(1407)からなる。EOセンサ(カメラ)(1405a)はタワーまたは建造物に装着されており、飛行場の標的領域を検査してそのライブビデオまたは画像を獲得する。一実施形態では、自動監視システムは広い視野を有するメガピクセル静止EOセンサを使用して滑走路/誘導路の700m(2,297ft)の長さまでをカバーする。一実施形態では、FODシステム(EOセンサユニット(1405b〜d))は、高透明度のズームレンズを備えたパン/チルト/ズーム(PTZ)超低照度EOセンサを適用して、滑走路/誘導路のセクターをサブセクター毎に調査/精査する。それぞれのサブセクターは約5.5m(18ft)であり、PTZ EOセンサのそれぞれがパンして滑走路/誘導路の350m(1,148ft)の長さまでをカバーする。それぞれのVPU(1407)はEOセンサユニットからのビデオ画像を処理するための専用のものである。このビデオが光学的送受信機を介してVPUにストリーミングされて画像処理される。VPU(1407)の出力は画像またはビデオおよびデータの両方を中央コンピュータシステム(CCS)の管理サーバー(1409)に伝送する。
ロバスト性のために、BDAシステム(1400)(図14)は2レベルの冗長設計機構、すなわち前置および後置の組込み冗長を提供してシステム運用の高い稼働率を確実にする。FODおよび損害の検出EOセンサ(108)(図9)および兵器衝撃監視EO(951)(図9)が滑走路の片側に設置されており、これらはすべて滑走路の中心線から少なくとも300m(984ft)離れている。兵器衝撃監視センサ(951)が爆撃によって打撃を受けた場合、FODおよび損害の検出センサ(108)は、FODまたは損害(弾孔/UXOなど)を検索、検出および測定するよう機能し続けることができる。同様に、FODおよび損害の検出センサが打撃を受けた場合、兵器衝撃検出(951)も飛行場滑走路/誘導路の損害を検出および位置決定することができる。
システム(1400)はどのようなEOセンサの機能不良も考慮して冗長を提供するため、十分なEOセンサの重複カバレッジが存在し、隣接EOセンサが不良EOセンサのバックアップのカバレッジを提供する。後置冗長は管理サーバーの故障を防止する。言い換えれば、管理サーバーは冗長のために(少なくとも)1つの対で設計および配置されている。高い稼働率を確実にするために、主サーバーが故障した場合には冗長サーバーが自動的に引き継ぐべきである。
例示的な一実施形態では、中央コンピュータシステム(CCS)は、管理サーバー(冗長を含む)(1409)、デジタルビデオ記録器(DVR)(1411)、操作員ワークステーション(1413)、管理者/維持者ワークステーション(1415)、および携帯用手持ち機器(1417)からなる。
管理サーバー(1409)は、ユーザアクセス制御、システム構成、警報構成、画像および関連情報の管理、データクエリ、ならびに報告書生成を含めたシステム運用の中央データベースである。管理サーバーが故障した場合は冗長サーバーがこの機能を引き継ぐ。DVR(1411)は、すべてのセンサユニットからの画像の連続的なリアルタイム・デジタル・ビデオ記録を提供する。一実施形態では、DVD(1411)は30日間記憶するサイズであり、必要に応じてビデオをDVDにアーカイブすることができる。この施設は分析および調査のためのビデオ再生を可能にする。
操作員ワークステーション(1413)は、システム(1400)のログイン、監視および運用のメイン・ユーザ・インタフェースとして役割を果たす。管理者/維持者ワークステーション(1415)は、ネットワークおよび機器の検診およびトラブルシューティングを実施するための技術支援に主に使用される。また、これは操作員ワークステーション(1413)が機能不良となった場合に運用のバックアップとしても機能することができる。
携帯用手持ち機器(1417)が地上支援クルーに支給され、それにより、クルーが弾孔を修復するまたは滑走路/誘導路から破片を取り除くために動員される前および/またはその間に、遠隔警報および重要情報(日時、場所、損害の大きさ、画像など)を受信することが可能となる。この情報により、地上クルーは十分なリソースおよび材料で応答し、標的の位置を迅速に発見するように準備する。
前置の電気光学システム(1401)はEOセンサ(1405a〜d)およびVPU(1407)からなる。滑走路/誘導路に沿ったすべてのEOセンサ(1405a〜d)は連続稼働用に電力供給されており、光ファイバーリンクを介して後置機器室に接続されている。それぞれのセンサ(1407)はファイバーリンクによってその専用VPU(1407)に接続されており、記録用にDVR(1411)にビデオ分配されている。
後置機器は、管理サーバー(1409)、DVR(1411)、スイッチ(1419)および操作員/管理者ワークステーション(1413、1415)からなる。ワークステーション(1413、1415)は、好ましくは地上運用コントロールセンターまたは飛行場指揮所に位置する。また、システム(1400)は、利用可能な場合はTCP/IP通信プロトコルを使用した既存のLANネットワークを活用することもできる。ビデオはVPU(1407)によって処理され、たとえば弾孔が検出された際に、関連データを有する画像を管理(冗長)サーバー(1409)に伝送する。管理サーバーは警報ステータスを記憶し、弾孔を位置決定してその大きさを測定し、データを操作員ワークステーション(1413)上に提示する。ユーザが手動(ライブ)視界を選択した場合、リアルタイムビデオが選択されたセンサからストリーミングされる。調査目的には、ユーザは記憶された記録をDVRからダウンロードして分析のためにビデオを再生することができ、たとえば、滑走路1つあたり1つの手持ち携帯用機器(1417)を地上クルーに支給することができる。
ユーザが標的を確認し、飛行場滑走路/誘導路の修復を開始する際、手持ち機器(1417)が、クルーが飛行場滑走路/誘導路の復旧または修復を準備するための画像を含めた重要情報を受信する。
BDAシステムの実施形態は、好ましくは以下の弾孔の大きさを検出することができる。
・小さな弾孔:小さなロケット、大砲発射、着発信管兵器からの10cm〜1.5m
・中程度の弾孔:クラスター兵器、大きなロケット、小さなコンクリート貫通爆弾からの1.5m〜6m
・大きな弾孔:>遅発信管兵器、大きなコンクリート貫通爆弾からの6m
弾孔以外に、BDAシステムは滑走路および誘導路上の地下爆発、破砕、UXOおよびFODも検出および測定することができる。
一実施形態のBDAシステムの作業ワークフローを以下に説明する。
a)専用静止EOセンサユニット(1405a)からのビデオまたは画像がリアルタイムで自動的に獲得および処理されて兵器衝撃の確実な同定を提供し、専用パニングEOセンサユニット(1405b〜d)からのビデオがリアルタイムで自動的に獲得および処理されて検出された損害/UXO/FODの確実な同定を提供する、
b)滑走路/誘導路の完全な評価のためにビデオおよび警報が地上運用コントロールセンターまたは指揮所において単一の視界で表示される、
c)検出されたすべての爆撃、弾孔、地下爆発、破砕、UXOまたはFODが自動的にハイライトされ、操作員ワークステーションで警報が出される。静止EOセンサ(1405a)によって兵器衝撃が検出された際、パニングEOセンサ(1405b〜d)がその位置に向けられてFODまたは飛行場損害のズームイン測定を行う。
d)視覚検証のために、検出された標的のコンピュータ支援ズーム画像ならびに関連する位置および大きさの情報が操作員ワークステーションで表示される。
e)航空機の種類および隊の位置に基づいて、システムが優先的な修復について最小飛行場稼働表面(MAOS)および最小稼働仮設滑走路(MOS)を推奨する。
f)ユーザによって確認された際、GSMまたは3G移動通信ネットワークによる無線手段を介した遠隔警報が、地上支援または修復クルーが保有する手持ち機器に送信される。手持ち機器は、日時、弾孔/地下爆発/破砕/UXO/FODの位置(複数可)、弾孔/地下爆発/破砕/UXO/FODの大きさ(複数可)、修復の分類および優先度などの情報を提供する、
g)ユーザは航空機の離着陸を停止させ、弾孔/地下爆発/破砕を修復するまたはUXO/FODを滑走路/誘導路から取り除くために地上クルーを派遣する、
h)修復/除去が完了し、滑走路が運用を再開した後、報告書生成および事後分析/調査のためにビデオ、画像および警報の記録を読み出すことができる。
国際民間航空機関(ICAO)および連邦航空局(FAA)の規制基準の下、重要な航法機器のみが滑走路の中心線から150m(492ft)以内に設置することが許可されており、すべての他の必要な設置物は492ftの印の先で1:7の高さ制限に従わなければならない。本発明のBDAシステムの実施形態は、好ましくはICAO、FAAおよび他の空軍基準に準拠する。
また、本明細書中に上述した本発明の実施形態は、雨が原因の背景クラッタのフィルター除去も提供することができる。典型的には、雨クラッタは滑走路または誘導路上の局所領域のみではなく、滑走路全体にわたっても起こる。また、雨は、滑走路のシーン画像中で雨が滑走路表面に当たった際のしぶきなどの特定の特徴を有する動作クラッタも引き起こす場合がある。したがって、雨クラッタをフィルター除去するための一方法は、滑走路全体にわたって起こる雨様の特徴を用いて、滑走路または誘導路シーン中の動作クラッタを検出および認識することである。雨クラッタは静的でなくフレーム間で異なるため、時間的フィルタリングを使用して雨クラッタをフィルタリングすることもできる。このようにして、滑走路または誘導路全体にわって起こる雨様の特徴を有する動作クラッタは雨クラッタとしてフィルター除去される。また、代替実施形態では、上記原理を応用して、雪が原因の背景クラッタもフィルタリングすることができる。したがって、滑走路全体にわたって起こる雪様の特徴を有する動作クラッタは、時間的フィルタリングを使用して雪クラッタとしてフィルター除去される。
本発明の例示的な実施形態では、監視カメラから得られた参照背景画像にエッジ検出技法を使用して前処理して、システムを照明の変化、クラッタおよびに対してより回復力のあるものにし、誤認警報を減らす。
エッジの強調および検出技法を使用して滑走路または誘導路の特長のエッジを同定する。画像中のエッジとは、ピクセル特性が突然変化する箇所を横断する外郭である。エッジの強調および検出を使用して、背景減算および/または学習に基づいて前景ピクセル同定における照明の変化に対する回復力を改善する。
上述の本発明の実施形態は、以下の特長のうちの1つまたは複数を有することができる。
−滑走路に平行な方向に高い勾配変化を有する特長を強調するための、高域フィルター(Sobel Xの左から右+右から左またはScharr Xなど)を使用した滑走路画像の画像強調
−FODまたは損害のエッジ抽出閾値の最適推定。推定は様々な環境条件(たとえば、雨、光反射、夜間など)に適応し、進行的に学習された背景エッジマップに基づく統計方法を活用して、適応ピクセル・レベル・エッジ・マップ抽出のためのピクセルレベルの閾値マップを生成するために使用するグレースケールのルックアップテーブル(LUT)を決定する
−時間的フィルタリングをピクセルレベルで適用し、大量のエッジマップを使用してノイズを低減させることによってロバストエッジを保持する。閾値を超えるピクセルのみがロバスト・エッジ・ピクセルとして分類され、残ったピクセルはエッジマップに使用されない。
−現在のエッジ画像を以前の背景画像と比較して、誤認警報を生成せずにこれらの特長を背景に溶け込ませるために滑走路または誘導路上のゆっくりとした特長変化過程を獲得する適応背景学習。
−適応背景エッジマップおよび以前に学習された背景マップおよび任意選択で季節的なマーキング(雪などの特定の季節または気象条件で生成)からなる複合背景エッジマップ。
−エッジマップと複合背景マップとを比較することによる、疑いのあるエッジマップの生成
−突然の環境変化、たとえば、雨が原因の反射または他の気象条件が原因の可能性があるエッジの一部をフィルタリングするためのエッジフィルタリング。
−グローバルヒストグラムおよび統計分析を使用し、進行的に更新される画像と比較して異常光条件を決定することによる、夜間の異常光検出(航空機の着陸、航空機の離陸、地上車両の移動が原因のものなど)を伴う滑走路上のFODまたは飛行場滑走路/誘導路の損害の検出。
−補助照明(レーザーまたは赤外線照明器など)の設置を必要とせずに滑走路または誘導路上のFODまたは飛行場滑走路/誘導路の損害を検出するための昼/夜の監視。
−飛行場の滑走路または誘導路上ですべての異物および損害が正確に検出、同定および位置決定されることを確実にするための、自動、コンピュータ支援、および/または手動のズームイン視界能力を用いた飛行場の滑走路または誘導路の画像を獲得するためのイメージング手段。
−受動的な性質であり、暗条件または低照度条件下で補助照明(レーザーまたは赤外線照明器などの)設置の必要性を排除する。
−昼間および夜間中のカラー画像。
−FODまたは飛行場滑走路/誘導路の損害を検出、位置決定または同定するための、コンピュータビジョン画像処理技法を使用した監視カメラのネットワークから得られたビデオおよび/または静止画画像の処理。監視カメラは単一または複数であり、可動性および/または静止であり、指定された監視領域内に柔軟に配置可能である。
−例示的な実施形態では、カメラは、適応画像処理を使用した改善された画像処理のおかげで、既存のシステムと比較して滑走路または誘導路からより離れた距離に配置し得る。これにより、使用するカメラの数を減らすおよび/または既存の基礎構造との「干渉」を減少させる、および/または滑走路近辺の閉塞を減らすことができる。
BDAシステムは、正常状態(平時)中には異物、破片(FOD)検出システムとして運用するように構成することができる。
切迫した空襲警告が受信された場合、BDAシステムは警告状態となり、BDAシステムは飛行場損害の検出、測定および分類をその運用に含めるように切り替わり得る。飛行場損害の検出/測定/分類の結果は、飛行場内の兵器衝撃が原因のいかなる損害も回避する安全な航空機の離着陸に必要なMAOSおよびMOSの計算をもたらす。
図14のビデオ処理装置(1407)および図14の管理サーバー(1409)に関して、それぞれのビデオ処理装置(1407)は、1つのカメラ視界角度(単一のEOSからのビデオ/画像に基づく)から飛行場滑走路損害項目を検出、測定および分類し、統合および最適化のために検出、測定および分類の結果を管理サーバー(1409)に送信することを司っている。管理サーバー(1409)は、複数のカメラ視界によって獲得されたビデオ/画像に基づいて、複数のビデオ処理装置(1407)によるビデオ/画像および/またはFODもしくは損害の検出/測定/分類結果の出力の最適化を行うことができる。そのような最適化には、同じ領域の複数の入力画像を融合して、入力画像のどれよりも有益な領域の合成画像を提供することが含まれる。また、管理サーバー(1409)は飛行場損害領域がハイライトされたステッチ飛行場画像も提供してよく、これは表示モジュール(1157)(図11)および(1413)(図14)上に表示するために有用である。
また、管理サーバー(1409)は、様々なビデオ処理装置(1407)および管理サーバー(1409)上で実行されている様々な処理を含めた、BDAシステムのBDA処理全体を開始させることを司っている場合がある。サーバー処理(管理サーバー(1409)上で実行されている)はFODおよび/または損害の検出、測定および分類の結果を様々なビデオ処理装置(1407)から受信する。
その後、実行されたサーバー処理は、複数の隣接EOS(様々なカメラ視界角度を有する)および複数のビデオ処理装置(1407)による出力によって検出された、同じFODまたは損害項目(弾孔またはUXOなど)に関する検出、測定および分類の結果をさらに処理および最適化する。サーバー処理は、それぞれの検出された飛行場損害項目について最短距離、同様の大きさなどの特定の基準に基づいて処理を行うことができる。続いて、サーバー処理は、発見されたFODまたは飛行場損害項目を再測定および/または再分類し、検出、測定および分類の正確性を改善するために少なくとも2つのカメラ視界角度(2台の隣接するEOSからのビデオ/画像に基づく)を使用して損害項目の寸法を計算することさえできる。サーバー処理は2つのカメラ視界からの同じ領域の複数の入力画像を最適に融合して単一のEOSから受信された入力画像のどれよりも有益な領域合成画像を提供することができるため、2つのカメラ視界角度の画像を使用することは改善である。また、これは、単一のEOSを使用して飛行場の特定の領域をカバーする場合に起こる可能性がある、FODまたは損害の閉塞の問題の克服も助ける。
警告状態にある場合、BDAシステムのサーバー処理は兵器衝撃監視システム(WISS)処理を開始する。ビデオ処理装置(1407)の様々な処理は様々なEOSからのビデオ/画像を同時に処理する。サーバー処理がWISS処理を開始した場合、WISS処理は、すべての検出された兵器衝撃が管理サーバー(1409)に対してすぐに警報を作動し、衝撃位置が操作員ワークステーション(1413)上のデジタル飛行場マップ上にプロットされ得るように、兵器衝撃検出処理をすぐに開始し得る。
空襲が終わりBDAシステムの状態が「攻撃後」に変わった場合、飛行場指揮官はBDA損害の検出、測定および分類ならびにMAOSおよびMOSの計算を行うことを決定し得る。指揮官が様々なBDA処理を起動して詳細なBDA FODおよび/または飛行場損害の検出、測定および分類を開始することを可能にするために、指揮官に手動のトリガを提供し得る。
BDAシステムで使用されているプロセッサが単一カメラ視界のBDAの検出、測定および分類を完了した後、サーバー処理によって結果を統合およびさらに最適化し得る。すべての重複したBDA FODおよび飛行場損害の検出/測定/分類は、サーバー処理によってより高い正確性および確実性で再分類および再測定することができる。
MAOS/MOSの計算のために、最終的なBDA FODおよび/または損害の検出、測定および分類の結果をMAOS/MOSの計算アプリケーションに送信し得る。
BDAシステムは、飛行場の画像の完全な組(「飛行場基準画像」としても知られる)を獲得するために基準学習処理を実行するよう構成し得る。基準画像とは、基準画像を獲得する時点で飛行場のカメラ視界に未知の異物、破片もしくは損害、または未知の変化が存在しない場合の飛行場の画像をいう。
BDAシステムはEOSを使用してすべてのセクター/サブセクターを1サイクル走査して飛行場基準画像を生成し、その後、クイック・スキャン・ステッチおよび検出ループに入る。セクターとは飛行場内の指定された領域をいう。サブセクターとはセクター内のさらなる区画である。クイック・スキャン・ステッチおよび検出ループは飛行場を走査し続け、様々なサブセクター画像を一緒にまとめる。また、これは、基準画像と比較した後に飛行場画像上の主な差分も検出する。飛行場の顕著な差分を有する領域は、たとえば色によってハイライトされ、飛行場指揮官がディスプレイ上のこれらの領域にズームインし、その間または後の迅速な初期損害評価を行うことを可能にする。したがって、EOS(すなわち1つまたは複数のカメラ)によって獲得された画像を一緒にまとめて、先に獲得されたステッチ画像と後に獲得されたステッチ画像との間の差分領域を、飛行場の滑走路または誘導路の後に獲得されたステッチ画像中でハイライトする。
図15は、損害を受けた部分(1506)がハイライトされたステッチ滑走路画像(1502)を例示する。ステッチ画像はクイック・スキャン・ステッチおよび検出ループによって生成される。また、損害を受けた部分のズームイン視界(1504)も図15に示されている。ステッチ飛行場滑走路画像(1502)は、滑走路の一部分(1506)が空襲中にひどく損害を受けたことを示している。ズームイン視界(1504)は、滑走路上の損害を受けた項目の明白な指標であり、飛行場指揮官による早期飛行場損害評価に有用である。
クイック・スキャン・ステッチおよび検出ループは無限ループで実行され、たとえば空襲が終わってBDAシステムが「攻撃後」に入るまで更新されたステッチ飛行場滑走路画像を提供し続けるように構成し得る。それが起こった場合、飛行場指揮官はBDAシステムを作動してBDA飛行場損害の検出、測定および分類処理を開始させる。
その後、BDAシステムはフルサイクル検出を行って、飛行場内のすべての潜在的な損害項目を抽出し得る。その後、これは個々の損害項目(弾孔またはUXOなど)を分類および測定し始める。最終的な検出、測定および分類の結果(様々なビデオ処理装置(1407)からの出力)はサーバーに送信されて統合および最適化される(すなわち、複数の画像および/または検出/測定/分類の結果を融合してより有益な画像を得る)。
飛行場内の異物、破片または損害を検出するために、2つの画像処理に基づく検出器をBDAシステムにおいて同時に使用し得る。検出器の1つは領域に基づく検出器であることができ、これにはある区域の獲得された画像のクレースケール視界を比較して、飛行場内の異物、破片または損害の存在を示唆している可能性のある領域を同定することが含まれる。しかし、変化する気象条件が原因で、領域に基づく検出器は単独では信頼性がない場合がある。これらは、光の変化が領域のグレースケール視界を変化させる場合に過剰な誤検出を生成する傾向にある。一方、画像中の物体のエッジ(すなわち境界または輪郭)を検出するために使用するエッジに基づく検出器は照明の変化に対する感度がより低く、気象条件が変化した場合さえも依然として物体のエッジを検出することができる。
使用する主検出器がエッジに基づく検出器であり、二次検出器が領域に基づく検出器である可能性がある。運用中、異物、破片または損害を有する可能性があると同定された獲得画像中の領域は、まず領域に基づく検出器によって決定される。その後、領域に基づく検出器の処理された出力画像を、すべての検出されたエッジの輪郭を描くエッジに基づく検出器の処理された出力画像と比較する。エッジに基づく検出器の出力画像中で強力なエッジ構成要素(すなわち良好な輪郭)を示さない、領域に基づく検出器の処理された出力画像中の同定領域は廃棄され、信頼できないとみなされる。強力なエッジ構成要素を有する同定領域は、たとえば、検出された強力なエッジ構成要素を有する領域の位置情報を抽出するための図11のBDA位置抽出モジュール(1147)と、画像中の強力なエッジ構成要素を有する領域をピクセルレベルで測定して測定値を物理的寸法に変換するための図11のBDA大きさ測定モジュール(1149)とによるさらなる処理に送信される。その後、物理的寸法を分類して、たとえば、画像中の同定領域が実際にはどの損害の種類(弾孔、地下爆発、破砕、UXO)またはFODであるかを決定することができる。
図16は、領域に基づく検出器およびエッジに基づく検出器の2つの検出器を使用する場合の検出アルゴリズムの流れ図を示す。
ステップ1602では、飛行場の画像を獲得するように構成された1つまたは複数のカメラ(すなわちEOS)から画像を読み出す。
ステップ1604では、ノイズの低減を行って、ステップ1602で読み出された画像中に存在するノイズを低減させる。
ステップ1606では、ステップ1604に供された画像中のすべての物体のエッジの存在を検出するために、エッジに基づく検出器によるエッジ検出を行う。
ステップ1608では、ステップ1606で検出されたエッジまたは輪郭に関する情報を抽出する。エッジ構成要素は、抽出される前に強力であるとみなされる必要がある。何が強力であるとみなされるかを決定するために、比較する閾値を事前に決定することができる。
同時に、ステップ1604に供された画像に対してステップ1614を領域に基づく検出器によって実施して、異物、破片または損害が存在する可能性がある画像中の領域に関する情報を抽出する。
ステップ1610では、ステップ1614で抽出された領域の情報とステップ1608で検出されたエッジの抽出された情報とを比較する。抽出されたエッジと重複する領域のみがステップ1610の出力として保持され、記憶される。
ステップ1612では、ステップ1610の出力に対して全物体セグメント化を実施する。これは、ステップ1610の出力画像を分析し、検出された領域を分類して、これらが実際にはどの損害の種類(弾孔、地下爆発、破砕、UXO)またはFODであるかを決定することを含む。
空襲中、EOSノードタワー(すなわち1つまたは複数のカメラが装着された飛行場内のタワー)がねじれる、ずれる、または損害する可能性がある。この場合、BDAシステムが飛行場のセクター/サブセクター中の飛行場画像を獲得し、これをタワーがねじれる、ずれる、または損害する前の飛行場の基準(または参照)画像と比較し始めた際に、ねじれた、ずれた、または損害したタワーによって引き起こされた影響を受けたカメラ視界のミスアラインメントが原因で多くの望ましくないアーティファクトが生成され得る。これは誤警報を生成し、検出エラーを引き起こす。
そのようなEOSノードタワーのオフセットによって引き起こされる誤警報の数を最小限にするために、BDAシステムには、現在の画像および基準画像(すなわち参照画像)中で獲得される共通EOSノードタワーの位置オフセット効果の補正に使用される自動較正補償方法を行うための画像オフセット補償器が含まれ、これにより、損害を正確に検出、測定および分類するための補正された画像が生成される。
EOSノードアラインメント補正に使用する技法は、近くの目印またはそれぞれの飛行場サブセクター内の目印からの目立つマーカー、たとえば、滑走路端燈、看板およびEOSタワー構造の活用である。これらのマーカーは、較正処理中に参照として獲得される。検出中、EOSが検出サイクルを開始した際、まず、事前に設定した閾値レベルを超える信頼スコアで様々なサブセクターのすべてのマーカー位置を検査する。その後、適切なオフセットが計算される。その後、計算されたオフセットをそれぞれのサブセクター画像にしかるべく適用して、飛行場損害を検出し始める。
図17は、自動較正補正に使用されるマーカーを例示する。飛行場内の9つのサブセクターを有する領域のうち、4つのサブセクター(1710、1712、1714および1716)内の4つのマーカー(1702、1704、1706および1708)を選択して較正補正を行う。
図18は2つの画像(1802および1804)を示す。画像(1802)(基準画像)は、較正処理中のサブセクター3(1712)(図17)の基準画像を示す。囲み線(1808)によって印したm2マーカー(1806)(この場合は滑走路の端燈)の周りの領域が、マッチング目的のための参照標的領域として選択される。画像(1804)(現在の画像)は、サブセクター3(1712)(図17)を獲得するために装着されたカメラによって獲得された現在の画像中の、m2マーカー(1806)の現在の位置を示す。囲み線(1810)は現在の画像中に見つかるm2マーカー(1806)の位置を示し、これは基準画像(1802)中の囲み線(1808)によって印されたm2マーカー(1806)の領域から明らかにずれている。
図18および19を参照して、BDAシステムは、パターン照合もしくはブロブ検出などの標的発見技法、または両技法の組合せを使用して、現在の画像(1804)中のm2マーカー(1806)の正確な位置を見つける。X座標およびY座標のオフセット(Δ1904,Δ1906)(図19)を使用して、異物、破片または損害の検出および位置決定のために基準画像(1802)および現在の画像(1804)の両方において補正された領域(1908)を位置決定することができる。それぞれの画像(1802および1804)において囲み線(1908)によって示された領域が補正された領域(1908)とみなされる。
基準画像(たとえば1802)と現在の画像(たとえば1804)との間のマッチングの信頼スコアを考慮し得ることを理解されたい。信頼スコアが特定の閾値より高い場合にのみ補正が開始される。
1つのマーカー位置はランダムすぎる場合があり、マッチングが不正確であり得るか、または環境変化もしくは特定の時点の通過物体が原因で誤ったパターンがマッチングされ得るため、複数のマーカー(すなわち現在の画像および基準画像中の共通物体)の使用が較正補正のロバスト性および信頼性を増強する。複数のマーカーのマッチングは、より多くの検証用データ、および基準画像(たとえば1802)と獲得された現在の画像(たとえば1804)との間の実際のオフセットのより良好な提示を提供する。
n個のマーカー位置が存在すると仮定した場合、マッチング信頼スコアはCであり、式中、i=1,nである。
したがって、オフセットは(Δxi,Δyi)、i=1,nである。
最小信頼スコアがTであると仮定する。その場合、実際のオフセットは、閾値Tを通過する有効なマーカーの平均:
Figure 2014513642
であることができるか、または直線回帰を使用することによって得ることができる。
図20は、基準(参照)画像と現在の画像との間の実際のオフセットを決定するための直線回帰の使用を例示する。複数のn個のマーカー位置が既に同定されていると仮定する。マーカーマッチングは最初のマーカーから開始され最後のマーカーまでである。マーカーiは、最初から最後までのマーカーのうちの1つをいう。高い信頼スコアを達成するすべてのマーカーについて、X/Y(すなわちX座標およびY座標)オフセットをピクセル値で提示してリストに追加する。Tは、計算した実際のマッチングスコアがそれを超える場合に補正マッチングを高い信頼性で確実に裏付ける、事前に決定された最低マッチングスコアである。
最後のマーカーをマッチングした後、オフセットは画像中で直線的あるはずであるため、リストを直線的に当てはめる。当てはめエラーを評価する。当てはめエラーが小さい場合は、オフセットはこれらの複数のマーカー間で一貫しており、したがって現在の画像と基準画像とのオフセットに使用できることを意味する。当てはめエラーが小さくない場合、オフセットは補償することができない。この例では、Tがピクセルで測定した最大オフセットエラーである。
ステップ2002では、実際のオフセットを決定するためにマーカーiの位置を検査し、マーカーiはn個のマーカー位置中のマーカーのうちの1つである。
ステップ2004では、マーカーiが最後のマーカーであるかどうかを見るためにその位置を検査する。
マーカーiが最後のマーカーである場合は、ステップ2006で、それぞれのマーカーに対応するすべてのオフセット値を含有するオフセットリストに基づいて直線回帰を行う。それぞれのマーカーは、基準画像と現在の画像とを比較した後に、そのそれぞれの設定されたオフセット値を生成できることに注目されたい。
ステップ2008では、回帰エラーがT値よりも大きいかどうかを見るための検査を行う。
ステップ2008の検査で回帰エラーがT値よりも大きいことが示された場合は、ステップ2010で補償を行って現在の画像をオフセットし、補正された領域を獲得する。そうでなければ手順は終了する。
ステップ2004でマーカーiが最後のマーカーでない場合は、ステップ2012で基準画像と現在の画像との間でマーカーiのマーカーマッチングが行われる。マーカーiに基づくオフセット値も決定される。
ステップ2014では、現在の画像および基準画像中のマーカーiをマッチングすることによって決定されたマッチングスコアが閾値T値を超えるかどうかをみるための検査を行う。
ステップ2014で閾値T値を超えていた場合は、ステップ2016でマーカーiのオフセット値をオフセットリストに追加する。そうでなければ手順はステップ2002に進む。
本明細書中に記載の例示的な実施形態の方法およびシステムは、図8に模式的に示すコンピュータシステム(900)上に実装することができる。これは、コンピュータシステム(900)内で実行され、コンピュータシステム(900)に例示的な実施形態の方法を実施するよう指示するコンピュータプログラムなどのソフトウェアとして実装し得る。
コンピュータシステム(900)は、コンピュータモジュール(902)、キーボード(904)およびマウス(906)などの入力モジュール、ならびにディスプレイ(908)およびプリンター(910)などの複数の出力装置を備える。
コンピュータモジュール(902)は、たとえばローカル・エリア・ネットワーク(LAN)または広域ネットワーク(WAN)などのネットワークシステムへのアクセスを可能にするために、適切な送受信装置(914)を介してコンピュータネットワーク(912)に接続されている。
本例のコンピュータモジュール(902)には、プロセッサ(918)、ランダム・アクセス・メモリ(RAM)(920)および読み出し専用メモリ(ROM)(922)が含まれる。また、コンピュータモジュール(902)には、いくつかの入力/出力(I/O)インタフェース、たとえば、ディスプレイ(908)へのI/Oインタフェース(924)およびキーボード(904)へのI/Oインタフェース(926)も含まれる。
コンピュータモジュール(902)の構成要素は、典型的には、相互接続したバス(928)を介して、関連分野の技術者に知られている様式で通信する。
応用プログラムは、典型的には、CD−ROMまたはフラッシュ・メモリ・キャリアなどのデータ記憶媒体上にコードしてコンピュータシステム(900)のユーザに供給し、データ記憶装置(930)の対応するデータ記憶媒体ドライブを利用して読み取る。応用プログラムは、プロセッサ(918)によって読み取られ、その実行中に制御される。プログラムデータの中間記憶はRAM(920)を使用して達成し得る。
本明細書における飛行場への言及は、滑走路および/または誘導路および/または進入路および/またはインフィールド/草地および/またはエプロンおよび/または舗装路を含めた、飛行場内のすべての領域にわたることを理解されたい。異物、破片または任意の種類の損害の監視、および飛行場の滑走路もしくは誘導路または飛行場滑走路/誘導路内の兵器衝撃の監視へのすべての言及は、進入路および/またはインフィールド/草地および/またはエプロンおよび/または舗装路などの、飛行場の他の領域にも適用できることを理解されたい。
本明細書中の損害への参照には、亀裂、弾孔、UXO、破砕、地下爆発が含まれることを理解されたい。
本発明は上記実施形態に限定されない。しかし、当業者は、本発明の範囲から逸脱せずに、本明細書中に包含される情報に鑑みて、変更を加えて本発明を実施できることを理解されよう。
100 飛行場滑走路監視システム
102 草地
103 誘導路
104 誘導路
105 滑走路
106 滑走路
108 監視カメラ
110 視野
111 水平画角
112 交差部分
135 管制塔または管制室
500 滑走路監視システム
508 監視カメラ
509 監視カメラ
510 視野
511 水平画角
515 視野
521 水平画角
550 滑走路監視システム
551 監視カメラ
552 監視カメラ
552 監視カメラ
553 水平画角
554 水平画角
555 視野
556 視野
600 監視システム
601 監視カメラ
603 監視カメラ
605 監視カメラ
607 監視カメラ
609 監視カメラ
611 カバレッジ角度(画角)
613 広がった視野
700 滑走路表面領域
702 セグメント
703 縦方向
708 非静止カメラ
710 一端
711 水平画角
720 他端
801 中央線
802 水平滑走路線
803 水平滑走路線
804 物理的垂直距離
805 物理的垂直距離
900 コンピュータシステム
902 コンピュータモジュール
904 キーボード
906 マウス
908 ディスプレイ
910 プリンター
912 コンピュータネットワーク
914 送受信装置
918 プロセッサ
920 ランダム・アクセス・メモリ
922 読み出し専用メモリ
924 ディスプレイへのI/Oインタフェース
926 キーボードへのI/Oインタフェース
928 バス
930 データ記憶装置
950 兵器衝撃監視システム
951 静止カメラ
952 総合飛行場損害評価システム
1000 飛行場設計図
1000 兵器衝撃監視システム
1000 グラフィカル情報システム(GIS)マップ
1003 弾孔
1007 最小稼働仮設滑走路
1009 損害を受けた誘導路または進入路
1011 弾孔
1103 BDAシステムモジュール
1400 ハードウェアシステム
1401 電気光学システム
1403 中央コンピュータシステム
1405 EOセンサユニット(カメラ)
1407 ビデオ処理装置
1409 管理サーバー
1411 DVR
1413 操作員ワークステーション
1415 管理者/維持者ワークステーション
1417 携帯用手持ち機器
1419 スイッチ
1502 ステッチ飛行場滑走路画像
1504 ズームインした視界
1506 損害を受けた部分
1702 マーカー
1704 マーカー
1706 マーカー
1708 マーカー
1710 サブセクター
1712 サブセクター
1714 サブセクター
1716 サブセクター
1802 基準画像
1804 現在の画像
1806 m2マーカー
1808 囲み線
1810 囲み線
1908 補正された領域

Claims (54)

  1. 飛行場の画像を獲得するための1つまたは複数のカメラと、
    1つまたは複数のカメラによって獲得された画像から飛行場内の異物、破片または損害を検出するための処理装置と、
    飛行場内の兵器衝撃を検出して、1つまたは複数のカメラに、検出された兵器衝撃の領域中の画像を獲得するよう指示するための兵器衝撃監視システムと
    を備える、飛行場内の異物、破片、または損害を検出するための監視システム。
  2. 1つまたは複数のカメラが静止および非静止カメラの組合せを備える、請求項1に記載の監視システム。
  3. 1つまたは複数のカメラが、損害の種類を検出するためのディテールを有する画像を得るために、検出された兵器衝撃の領域にズームインまたはフォーカスする、請求項1または2に記載の監視システム。
  4. 兵器衝撃が、兵器衝撃によって引き起こされた爆発、煙、埃または閃光の画像によって検出される、前記請求項のいずれか一項に記載の監視システム。
  5. 飛行場内で検出された異物、破片、または損害の位置に基づいて航空機の着陸の最小稼働仮設滑走路(MOS)を導き出すための計算モジュールを備える、前記請求項のいずれか一項に記載の監視システム。
  6. 処理装置が、飛行場内の亀裂、弾孔、地下爆発、破砕、UXO、または動物を検出する、前記請求項のいずれか一項に記載の監視システム。
  7. 処理装置が、弾孔、地下爆発または破砕の周りの破片の量をそれぞれ検出することによって弾孔、地下爆発または破砕の大きさを決定する、請求項6に記載の監視システム。
  8. 1つまたは複数のカメラが、飛行場の広域画像獲得を提供するために広角レンズを備える、前記請求項のいずれか一項に記載の監視システム。
  9. 1つまたは複数のカメラが、飛行場の画像を獲得するために飛行場の上空を飛行するよう手配された航空機上に装着されている、前記請求項のいずれか一項に記載の監視システム。
  10. 低視度または低周囲照度条件下で人工照明を提供するための1つまたは複数の赤外線照明器を備える、前記請求項のいずれか一項に記載の監視システム。
  11. 処理装置が、異物、破片、または損害の大きさまたは物理的属性を測定するように構成されている、前記請求項のいずれか一項に記載の監視システム。
  12. 飛行場内で検出された損害を飛行場マップ上にマッピングする、前記請求項のいずれか一項に記載の監視システム。
  13. 異物、破片または損害の可能性がある獲得画像中の領域を検出することための領域に基づく検出器と、
    獲得画像中のすべての物体のエッジを検出するためのエッジに基づく検出器と
    を備え、画像中のエッジに基づく検出器によって検出されたエッジと重複する、画像中の領域に基づく検出器によって検出された領域が記憶される、前記請求項のいずれか一項に記載の監視システム。
  14. 1つまたは複数のカメラによって獲得された画像を一緒にまとめて、先に獲得されたステッチ画像と後に獲得されたステッチ画像との間の差分領域を、後に獲得されたステッチ画像中でハイライトする、前記請求項のいずれか一項に記載の監視システム。
  15. 兵器衝撃監視システムが、兵器衝撃を検出した際に視覚または音声警報を作動させるように構成されている、前記請求項のいずれか一項に記載の監視システム。
  16. 兵器衝撃の位置または飛行場損害の情報に基づいて修復作業を推定および計画するための修復の推定および計画モジュールを備える、前記請求項のいずれか一項に記載の監視システム。
  17. 1つまたは複数のカメラが飛行場内の滑走路の対向する側に設置され、その視野が重複する、前記請求項のいずれか一項に記載の監視システム。
  18. カバレッジの冗長を提供するために1つまたは複数のカメラの視野を重複させる、前記請求項のいずれか一項に記載の監視システム。
  19. 飛行場内の損害を修復するまたは異物を取り除くための遠隔警報および重要情報を受信するための1つまたは複数の携帯用手持ち機器を備える、前記請求項のいずれか一項に記載の監視システム。
  20. 現在の獲得画像および参照画像中に位置する共通物体の位置に基づいて、カメラによって撮影された現在の獲得画像と参照画像との間のオフセットを補正するための画像オフセット補償器を備える、前記請求項のいずれか一項に記載の監視システム。
  21. 画像オフセット補償器が、現在の獲得画像と参照画像との間の補正するオフセットを決定するために、現在の獲得画像および参照画像中の複数の共通物体を使用する、請求項20に記載の監視システム。
  22. 直線回帰を使用して現在の獲得画像と参照画像との間の補正するオフセットを決定し、現在の獲得画像および参照画像中の共通物体をマッチさせることによって決定されたスコアが事前に決定された閾値よりも大きい場合に、現在の獲得画像および参照画像中の共通物体に基づいて計算されたオフセット値を直線回帰について検討する、請求項21に記載の監視システム。
  23. 飛行場内で検出された異物、破片、または損害の位置に基づいて航空機の最小飛行場稼働表面(MAOS)を導き出すための計算モジュールをさらに備える、前記請求項のいずれか一項に記載の監視システム。
  24. 低視度または低周囲照度条件下で人工照明を提供するための1つまたは複数の可視スペクトル照明器を備える、前記請求項のいずれか一項に記載の監視システム。
  25. 兵器衝撃が、兵器衝撃によって引き起こされた音によって検出される、前記請求項のいずれか一項に記載の監視システム。
  26. 処理装置が、
    カメラによって獲得された画像の適応画像処理に基づいて飛行場内の異物、破片または損害を検出し、
    赤外線またはレーザー照明器などの補助照明なしで昼および夜の周囲光条件下のどちらでも異物、破片または損害を検出するために適応的に操作可能な、前記請求項のいずれか一項に記載の監視システム。
  27. 処理装置が、獲得された画像を強調するために画像強調方法を適用する、前記請求項のいずれか一項に記載の監視システム。
  28. 獲得された画像を強調させる前記方法が、獲得された画像に対する高域フィルター、Sobel Xの左から右フィルターおよびSobel Xの右から左フィルター、またはScharr Xフィルターを備える、27に記載の監視システム。
  29. 処理装置が、処理の瞬間が昼間または夜間であるかを決定し、夜間に獲得された画像から航空機の着陸または航空機の離陸または地上車両の移動などが原因の異常光条件を検出する、請求項27または28に記載の監視システム。
  30. 異常光条件の検出が、それぞれの画像を1つまたは複数の前の画像と比較するためのグローバルヒストグラムおよび統計分析を備えており、閾値を参照して強度の変化に基づいて異常光条件を同定する、請求項29に記載の監視システム。
  31. 異常光条件が検出された画像がさらなる処理から無視される、請求項29または30に記載の監視システム。
  32. 処理装置が、様々な環境条件における最適異物、破片または損害のエッジ抽出の1つまたは複数の閾値を適応的に推定し、進行的に学習された背景画像エッジマップに基づく統計方法を使用してピクセル・レベル・エッジ・マップを生成して、ピクセルレベルの閾値マップを生成するために使用するグレースケールのルックアップテーブル(LUT)を決定する、請求項27から31のいずれか一項に記載の監視システム。
  33. 処理装置が、時間的フィルタリングを大量のピクセル・レベル・エッジ・マップにさらに適用して、蓄積されて閾値を通過したピクセルのみからなるロバスト・エッジ・マップのみを保持する、請求項32に記載の監視システム。
  34. 処理装置が、ロバスト・エッジ・マップを、
    以前得られた背景エッジ画像を現在の画像と比較することと
    飛行場内のゆっくりと変化する特長を同定することと、
    背景エッジ画像をゆっくりとした変化特長で更新することと
    を含む適応背景学習にさらに供する、請求項33に記載の監視システム。
  35. 処理装置が、適応背景エッジマップ、以前に学習および保存された昼または夜の背景エッジマップ、ならびに特定の季節または気象条件について生成された季節的マーキングマップを備える複合背景エッジマップをさらに生成する、請求項34に記載の監視システム。
  36. 処理装置が、複合背景エッジマップとロバスト・エッジ・マップとをさらに比較し、背景エッジを除去して異物、破片または損害の疑いのあるエッジマップを抽出する、請求項35に記載の監視システム。
  37. 処理装置が、疑いのあるエッジマップからの環境変化に関連する所望しないエッジをフィルタリングするためのエッジフィルタリングをさらに行い、疑いのあるエッジマップから異物、破片または損害のエッジパラメータを計算する、請求項36に記載の監視システム。
  38. 環境条件に、昼から夜の変化、または夜から昼の変化、気象条件、雨、煙、雲などが含まれる、請求項37に記載の監視システム。
  39. ビデオディスプレイ上で異物、破片または損害のグラフィックを飛行場の疑いのある領域上にオーバーレイして、管制塔または管制室の操作員に異物、破片または損害の検出の警報を出すことが、処理装置によって行われる画像処理に含まれる、前記請求項のいずれか一項に記載の監視システム。
  40. 処理装置が異物、破片または損害をさらに分類する、前記請求項のいずれか一項に記載の監視システム。
  41. 1つまたは複数のカメラが飛行場滑走路の片側に配置される、請求項1に記載の監視システム。
  42. 1つまたは複数のカメラが故障した場合に、それぞれの隣接カメラが、故障したカメラによってカバーされていた領域をカバーするように操作可能である、前記請求項のいずれか一項に記載の監視システム。
  43. 1つまたは複数のカメラが、1つもしくは複数の白黒カメラ、1つもしくは複数のカラーカメラ、または両方を備える、前記請求項のいずれか一項に記載の監視システム。
  44. 1つまたは複数の暗視カメラをさらに備える、前記請求項のいずれか一項に記載の監視システム。
  45. 飛行場内の滑走路表面が複数のセグメントに分割されており、1つまたは複数の非静止カメラが滑走路をセグメント毎に異物、破片または損害の検出について順次走査する、前記請求項のいずれか一項に記載の監視システム。
  46. 異物、破片または損害の検出時間を短縮するために、非静止カメラが航空機の着陸または離陸のそれぞれの位置中の滑走路セグメントを最初に走査するように指示されるよう、静止カメラが滑走路上の航空機の離着陸のそれぞれの位置を検出する、前記請求項のいずれか一項に記載の監視システム。
  47. 処理装置が、雨動作クラッタの雨様の特徴を認識することによっておよび滑走路全体にわたって起こる雨が原因の動作クラッタに基づいて、滑走路のシーン画像中の雨クラッタをフィルター除去するために時間的フィルタリングを適用する、前記請求項のいずれか一項に記載の監視システム。
  48. 処理装置が、雪動作クラッタの雪様の特徴を認識することによっておよび滑走路全体にわたって起こる雪が原因の動作クラッタに基づいて、飛行場内の滑走路の滑走路シーン画像中の雪クラッタをフィルター除去するために時間的フィルタリングを適用する、前記請求項のいずれか一項に記載の監視システム。
  49. 処理装置が、滑走路のシーン較正のために飛行場内の滑走路上に縦方向に沿ってかつ滑走路の側方から同じ垂直距離に位置するマーカーまたは滑走路端燈を活用して、滑走路の画像上のピクセルを実世界座標フレーム上の正確な座標にマッピングする、前記請求項のいずれか一項に記載の監視システム。
  50. 処理装置が、滑走路中央線の両側の2本の平行な水平滑走路の線および滑走路中央線を活用して、滑走路のシーン較正のために2つの垂直ピクセルマッピング比を導き出して飛行場内の滑走路上の画像上のピクセルを実世界座標フレーム上の正確な座標にマッピングする、前記請求項のいずれか一項に記載の監視システム。
  51. 処理装置が、モノスコープビジョンおよびモノスコープカメラによって獲得された較正された滑走路のシーン画像を活用して、飛行場内の滑走路上の異物、破片または損害の位置および範囲を決定する、前記請求項のいずれか一項に記載の監視システム。
  52. 静止カメラおよび較正された滑走路のシーン画像によって決定された異物、破片または損害の位置および範囲を活用して、非静止カメラが異物、破片または損害にパン、チルト、ズームまたはフォーカスするよう自動制御し、検出された異物、破片もしくは損害の正確性の検証または誤認警報のフィルタリングを可能にする詳細を有する異物、破片または損害の画像を得る、前記請求項のいずれか一項に記載の監視システム。
  53. 異物、破片または損害の範囲および位置を、重複する視野を有する一対の監視カメラによってそれぞれ獲得された画像を比較することによって得られた画像の差分から計算することができるように、一対の監視カメラを含めた立体視を活用して飛行場内の滑走路の同じセグメントをカバーする、前記請求項のいずれか一項に記載の監視システム。
  54. 飛行場の画像を獲得するステップと、
    獲得された画像から飛行場内の異物、破片または損害を検出するステップと、
    飛行場内の兵器衝撃を検出するステップと、
    1つまたは複数のカメラに検出された兵器衝撃の領域中の画像を獲得するよう指示するステップと
    を含む、飛行場内の異物、破片、または損害を検出する方法。
JP2013554422A 2011-02-21 2012-02-21 監視システムおよび飛行場内の異物、破片、または損害を検出する方法 Expired - Fee Related JP6110316B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG2011012234 2011-02-21
SG201101223-4 2011-02-21
PCT/SG2012/000052 WO2012115594A1 (en) 2011-02-21 2012-02-21 A surveillance system and a method for detecting a foreign object, debris, or damage in an airfield

Publications (2)

Publication Number Publication Date
JP2014513642A true JP2014513642A (ja) 2014-06-05
JP6110316B2 JP6110316B2 (ja) 2017-04-05

Family

ID=46721131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013554422A Expired - Fee Related JP6110316B2 (ja) 2011-02-21 2012-02-21 監視システムおよび飛行場内の異物、破片、または損害を検出する方法

Country Status (10)

Country Link
US (1) US20130329052A1 (ja)
EP (1) EP2678835B1 (ja)
JP (1) JP6110316B2 (ja)
KR (1) KR101533905B1 (ja)
CN (1) CN103733234B (ja)
AU (1) AU2012221159B2 (ja)
IL (1) IL228067A (ja)
RU (1) RU2596246C2 (ja)
SG (1) SG192881A1 (ja)
WO (1) WO2012115594A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119614A (ja) * 2014-12-22 2016-06-30 日本電気株式会社 動体検知装置、動体検知方法および動体検知プログラム
JP2020500391A (ja) * 2016-11-23 2020-01-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 駐車場内に存在する隆起した物体を検出するための方法およびシステム
JP2020500389A (ja) * 2016-11-23 2020-01-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 駐車場内に存在する隆起した物体を検出するための方法およびシステム
JP2020078046A (ja) * 2018-09-26 2020-05-21 アクシス アーベー アラートを変換するための方法
JP2021513714A (ja) * 2018-02-09 2021-05-27 スカイディオ, インコーポレイテッドSkydio, Inc. 航空機のスマート着陸
JP7191178B1 (ja) 2021-10-27 2022-12-16 三菱電機株式会社 路面劣化検出装置および路面劣化検出方法
US11726498B2 (en) 2018-02-09 2023-08-15 Skydio, Inc. Aerial vehicle touchdown detection

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9518830B1 (en) 2011-12-28 2016-12-13 Intelligent Technologies International, Inc. Vehicular navigation system updating based on object presence
US10387960B2 (en) * 2012-05-24 2019-08-20 State Farm Mutual Automobile Insurance Company System and method for real-time accident documentation and claim submission
US9474265B2 (en) * 2012-11-27 2016-10-25 Elwha Llc Methods and systems for directing birds away from equipment
US9304042B2 (en) * 2013-01-18 2016-04-05 Delphi Technologies, Inc. Foreign object detection system and method suitable for source resonator of wireless energy transfer system
US9253375B2 (en) 2013-04-02 2016-02-02 Google Inc. Camera obstruction detection
US20150161540A1 (en) * 2013-12-06 2015-06-11 International Business Machines Corporation Automatic Road Condition Detection
CN103729830B (zh) * 2013-12-31 2016-06-22 北京交通大学 一种机场跑道雷达图像背景抑制方法
JP6293552B2 (ja) * 2014-03-31 2018-03-14 株式会社日立製作所 監視管理システム
US11250585B2 (en) * 2014-04-25 2022-02-15 Sony Corporation Information processing device, information processing method, and computer program
US20150326796A1 (en) * 2014-05-09 2015-11-12 Tobias Oggenfuss Binal synchronized lens system
US10127448B2 (en) * 2014-08-27 2018-11-13 Bae Systems Information And Electronic Systems Integration Inc. Method and system for dismount detection in low-resolution UAV imagery
EP3026652A1 (en) * 2014-11-27 2016-06-01 Kapsch TrafficCom AB Double stereoscopic sensor
FR3030091B1 (fr) * 2014-12-12 2018-01-26 Airbus Operations Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.
US9689976B2 (en) 2014-12-19 2017-06-27 Xidrone Systems, Inc. Deterent for unmanned aerial systems
US9715009B1 (en) 2014-12-19 2017-07-25 Xidrone Systems, Inc. Deterent for unmanned aerial systems
RU2601402C2 (ru) * 2015-01-12 2016-11-10 Анна Евгеньевна Авдюшина Устройство для измерения координат и распознавания объектов в распределенной системе акустического и видеонаблюдения
US10395496B2 (en) * 2015-06-18 2019-08-27 Ryan L Nuhfer Alarm and surveillance system and method
WO2016206004A1 (zh) * 2015-06-23 2016-12-29 华为技术有限公司 一种获取深度信息的拍照设备和方法
JP6326009B2 (ja) * 2015-06-29 2018-05-16 株式会社オプティム 無線航空機、位置情報出力方法及び無線航空機用プログラム。
US10498955B2 (en) * 2015-08-03 2019-12-03 Disney Enterprises, Inc. Commercial drone detection
US10311302B2 (en) 2015-08-31 2019-06-04 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
JP6450852B2 (ja) * 2015-09-17 2019-01-09 株式会社日立国際電気 落下物検知追跡システム
US10318819B2 (en) * 2016-01-05 2019-06-11 The Mitre Corporation Camera surveillance planning and tracking system
US10140872B2 (en) 2016-01-05 2018-11-27 The Mitre Corporation Camera surveillance planning and tracking system
US10190269B2 (en) 2016-01-15 2019-01-29 Fugro Roadware Inc. High speed stereoscopic pavement surface scanning system and method
US20170314918A1 (en) 2016-01-15 2017-11-02 Fugro Roadware Inc. High speed stereoscopic pavement surface scanning system and method
US9953239B2 (en) * 2016-01-21 2018-04-24 Gary L Viviani Atomatic monitoring systems
FR3049744B1 (fr) * 2016-04-01 2018-03-30 Thales Procede de representation synthetique d'elements d'interet dans un systeme de visualisation pour aeronef
CN106056957A (zh) * 2016-06-16 2016-10-26 招商局重庆交通科研设计院有限公司 一种全桥面随机车流的精确同步定位方法
EP3293672A1 (en) * 2016-09-07 2018-03-14 Malvern Panalytical Limited Particle boundary identification
CN109792508B (zh) * 2016-09-29 2021-07-13 菲力尔系统公司 使用热成像分析法的故障安全检测
US10511762B2 (en) 2016-10-24 2019-12-17 Rosemount Aerospace Inc. System and method for aircraft camera image alignment
EP3151164A3 (en) * 2016-12-26 2017-04-12 Argosai Teknoloji Anonim Sirketi A method for foreign object debris detection
US10198655B2 (en) * 2017-01-24 2019-02-05 Ford Global Technologies, Llc Object detection using recurrent neural network and concatenated feature map
JP2018132865A (ja) * 2017-02-14 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 電子機器、電子機器の処理代行依頼方法および情報処理システム
WO2018179404A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 情報処理装置、情報処理方法、および情報処理プログラム
EP3410688B1 (en) 2017-06-01 2019-03-06 Axis AB Method for improving image quality in images acquired by a near-infrared sensitive video camera and such a camera
RU2661531C1 (ru) * 2017-07-27 2018-07-17 Акционерное общество "Научно-производственный комплекс "Дедал" Мобильный быстроустанавливаемый автономный пост технического наблюдения для контроля обстановки на охраняемой территории
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10565457B2 (en) 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10762673B2 (en) 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10649458B2 (en) 2017-09-07 2020-05-12 Tusimple, Inc. Data-driven prediction-based system and method for trajectory planning of autonomous vehicles
US10953880B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10953881B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US11012683B1 (en) 2017-09-28 2021-05-18 Alarm.Com Incorporated Dynamic calibration of surveillance devices
US10636173B1 (en) 2017-09-28 2020-04-28 Alarm.Com Incorporated Dynamic calibration of surveillance devices
US10410055B2 (en) * 2017-10-05 2019-09-10 TuSimple System and method for aerial video traffic analysis
EP3483802A1 (en) * 2017-11-13 2019-05-15 The Boeing Company A system and method for determining the runway configuration of an airport
CN107728136A (zh) * 2017-11-29 2018-02-23 航科院(北京)科技发展有限公司 一种机场跑道异物监测和清除引导系统及方法
US10907940B1 (en) 2017-12-12 2021-02-02 Xidrone Systems, Inc. Deterrent for unmanned aerial systems using data mining and/or machine learning for improved target detection and classification
EP3528081A4 (en) * 2017-12-26 2019-11-13 Autel Robotics Co., Ltd. METHOD AND DEVICE FOR PROTECTING LANDING OF AIRCRAFT AND AIRCRAFT
EP3737595B1 (en) 2018-01-09 2023-12-27 TuSimple, Inc. Real-time remote control of vehicles with high redundancy
EP3738106A4 (en) 2018-01-11 2021-09-08 TuSimple, Inc. MONITORING SYSTEM FOR AUTONOMOUS VEHICLE OPERATION
KR102049433B1 (ko) * 2018-01-19 2020-01-22 주식회사유넷컨버전스 Gps 좌표의 활주로 내 이물질 위치를 공항 그리드 맵에 표시하는 방법
CN108460091A (zh) * 2018-01-29 2018-08-28 合肥齐天科技有限公司 一种信鸽入笼在线拍照合成系统
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US10685244B2 (en) 2018-02-27 2020-06-16 Tusimple, Inc. System and method for online real-time multi-object tracking
MX2020009996A (es) 2018-03-28 2020-10-14 Sika Tech Ag Evaluacion de grietas de membranas para techos a traves de redes neurales artificiales.
CN110378185A (zh) 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
CN116129376A (zh) 2018-05-02 2023-05-16 北京图森未来科技有限公司 一种道路边缘检测方法和装置
US10974392B2 (en) * 2018-06-08 2021-04-13 International Business Machines Corporation Automated robotic security system
CN109724152A (zh) * 2018-07-24 2019-05-07 永康市蜂蚁科技有限公司 供暖设备散热管道流速切换系统
CN109085539B (zh) * 2018-08-10 2021-04-02 湖南航天环宇通信科技股份有限公司 一种双反射面雷达成像天线
RU2704107C1 (ru) * 2018-09-10 2019-10-24 Акционерное общество "Опытный завод "Интеграл" Комплекс защиты объектов на основе осветительного устройства
CN112689586B (zh) 2018-09-13 2024-04-16 图森有限公司 远程安全驾驶方法和系统
EP3643235A1 (en) * 2018-10-22 2020-04-29 Koninklijke Philips N.V. Device, system and method for monitoring a subject
CN109409282B (zh) * 2018-10-24 2022-07-08 珠海瑞天安科技发展有限公司 一种机场跑道外来物检测方法及系统
US10942271B2 (en) 2018-10-30 2021-03-09 Tusimple, Inc. Determining an angle between a tow vehicle and a trailer
US11245875B2 (en) * 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
US11776143B2 (en) * 2019-03-28 2023-10-03 Nec Corporation Foreign matter detection device, foreign matter detection method, and program
CN110135296A (zh) * 2019-04-30 2019-08-16 上海交通大学 基于卷积神经网络的机场跑道fod检测方法
CN110569703B (zh) * 2019-05-10 2020-09-01 阿里巴巴集团控股有限公司 计算机执行的从图片中识别损伤的方法及装置
US10885625B2 (en) 2019-05-10 2021-01-05 Advanced New Technologies Co., Ltd. Recognizing damage through image analysis
US11823460B2 (en) 2019-06-14 2023-11-21 Tusimple, Inc. Image fusion for autonomous vehicle operation
TWI716009B (zh) * 2019-06-21 2021-01-11 晶睿通訊股份有限公司 影像校正方法及其相關監控攝影系統
US20210065374A1 (en) * 2019-08-26 2021-03-04 Organize Everything Inc. System and method for extracting outlines of physical objects
CN110781757B (zh) * 2019-09-29 2023-05-09 中国航空无线电电子研究所 一种机场道面异物识别定位方法及系统
US11361543B2 (en) 2019-12-10 2022-06-14 Caterpillar Inc. System and method for detecting objects
CN111123261A (zh) * 2019-12-31 2020-05-08 上海微波技术研究所(中国电子科技集团公司第五十研究所) 基于背景学习的机场跑道fod检测方法和系统
CN111368732B (zh) * 2020-03-04 2023-09-01 阿波罗智联(北京)科技有限公司 用于检测车道线的方法和装置
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
CN111652071B (zh) * 2020-05-08 2023-08-29 中国工程物理研究院总体工程研究所 一种快速的跑道截断分析方法
CN111613176B (zh) * 2020-05-18 2021-07-13 维沃移动通信有限公司 环境光检测方法及电子设备
CN111562576A (zh) * 2020-05-20 2020-08-21 北京望远四象科技有限公司 一种机场跑道异物检测系统及方法
KR102418751B1 (ko) * 2020-05-29 2022-07-08 (주)웨이브텍 공항 활주로 고정형 이물질 자동 탐지 시스템
CN111652252B (zh) * 2020-06-11 2022-11-11 中国空气动力研究与发展中心超高速空气动力研究所 一种基于集成学习的超高速撞击损伤的定量识别方法
AU2021203567A1 (en) 2020-06-18 2022-01-20 Tusimple, Inc. Angle and orientation measurements for vehicles with multiple drivable sections
KR102232681B1 (ko) * 2020-07-08 2021-03-29 공간정보기술 주식회사 활주로 피해 분석 시스템 및 방법
CN111950456A (zh) * 2020-08-12 2020-11-17 成都成设航空科技股份公司 一种基于无人机的智能化fod探测方法及系统
KR102369170B1 (ko) * 2020-08-31 2022-03-03 한국항공우주산업 주식회사 기체 내부의 이물질 검출 방법 및 기체 내부의 이물질 검출 시스템
US20230419845A1 (en) * 2020-10-01 2023-12-28 Rong-Jie David CHEW A system for detecting a foreign object on a runway and a method thereof
WO2022082007A1 (en) * 2020-10-15 2022-04-21 Cape Analytics, Inc. Method and system for automated debris detection
CN112505050A (zh) * 2020-11-12 2021-03-16 中科蓝卓(北京)信息科技有限公司 一种机场跑道异物检测系统及方法
CN112668461B (zh) * 2020-12-25 2023-05-23 浙江弄潮儿智慧科技有限公司 一种具有野生动物识别的智能监管系统
CN112733744B (zh) * 2021-01-14 2022-05-24 北京航空航天大学 一种基于边缘协同监督与多级约束的伪装物体检测模型
US11479365B2 (en) * 2021-01-22 2022-10-25 Honeywell International Inc. Computer vision systems and methods for aiding landing decision
CN113106903B (zh) * 2021-02-24 2022-05-27 林强 一种机场跑道等离子除胶装备
CN112950565A (zh) * 2021-02-25 2021-06-11 山东英信计算机技术有限公司 一种数据中心漏水检测与定位的方法、设备和数据中心
CN113111703B (zh) * 2021-03-02 2023-07-28 郑州大学 基于多种卷积神经网络融合的机场道面病害异物检测方法
CN113295164B (zh) * 2021-04-23 2022-11-04 四川腾盾科技有限公司 一种基于机场跑道的无人机视觉定位方法及装置
US20220366799A1 (en) * 2021-05-14 2022-11-17 Rockwell Collins, Inc. Neuromorphic cameras for aircraft
CN113378741B (zh) * 2021-06-21 2023-03-24 中新国际联合研究院 一种基于多源传感器的飞机牵引车辅助感知方法及其系统
WO2023283231A1 (en) 2021-07-06 2023-01-12 Cape Analytics, Inc. System and method for property condition analysis
KR102443435B1 (ko) * 2021-09-07 2022-09-15 경남도립거창대학산학협력단 구조물의 크랙 두께 계측을 위한 라이다 센서가 적용된 무인 비행체
US11742962B2 (en) 2021-09-13 2023-08-29 Quanta Computer Inc. Systems and methods for monitoring antenna arrays
CN114486903A (zh) * 2021-12-06 2022-05-13 浙江大学台州研究院 一种灰度自适应的卷材检测系统及装置、算法
US11676298B1 (en) 2021-12-16 2023-06-13 Cape Analytics, Inc. System and method for change analysis
US11594141B1 (en) 2022-01-19 2023-02-28 King Abdulaziz University System and methods to neutralize an attacking UAV based on acoustic features
CN114399498B (zh) * 2022-01-19 2022-08-30 浙大网新系统工程有限公司 一种机场跑道表面状况评估方法及系统
US11861843B2 (en) 2022-01-19 2024-01-02 Cape Analytics, Inc. System and method for object analysis
FR3134629A1 (fr) * 2022-04-14 2023-10-20 Com'in Sas Procédé de détermination d’un niveau de salissure d’une chaussée
CN114821484B (zh) * 2022-06-27 2022-10-28 广州辰创科技发展有限公司 机场跑道fod图像检测方法、系统和存储介质
CN115311428B (zh) * 2022-10-12 2023-02-28 珠海翔翼航空技术有限公司 数字化机场滑行道模型生成方法、系统及设备
CN116456058A (zh) * 2023-04-28 2023-07-18 南京派拉斯曼工程技术有限公司 一种基于改进的视频捕捉检测方法
KR102621722B1 (ko) * 2023-06-29 2024-01-05 (주)위플로 구동 시스템의 점검이 가능한 비행체용 스테이션 장치
CN116573366B (zh) * 2023-07-07 2023-11-21 江西小马机器人有限公司 基于视觉的皮带跑偏检测方法、系统、设备及存储介质
CN116596922B (zh) * 2023-07-17 2023-09-12 山东龙普太阳能股份有限公司 一种太阳能热水器生产质量检测方法
CN116704446B (zh) * 2023-08-04 2023-10-24 武汉工程大学 机场跑道路面异物实时检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207693A (ja) * 1999-01-08 2000-07-28 Nissan Motor Co Ltd 車載用障害物検出装置
JP2001028745A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有する車外監視装置
JP2004009993A (ja) * 2002-06-11 2004-01-15 Toshiba Eng Co Ltd 列車事故回避システム
JP2006018658A (ja) * 2004-07-02 2006-01-19 Mitsubishi Electric Corp 画像処理装置及び該画像処理装置を用いた画像監視システム
US20060098843A1 (en) * 2004-06-11 2006-05-11 Stratech Systems Limited Method and system for rail track scanning and foreign object detection
JP2010185723A (ja) * 2009-02-10 2010-08-26 Natl Inst For Land & Infrastructure Management Mlit 被覆層の異常検出方法
JP2010539740A (ja) * 2007-08-24 2010-12-16 ストラテック システムズ リミテッド 滑走路監視システムおよび方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07111734B2 (ja) * 1989-03-30 1995-11-29 本田技研工業株式会社 走行路判別方法
FR2683356A1 (fr) * 1991-10-31 1993-05-07 France Etat Armement Procede et dispositif de detection et de determination de la position de formes.
JPH1132322A (ja) * 1997-07-11 1999-02-02 Hitachi Eng & Services Co Ltd 凶器所持者自動追尾装置
US6064429A (en) * 1997-08-18 2000-05-16 Mcdonnell Douglas Corporation Foreign object video detection and alert system and method
FR2820867A1 (fr) * 2001-02-09 2002-08-16 Philippe Gouvary Procede automatise de suivi et d'organisation de deplacement de vehicules au sol et d'identification de corps etrangers sur les pistes dans une zone aeroportuaire
JP3850674B2 (ja) * 2001-03-21 2006-11-29 株式会社東芝 空港滑走路監視装置
EP1537550A2 (en) * 2002-07-15 2005-06-08 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
US6917309B2 (en) * 2002-10-28 2005-07-12 Integritech System Engineering Ltd. Foreign object detection system and method
US6878939B2 (en) * 2003-01-31 2005-04-12 Millivision Technologies Offset drift compensating flat fielding method and camera used in millimeter wave imaging
US6977598B2 (en) * 2003-03-07 2005-12-20 Lockheed Martin Corporation Aircraft protection system and method
JP4230395B2 (ja) * 2004-03-24 2009-02-25 三菱電機株式会社 監視移動体
EP1712931A1 (en) * 2005-04-14 2006-10-18 Qinetiq Limited Method and apparatus for detecting a target in a scene
WO2008060257A2 (en) * 2005-05-25 2008-05-22 Lau Daniel L Projectile tracking system
RU61913U1 (ru) * 2005-11-22 2007-03-10 Аркадий Владимирович Хохлов Активный инфракрасный рельсовый детектор посторонних предметов на взлетно-посадочной полосе аэропортов
US8537222B2 (en) * 2008-02-28 2013-09-17 Bae Systems Information And Electronic Systems Integration Inc. Method and system for finding a manpads launcher position
CN101753831A (zh) * 2008-11-28 2010-06-23 新奥特硅谷视频技术有限责任公司 基于三维定位追踪技术的自动摄录方法及系统
WO2010141119A2 (en) * 2009-02-25 2010-12-09 Light Prescriptions Innovators, Llc Passive electro-optical tracker
FR2949220B1 (fr) * 2009-08-21 2011-09-09 Snecma Procede et systeme de detection de l'ingestion d'un objet par un turboreacteur d'avion au cours d'une mission
KR100997497B1 (ko) * 2010-04-29 2010-11-30 (주)동아이앤씨 자동감지/촬영기능을 구비한 감시시스템 및 감시방법
CN101852869A (zh) * 2010-05-18 2010-10-06 中国民航大学 机场跑道外来物检测系统
CN101968848B (zh) * 2010-09-27 2013-01-16 哈尔滨工业大学深圳研究生院 一种视频监测方法、系统及视频监测报警系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207693A (ja) * 1999-01-08 2000-07-28 Nissan Motor Co Ltd 車載用障害物検出装置
JP2001028745A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有する車外監視装置
JP2004009993A (ja) * 2002-06-11 2004-01-15 Toshiba Eng Co Ltd 列車事故回避システム
US20060098843A1 (en) * 2004-06-11 2006-05-11 Stratech Systems Limited Method and system for rail track scanning and foreign object detection
JP2006018658A (ja) * 2004-07-02 2006-01-19 Mitsubishi Electric Corp 画像処理装置及び該画像処理装置を用いた画像監視システム
JP2010539740A (ja) * 2007-08-24 2010-12-16 ストラテック システムズ リミテッド 滑走路監視システムおよび方法
JP2010185723A (ja) * 2009-02-10 2010-08-26 Natl Inst For Land & Infrastructure Management Mlit 被覆層の異常検出方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016119614A (ja) * 2014-12-22 2016-06-30 日本電気株式会社 動体検知装置、動体検知方法および動体検知プログラム
JP2020500391A (ja) * 2016-11-23 2020-01-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 駐車場内に存在する隆起した物体を検出するための方法およびシステム
JP2020500389A (ja) * 2016-11-23 2020-01-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 駐車場内に存在する隆起した物体を検出するための方法およびシステム
US11157746B2 (en) 2016-11-23 2021-10-26 Robert Bosch Gmbh Method and system for detecting an elevated object situated within a parking facility
JP2021513714A (ja) * 2018-02-09 2021-05-27 スカイディオ, インコーポレイテッドSkydio, Inc. 航空機のスマート着陸
JP7143444B2 (ja) 2018-02-09 2022-09-28 スカイディオ,インコーポレイテッド 航空機のスマート着陸
US11726498B2 (en) 2018-02-09 2023-08-15 Skydio, Inc. Aerial vehicle touchdown detection
JP2020078046A (ja) * 2018-09-26 2020-05-21 アクシス アーベー アラートを変換するための方法
JP7191178B1 (ja) 2021-10-27 2022-12-16 三菱電機株式会社 路面劣化検出装置および路面劣化検出方法
JP2023064793A (ja) * 2021-10-27 2023-05-12 三菱電機株式会社 路面劣化検出装置および路面劣化検出方法

Also Published As

Publication number Publication date
SG192881A1 (en) 2013-09-30
EP2678835A1 (en) 2014-01-01
IL228067A (en) 2017-03-30
EP2678835A4 (en) 2014-11-05
WO2012115594A1 (en) 2012-08-30
KR101533905B1 (ko) 2015-07-03
KR20140029394A (ko) 2014-03-10
EP2678835B1 (en) 2017-08-09
CN103733234A (zh) 2014-04-16
AU2012221159A1 (en) 2013-10-10
IL228067A0 (en) 2013-09-30
US20130329052A1 (en) 2013-12-12
RU2596246C2 (ru) 2016-09-10
AU2012221159B2 (en) 2015-11-26
JP6110316B2 (ja) 2017-04-05
RU2013142167A (ru) 2015-03-27
CN103733234B (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
JP6110316B2 (ja) 監視システムおよび飛行場内の異物、破片、または損害を検出する方法
Yuan et al. Fire detection using infrared images for UAV-based forest fire surveillance
RU2523167C2 (ru) Способ наблюдения за взлетно-посадочной полосой и система для реализации способа
CN108710126B (zh) 自动化探测驱逐目标方法及其系统
CN106839882B (zh) 特殊区域入侵无人机预警拦截控制系统
US9465987B1 (en) Monitoring and detecting weather conditions based on images acquired from image sensor aboard mobile platforms
US8111289B2 (en) Method and apparatus for implementing multipurpose monitoring system
CN105389921B (zh) 一种机场跑道异物的监测系统和方法
US20080314234A1 (en) Distributed ground-based threat detection system
EP3537875B1 (en) System and method for detecting flying animals
US11955022B2 (en) Aircraft door camera system for landing gear monitoring
US20230419845A1 (en) A system for detecting a foreign object on a runway and a method thereof
CN212782244U (zh) 一种天空地一体化林火监测核查平台
CN112580420A (zh) 用于抵制无人驾驶飞行器的系统和方法
US10718613B2 (en) Ground-based system for geolocation of perpetrators of aircraft laser strikes
Anderson et al. Autonomous System for Rapid Airfield Assessment
CN107943101B (zh) 一种无人机选择干扰背景进行飞行的方法
Sandhiya et al. AIDD—Defect Detection System in Flight Runway Using Artificial Intelligence
Randall et al. Demonstration of real-time automatic target identification from a surrogate UAV

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170309

R150 Certificate of patent or registration of utility model

Ref document number: 6110316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees