JP2017522548A - 海事自動ターゲット認識のためのデータ融合分析 - Google Patents

海事自動ターゲット認識のためのデータ融合分析 Download PDF

Info

Publication number
JP2017522548A
JP2017522548A JP2016570997A JP2016570997A JP2017522548A JP 2017522548 A JP2017522548 A JP 2017522548A JP 2016570997 A JP2016570997 A JP 2016570997A JP 2016570997 A JP2016570997 A JP 2016570997A JP 2017522548 A JP2017522548 A JP 2017522548A
Authority
JP
Japan
Prior art keywords
class
class specification
target
designation
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016570997A
Other languages
English (en)
Inventor
モデュル サティエンドラ,ハーシャ
モデュル サティエンドラ,ハーシャ
ディー. ステファン,ブライアン
ディー. ステファン,ブライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Publication of JP2017522548A publication Critical patent/JP2017522548A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • G01S13/9064Inverse SAR [ISAR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

複数の分類器の出力を結合することにより自動ターゲット認識を実行するシステムと方法である。一実施形態では、レーダー画像から特徴ベクトルを抽出し、3つの分類器に入力する。分類器はガウシアンミクスチャモデルニューラルネットワーク分類器、放射基底関数ニューラルネットワーク、及びベクトル量子化分類器を含む。分類器により生成されるクラス指定は、加重投票システムにおいて結合される。すなわち、加重分類決定の最頻値が、ターゲットの全体的クラス指定として選択される。複数の分類器のクラス指定が同じである限度で、信頼性メトリックを構成してもよい。また、このシステムは、未知のターゲットタイプを処理し、その後の再組み込みをして、人工的かつ自動的にトレーニングデータベースサイズを増大するようデザインされている。

Description

本発明による実施形態の一以上の態様は、自動ターゲット認識に関し、より具体的には、レーダー画像における自動ターゲット認識のためのシステム及び方法における複数の分類器の結合に関する。
逆合成開口レーダー(ISAR)は、ドップラー周波数及び射程内のレーダーリターンを分離することにより、移動するターゲットオブジェクトから2次元レーダー画像を構成するのに用いられる信号処理手法である。ISARはレーダープラットフォームが移動してもしなくても可能である。ISAR2次元画像は、あるレンジのドップラービンインデックスにある反射された点散乱体の異なる強度画素よりなる。回転するターゲットの異なる点は、各点がレーダーに対してそれ自体の視線(LOS)速度を有し、異なるドップラーシフトが生じる。現在あるISAR自動ターゲット認識(ATR)システムは、人間的要素に依存する。かかるシステムでは、訓練されたオペレータがISAR画像を見て、あるターゲット特徴をあらかじめ準備されたテンプレートにマッチングさせる。かかる特徴は、ターゲットの見かけの長さと、支配的な散乱体ロケーションに対する大きさ(proportions)とを含んでもよい。既存のATRシステムは主として参照テーブルに基づく。これは、ユーザが決めた特徴と分類器とを利用して、ターゲットに最も近いテンプレートを実現するものである。既存のATRシステムはシミュレーションされたデータを用いて開発されることがある。これは、ノイズスパイク、競合する陸地及び海面状態散乱リターン、レンジ及びドップラー不鮮明化、及び大気コンフロンテーションなど、現実のデータの重要な特性を欠いているかも知れない。かかるシステムは誤差を生じやすく、既知のターゲットタイプと一致しないターゲットを示されると混乱を起こすかもしれない。さらに、既存のATRシステムは、識別がされるものについて信頼性の評価を提供しないかも知れない。このように、信頼性を改善し、信頼性の推定をし、未知のターゲットタイプを受け入れられるATRシステムに対する必要性がある。
一実施形態では、複数の分類器の出力を結合することにより自動ターゲット認識を実行するシステムと方法では、レーダー画像から特徴ベクトルを抽出し、3つの分類器に入力する。分類器はガウシアンミクスチャモデルニューラルネットワーク分類器、放射基底関数ニューラルネットワーク、及びベクトル量子化分類器を含む。分類器により生成されるクラス指定は、加重投票システムにおいて結合される。すなわち、加重分類決定の最頻値が、ターゲットの全体的クラス指定として選択される。複数の分類器のクラス指定が同じである限度で、信頼性メトリックを構成してもよい。
本発明の一実施形態によると、ターゲットの自動ターゲット認識をする方法を提供する。該方法は、前記ターゲットの一連のイメージングレーダー画像を受け取るステップと、前記ターゲットの測定された特徴を含む特徴ベクトルを構成するステップと、第1のターゲット認識試行を実行するステップであって、ガウシアンミクスチャモデルニューラルネットワーク分類器を用いて、第1の複数の確率尤度を生成する、前記第1の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、第1のセットのクラス指定規則を用いて第1のクラス指定を生成する、前記第1のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含むステップと、第2のターゲット認識試行を実行するステップであって、放射基底関数ニューラルネットワーク分類器を用いて、第2の複数の確率尤度を生成する、前記第2の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、第2のセットのクラス指定規則を用いて第2のクラス指定を生成する、前記第2のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含むステップと、第3のターゲット認識試行を実行するステップであって、ベクトル量子化分類器を用いて、第3の複数の確率尤度を生成する、前記第3の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、第3のセットのクラス指定規則を用いて第3のクラス指定を生成する、前記第3のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含むステップと、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するステップとを含む。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するステップは、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップを含む。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップは、前記第1のクラス指定を加重2で加重し、前記第2のクラス指定を加重2で加重し、前記第3のクラス指定を加重1で加重するステップを含む。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップを含む。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップは、前記全体的クラス指定と等しいクラス指定の加重の、前記第1のクラス指定、前記第2のクラス指定、及び前記第3のクラス指定の加重の合計に対する比を求めるステップを含む。
一実施形態では、前記複数の候補ターゲットタイプは、複数の既知のターゲットタイプと、結合ターゲットタイプとを含む。
一実施形態では、前記複数の候補ターゲットタイプは、未知のターゲットタイプを含む。
一実施形態では、前記複数の候補ターゲットタイプは、未知大型ターゲットタイプと未知小型ターゲットタイプとを含む。
一実施形態では、前記未知大型ターゲットタイプは、推定長さは最大の既知のターゲットタイプの長さより30フィート長いターゲットを含む。
一実施形態では、前記未知小型ターゲットタイプは、推定長さが最小の既知のターゲットタイプの長さより20フィート短いターゲットを含む。
一実施形態では、前記ガウシアンミクスチャモデルニューラルネットワーク分類器は分類パラメータを含み、前記分類パラメータの1つは、未知のターゲットタイプに対応するクラス指定に応じて調整される。
一実施形態では、前記複数の候補ターゲットタイプは、未定のターゲットタイプを含む。
一実施形態では、第1のセットのクラス指定規則を用いて第1のクラス指定を生成するステップは、前記第1の複数の確率尤度の各々が第1の閾値より小さいとき、前記未定のターゲットタイプに対応する第1のクラス指定を生成するステップを含む。
一実施形態では、第2のセットのクラス指定規則を用いて第2のクラス指定を生成するステップは、前記第2の複数の確率尤度の各々が第2の閾値より小さいとき、前記未定のターゲットタイプに対応する第2のクラス指定を生成するステップを含む。
一実施形態では、前記ターゲットの一連のイメージングレーダー画像を受け取るステップは、前記ターゲットの逆合成開口レーダー画像を受け取るステップを含む。
本発明の一実施形態によると、ターゲットの自動ターゲット認識を行うシステムを提供する。該システムは処理ユニットを有し、該処理ユニットは、前記ターゲットの一連のイメージングレーダー画像を受け取り、前記ターゲットの測定された特徴を含む特徴ベクトルを構成し、第1のターゲット認識試行を実行し、前記実行は、ガウシアンミクスチャモデルニューラルネットワーク分類器を用いて、第1の複数の確率尤度を生成する、前記第1の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、第1のセットのクラス指定規則を用いて第1のクラス指定を生成する、前記第1のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含み、第2のターゲット認識試行を実行し、前記実行は、放射基底関数ニューラルネットワーク分類器を用いて、第2の複数の確率尤度を生成する、前記第2の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、第2のセットのクラス指定規則を用いて第2のクラス指定を生成する、前記第2のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含み、第3のターゲット認識試行を実行し、前記実行は、ベクトル量子化分類器を用いて、第3の複数の確率尤度を生成する、前記第3の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、第3のセットのクラス指定規則を用いて第3のクラス指定を生成する、前記第3のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含み、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するように構成される。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するステップは、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップを含む。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップは、前記第1のクラス指定を加重2で加重し、前記第2のクラス指定を加重2で加重し、前記第3のクラス指定を加重1で加重するステップを含む。
一実施形態では、前記システムは、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成することを含む。
一実施形態では、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップは、前記全体的クラス指定と等しいクラス指定の加重の、前記第1のクラス指定、前記第2のクラス指定、及び前記第3のクラス指定の加重の合計に対する比を求めるステップを含む。
特徴、態様、及び実施形態を添付した図面と共に説明する。
本発明の一実施形態による自動ターゲット認識するシステムと方法を示すブロック図である。 本発明の一実施形態による特徴抽出を示すブロック図である。 本発明の一実施形態による特徴ベクトル生成を示すブロック図である。 本発明の一実施形態によるガウシアンミクスチャモデルニューラルネットワークの予測分類マッパーを示すブロック図である。 本発明の一実施形態による放射基底関数ニューラルネットワークの予測分類マッパーを示すブロック図である。 本発明の一実施形態によるグラフィカルユーザインターフェースを示す図である。
添付した図面に関して記載した詳細な説明は、本発明により提供される、海事ATRのデータ融合分析の例示としての実施形態の説明であり、本発明が構成または利用される唯一の形式を表すものではない。この説明は、例示される実施形態に関して、本発明の特徴を記載する。しかし、言うまでもなく、同一の又は等価な機能及び構造は、異なる実施形態によっても実現でき、この異なる実施形態は本発明の精神と範囲に含まれる。同じエレメント番号は同じエレメントまたは特徴(features)を示す。
一実施形態では、ATR問題は、抽出可能な関連ターゲット特徴を特定することにより始まる。ISAR画像の場合、これは特に重要である。ドップラーディメンションに不確実性があるからである。レンジディメンションは、ターゲットの物理的距離をより適切に表し、特徴抽出目的により直接的に用いることができる。見かけの長さ(L)はISAR画像中のターゲットから決定される長さである。対応する真の物理的長さは、見かけの長さをそのアスペクト角Qaspで割って求められる。アスペクト角は、レーダー視線(LOS)とターゲットの縦軸とにより形成される角度として定義される。この角度は方位角及び仰角の関数である。長さの他に、海事のターゲットは、マスト、上部構造、回転オブジェクト、反射器など、他の特徴(distinguishing features)を有し得る。これらのロケーションは、関心ポイント(POI)とも呼ばれるが、ターゲットを識別し、ターゲット間を見分けるのに用いられる。
特徴抽出(feature extraction)は、クラスを識別する時に重要である。一実施形態では、プロセスは、セグメンテーション手法を用いてターゲット領域を分離することにより始まる。エッジはハフ処理(Hough processing)により見いだされるターゲットラインを用いて検出される。
図1は、一実施形態によるATRエンジンプロセスを示す全体的なブロック図である。データ入力は、レーダーデータ110と、トレーニングされた分類器パラメータ115とを含む。これらはレーダーデータ110のターゲット指定を実現する信号処理ブロック120に入力される。オフライントレーニングを用いて、トレーニングされた分類器パラメータ115を決定する。これをリアルタイムで用いて、入力画像のクラス指定を決定する。信号処理ブロックは、入力2次元画像を生成する画像形成ブロック125を含む。第2のステップは、良いフレーム選択ブロック130において、分類問題の入力画像の適合性を決定する。画像が適合していると見なされると、マルチフレーム特徴ブロック135で画像から特徴ベクトルが抽出される。前のフレームから得られた1次元の特徴の履歴を記憶しておくと、この特徴ベクトル抽出プロセスで役に立つ。抽出された特徴は、ターゲットクラスを決定する予測分類マッパーの入力として機能する。
画像形成ブロック125への入力は、レーダービデオフェーズ履歴及び補助データである。この実施形態では、ISARを用いて、y軸がドップラーであり、x軸がレンジである2次元画像を形成する。良いフレーム選択の事前スクリーニングは正しい分類のため必須である。第1の画像スクリーニングアプローチにより、確実に、ターゲットアスペクト角Qaspが−45≦Qasp≦45°の間隔で生じる。そうでなければ、画像は分類には適合しないフレームとして退けられる。この境界の外側のターゲットアスペクト角により、ターゲットは、レンジ次元またはドップラー次元、又は両方で歪み、真の長さ又は類似のパラメータの決定に誤差が生じる。
図2は、フレームの特徴抽出アルゴリズムのトップレベルのブロック図を示す。破線で囲ったエリアは、マルチフレーム特徴ブロック135を表し、各フレームに対して繰り返される。ターゲット領域分離ブロック210は、ターゲット領域の粗いシルエットを分離する。このシルエットは、入力画像と併せてサブマスクとして機能し、長さ推定及びハフ処理ブロック215への入力を構成する。ターゲットの長さが推定され、ターゲットのレンジ領域がさらに精細化され、ハフ処理アルゴリズムへの入力として機能する。ターゲットのハフピーク及びハフラインが抽出され、ターゲットの長さの推定も精密化される。これは特徴ベクトル生成ブロック220への入力として機能する。特徴ベクトル生成ブロック220は、フレームの特徴ベクトルを構成する。特徴ベクトルは、分類器トレーニングとテストに用いられる。トレーニングはオフラインで行われ、マルチフレーム特徴ブロック135が角トレーニングフレームに対して反復される。トレーニングを、フィールドで取得されたISARデータなど、実際のレーダーデータで行ない、トレーニングにシミュレーションデータを用いることに伴うデメリットを避ける。一組のリアルデータを、トレーニングに用いるサブセットと、テストに用いる第2のサブセットとに分離して、トレーニング後にATRシステムの性能を評価する。テストはリアルタイムで、1つのフレームに対して行われる。このフレームは、クラス指定が決定されるまで、全ATRエンジンを通して処理される。
図3は、一実施形態における、フレームの特徴ベクトルを生成するブロックエンジンを表す。ハフラインは、最初、画像中のターゲットの中心ライン、画像ライン、及び正確な長さを分離するのに使われる。正確な長さの推定は、合計規格化レンジプロファイル(sum normalized range profile、SNRP)法を用いて入力されサブマスクされた画像の処理により求められる。この長さ推定は、前出の4つの長さ決定を(メジアン演算子により)平均化したものであり、第1のターゲット特徴である。メジアン演算子の目的は、ランドリターン及び/又はノイズスパイクなどの長さ推定における瞬間的に誤差となる変動を回避することにある。ハフラインのロケーションとそれぞれの(ラインの)指定とを用いて、関連する垂直ラインを抽出する。これらのラインは、記憶されているSNRP合計プロファイルに関連するピークのロケーションと比較される。それらが同じ領域にある場合、ラインは、可能性のある関心点(POI)ロケーションとして指定される。ドップラー範囲が所定の閾値より大きいとき、POIは反射体/回転体の可能性があるとみなされる。そうでなければ、マスト/上部構造の可能性があると見なされる。SNRPピークロケーションとの相関性が高ければ、追加的にPOI加重を行う。すべてのターゲット領域に対して複数のPOIの1つのレンジ重心を記憶する。各レンジ重心には加重が指定される。領域にPOIが無ければ、加重はゼロである。POIのタイプ指定は、POIが無ければ0、上部構造/マストは1、又は回転体/反射体は2である。複数領域の利用は、2次元特徴抽出プロセスを1次元プロセスに変換するときに有利であり得る。1次元プロセスでは、標準的でより複雑な分類器を利用できる。この投影により分類プロセスが加速される。ターゲットがより大きい場合、より多くのセクションを利用することにより、POIレンジ範囲決定をより正確にできる(すなわち、上部構造はターゲットの複数の隣接領域に広がっていてもよい)。
トレーニングを目的として、特徴ベクトル入力に加え、クラスの分類器パラメータを確定しなければならない。本発明の実施形態は、ガウシアンミクスチャモデルニューラルネットワーク(GMM−NN)、放射基底関数ニューラルネットワーク(RBF−NN)、ベクトル量子化器(VQ)、及び分類器融合方法を含む。この方法はこれらの手法のすべてにより生成されるクラス指定を組み合わせるものである。
図4は、ガウシアンミクスチャモデルニューラルネットワーク(GMM−NN)法を利用する予測分類マッパーを示すブロック図である。GMM−NNの場合に確定を要するパラメータは、モデル中のミクスチャコンポーネント又は重心の数、(球状などの)モデルのタイプ、及びその次元である。「gmm」関数を用いたGMMの生成には、米国マサチューセッツ州ナティック市のMathworks社から入手できるMATLABTMの一部であるNetlabニューラルネットワークツールボックスを用いても良い。同ツールボックスの「gmminit」関数を用いて、GMM初期化をする。期待最大(EM)アルゴリズムを用いてGMMをトレーニングし、クラスの入力データを加重ガウシアンコンポーネントのミクスチャとして表す。
テストを目的として、データベース中の各クラス410(一実施形態では6つ)、及びそれより非常に大きいサイズの未知のターゲットのクラス(ここでは「未知大型」ターゲットタイプと呼ぶ)、及びそれより非常に小さいサイズの未知のターゲットのクラス(ここでは「未知小型」ターゲットタイプと呼ぶ)が、期待最大アルゴリズムを用いて生成された一組のGMMパラメータにより表される。データベース中のクラスは、ここではクラス1ないしクラス6、又は「CGCPS」、「TRB6」、「TWR823」、「CGCT」、「LA」及び「MII」と呼ばれる。これらの6つのクラス及び「未知小型」及び「未知クラス」は、図4では「GMMクラス1」ないし「GMMクラス8」とラベルする。テスト特徴ベクトルに直面すると、MATLABTM Netlabツールボックス関数「gmmprob」を用いて、(データベース中の6つのクラスと未知大型及び未知小型ターゲットタイプを含む)8つのGMMモデルのそれぞれに関連する確率を見いだす。その結果として起きる最大化を、クラス指定の基準として用いる。クラス指定が適用可能と見なされた場合、gmm確率の最大化はクラスに対応する。
一実施形態では、小型未知クラスは、データベース中にある真のターゲット長より平均的に小さい少なくとも20フィートの長さのターゲットを含むように構成され、大型未知クラスはデータベース中のものより30フィート長いもので構成される。一様ランダム変数を用いて、小型及び大型の未知ターゲットの両方の長さにバリエーションを与える。その他の特徴、例えば関心ポイントロケーション、その指定、及び加重などは、ランダム変数を用いてランダムに変えられ、未知ターゲットの特徴にもバリエーションを与える。
GMM確率決定は、GMM確率決定ブロック415で行われる。結果として得られる確率は、最大値演算器420で処理され、対応するブロック425のターゲットのクラス指定、すなわち「ターゲット指定」を行う。2つのクラス間で、差異閾値を越えない確率の分離を有することにより、gmm確率が近いとき、その結果として結合クラス(joint class)を決定する。ターゲット結合クラスは、「CGCPS−TRB6」、「TWR823−CGCT」、及び「LA−MIII」であり、ターゲット長さ特性の類似性によりアプリオリに確定される。この結合クラス決定段階において、ターゲットがどの1つの結合クラスにも対応しない2つのクラスにマッチする場合、クラス指定は「未決定(undetermined)」と呼ばれる。また、確率が、所定の信頼閾値より低い場合、指定が未決定と見なされる。これらのターゲット指定は、オペレータに表示するバーカウンタ430の使用の記録を付けて、指定に対してビジュアルな信頼を達成する。
図5は、放射基底関数ニューラルネットワーク(RBF−NN)法の予測分類マッパーを示すブロック図である。GMM−NNと同様、8つのクラス(データベース中の6つのターゲット、1つの未知大型、及び1つの未知小型ターゲット)は、一実施形態では、トレーニングのため、RBF−NN法とともに用いられる。未知のターゲットクラスは、上記のGMM−NN法と同じ特徴セットバリエーションを利用する。RBF−NNにより、隠れた各レイヤノードすなわち「ユニット」510は、特徴空間中のベクトルを中心とする釣り鐘状の放射基底関数で表される。
放射基底関数(RBF)ベースのニューラルネットワーク(NN)では、隠れたレイヤー中の各ニューロンは、活性化関数であるRBFから構成されている。加重パラメータは、これらのニューロンの中心と、幅とを表す。出力はRBFの線形結合である。一実施形態では、8つのクラスの各々は、一群の(例えば、30個の)隠れたユニット510を有し、これは各クラスの特徴データを用いて独立にトレーニングされる。入力レイヤーは、隠れたレイヤーへの入力として、10次元の特徴ベクトルxtを用いる:
Figure 2017522548
ここで、M(例えば、30)は、基底関数の数であり、cとΣとはそれぞれm番目の基底関数の平均ベクトルと共分散行列とであり、σ はm番目の基底関数の広がりを制御する平滑化パラメータである。k番目の出力は基底関数の線形加重合計の出力であり、すなわち
Figure 2017522548
ここで、xはt番目の入力ベクトルであり、Nは独立かつ同じ分布をしたパターンであり、ωk、0はバイアス項である。図5において、線形結合は合計素子520により形成される。隠れたレイヤノードからの出力はラインの加重により加重され、平均二乗誤差(MSE)基準を用いて加重を調節する。最急降下法を用いて、特徴ベクトル入力とそのターゲット出力ベクトルとをトレーニングしてもよい。MATLABTM Netlabツールボックスを利用してRBF−NNを直接トレーニングする。一実施形態では、RBFネットワークは、(特徴ベクトル中の特徴の数に対応する)10個の入力と、(クラスの数の)8個の出力と、30個の隠れたユニットとを有する。隠れたユニットの数は、クラスの分離可能性、複雑性、及びNN悪状態(NN ill−conditionality)を考慮して加重することにより求められる。MATLABTM関数「rbf」はRBFを構成及び初期化し、加重は平均が0で分散が1の正規分布を有し、隠れたユニット活性化関数rlogrを有する。関数「rbfsetbf」を用いてRBF−NNの基底関数を設定し、球状共分散で固有のGMMをトレーニングすることにより、それらが入力特徴データセットの無条件密度をモデル化するようにしてもよい。
一実施形態では、関数「rbftrain」は2段階トレーニングを行って、入力特徴ベクトルの各行と、対応するクラス指定ベクトルとの間の関係を生成する。中心の決定は、期待最大(EM)アルゴリズムを用いてGMMを円形共分散(circular covariances)とフィッティングする。最大繰り返し回数は100である。テストを目的として、「rbffwd」関数を用いて、線形出力で、構成されたRBFネットワークを通して前方伝搬する。これにより長さが8の出力ベクトルが得られ(8はクラス数である)、ベクトルの要素はそれぞれのクラスに入る尤度に対応する。このように、最大値に対応するインデックスはその特徴ベクトルの指定クラスである。2つのクラス間で、差異閾値を越えない尤度の分離を有することにより、RBF尤度が近いとき、その結果として結合クラス(joint class)を決定する。ターゲット結合クラスは、「CGCPS−TRB6」、「TWR823−CGCT」、及び「LA−MIII」であり、ターゲット長さ特性の類似性によりアプリオリに確定される。この結合クラス決定段階において、ターゲットがどの1つの結合クラスにも対応しない2つのクラスにマッチする場合、クラス指定は「未決定(undetermined)」である。また、確率が、所定の信頼閾値より低い場合、指定が未決定と見なされる。これらのターゲット指定は、オペレータに表示するバーカウンタ430の使用の記録を付けて、指定に対してビジュアルな信頼を達成する。
ベクトル量子化(VQ)法は、トレーニングを必要としないので、GMM−NN法及びRBF−NN法より単純である。VQ法は、基準、この場合には入力特徴セットとすべてのトレーニング特徴セットとの間のユークリッド距離を用い、最小値(最近隣)とそのクラス指定とを見つけることを試みる。幾つかの特徴の差分値は他の特徴より本来的に大きいので、スケーリング基準を用いる。例えば、長さ特徴差分は0.25でスケーリングされてもよい。同様に、POI加重は0.1でスケーリングされ、POI位置とPOI指定に対しては単位スケーリングを保持する。異なるクラス指定を生成するため、2つの最近隣を見つける。両方の最近隣が(可能性のある8個のクラスのうちの)同じクラスであるとき、クラス指定はそのクラスに設定する。2つの最近隣がアプリオリに決定された結合クラスであるとき、クラス指定はその結合クラスである。2つの最近隣が異なり、異なる結合クラスのメンバーであれば、クラスは未定である。これらのターゲット指定は、オペレータに表示するバーカウンタの使用の記録を付けて、指定に対してビジュアルな信頼を達成する。
分類器融合法は、一実施形態では、GMM−NN法、RBFNN法、及びVQ法の出力クラス指定を利用し、それらを組み合わせて全体的クラス指定にする。第1に、GMM−NNとRBF−NNとの両方の加重は、VQ法の加重の2倍である。VQ法は、ATRを目的としてたたき台のベースラインとして用いてもよく、この場合、タイブレークとして機能する。VQでタイブレークの状況が過剰にならないようにするため、他の手段を組み込む。かかる手段は、GMM−NN又はRBF−NNの(両方ではなく)どちらかが、最初の結合クラス指定をした場合には、結合クラス指定をそのクラスコンポーネントに分離することを含む。GMM−NNクラス指定とRBF−NNクラス指定との両方が結合クラスを作っている場合には、分離は行わない。各場合において、全体的なクラス決定は、3つの分類器から最大数の加重投票を受けたものであり、すなわち、GMM−NN、RBF−NN、及びVQ分類器の加重分類決定の最頻値である。融合方法は、複数の異なるアプローチを組み合わせて、全体的クラス指定に対して信頼性値を提供する。個々の分類器について、分類器融合の結果のターゲット指定は、指定に対する視覚的な信頼を得るため、オペレータに表示されるバーカウンタを用いて追跡される。
一実施形態では、クラス指定の信頼性の尺度を提供する信頼性計量(confidence metric)や「信頼性値(confidence value)」を提供する。バッファが満たされる最初の期間の後、信頼性値が更新される頻度は、クラス指定の頻度と一致される。3つの個別の分類器からの総加重投票数に対する加重投票数の割合として、瞬時信頼性値が計算される。再び、GMM−NN及びRBF−NN分類器のクラス指定は、VQ分類器のクラス指定の加重の2倍が与えられる。例えば、GMM−NN、RBF−NN分類器が、それぞれ加重2を有し、両方とも第1のクラスに投票し(第1のクラスの加重投票が4になり)、VQ分類器が、加重1を有し、第2のクラスに投票した(第2のクラスの加重投票が1になった)場合、本融合方法により生成されるクラス指定は第1のクラスである(すなわち、最大数の加重投票を受けたクラスである)。この例における加重投票の総数は5であり、信頼性推定値は4/5すなわち0.8である。信頼性値の瞬間的な大きい変化を避けるため、現在の信頼性値と、その前の9個の信頼性値のバッファを利用して平均する。この信頼性値はパーセンテージに変換され、表示される。バッファが満たされるまで、表示される平均信頼性値は、利用できる信頼性値にわたる平均である。
本発明の実施形態は、入来データを処理して、現在はデータベースに含まれていないターゲットからのものであると分類するISAR−ATRエンジンの機能を含む。単純化のため、データベース中のものより、長さで測って非常に大きい又は小さいターゲットが合成され、分類器が未知のターゲットを識別できる特徴空間エリアを構成するように、その特徴が変えられる。かかるターゲットが見つかったとき、その特徴が自動的に、大きいターゲット及び小さいターゲットのための未知のトレーニングデータベースに格納される。これらの特徴セットに十分にデータ入力されると、他のデータベースクラスを用いた再トレーニングを行い、出力分類器パラメータが計算され、テストプロセスに再組み込みされる。このプロセスは繰り返される。この再トレーニングプロセスは数ヶ月のオーダーの頻度で行われる。未知のユニークなターゲットをうまく処理すると、半自動的に現在のデータベースが成長し、最終的に既存の船舶クラスの大部分を処理することになる。分類器トレーニングと最適化は主観的性質があるので、人間のエキスパートがトレーニングに参加して、クラス分離が十分でなければ、幾つかの特徴セットを1つのクラスに結合することにより、クラス分離を妥当なクラス指定に適合させてもよい。
図6は、本発明の実施形態を実施するのに使っても良いグラフィカルユーザインターフェース(GUI)を示す。このGUIは、(適用あれば)分類器のトレーニングに用いることもできる。GUIインターフェース出力画像は、最初のターゲット分離後の元のISAR画像610と、元のISAR画像を含み、(白黒画像上にオーバーレイされた他の赤などの色のバーとして表示されてもよい)最初の長さ推定を有する画像620と、(ハフ処理ブロックに入力された)閾値処理したISAR画像にオーバーレイされたハフライン(Hough Lines)を含み、(第1の色の)中心ターゲットライン、(第2の色の)可能性のあるPOI、及び(第3の色の)ピークSNRPロケーションとを示す画像630とを含む。バーグラフ650は、それぞれのクラス指定を示し、マジョリティクラスのタイトルが示されている。一組の実際の写真660は、現在のフレームの決定されたクラスの異なる角度からのビューを示す。融合分類器を用いるとき、このフレームのクラス指定の信頼性パーセンテージが写真660のすぐ下に示される。グラフ670は、バッファされた1次元プロファイルの先行する10個のフレームからSNRPプロファイル合計(第1の色で)と、抽出されたピークロケーション(第2の色で、それぞれ「X」と示される)とを示す。
本発明の実施形態の要素は、一以上の処理ユニットを用いて実装してもよい。処理ユニットハードウェアは、例えば、特定用途集積回路(ASICs)、汎用または特殊用途中央処理ユニット(CPUs)、デジタル信号プロセッサ(DSPs)、グラフィックス処理ユニット(GPUs)、フィールドプログラマブルゲートアレイ(FPGAs)などのプログラマブルロジックデバイスを含んでいてもよい。「処理ユニット」との用語は、ここでは、データまたはデジタル信号を処理するのに利用される、ハードウェア、ファームウェア、及びソフトウェアの任意の組み合わせを含むものとして使われている。処理ユニットでは、各機能は、その機能を実行するように構成された、すなわち配線接続されたハードウェアで、又は非一時的記憶媒体に格納された命令を実行するように構成された、CPUなどのより汎用のハードウェアで、実行される。
ここでは、海事自動ターゲット認識用のデータ融合分析のシステムと方法の限定された実施形態を具体的に説明及び例示したが、当業者には多くの修正及び変形が明らかであろう。ここに開示のアルゴリズムは、合成開口レーダー(SAR)など任意のレーダーイメージングモードに適用できる。したがって、言うまでもなく、この発明の原理による、海事自動ターゲット認識用のデータ融合分析のシステムと方法は、ここに具体的に説明した以外の実施形態で実施できる。本発明は、以下の特許請求の範囲及びその均等物により確定される。

Claims (20)

  1. ターゲットの自動ターゲット認識をする方法であって、
    前記ターゲットの一連のイメージングレーダー画像を受け取るステップと、
    前記ターゲットの測定された特徴を含む特徴ベクトルを構成するステップと、
    第1のターゲット認識試行を実行するステップであって、
    ガウシアンミクスチャモデルニューラルネットワーク分類器を用いて、第1の複数の確率尤度を生成する、前記第1の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、
    第1のセットのクラス指定規則を用いて第1のクラス指定を生成する、前記第1のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含むステップと、
    第2のターゲット認識試行を実行するステップであって、
    放射基底関数ニューラルネットワーク分類器を用いて、第2の複数の確率尤度を生成する、前記第2の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、
    第2のセットのクラス指定規則を用いて第2のクラス指定を生成する、前記第2のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含むステップと、
    第3のターゲット認識試行を実行するステップであって、
    ベクトル量子化分類器を用いて、第3の複数の確率尤度を生成する、前記第3の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、
    第3のセットのクラス指定規則を用いて第3のクラス指定を生成する、前記第3のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含むステップと、
    前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するステップと
    を含む方法。
  2. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するステップは、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップを含む、
    請求項1に記載の方法。
  3. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップは、前記第1のクラス指定を加重2で加重し、前記第2のクラス指定を加重2で加重し、前記第3のクラス指定を加重1で加重するステップを含む、
    請求項2に記載の方法。
  4. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップを含む、
    請求項3に記載の方法。
  5. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップは、前記全体的クラス指定と等しいクラス指定の加重の、前記第1のクラス指定、前記第2のクラス指定、及び前記第3のクラス指定の加重の合計に対する比を求めるステップを含む、
    請求項4に記載の方法。
  6. 前記複数の候補ターゲットタイプは、複数の既知のターゲットタイプと、結合ターゲットタイプとを含む、
    請求項1に記載の方法。
  7. 前記複数の候補ターゲットタイプは、未知のターゲットタイプを含む、
    請求項1に記載の方法。
  8. 前記複数の候補ターゲットタイプは、未知大型ターゲットタイプと未知小型ターゲットタイプとを含む、
    請求項7に記載の方法。
  9. 前記未知大型ターゲットタイプは、推定長さは最大の既知のターゲットタイプの長さより30フィート長いターゲットを含む、
    請求項8に記載の方法。
  10. 前記未知小型ターゲットタイプは、推定長さが最小の既知のターゲットタイプの長さより20フィート短いターゲットを含む、
    請求項8に記載の方法。
  11. 前記ガウシアンミクスチャモデルニューラルネットワーク分類器は分類パラメータを含み、
    前記分類パラメータの1つは、未知のターゲットタイプに対応するクラス指定に応じて調整される、
    請求項7に記載の方法。
  12. 前記複数の候補ターゲットタイプは、未定のターゲットタイプを含む、
    請求項1に記載の方法。
  13. 第1のセットのクラス指定規則を用いて第1のクラス指定を生成するステップは、前記第1の複数の確率尤度の各々が第1の閾値より小さいとき、前記未定のターゲットタイプに対応する第1のクラス指定を生成するステップを含む、
    請求項12に記載の方法。
  14. 第2のセットのクラス指定規則を用いて第2のクラス指定を生成するステップは、前記第2の複数の確率尤度の各々が第2の閾値より小さいとき、前記未定のターゲットタイプに対応する第2のクラス指定を生成するステップを含む、
    請求項12に記載の方法。
  15. 前記ターゲットの一連のイメージングレーダー画像を受け取るステップは、前記ターゲットの逆合成開口レーダー画像を受け取るステップを含む、
    請求項1に記載の方法。
  16. ターゲットの自動ターゲット認識を行うシステムであって、処理ユニットを有し、該処理ユニットは、
    前記ターゲットの一連のイメージングレーダー画像を受け取り、
    前記ターゲットの測定された特徴を含む特徴ベクトルを構成し、
    第1のターゲット認識試行を実行し、前記実行は、
    ガウシアンミクスチャモデルニューラルネットワーク分類器を用いて、第1の複数の確率尤度を生成する、前記第1の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、
    第1のセットのクラス指定規則を用いて第1のクラス指定を生成する、前記第1のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含み、
    第2のターゲット認識試行を実行し、前記実行は
    放射基底関数ニューラルネットワーク分類器を用いて、第2の複数の確率尤度を生成する、前記第2の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、
    第2のセットのクラス指定規則を用いて第2のクラス指定を生成する、前記第2のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含み、
    第3のターゲット認識試行を実行し、前記実行は、
    ベクトル量子化分類器を用いて、第3の複数の確率尤度を生成する、前記第3の複数の確率尤度の各々は複数の候補ターゲットタイプの1つに対応するステップと、
    第3のセットのクラス指定規則を用いて第3のクラス指定を生成する、前記第3のクラス指定は前記複数の候補ターゲットタイプの1つに対応するステップとを含み、
    前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するように構成された、
    システム。
  17. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、全体的クラス指定を生成するステップは、前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップを含む、
    請求項16に記載のシステム。
  18. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定との加重組み合わせを構成するステップは、前記第1のクラス指定を加重2で加重し、前記第2のクラス指定を加重2で加重し、前記第3のクラス指定を加重1で加重するステップを含む、
    請求項17に記載のシステム。
  19. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップを含む、
    請求項18に記載のシステム。
  20. 前記第1のクラス指定と、第2のクラス指定と、第3のクラス指定とを組み合わせて、信頼性メトリックを生成するステップは、前記全体的クラス指定と等しいクラス指定の加重の、前記第1のクラス指定、前記第2のクラス指定、及び前記第3のクラス指定の加重の合計に対する比を求めるステップを含む、
    請求項19に記載のシステム。


JP2016570997A 2014-06-03 2015-05-28 海事自動ターゲット認識のためのデータ融合分析 Pending JP2017522548A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/295,193 US9299010B2 (en) 2014-06-03 2014-06-03 Data fusion analysis for maritime automatic target recognition
US14/295,193 2014-06-03
PCT/US2015/033063 WO2015187468A1 (en) 2014-06-03 2015-05-28 Data fusion analysis for maritime automatic target recognition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019019782A Division JP6679774B2 (ja) 2014-06-03 2019-02-06 海事自動ターゲット認識のためのデータ融合分析

Publications (1)

Publication Number Publication Date
JP2017522548A true JP2017522548A (ja) 2017-08-10

Family

ID=53373647

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016570997A Pending JP2017522548A (ja) 2014-06-03 2015-05-28 海事自動ターゲット認識のためのデータ融合分析
JP2019019782A Active JP6679774B2 (ja) 2014-06-03 2019-02-06 海事自動ターゲット認識のためのデータ融合分析

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019019782A Active JP6679774B2 (ja) 2014-06-03 2019-02-06 海事自動ターゲット認識のためのデータ融合分析

Country Status (6)

Country Link
US (1) US9299010B2 (ja)
EP (1) EP3152707B1 (ja)
JP (2) JP2017522548A (ja)
AU (1) AU2015271047B2 (ja)
TW (1) TWI579777B (ja)
WO (1) WO2015187468A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102089523B1 (ko) * 2018-12-05 2020-03-16 영남대학교 산학협력단 소형 표적 검출 장치 및 방법
KR102141163B1 (ko) * 2020-05-06 2020-08-04 국방과학연구소 Sar 영상 생성을 위한 뉴럴 네크워크 학습 방법 및 장치.
JP2021508032A (ja) * 2017-12-22 2021-02-25 エス・エム・エス・スマート・マイクロウェーブ・センサーズ・ゲーエムベーハー 物体の少なくとも1つのパラメータを決定する方法および装置
JP2021110565A (ja) * 2020-01-07 2021-08-02 株式会社東芝 類別装置及び類別方法
JP2021149360A (ja) * 2020-03-18 2021-09-27 株式会社東芝 類別装置のための学習済みモデル生成装置、及び類別装置のための学習済みモデル生成方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10310068B2 (en) * 2014-12-08 2019-06-04 Northrop Grumman Systems Corporation Variational track management
US10268914B1 (en) * 2016-01-07 2019-04-23 Hrl Laboratories, Llc Blind sensing for hyperspectral surveillance
US10732277B2 (en) * 2016-04-29 2020-08-04 The Boeing Company Methods and systems for model based automatic target recognition in SAR data
CN106326932A (zh) * 2016-08-25 2017-01-11 北京每刻风物科技有限公司 一种基于神经网络的电力巡线图像自动识别方法、装置
JP2018048862A (ja) * 2016-09-20 2018-03-29 株式会社東芝 レーダ信号処理装置、レーダ信号処理方法、およびレーダ信号処理プログラム
CN108022123B (zh) * 2016-11-04 2021-12-07 南京星云数字技术有限公司 一种业务模型的自动调整方法及装置
CN107657459A (zh) * 2017-09-06 2018-02-02 翔创科技(北京)有限公司 牲畜的身份验证方法、保险理赔方法、溯源方法、存储介质和电子设备
EP3505959A1 (en) 2017-12-29 2019-07-03 Acconeer AB An autonomous mobile cleaning robot
CN108345843B (zh) * 2018-01-25 2020-12-29 电子科技大学 一种基于混合深度回归网络的头部姿态估计方法
CN108416391B (zh) * 2018-03-16 2020-04-24 重庆大学 基于视觉皮层处理机制及脉冲监督学习的图像分类方法
CN110414541B (zh) * 2018-04-26 2022-09-09 京东方科技集团股份有限公司 用于识别物体的方法、设备和计算机可读存储介质
KR102175239B1 (ko) * 2018-08-16 2020-11-06 (주)스마트레이더시스템 인공 지능을 이용하여 레이더 신호로부터 타겟을 추적하는 방법 및 그 장치
TWI709188B (zh) 2018-09-27 2020-11-01 財團法人工業技術研究院 基於機率融合的分類器、分類方法及分類系統
US10769005B2 (en) * 2018-12-07 2020-09-08 Goodrich Corporation Communication interface between a fusion engine and subsystems of a tactical information system
SE542921C2 (en) * 2019-01-24 2020-09-15 Acconeer Ab Autonomous moving object with radar sensor
US11676367B1 (en) * 2019-02-07 2023-06-13 Hrl Laboratories, Llc System and method for anomaly detection using anomaly cueing
EP3715901A1 (en) 2019-03-29 2020-09-30 Robin Radar Facilities BV Detection and classification of unmanned aerial vehicles
US11450084B2 (en) 2019-05-13 2022-09-20 Goodrich Corporation Data fusion on target taxonomies
CN110826587B (zh) * 2019-08-15 2024-03-19 南京航空航天大学 基于改进的加权一类支持向量机的涡轴发动机故障检测方法
CN112946600B (zh) * 2021-03-17 2022-03-04 西安电子科技大学 基于wgan-gp的雷达hrrp数据库构建方法
CN113156416B (zh) * 2021-05-17 2022-05-17 电子科技大学 一种基于多重核字典学习的未知目标判别方法
CN113191332B (zh) * 2021-05-27 2023-06-27 安阳工学院 一种基于深度学习置信度估计的目标检测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097607A (ja) * 2006-10-11 2008-04-24 Seiko Epson Corp 入力イメージを自動的に分類する方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6255981B1 (en) 1999-08-04 2001-07-03 Raytheon Company Method for range alignment and rotation correction of a high resolution image in an inverse synthetic aperture radar system
US6687577B2 (en) * 2001-12-19 2004-02-03 Ford Global Technologies, Llc Simple classification scheme for vehicle/pole/pedestrian detection
US7889232B2 (en) * 2004-06-22 2011-02-15 Stratech Systems Limited Method and system for surveillance of vessels
US7116265B2 (en) * 2005-02-10 2006-10-03 Raytheon Company Recognition algorithm for the unknown target rejection based on shape statistics obtained from orthogonal distance function
US7821870B2 (en) * 2005-08-19 2010-10-26 Mitsubishi Electric Research Laboratories Inc. Method and system for identifying moving objects using acoustic signals
US7545307B2 (en) * 2005-12-15 2009-06-09 Raytheon Company Target recognition system and method with unknown target rejection
WO2007133085A1 (en) * 2006-05-15 2007-11-22 Telefonaktiebolaget Lm Ericsson (Publ) A method and system for automatic classification of objects
US8232908B2 (en) * 2008-06-26 2012-07-31 Raytheon Company Inverse synthetic aperture radar image processing
US8730091B2 (en) 2011-05-10 2014-05-20 Raytheon Company Target identification for a radar image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097607A (ja) * 2006-10-11 2008-04-24 Seiko Epson Corp 入力イメージを自動的に分類する方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KUNCHEVA LUDMILA: ""Chapter 4.3 WEIGHTED MAJORITY VOTE"", COMBINING PATTERN CLASSIFIERS, JPN6017050073, 2 February 2005 (2005-02-02), pages 123 - 125, ISSN: 0003894952 *
SATHYENDRA HARSHA ET. AL.: ""Automated Radar Image Target Recognition Based on Segmented Feature Extraction Using Adaptive Lengt", IEEE RADAR CONFERENCE, JPN6017050071, 29 April 2013 (2013-04-29), pages 1 - 5, XP032479593, ISSN: 0003894951, DOI: 10.1109/RADAR.2013.6585986 *
SATHYENDRA HARSHA ET. AL.: ""Effects of Using Enhanced Input Range Profiles for 1-d Automated Maritime Vessel Classification"", IEEE RADAR CONFERENCE, JPN6017050075, 19 May 2014 (2014-05-19), pages 112 - 117, XP032628115, ISSN: 0003894953, DOI: 10.1109/RADAR.2014.6875566 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508032A (ja) * 2017-12-22 2021-02-25 エス・エム・エス・スマート・マイクロウェーブ・センサーズ・ゲーエムベーハー 物体の少なくとも1つのパラメータを決定する方法および装置
JP7138970B2 (ja) 2017-12-22 2022-09-20 エス・エム・エス・スマート・マイクロウェーブ・センサーズ・ゲーエムベーハー 物体の少なくとも1つのパラメータを決定する方法および装置
US11841418B2 (en) 2017-12-22 2023-12-12 S.M.S. Smart Microwave Sensors Gmbh Method and device for determining at least one parameter of an object
KR102089523B1 (ko) * 2018-12-05 2020-03-16 영남대학교 산학협력단 소형 표적 검출 장치 및 방법
JP2021110565A (ja) * 2020-01-07 2021-08-02 株式会社東芝 類別装置及び類別方法
JP2021149360A (ja) * 2020-03-18 2021-09-27 株式会社東芝 類別装置のための学習済みモデル生成装置、及び類別装置のための学習済みモデル生成方法
JP7475910B2 (ja) 2020-03-18 2024-04-30 株式会社東芝 類別装置のための学習済みモデル生成装置、及び類別装置のための学習済みモデル生成方法
KR102141163B1 (ko) * 2020-05-06 2020-08-04 국방과학연구소 Sar 영상 생성을 위한 뉴럴 네크워크 학습 방법 및 장치.

Also Published As

Publication number Publication date
AU2015271047B2 (en) 2020-07-16
US9299010B2 (en) 2016-03-29
JP2019070671A (ja) 2019-05-09
EP3152707A1 (en) 2017-04-12
EP3152707B1 (en) 2023-11-01
JP6679774B2 (ja) 2020-04-15
WO2015187468A1 (en) 2015-12-10
TW201610864A (zh) 2016-03-16
TWI579777B (zh) 2017-04-21
AU2015271047A1 (en) 2017-01-19
US20150347871A1 (en) 2015-12-03

Similar Documents

Publication Publication Date Title
JP6679774B2 (ja) 海事自動ターゲット認識のためのデータ融合分析
Su et al. Object detection and instance segmentation in remote sensing imagery based on precise mask R-CNN
Chadwick et al. Distant vehicle detection using radar and vision
CN110472627B (zh) 一种端到端的sar图像识别方法、装置及存储介质
JP6397379B2 (ja) 変化領域検出装置、方法、及びプログラム
Sommer et al. Comprehensive analysis of deep learning-based vehicle detection in aerial images
JP7263216B2 (ja) ワッサースタイン距離を使用する物体形状回帰
KR102279388B1 (ko) 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
Zhang et al. Adversarial deception against SAR target recognition network
Tawab et al. Efficient multi-feature PSO for fast gray level object-tracking
Kumar et al. Feature relevance analysis for 3D point cloud classification using deep learning
Dietrich-Sussner et al. Synthetic glacier SAR image generation from arbitrary masks using pix2pix algorithm
KR20150114088A (ko) 입력 이미지로부터 객체를 검출하기 위한 방법, 장치 및 컴퓨터 판독가능 기록매체
Fein-Ashley et al. Benchmarking deep learning classifiers for sar automatic target recognition
Tucker et al. Generalized likelihood ratio test for finite mixture model of K-distributed random variables
Fagir et al. Change Detection between High-Resolution Airborne SAR and Multispectral Data with Dempster-Shafer Theory
Petillot et al. Target recognition in synthetic aperture sonar and high resolution side scan sonar using AUVs
Krucinski et al. Machine Learning for Missile Streak Detection and Localization
RU2620727C2 (ru) Способ распознавания космических аппаратов по редуцированным радиолокационным изображениям
Ouarda Images segmentation based on interval type-2 Fuzzy C-Means
Herrera et al. Stereovision matching based on combining neural networks for outdoor images
Zhai et al. Underwater object highlight segmentation in SAS image using Rayleigh mixture model
Deleval et al. Multiple object tracking combining camera and radar
Ouarda Image thresholding using type-2 fuzzy c-partition entropy and particle swarm optimization algorithm
Lv et al. Recognition for SAR deformation military target from a new MiniSAR dataset using multi-view joint transformer approach

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181009