JP2001525548A - イメージング・ターゲット検出方法および装置 - Google Patents

イメージング・ターゲット検出方法および装置

Info

Publication number
JP2001525548A
JP2001525548A JP2000523561A JP2000523561A JP2001525548A JP 2001525548 A JP2001525548 A JP 2001525548A JP 2000523561 A JP2000523561 A JP 2000523561A JP 2000523561 A JP2000523561 A JP 2000523561A JP 2001525548 A JP2001525548 A JP 2001525548A
Authority
JP
Japan
Prior art keywords
target
image
background
pixels
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000523561A
Other languages
English (en)
Other versions
JP3340427B2 (ja
Inventor
マイケル・アレン・デエット
エリック・ジャコブ・ドゥグラーフ
スティーヴン・ギルド・ジョンソン
メリンダ・リー・ノールクロス
アンソニー・ジョン・ポーラク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Publication of JP2001525548A publication Critical patent/JP2001525548A/ja
Application granted granted Critical
Publication of JP3340427B2 publication Critical patent/JP3340427B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/781Details
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

(57)【要約】 ターゲット・エリアのスキャンによるターゲット・エリアのイメージ生成および、類似の強度レベルを有するピクセルの識別、類似の強度レベルを有する連続したピクセルの領域へのグループ化、各ターゲット領域ごとの特徴セットの計算、および特徴に応じて行う、領域に対するターゲットの候補としての分類によるターゲットの弁別;類似の強度レベルを有するピクセルの識別、類似の強度レベルを有する連続したピクセルの領域へのグループ化、各バックグラウンド領域ごとの特徴セットの計算、および特徴に応じて行う、領域に対する地勢特徴としての分類によるバックグラウンドの弁別;および分類済み地勢特徴ならびに分類済みターゲット候補の解析によるターゲットの決定および優先順位設定からなるイメージング・ターゲット検出システムおよび方法。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】
本発明は、2色の赤外線イメージを使用する自律ターゲット検出および優先順
位設定のための方法およびシステムに関する。
【0002】
【従来の技術および発明が解決しようとする課題】
赤外線目標検知追尾装置(シーカー)は、自律ミサイル・ターゲティング・シ
ステムにおいてバックグラウンドのクラッタの中からターゲット物体を自動選択
するために使用されている。軍需品の一部は、自由落下し、空力的にステアリン
グされる小型弾頭を有するビークルであり、それを正確にターゲットに命中させ
なければならない。
【0003】 これらのミサイルまたは軍需品は、一般に5インチの直径のハウジングおよび
約100立法インチの体積を有する小型のデバイスである。こういったサイズを
前提に、物理的なハウジング内部に収まる最少量のハードウエアを使用してター
ゲット・データを処理し得なければならない。しかもプロセッサは、これらのミ
サイルまたは軍需品がそのターゲットに向かって移動するわずか数秒の間にター
ゲット情報を処理できる充分に高速なものであることを要する。それに加えて、
これらのビークルが消耗品であることから、プロセッサのコストは可能な限り低
くなければならない。
【0004】 ターゲティング・プロセスは、3段階、つまり捕捉、追跡および命中に分けら
れる。それぞれの段階は、直前のプロセッシング段階で得られた情報を基礎とす
る。このプロセッシングは、ミサイルまたは軍需品が発射された後は、それとの
通信が皆無になることから、各段階において高精度を維持しなければならない。
【0005】 赤外線シーキング・システムの1つの問題点は、目標とバックグラウンド・ク
ラッタの間の弁別が困難であることを否定し得ない点である。クラッタには、霧
等の天候条件および、フレアならびにジャミング・デバイス等のカウンタメジャ
ーの存在が含まれ、これらはすべて周囲バックグラウンド内の所望ターゲットを
不明瞭にする。この問題の影響を減殺するためには、各種のバックグラウンド地
勢に関してトレーニング・データを収集し、ミサイルまたは軍需品のガイドを補
助し得るイメージ・パターンを提供する。任意のあるロケーションに広範多岐に
わたる天候条件があり、それぞれの天候条件に関するトレーニング・データが特
定ターゲットに関連付けされたデータを含むとすれば、正確かつ迅速なターゲテ
ィングに大量のトレーニング・データが必要になり、ミサイルまたは軍需品は、
適切な短時間内にソートし、処理することができなくなる。
【0006】 天候条件によっては、地勢の一部である何らかのものから目標を弁別する際に
混乱がもたらされることもある。特定の環境が、ターゲットの放射レベルに非常
に近い平均バックグラウンド放射レベルを放出していることも少なからずあり得
る。たとえば、日中、数時間にわたって日光にさらされた岩塊は、ホット・スポ
ットとして検出され、目標と誤認されることがある。
【0007】 赤外線目標検知追尾装置もまた、通常は、たとえば現在軍事行動中の戦車等の
熱を帯びた物体を検出すべく設計されている。軍事行動から外れ、時間が経過し
て冷却された戦車等の冷ターゲットは、赤外線目標検知追尾装置にとって、はる
かに困難な問題を呈することになる。
【0008】 以上を鑑み、本発明は、改良されたイメージング・ターゲット検出方法および
システムを提供することを1つの目的とする。
【0009】 本発明の別の目的は、バックグラウンド・クラッタから熱および冷ターゲット
の両方を識別し得るイメージング・ターゲット検出方法およびシステムを提供す
ることである。
【0010】 本発明のさらに別の目的は、必要とするトレーニング・データが少ないイメー
ジング・ターゲット検出方法およびシステムを提供することである。
【0011】 本発明のさらに別の目的は、フレア等のカウンタメジャーを識別し、そのター
ゲティングを回避するイメージング・ターゲット検出方法およびシステムを提供
することである。
【0012】 本発明のさらに別の目的は、軍事行動中ならびに軍事行動外の赤外線ターゲッ
ト両方に対する改良されたターゲット弁別を提供するイメージング・ターゲット
検出方法およびシステムを提供することである。
【0013】 本発明のさらに別の目的は、バックグラウンド・クラッタとほぼゼロdBに等
しいコントラストを有するターゲットを検出するイメージング・ターゲット検出
方法およびシステムを提供することである。
【0014】 本発明のさらに別の目的は、バックグラウンド・イメージのパターンを吟味し
、軍事ターゲットに関連することが偵察によって明らかになっている道路を識別
するイメージング・ターゲット検出方法およびシステムを提供することである。
【0015】 本発明のさらに別の目的は、ビタビ特徴追跡を使用して道路のエッジを検出す
るイメージング・ターゲット検出方法およびシステムを提供することである。
【0016】 本発明のさらに別の目的は、円スキャン座標を使用して、複数の見え方を呈す
る独立に検出されたイメージ・データを併合するイメージング・ターゲット検出
方法およびシステムを提供することである。
【0017】 本発明のさらに別の目的は、プロセッシング効率が高く、その結果、自己誘導
ミサイルにおけるサイズならびに電力の制約内で実装可能なイメージング・ター
ゲット検出方法およびシステムを提供することである。
【0018】 本発明のさらに別の目的は、検出ターゲットの優先順位設定に信頼性の高いス
コアを提供するイメージング・ターゲット検出方法およびシステムを提供するこ
とである。
【0019】
【課題を解決するための手段】
この発明は、真にコンパクト、高効率、かつ高信頼性のターゲット検出システ
ムは、ターゲット・エリアのイメージを生成し、ターゲットとバックグラウンド
を独立に弁別し、続いてあらかじめ分類した、可能性のあるターゲットと地勢の
特徴を併合し、さらにそれを評価してターゲットを識別し、信頼係数を当該ター
ゲットに割り当て、さらにその後ビタビ追跡を使用して識別済みの地勢の特徴の
信頼性を確認することによってもたらし得るという認識に基づいている。
【0020】 この発明は、ターゲット・エリアのイメージを生成するスキャナ手段を備える
イメージング・ターゲット検出システムを特徴とする。それには、類似の強度レ
ベルを有するイメージ・ピクセルを識別するためのターゲット・セグメンテーシ
ョン手段、類似の強度レベルを有する連続したピクセルを領域にグループ化する
ためのターゲット領域分け手段、各ターゲット領域ごとに特徴のセットを計算す
るための手段、および特徴に応じて、可能性のあるターゲットとして領域を分類
するための手段を含むターゲット弁別手段が備わる。それには、類似の強度レベ
ルを有するイメージ・ピクセルを識別するためのバックグラウンド・セグメンテ
ーション手段、類似の強度レベルを有する連続したピクセルを領域にグループ化
するためのバックグラウンド領域分け手段、各バックグラウンド領域ごとに特徴
のセットを計算するための手段、および、特徴に応じて、地勢の特徴としてバッ
クグラウンド領域を分類するための手段を含むバックグラウンド弁別手段が備わ
る。それには、分類された地勢の特徴および分類されたターゲットの候補に応答
してターゲットの決定および優先順位設定を行うためのイメージ解析ロジック手
段が備わる。
【0021】 好ましい一実施例においては、ターゲット弁別手段が、累積分布関数セグメン
テーション手段を包含することができる。バックグラウンド弁別手段は、ベクト
ル量子化セグメンテーション手段を包含することができる。各ターゲット領域ご
とに特徴セットを計算するための手段は、あらかじめ決定した数を超えるピクセ
ルを含む領域およびそれを下回るピクセルを含む領域を消去するための手段を含
むことができる。各バックグラウンド領域ごとに特徴セットを計算するための手
段は、あらかじめ選択した数を超えるピクセルを含む領域およびそれを下回るピ
クセルを含む領域を消去するための手段を含むことができる。バックグラウンド
弁別手段は、イメージのピクセルにおけるトラックを検出するためのビタビ追跡
手段を備え、バックグラウンド領域を分類するための手段は、このビタビ追跡手
段および各バックグラウンド領域ごとに特徴セットを計算するための手段に応答
して、地勢の特徴としてバックグラウンド領域を分類する。スキャナ手段は、タ
ーゲット・エリアを表す信号を提供するためのスキャニング・デバイスおよび、
その信号をターゲット・エリアのエリア・イメージに変換するための幾何学的変
換手段を備えることができる。このイメージは、色の異なる少なくとも2つのイ
メージを含む。異なる色は、中間および遠赤外線波長に含まれるものとすること
ができる。各色のイメージごとに、ターゲット弁別手段およびバックグラウンド
弁別手段を備えてもよい。イメージ解析ロジックは、ターゲットの優先順位設定
に関する信頼係数を提供することができる。
【0022】 また、この発明は、ターゲット・エリアのイメージを生成するスキャナ手段を
備えるミサイル・イメージング・ターゲット検出システムを特徴とする。それに
は、類似の強度レベルを有するイメージ・ピクセルを識別するためのターゲット
・セグメンテーション手段、類似の強度レベルを有する連続したピクセルを領域
にグループ化するためのターゲット領域分け手段、各ターゲット領域ごとに特徴
のセットを計算するための手段、および特徴に応じて、可能性のあるターゲット
として領域を分類するための手段を含むターゲット弁別手段が備わる。それには
、類似の強度レベルを有するイメージ・ピクセルを識別するためのバックグラウ
ンド・セグメンテーション手段、類似の強度レベルを有する連続したピクセルを
領域にグループ化するためのバックグラウンド領域分け手段、各バックグラウン
ド領域ごとに特徴のセットを計算するための手段、および、特徴に応じて、地勢
の特徴としてバックグラウンド領域を分類するための手段を含むバックグラウン
ド弁別手段が備わる。それには、分類された地勢の特徴および分類されたターゲ
ットの候補に応答してターゲットの決定および優先順位設定を行うためのイメー
ジ解析ロジック手段が備わる。
【0023】 また、この発明は、ターゲット・エリアをスキャンしてターゲット・エリアの
イメージを生成するステップ、および、ターゲットを弁別するステップであって
、類似の強度レベルを有するイメージ・ピクセルを識別するステップ;類似の強
度レベルを有する連続したピクセルを領域にグループ化するステップ;各領域ご
とに特徴のセットを計算するステップ;およびその特徴に応じて、可能性のある
ターゲットとして領域を分類するステップからなるターゲットを弁別するステッ
プを包含するイメージング・ターゲット検出のための方法を特徴とする。バック
グラウンドは、類似の強度レベルを有するイメージ・ピクセルを識別し、類似の
強度レベルを有する連続したピクセルを領域にグループ化し、各バックグラウン
ド領域ごとに特徴のセットを計算し、さらにその特徴に応じて、地勢の特徴とし
てバックグラウンド領域を分類することによって弁別される。分類された地勢の
特徴およびターゲットの候補には、その後ターゲットの決定および優先順位設定
のための解析が行われる。
【0024】 好ましい一実施例においては、ターゲットの弁別に、累積分布関数に従ったセ
グメンテーションを包含することができる。バックグラウンドの弁別には、ベク
トル量子化のセグメンテーションを包含することができる。各ターゲット領域ご
とに行う特徴セットの計算は、第1のあらかじめ決定した数を超えるピクセルを
含む領域および第2のあらかじめ決定した数を下回るピクセルを含む領域を削除
するステップを含むことができる。各バックグラウンド領域ごとに行う特徴セッ
トの計算は、第1のあらかじめ選択した数を超えるピクセルを含む領域および第
2のあらかじめ選択した数を下回るピクセルを含む領域を削除するステップを含
むことができる。バックグラウンドの弁別は、イメージのピクセルにおけるトラ
ックを検出するためのビタビ追跡を含むことができる。バックグラウンド領域を
分類するときは、このビタビ追跡と各バックグラウンド領域ごとに計算した特徴
セットを相関させて、地勢の特徴として領域を分類することができる。スキャニ
ングは、ターゲット・エリアを表す信号を提供し、その信号をターゲット・エリ
アのイメージに幾何学的変換するステップを含むことができる。このイメージは
、少なくとも色の異なる2つのイメージを含む。異なる色は、中間および遠赤外
線波長に含まれる色とすることができる。各色のイメージごとに、ターゲットの
弁別およびバックグラウンドの弁別を行ってもよい。あらかじめ分類した地勢の
特徴および分類したターゲットの解析は、これらのターゲットの優先順位設定に
関する信頼係数を提供することができる。
【0025】 また本発明は、ターゲット・エリアをスキャンしてそのイメージを生成するス
テップ、および、ターゲットを弁別するステップであって、類似の強度レベルを
有するイメージ・ピクセルを識別するステップ;類似の強度レベルを有する連続
したピクセルを領域にグループ化するステップ;各領域ごとに特徴のセットを計
算するステップ;およびその特徴に応じて、可能性のあるターゲットとして領域
を分類するステップからなるターゲットを弁別するステップを包含するミサイル
・イメージング・ターゲット検出のための方法を特徴とする。バックグラウンド
の弁別には、類似の強度レベルを有するイメージ・ピクセルを識別するステップ
、類似の強度レベルを有する連続したピクセルを領域にグループ化するステップ
、各バックグラウンド領域ごとに特徴のセットを計算するステップ、およびその
特徴に応じて、地勢の特徴としてバックグラウンド領域を分類するステップを包
含するものとし得る。分類した地勢の特徴およびターゲットの候補は、ターゲッ
トの決定および優先順位設定のために解析することができる。
【0026】
【発明の実施の形態】
以上ならびに本発明のこのほかの特徴および利点については、以下の好ましい
実施例の説明ならびに添付の図面から当業者において明らかなものとなろう。
【0027】 図1は、道路エッジ6を有する道路4に沿って移動する戦車等の一連の軍事タ
ーゲット2および2’を示した自己ターゲティング・ミサイルの運用の斜視図1
1である。ランチャ8は、自由落下し、空力的にステアリングされるビークルで
ある多数の赤外線(IR)サブミサイル14、14’および14”を収めたミサ
イル12を配備している。各サブミサイルは、自己ターゲティングであり、14
”に示されるようにターゲット2を見つけ出すための赤外線センサ16を有して
いる。動作においては、サブミサイル14がミサイル12から落とされると、タ
ーゲット・エリア22の中心23の方向を指向するビークル軸68を中心とした
コニカル・スキャン20を実行してターゲット2のシーキングを開始する。サブ
ミサイル14との通信が、その発射の直後に途絶することから、ターゲット2を
探し出すプロセスは、可能な限り正確でなければならない。コニカル・スキャン
20の間に赤外線センサ16は、カウンタメジャーのターゲティングを防止する
ために2つの異なる赤外線波長(中間赤外線帯域および遠赤外線帯域)または色
において、ターゲット・エリア22の一連のスナップショット・イメージである
フォーマット済みのイメージ36を検出し、それに応答してサブミサイル14は
、飛行経路24をターゲット2の方向に調整する。複数のスナップショットを撮
り、それを評価する必要性は、単一のコニカル・スキャンの投影において見るこ
とができるエリアより大きなエリアにわたるターゲット検出を可能にすることを
理由とする。サブミサイル14のフレキシブル・ウイング26およびスタビライ
ザ・フィン28は、飛行経路24の維持を可能にする。ターゲット2に衝突する
と、サブミサイル14の弾頭30が炸裂し、ターゲット2を破壊する。
【0028】 図2に示したイメージング・ターゲット検出システム32は、サブミサイル1
4内に常駐し、コニカル・スキャン入力20に基づいてターゲット・エリア22
のフォーマット済みイメージ36を生成するスキャナ34を備える。それぞれの
フォーマット済みイメージ36は、ターゲット弁別器40およびバックグラウン
ド弁別器42からなるターゲット認識装置38によって処理される。ターゲット
弁別器40は、フォーマット済みイメージ36に基づいてターゲット候補44を
決定する。バックグラウンド弁別器42は、フォーマット済みイメージ36に基
づいて地勢特徴46を決定する。ターゲット候補44および地勢特徴46は、さ
らにシーン翻訳ロジック48によって処理され、優先順位設定したターゲット5
0のリストが生成される。このリスト内のもっとも優先順位の高いターゲットが
、サブミサイル14による破壊の対称となる可能性がもっとも高い。本発明の重
要な特徴は、ターゲットおよびバックグラウンドのデータが個別に処理されるこ
とである。これによって、ターゲットに固有のトレーニング・データが、バック
グラウンドの地勢特徴を識別するためのトレーニング・データ・セットから分離
し得ることから、それぞれの弁別器ごとにより小さいトレーニング・データのセ
ットを使用することが可能になる。従来技術のターゲット検出システムは、ター
ゲットおよびバックグラウンドのデータを一まとめで処理しており、大きなトレ
ーニング・データ・セットを必要としている。従来技術のシステムにおいては、
各種のターゲット/地勢の組み合わせごとに、個別のイメージをストアする必要
がある。たとえば特定モデルの戦車のように、同一種類のターゲットについて、
遭遇すると予想されるあらゆる種類の地勢および天候ごとに、複数のイメージ・
データのセットを保存する必要がある。別のタイプのターゲットをその後選択す
るときは、これらの天候および地勢の条件のそれぞれに関するデータ・セットを
新しいターゲット用に複製する必要がある。本発明のイメージング・ターゲット
検出システムの場合にはそれが必要ない。任意の特定ターゲット・データ・セッ
トが、任意の所定の地勢データと組み合わされ、結合ターゲット/地勢データが
生成される。この構成の利点は、ターゲットおよび地勢のデータが個別に収集さ
れ、ストアされることであり、完全なトレーニング・データ・セットを容易かつ
安価に構築することができる。
【0029】 図3に示したイメージング・ターゲット検出システム32aの実施例は、サブ
ミサイル14内に常駐し、スキャナ34a、シーカー・イメージ・フォーマッタ
52、ターゲット認識装置38a、およびミサイル誘導およびコントロール・ロ
ジック48aを備える。シーカー・イメージ・フォーマッタ52は、スキャナの
タイプおよび当該スキャナが提供するイメージ出力のフォーマットに応じて、ス
キャナ34aに含められることもあり、また全く必要とされないこともある。ス
キャナ34aが、ターゲット認識装置38aにとって可読でないフォーマット未
済のイメージ35aを生成する場合には、フォーマット済みイメージ36aを生
成するために、シーカー・イメージ・フォーマッタ52が必要になる。たとえば
、スキャナ34aが、ロータリ・スキャニング・メカニズムによって幾何学的に
ひずみのあるイメージを生成する三重同軸マウント円形ミラー・システムからな
る機械式赤外線光学システムであることが考えられる。この種のスキャナの出力
は、リマップを行ってひずみを除去しないと、ターゲット認識装置38aがそれ
を処理してターゲット候補ならびに地勢特徴を生成することができない。スキャ
ナ34aは、サブミサイル14がシークする、戦車等のターゲットのタイプに関
係するデータを含む規定のサーチ・パターン54を用いて初期化される。ターゲ
ット認識装置38aは、予測される天候および地勢のタイプを含めた、所定の戦
術局面に固有の情報である戦術ダウンロード・データ56を用いて初期化される
。たとえば、天候が快晴であると予測されるとき、戦術データ56は、中間赤外
線帯域のデータをより強調する表示を含むことになる。同様に、ターゲット・エ
リア内の天候が霧である予測されるときは、遠赤外線帯域のデータがより強調さ
れることになる。
【0030】 図4に示すイメージング・ターゲット検出システム32bは、シーカー・イメ
ージ・フォーマッタ52b、ターゲット弁別器40b、バックグラウンド弁別器
42b、およびイメージ解析ロジック48bの機能を実行する、TMS−320
C40等のプログラミング・マイクロプロセッサ58によってソフトウエア的に
実装され、フォーマット未済のイメージ35bに応答して優先順位設定済みのタ
ーゲット・リスト50bを生成する。スキャナ34bは、赤外線シーカー/スキ
ャナであり、回転光学系および検出器60を備え、それがコニカル・スキャン入
力20bに応答してアナログ信号62を生成し、それがA/Dコンバータ64に
よって処理されて、スキャンしたターゲット・エリア22に関する情報を含むデ
ィジタル化された(振幅レベルを表すピクセルからなる)イメージ出力が生成さ
れる。スキャナ34bの回転光学系は、14×256ピクセルの極座標による生
イメージから128×128のピクセル・イメージにリマップしたひずみのある
出力を生成する。
【0031】 以上に代えて、回転光学系によるM×Mのピクセル・イメージを生成する方法
を、ステアリング・フォーカル・プレーン・アレイによって置き換えてもよい。
この変形実施例においては、赤外線エネルギがプレーナー・アレイ上に焦点され
たまま残存する。周期的レートにおいて、M×Mのピクセル・エレメント、ここ
では128×128とするが、そのXおよびYアドレスがストローブされ、サイ
ト・ロケーションX、Yのピクセルに入射した赤外線エネルギに比例するアナロ
グ信号が、アナログ・ディジタル変換に読み出され、それによってイメージを表
すディジタル・ピクセル配列が生成されてメモリにストアされる。
【0032】 図5に示した、サブミサイル14内に備えられる赤外線シーカー/スキャナ3
4bの側面断面図を参照するが、ここにはターゲット2からの赤外線エネルギを
受け入れる、サブミサイル14のビークル軸68に中心合わせされたシーカー・
ドーム66が備わっている。スキャナ34bは、回転ルーフ・ミラー70、1次
ミラー72aおよび72b、2次ミラー74aおよび74b、3次ミラー76a
および76bからなる三重同軸マウント円形ミラー・システムを有する機械式赤
外線光学スキャニング・メカニズムである。回転ルーフ・ミラー70は、ジンバ
ル軸78を中心に回転する。1次ミラー72aおよび72b、2次ミラー74a
および74b、および3次ミラー76aおよび76bは、ジンバル軸78を中心
に同軸にマウントされており、回転ルーフ・ミラー70とともに回転するが、互
いの相対関係およびジンバル軸78との関係は固定されている。ジンバル軸78
は、物体平面またはターゲット・エリア22のコニカル・スキャン20を実行す
るとき、ビークル軸68を中心に回転する。
【0033】 動作においては、ターゲット・エリア22からのターゲットおよびバックグラ
ウンドの地勢の特徴を表す赤外線エネルギがシーカー・ドーム66に入り、2つ
の異なるセンサ・ライン、またはリニア・アレイ82および84によって検出さ
れる。リニア・アレイ82および84は、それぞれ14のエレメントを有し、そ
れが均等間隔に配置され、フォーカル・プレーン80上においてラジアル方向に
延びている(注意:図5のリニア・アレイには7つのエレメントのみ示されてい
るが、好ましい実施例においては、それぞれのリニア・アレイに14のエレメン
トがある)。リニア・アレイ82および84は、角度θ88だけ離隔されており
、好ましい実施例においてはそれが56.25°である。それぞれのリニア・ア
レイは、異なる色または波長を表し、たとえばリニア・アレイ82は中間赤外線
帯域の赤外線エネルギを検出し、リニア・アレイ84は遠赤外線帯域の赤外線エ
ネルギを検出する。2つの離れた色または赤外線波長帯域において赤外線エネル
ギの検出を行う理由は、カウンタメジャーのターゲティングを回避することにあ
る。カウンタメジャーは、一般にターゲットとスペクトルが異なる信号を有して
おり、2つの異なる波長においてシーカー・データを収集することによって、カ
ウンタメジャーからターゲットを分けることが可能になる。
【0034】 検出表面80(フォーカル・プレーンとも呼ばれる)の検出器86は、ジンバ
ル軸78に対して垂直に取り付けられており、かつ回転ルーフ・ミラー70とと
もに回転する。ターゲット・エリア22のコニカル・スキャン20からの中間赤
外線帯域の赤外線エネルギは、パス65に沿ってシーカー・ドーム66に入り、
1次ミラー72aによって2次ミラー74aに反射され、それによってそのエネ
ルギが3次ミラー76aに反射される。3次ミラー76aは、中間赤外線帯域の
赤外線エネルギを回転ルーフ・ミラー70に向けて反射し、このエネルギは、さ
らに対向側の回転ルーフ・ミラー70に反射される。対向側の回転ルーフ・ミラ
ー70は、このエネルギを反射し、レンズ88を介して検出表面80に指向し、
それにおいてリニア・アレイ82および84によって検出される。赤外線エネル
ギは、中間赤外線帯域であれば中間赤外線帯域アレイ82の14個のエレメント
92a〜nによってピックアップされ、遠赤外線帯域であれば遠赤外線帯域アレ
イ84の14個のエレメント94a〜nによってピックアップされる。結果とし
て得られるアナログ信号62は、中間赤外線帯域82および遠赤外線帯域84に
おける情報を含んでおり、続いてアナログ・ディジタル・コンバータ64によっ
て変換され、エリア・イメージ35bが生成され、これをフォーマットすれば、
ターゲット認識装置38によるその解析が可能になる。
【0035】 図6のコニカル・スキャン20は、ジンバル軸78のオフセットの連続を使用
してターゲット・エリア22全体の探査が可能になる態様を示している。ターゲ
ット・エリア22のコニカル・スキャン20を実行する間に35’、35”、お
よび35”’等の一連のスナップショットが、ビークル軸68を中心とするジン
バル軸78の回転に伴い、連続的に距離dだけ離隔されてスキャナ34によって
取り込まれる。これらのスナップショットのそれぞれからの情報は、解析されて
ターゲットが存在する尤度が決定される。フォーマット未済のエリア・イメージ
のスナップショット35’は、中間赤外線帯域および遠赤外線帯域の波長におい
て同時に撮像される。
【0036】 図7に示したコニカル・スキャン20の外側のリング20’は、中心23を有
するターゲット・エリア22の外側エッジから取り込んだスナップショット35
””および35””’を表している。回転スキャニング・メカニズムにより、検
出表面80の外側半径96は、より大きな空間的間隔においてサンプリングされ
、注目するターゲット・エリア22とフォーマット未済のイメージ・スナップシ
ョット35’の間に不均一な幾何学的スケール・ファクタを招く。フォーマット
未済のスナップショット35’は、ひずみを有し、ターゲットとバックグラウン
ドの特徴の識別をさらに困難にする。たとえば、道路のエッジは直線であるにも
かかわらず、カーブして写る。シーカー・イメージ・フォーマッタ52は、フォ
ーマット未済のスナップショット35’を受け入れ、ひずみを取り除き、ターゲ
ット・エリア22のターゲットおよびバックグラウンドの特徴がより明確に現れ
た、フォーマット済みのイメージ・スナップショット36’を生成する。シーカ
ー・イメージ・フォーマッタ52は、TMS−320C40等のマイクロプロセ
ッサ58上で走るソフトウエアにより実装することができる。この種のソフトウ
エアの例を図8に示すが、ステップ202において、フォーマット未済のスナッ
プショット35’が入力として取り込まれ、ステップ204においてそれが8ビ
ットに変換され、ステップ206において幾何学的に正しいピクセル・イメージ
にマップされる。ひずんでいるイメージのピクセル値は、ステップ208におい
て、それぞれのマップ済みピクセルに対して双一次補間法を適用し、計算する。
【0037】 イメージ36は、一度に1枚のスナップショットとして、図9に示した、ター
ゲット弁別器40およびバックグラウンド弁別器42からなるターゲット認識装
置38に入力され、そこでフォーマット済みのイメージ36に含まれるそれぞれ
のスナップショットが個別に処理されてターゲット・データ44のセットおよび
バックグラウンド・データのセット46が生成される。
【0038】 ターゲット弁別器40は、遠赤外線帯域および中間赤外線帯域の赤外線イメー
ジ・データの両方に並列に適用される。ターゲット弁別器40はターゲット・セ
グメンタ100を備え、それが、フォーマット済みイメージ36に含まれる類似
の強度(振幅)レベルを有するイメージ・ピクセルを識別し、10とおりの離散
レベルの1つにマップし、セグメント化したターゲット・データ102を生成す
る。
【0039】 セグメント化したターゲット・データ102の各ピクセルは、続いてターゲッ
ト領域分割器104によって処理され、類似の強度(振幅)レベルを有する連続
したピクセルがラベル付きの領域にグループ化され、領域分け済みのターゲット
・データ106が生成される。それぞれの領域に対する固有インデクスを用いた
ラベル付けが完了すると、ターゲット特徴演算器108において、領域分け済み
のデータ106に対する特徴解析が実行される。ターゲット特徴演算器108は
、領域と、各領域の面積に基づいたターゲットの寸法との矛盾の有無を判断する
。この面積が、特定の面積スレッショルドを超えるか、あるいはそれに満たない
ときは、ターゲットの寸法との一貫性がないとしてその領域に関する特徴演算を
そこで終了する。(この領域がターゲット候補リストに含められることはなく、
ターゲットの根拠とする判断のための有用な情報を含んでいないと見なされる。
)演算が行われるこのほかのターゲット弁別特徴としては、形状特徴、相対信号
強度特徴、および相対ポジション特徴が挙げられる。矛盾する領域がフィルタ・
アウトされた後は、残りの領域110が、領域プリクオリファイア112によっ
て処理され、ターゲット候補リスト44が生成される。
【0040】 バックグラウンド弁別器42は、遠赤外線帯域および中間赤外線帯域の赤外線
イメージ・データの両方に並列に適用される。バックグラウンド弁別器42はバ
ックグラウンド・セグメンタ114を備え、それが、イメージ36に含まれる各
イメージ・ピクセルにクラス・レベルを割り当て、セグメント化したバックグラ
ウンド・データ116を生成する。
【0041】 セグメント化したバックグラウンド・データ116の各ピクセルは、続いてバ
ックグラウンド領域分割器118によって処理され、同一のクラス・レベルを有
する連続したピクセルがインデクス付きの領域にグループ化され、領域分け済み
のバックグラウンド・データ120が生成される。それぞれの領域に対する固有
インデクスを用いたラベル付けが完了すると、バックグラウンド領域プリクオリ
ファイア122によって領域分けされたバックグラウンド・データ120に対す
る領域解析が実行されるが、それにおいては必要に応じて領域特徴演算が行われ
る。バックグラウンド領域プリクオリファイア122は、イメージ化された道路
のエッジに観察される特徴を表現すべく展開された一連の規則と、領域の矛盾の
有無を判断する。スキャン・イメージに、独立した面積および形状特徴を有し、
全体としてイメージ化された道路のエッジと矛盾しない相対的な方向を持った領
域のセットが存在しているときは、スキャン・イメージ内に道路のエッジが存在
することが明示される。続いて初期化データがビタビ・エッジ・トラッカ123
に渡され、オリジナルのシーカーのピクセル・データに対して最大尤度トラック
特徴解析が実行される。この解析は、道路エッジの検出スコアの調整に使用され
、46の道路エッジ・バックグラウンド・データを生成するために、バックグラ
ウンド領域プリクオリファイア122によって演算される情報を生成する。
【0042】 図10のイメージング・ターゲット検出システム32cは、中間赤外線帯域波
長または色においてフォーマット済みイメージ36cを処理する方法を示してい
る。ここには、中間赤外線帯域のターゲットおよびバックグラウンド弁別器の動
作のみを示した。遠赤外線帯域の弁別器の動作については図11に示している。
サブミサイル14によって取り込まれたコニカル・スキャン入力20は、スキャ
ナ34によって検出され、そこで一連のスナップショット・イメージ35’、3
5”、35”’等からなるフォーマット未済のイメージ35が生成される。35
’は、このスナップショットの1つを生イメージとして図示したものであり、タ
ーゲット128”’および道路エッジ130”’が示されている。ここで、道路
エッジ130”’が、スキャナ34の回転スキャニング・メカニズムからのイメ
ージのひずみに起因して、湾曲したラインとして図示されていることに注意され
たい。このイメージ・データは、シーカー・イメージ・フォーマッタ52により
処理され、それにおいてスナップショット・データ35’に対するイメージ・コ
ンディショニングおよび幾何学的変換が実行され、ターゲット2および道路エッ
ジ6を表すイメージ・スナップショット36’が生成される。ここで、フォーマ
ット済みイメージ・スナップショットにおいては道路エッジ6が直線になってい
ることに注意が必要である。イメージ・スナップショット36’は、中間赤外線
帯域ターゲット弁別器40d、中間赤外線帯域バックグラウンド弁別器42d、
遠赤外線帯域ターゲット弁別器40c、および遠赤外線帯域バックグラウンド弁
別器42cによって処理される。中間赤外線帯域ターゲット弁別器40dは、図
には中間赤外線帯域ターゲット領域128’、128”、128”’として表し
たターゲット候補44dのセットを生成する。ここでは、実際のターゲット2が
、ターゲット候補44dの中に含まれ、中間赤外線帯域ターゲット領域128”
’としてそれが示されている。ターゲット候補は、フォーマット済みエリア・イ
メージ36に含まれている各イメージ・スナップショット36’、36”等ごと
に決定され、イメージ解析ロジック48cの入力となる。なお、ターゲット候補
128”’が実際のターゲット2に対応していることに注意されたい。
【0043】 中間赤外線帯域バックグラウンド弁別器42dは、フォーマット済みイメージ
36に含まれる各スナップショット・イメージ36’、36”等に応答し、選択
バックグラウンド領域130’、130”、および130”’として示したよう
に、多数のバックグラウンド地勢特徴46dを提供する。選択中間赤外線帯域バ
ックグラウンド領域130”’が、識別済みの道路エッジに対応している。イメ
ージ36に含まれている36’、36”等のイメージ・スナップショットのそれ
ぞれのバックグラウンド地勢特徴46dは、さらにイメージ解析ロジック48c
によって処理される。イメージ解析ロジック48cには、このほかにも遠赤外線
帯域ターゲット候補44cおよび遠赤外線帯域バックグラウンド地勢特徴46c
が入力される。イメージ解析ロジック48cは、ターゲット候補44c、44d
および地勢特徴46c、46dを処理し、優先順位設定したターゲット・リスト
50cを生成する。
【0044】 図11のイメージング・ターゲット検出システム32は、遠赤外線帯域波長ま
たは色においてイメージ36を処理する方法を示している。ここには、遠赤外線
帯域のターゲットおよびバックグラウンド弁別器の動作のみを示した。遠赤外線
帯域の弁別器の動作については図10に示した。サブミサイル14によって取り
込まれたコニカル・スキャン入力20は、スキャナ34によって生成され、そこ
で一連のスナップショット・イメージ35’、35”、35”’等からなるフォ
ーマット未済のイメージ35が生成される。35’は、このスナップショットの
1つを生イメージとして図示したものであり、ターゲット132”’および道路
エッジ134”’が示されている。ここで、道路エッジ134”’が、スキャナ
34の回転スキャニング・メカニズムからのイメージのひずみに起因して、湾曲
したラインとして図示されていることに注意されたい。このイメージ・データは
、シーカー・イメージ・フォーマッタ52により処理され、それにおいてスナッ
プショット・データ35’に対するイメージ・コンディショニングおよび幾何学
的変換が実行され、ターゲット132”’および道路エッジ134”’を表すフ
ォーマット済みイメージ・スナップショット36’が生成される。ここで、フォ
ーマット済みイメージ・スナップショットにおいては道路エッジ134”’が直
線になっていることに注意が必要である。イメージ・スナップショット36’は
、遠赤外線帯域ターゲット弁別器40c、遠赤外線帯域バックグラウンド弁別器
42c、中間赤外線帯域ターゲット弁別器40d、および中間赤外線帯域バック
グラウンド弁別器42dによって処理される。遠赤外線帯域ターゲット弁別器4
0cは、図には選択した遠赤外線帯域ターゲット領域132’、132”、13
2”’として表したターゲット候補44cのセットを生成する。ここでは、実際
のターゲットが、ターゲット候補44cの中に含まれ、遠赤外線帯域ターゲット
領域132”’としてそれが示されている。ターゲット候補は、イメージ36に
含まれているフォーマット済みのイメージ・スナップショット36’、36”等
ごとに決定され、イメージ解析ロジック48cの入力となる。
【0045】 遠赤外線帯域バックグラウンド弁別器42cは、フォーマット済みイメージ3
6に含まれるフォーマット済みスナップショット・イメージ36’、36”等の
それぞれに応答し、選択バックグラウンド領域134’、134”、および13
4”’として示したように、多数のバックグラウンド地勢特徴46cを提供する
。選択遠赤外線帯域バックグラウンド領域134”’が、識別済みの道路エッジ
に対応している。その後バックグラウンド地勢特徴46cは、フォーマット済み
イメージ36に含まれている36’、36”等のフォーマット済みイメージ・ス
ナップショットのそれぞれごとに、イメージ解析ロジック48cによって処理さ
れる。イメージ解析ロジック48cには、このほかにも中間赤外線帯域ターゲッ
ト候補44dおよび中間赤外線帯域バックグラウンド地勢特徴46dが入力され
る。イメージ解析ロジック48cは、ターゲット候補44c、44dおよび地勢
特徴46c、46dを処理し、優先順位設定したターゲット・リスト50cを生
成する。
【0046】 ターゲット弁別器40cおよび40dは図12に示したフローチャート136
に示した態様で動作する。捕捉サーチ・シーケンス(フォーマット済みエリア・
データ)36内のフォーマット済みイメージ・スナップショット36’、36”
、36”’等に含まれている各ピクセルは、ステップ138において、シングル
・パス5ポイント・メジアン・フィルタによってフィルタリングされ、スペック
ル雑音が除去される。5ポイント・メジアン・フィルタは、図13に示すように
注目ピクセルおよび、それを十字形に囲む合計5つのピクセルまたはポジション
から、イメージ・フレーム(エッジを除く)内の各ピクセルまたはポジションの
新しい値を決定する。5つのピクセルのメジアン値が決定され、それが注目ピク
セル(i,j)の新しい値を決定する。これがエッジのピクセルを除くイメージ
・フレーム内の各ピクセルまたはポジションについて行われ、エッジのピクセル
は修正されずにそのまま残される。演算された新しいピクセル値は、別のメモリ
・バッファにストアされ、オリジナルの値との置換はない。
【0047】 続いてステップ140において、フィルタリングされたイメージの各ピクセル
に対し、イメージのグレイ・レベルの累積分布関数によって決定された非線形マ
ッピングによって(適応的に)スレッショルドが適用され、そのピクセルの赤外
線強度振幅に基づいて複数レベルの1つにマップされる。本発明の一実施例は、
10段階の振幅レベルを使用してこれを行っている。ステップ142においては
、コンポーネント連結アルゴリズムが使用されて、ラスタ・スキャン・ベースで
スレッショルド適用後の各ピクセルと、その隣接ピクセルが比較され、領域が形
成される。ステップ144においては、各領域の面積が決定され、領域評価基準
のセットに基づいて、小さすぎる領域、あるいは大きすぎる領域がすべて除去さ
れる。その後ステップ146において、残された領域に基づいて領域の特徴が演
算される。ステップ148においては、判断規則および領域の特徴に基づいて、
シーカー・イメージ内にターゲット候補が存在するか否かが判断される。捕捉シ
ーケンス内の各イメージ・スナップショットごとにステップ138、140、1
42、144、146および148を実行することによって、全捕捉サーチ・シ
ーケンス、つまりイメージ36全体に対応する、検出したすべてのターゲット候
補のグローバル・シーン・ファイルがステップ150において構築される。
【0048】 図15に示したターゲット入力データのグラフ157は、ステップ140にお
いてターゲット弁別器40により、入力データのレベル159a、159b、1
59c、159dおよび159eに対して適応的にスレッショルドが適用されて
マップされる離散的レベルを示しており、その結果、図16に示すピクセル配列
160が生成され、続いてこれがコンポーネント連結アルゴリズムの使用により
処理される。図17は、フィルタリング後のイメージ・ピクセルを10段階の振
幅レベルの1つにセグメント化するために使用される、適応的再量子化のプロセ
スを表している。イメージ・ピクセル強度の累積分布関数(COF)は、図17
に示すように設定される。認識装置のトレーニングの間に設定された百分位数の
ベクトルが使用されて再量子化のためのピクセル・スレッショルドが設定される
。10段階の出力レベルを得るために使用されるスレッショルドは9個である。
各スレッショルドは、CDF百分位数の1つに対応するピクセル強度の値である
。以上からスレッショルド値が、ピクセル強度分布における変化に応じて、スキ
ャン・イメージとスキャン・イメージの間において適応的に変化することが理解
されよう。続いてイメージにスレッショルドが適用され、スレッショルド(k−
1)がイメージ・レベル(i,j)と等しいか小さく、かつイメージ・レベル(
i,j)がスレッショルド(k)と等しいか小さいとき、イメージ・レベル(i
,j)が(k)にセットされる。
【0049】 図14に示したピクセル配列152は、ターゲット弁別器40およびバックグ
ラウンド弁別器42において、ともにピクセルの領域分けに使用されているコン
ポーネント連結アルゴリズムの動作を説明するために示した7×7のピクセル配
列である。各ピクセルは、ピクセル配列全体の行のラスタ・スキャンにおいて隣
接ピクセルと比較される。最初のピクセル154aは、隣接ピクセル154bと
比較される。このとき、これらの値が等しければ、両方のピクセルは、同一領域
にあるとして分類される。これらの値が等しくなければ、新しい領域が作られる
。ピクセル154aおよびピクセル154bは、ともに同じ値(1)を有してい
ることから、これらのピクセルは、第1の領域154に含められる。これに対し
て、ピクセル156aは、値1を有するピクセル154dと異なる値2を有して
いることから、ピクセル156aが処理されるとき、そのピクセルで開始する新
しい領域が作られる。この処理は、配列内のすべてのピクセルが領域に分けられ
るまで続けられる。ピクセル配列152は、第1の領域154、第2の領域15
6、第3の慮息158および第4の領域151の4つに分けられる。
【0050】 ターゲット弁別器によって処理されたピクセル配列と、バックグラウンド弁別
器によって処理されたピクセル配列の間の差は、それぞれのピクセル値が表すも
のにおける差である。ターゲット弁別器によって処理されたピクセル配列は、入
力信号振幅の10段階離散レベルの1つに対応する値からなる。バックグラウン
ド弁別器によって処理されたピクセル配列は、クラス・インデクス値に対応する
値からなり、それにおいてクラス・インデクス値の数は可変であり、処理される
イメージに依存する。
【0051】 図12に示した面積決定144は、直前のコンポーネント連結アルゴリズムに
よって設定された各領域を構成するピクセル数のカウントからなる。
【0052】 図12に示した領域特徴演算146は、面積値があらかじめ決定した最小スレ
ッショルドより大きい関連領域を用いて、各領域ごとに7つの数に関する特徴を
計算する。これらの特徴の第1は、領域kに関する包括的な信号対雑音比snr
global[k]であり、次のように計算される。 snrglobal[k]=10*log10((greylevels.mean[k])/imagestatsfiltered.greyle
vel.mean) これにおいて、imagestatsfiltered.greylevel
.meanは、メジアン・フィルタリングを行ったイメージの平均ピクセル・レ
ベルであり、greylevels.mean[k]は領域kの平均ピクセル強
度レベルである。 残りの特徴は、局部的な信号対雑音比snrlocal[k]であり、次のよ
うに計算される。 領域kを囲むローカルな矩形を形成するピクセルであって、その領域に含ま
れない各ピクセルについて、 ncnt=ncnt+1としてこの種のピクセル数をカウントし、 sigrect=sigrect+gimagefiltered(i,j)として累積ピクセル信号レベルにピ クセルの信号レベルを加える。 ncntが0でなければ、 snr.local[k]=10log10(greylevels.mean[k]/(sigrect/ncnt) それ以外の場合、 snr.local[k]=10log10(greylevels.mean[k]/imagestatsfiltered.greylev
el.mean 注意:ローカル・パッチが観察フレームのエッジに重なり、境界によって領
域の面積が縮小される場合には、ローカル・バックグラウンドが、領域kの図心
を中心とする17×17ピクセルの領域になる。 領域を囲む矩形の信号対雑音比snrbddRect[k]についての計算は
、snr.local[k]と同じになるが、領域を囲む矩形の場合は次のよう
に計算される点が異なる。 imax=bddrect[k].imax+0.5*idiff imin=bddrect[k].imin-0.5*idiff これにおいてidiff=bddrect.imax-bddrect[k].iminであり、かつ、 jmax=bddrect[k].jmax+0.5*jdiff jmin=bddrect[k].jmin-0.5*jdiff これにおいてjdiff=bddrect.jmax-bddrect[k].jminとする。 領域のピーク信号対雑音比snr.peak[k]、および領域の信号対クラ
ッタ雑音比snr.clutter[k]は次のように計算される。 maxdiff=abs[gray]levels.max[k]-gimagestatsfiltered.greylevels.mean] maxdiff=abs[grey]levels.min[k]-gimageStatsFiltered..mean] maxdiff>>mindiffの場合 snrpeak[k]=10log10(greylevelsmax[k]/gimagestatsfiltered.greylevels
.[mean] snrclutter[k]=10log10(maxdiff/gimagesttatsfiltered.greylevels.mean
] それ以外の場合、 snrpeak[k]= 10log10(max[greylevels.min[k];1].gimagestatsfiltered.greylevels.me
an) smrclutter[k]=1-log10(max[features[k].greylevels.min;1]/gimagestat
sfiltered.greylevels.mean] これにおいてmax(a,b)は、aとbのうちの最大値とする。 領域の拡散特徴spread[k]は、次のように計算される。 suminert[k]=ci**2+cj**2 spread[k]=s.O*PI*suminert[k]/(area[k]**2) さらに、領域kの正規化された楕円形ファクタESFnA[k]は、次のよう
に計算される。 sa=0.5*area[k] fm20=ci2*suminert[k]; fm02=cj2*suminert[k]; fm11-cij*suminert[k]; ss=fm20+fm02; sf=sqrt(((fm20-fm02*fm20-fm02))+4.0*fm11*fm11); semimn[k]=sqrt((ss-sf)/sa);/*半径*/ semim[k]=sqrt((ss+sf)/sa); ellarea=π*semimn[k]*semimj[k]; semiMinor[k]=2.0*semimn[k]; semiMajor[k]=2.0*semim[k]; apb=semimn[kk]+semimj[k]; aqp-(semimj[k]-semimn)[k]/apb; aqb2=aqb*aqb2; aqb4=aqab2*aqb2; q64=640-3.0*sqb4; q64=q64/(64.0-16.0*aqb2) pp=π*apb*q64; p2=pp*pp p2ae=p2/ellarea; ellipseShapefactor[k]=p2a/p2ae; maxESF=0.0862*area[k]; ESFnA[k]=(maxSF-ellipseShapefactor[k]/maxESF;
【0053】 図12に示した領域選択ロジック148は、2つの領域吟味ステップからなり
、それを図18のフローチャート164に示す。最初のパスにおいては、初期面
積テストを通過したすべての領域について領域特徴を吟味する。吟味される各領
域kの特徴が一連のスレッショルド・テストに適合すると、その領域kは、ター
ゲット候補領域であると宣言される。2番目の領域結合および除外ステップは、
ターゲット候補領域の全ペアを吟味し、ロケーションの図心が、2番目の候補を
囲む矩形内にあり、かつ、その候補の信号対雑音比より2番目の候補のそれの方
が高い領域があれば、候補リストからその領域を削除する。これらの限定テスト
に適合した候補は、グローバル・シーン・データベースに加えられる。
【0054】 図12に示したグローバル・シーン・データベースの構築150は、複数の連
続してオーバーラップするフレームを通じて観察されるターゲット候補オブジェ
クトからデータを併合する。各フレームのターゲット候補ごとにロケーションの
座標がフレームのポインティング・ベクトルのオフセット分だけシフトされ、す
べての多フレーム処理の結果が統合されて、一貫性のある態様での評価が可能と
なるように、(ポインティング誤差内において)シーン調和フレームに変換され
る。
【0055】 図19に示したバックグラウンド弁別器ロジック166は、ターゲット弁別器
ロジック136と並列に処理され、中間赤外線帯域および遠赤外線帯域のイメー
ジ・データがある場合にはその両方を処理し、シーカー・イメージ・データ36
を受け入れると、まずステップ172において、前提とするクラッタ・パターン
に基づき、そのイメージが有効であるか否かを判断する。このイメージのピクセ
ル・データの平均および総和が、見本のIR地勢イメージから導かれた制限値に
比較される。このイメージは、認識装置のトレーニング・データ・セット内にあ
る。有効なイメージの許容可能な境界が侵害されている場合は、処理を中止し、
無効なイメージであることを宣言する。このプロセスによって、ターゲットにつ
いて解析されたイメージが、認識装置の設計に使用されたイメージ・データと同
じ統計的特徴を持つことになる。イメージが有効であれば、2つの方法、すなわ
ちステップ174のビタビ特徴追跡および、ステップ176のベクトル量子化(
VQ)セグメンテーションを使用して並列にその処理が行われる。両方の方法を
使用する目的は、シーカー・イメージ内に道路エッジの候補が存在するか否かを
判断することにある。
【0056】 ステップ174のビタビ特徴追跡は、オリジナルのイメージを通るライン特徴
を追跡し、これらのライン特徴が道路エッジを表す確度を決定する。この種のト
ラッカは、オリジナルの赤外線反射率の擾乱に変動があり、道路エッジ自体が量
子化セグメンテーション・プロセスによって形成される領域の分断されたセット
を招く場合に役立つ。また、ビタビ・トラッカは、センサ・チャンネル間のDC
オフセットが道路領域のセグメント間にリッジを形成しており、それ以外ではセ
グメンテーション・レベルにおいて結合が困難な場合にも実行することができる
。ビタビ追跡から計算される特徴は、トラックの図心およびトラックの方向であ
る。
【0057】 図24に示したバックグラウンド入力データのグラフ168は、ベクトル量子
化セグメンテーションを使用してエリア・イメージ・データをクラス・インデク
ス167a〜fのセットにマップし、バックグラウンド・データのピクセル配列
を形成する方法を示しており、その後このピクセル配列が、コンポーネント連結
アルゴリズムによって処理されて、領域分けしたバックグラウンド・データ12
0が生成される。クラス・インデクスの数は可変であり、処理されるイメージに
依存する。
【0058】 ステップ176のベクトル量子化セグメンテーション・プロセスにおいては、
イメージがブロック・ベースで吟味され、道路が存在すると見込まれることを表
している変動の種類が決定される。256×256のイメージが、128×12
8のイメージ・ピクセルのブロック、つまりそれぞれが4つのピクセルからなる
ブロックの配列として処理される。各ブロックは、ブロック化されたピクセル・
データを通る2回のパス(ループ)の最初のパスにおいて順番に吟味される。最
初に吟味されるブロックが、イメージ内のパターンを表すブロックとして選択さ
れる。これは、コードワード・ブロック(またはトークンもしくは見本ブロック
)であると宣言され、コードブック・データベースに追加される。各連続するブ
ロックが吟味され、吟味しているブロックとコードブック内の各ブロックとの間
のひずみが計算される。最小ひずみがひずみ限界より小さければ、次のブロック
が吟味される。そうでなければ、吟味しているブロックは、コードワードである
と宣言され、コードブックに加えられる。最初のパスについてすべてのブロック
の吟味を終了すると、イメージ・ピクセルのすべてのブロックを通る2回目のパ
スが実行される。各連続するブロックが、ひずみが最小になるコードブックのコ
ードワードにマップされる。各構成ブロックのピクセルにコードワードのインデ
クスを割り当てることによって、第2のイメージが形成される。この結果、第2
のイメージは、各ピクセル・アドレスにインデクス番号を含むことになる。これ
らの番号は、1からコードブック内のコードワード数までの値となる。ブロック
比較に使用するひずみの測定値は、比較される2つのブロックの4つのピクセル
すべてに関する平均二乗ピクセル強度差である。使用するひずみ限界は、道路エ
ッジに起因する強度パターンを取り込むべく認識装置をトレーニングすることに
よって設定される。コードワードの数は、通常は20未満となる。シーカーによ
って形成される二重の円形IRイメージ帯域外となるブロックは、吟味から除外
される。結果は、各ピクセルがクラス・インデクスに等しいピクセル配列になる
。ステップ178においては、コンポーネント連結アルゴリズムを使用したピク
セル配列に対する領域ラベリングが実行される。ここで、バックグラウンド弁別
器に使用しているコンポーネント連結プロセスが、ターゲット弁別器に使用して
いるそれに類似であることに注意されたい。相違は、バックグラウンド弁別器の
場合は、領域が、同一のクラス・インデクスを有するピクセルの連続するセット
からなることである。同一のコードワード・ラベリングを伴う連続するピクセル
のグループが領域として設定され、第3のイメージ、つまり各ピクセルが領域イ
ンデクス・ラベルを包含するイメージが生成される。このイメージ内の領域は、
したがって連続する(結合された)ピクセルのセットであり、それぞれが同一の
領域インデクス・ラベルを有し、全体が他の領域のインデクス・ラベルを有する
ピクセルによって囲まれている。このようにして領域がラベル付けされ、評価基
準が適用されて、小さすぎる領域がその後の解析から除外される。
【0059】 図19に示したシーカー・スキャン・アーティファクト除去ステップ182は
、イメージ・アーティファクトからもたらされる可能性のある領域をスクリーニ
ングする。この種のアーティファクトの例としてDCオフセットがあり、センサ
・チャンネルの間に存在することがしばしばある。このオフセットは、バックグ
ラウンド・シーンからのエコーにおける変動とともに、セグメント化されたイメ
ージ内に長く引き伸ばされた孤立領域を形成し、除去を行わないと道路エッジの
候補として含められることがある。スキャン変調アーティファクトは、1ないし
は複数の弁別器出力チャンネルの一部ないしはすべてにおいて、平均信号レベル
を増加し、あるいは減少させる。このアーティファクトは、直交座標系イメージ
において円形の帯として現れる。コードは、最大半径bddCylinder.
rmaxおよび最小半径bddCylinder.rminを演算し、図20に
従ってこの領域を表す最大および最小角の範囲を演算する。これらの4つのパラ
メータは、吟味している領域を潜在的なスキャン変調アーティファクトとして囲
い込む。最大半径と最小半径の差に等しいデルタ半径を演算する。このデルタ半
径が値7より小さければ、その領域がスキャン変調アーティファクトであると宣
言され、道路エッジ候補領域のリストから削除される。監視の中心近傍に観察さ
れるアーティファクトが、円形スキャンのエッジ近傍に見られるそれより広くな
ることから、追加のテストが実行される。つまり、中心に近い削除評価基準が広
げられる。その領域の最小半径が45より小さく、デルタ半径が12より小さけ
れば、その領域はスキャン変調アーティファクトであると宣言される。
【0060】 図19に示したエッジ・スライス削除ステップ184は、円形シーカー・パタ
ーンに従って、大きな赤外線後方散乱パターンがスキャンされたとき生成された
エッジ候補領域を削除する。この種の状況においては、パターンのスライスがエ
ッジ近傍に現れる。この領域は、ローカル・パターンおよびそれによって生成さ
れる特徴に起因して最初の道路エッジ選択評価基準を通過することがある。この
種の人工的に作られた候補を削除するために、図21に示すようにスライスを囲
む理想境界の面積を計算し、その面積と領域の面積を比較する。三角形のセグメ
ントの面積は、op*rminと表され、それにおいてop=sqrt(rma
x**2−rmin**2)である。スライスの面積は、t*(rmax**2
)と表され、それにおいてt=arctan(op, rmin)である。候補
領域の面積がこのスライスの面積の0.60倍より大きいときは、その領域はエ
ッジ・スライス・アーティファクトであると宣言され、候補のリストから除外さ
れる。
【0061】 図19に示したプライム・エッジ検出186は、シーカー・スキャン・アーテ
ィファクトあるいはエッジ・スライス・アーティファクトであると定義されてい
ない候補領域のそれぞれについて吟味を行い、領域が道路エッジによってもたら
されたものであるか否かを判断する。プライム・エッジは、検出されたエッジ候
補のうち、バックグラウンド・イメージ内の道路エッジによってもたらされた可
能性がもっとも高い候補である。適格な領域は、1つのプライム(最大信頼度)
エッジと、セカンダリと呼ばれる2次エッジ候補のグループに分けられる。道路
エッジのセグメントとして適格になるためには、候補領域の伸び率が0.60と
等しいかそれを超え、楕円形ファクタが5.0未満であり、領域の面積が15よ
り大きく5000未満でなければならない。伸び率は次のようにして計算される
。 difflnert = sqrt(4*cij**2 + (ci2 - cj2)**2) suminert = suminert = ci**2 + cj**2; acdiff = ci2 - cj2; diffinert = sqrt(4.0 * cij * cij + acdiff*acdiff) spread = 2.0 * PI * suminert * reciprocalArea * reciprocalArea elongation = diffinert/suminert 楕円形ファクタ、ellipseshapefactor[k]は、次のよう
にして計算される。 suminert[k] = ci2 + cj2 sa = 0.5*area[k] fm20 = ci2*suminert[k] fm02 = cj2*suminert[k] fm11 = cij*suminert[k] ss = fm20 + fm02 sf = sqrt((fm20-fm02)**2 + 4*(fm11**2)) semiminor[k] = sqrt( (ss-sf)/sa) //半径 p47 semimajor[k] = sqrt( (ss+sf)/sa) ellarea =π* semiminor*semimajor semiminor[k] = 2.0 * semiminor[k] //直径 semimajor[k] = 2.0 * semimajor[k] // 等価楕円のパラメータ apb = semiminor[k] + semimajor[k] aqb = (semimajor[k]-semiminor[k])/apb aqb2 = aqb**2 aqb4 = (aqb)**4 q64 = (64.0 -3.0*aqb4)/(64. - 16.0*aqb2) p2ae = ((π*apb*q64)**2)/ ellarea p2a = (perimeter**2)/area[k] ellipseShapeFactor[k] = p2a/p2ae;
【0062】 この評価基準に適合したセカンダリの数をカウントし、nsecondari
esをそれに等しくセットする。プライム・エッジ候補は、すべてのエッジ候補
の中でもっとも伸び率が大きく、かつその伸び率の値が0.90より大きくなけ
ればならない。
【0063】 この種の明証が見つかったときは、図19に示したセカンダリ領域解析188
を実行してプライム・エッジ候補の検出に関連付けされた信頼度を判断する。セ
カンダリ領域解析は、プライム・エッジ候補と概略で等しい方向を有する候補領
域を識別する。続いてこのセカンダリの方向評価基準に適合した領域の数をカウ
ントする。このカウントは、この後に信頼性スコアを計算するとき使用する。領
域の方向がプライム・エッジ候補と異なり、その差が値orientation
.deltaである場合、その候補領域はサポート候補領域となる。(図22を
参照されたい。)方向は、次に示す計算から求められる。 領域[k]の全x,yについて、cij=Σ(x-m.x)(y-m.y) 領域kの全x,yについて、ci2=Σ(x-m.x)**2 領域kの全x,yについて、cj2=Σ(x-m.y)**2 shape.orientation[k] = arctan(2*cij/(ci2-ci2))
【0064】 見つかったセカンダリ領域の数および、プライム・エッジに類似した方向を示
している領域のパーセンテージは、エッジ識別スコアの修飾に使用される。ビタ
ビ特徴追跡174から計算された最大尤度のトラック方向と、プライム・エッジ
候補の方向の差が計算される。(図22を参照されたい。)トラック方向デルタ
と呼ばれるこの差は、ステップ194において信頼性スコアの計算に使用される
。ステップ194の道路の宣言および信頼度の計算は、信頼性スコアを評価する
ために実行される。領域がプライム領域候補のスコアに適合すると、道路エッジ
が宣言される。認識装置は、選択した道路エッジの特徴がどの程度理想の道路エ
ッジに近いかということに基づいてこの宣言に多少なりとも信頼を置く。この宣
言の信頼性は、スコア=α*(プライム領域の伸び率)+β*((セカンダリの
数−サポート・セカンダリの数)/サポート・セカンダリの数)+γ*abs(
トラック方向デルタ)として計算されるスコアによって表され、これにおいてa
bs()は、引数の絶対値を表す。このスコアは、プライム領域の図心およびこ
のほかのデータとともに、ステップ196のイメージ解析ロジックに渡される。
【0065】 図19に示したビタビ特徴トラッカ174は、道路エッジの明証に関して散乱
イメージのパターンを吟味するために使用される。パターン解析用の領域設定に
使用されるベクトル量子化セグメンテーション・プロセスは、広いバックグラウ
ンド・オブジェクトを分断する傾向を持つ。ビタビ・アルゴリズムは、オリジナ
ルのセグメント化されていないイメージ・データを処理し、コントラストが低く
、データ・スケーリングにおいて局部的な変動のある領域全体にわたってイメー
ジ・パターン解析を拡張することができる。
【0066】 最初のステップは、ピクセルを、2×2ピクセルの大きさの連続したオーバー
ラップのないブロックにグループ化するスムージングである。各ブロックは、そ
の後の解析のためにブロックのピクセルがブロックの平均値によって置き換えら
れる。同時に、解析目的から128×128ピクセルのイメージが64×64の
イメージに縮小される。
【0067】 まずビタビ・トラッカの初期ポジションが、プライム・エッジ候補の方向から
、イメージ内に内に期待される道路エッジの方向を決定することによって計算さ
れる。続いて、期待される道路エッジの方向とY軸がなす角度が+−45度以内
に収まるようにイメージのy軸をセットする。これは、プライム・エッジの方向
とY軸の方向を比較し、差の大きさが45度を超える場合にイメージを90度回
転することによって達成される。
【0068】 ビタビ・トラッカは、現在20にセットされている行riから開始する。イメ
ージが矩形よりは円に近く、後述するパス・メトリック配列がイメージ内に残存
しなければならないことから、これ以前の行は使用しない。Yポジションは、プ
ライム・エッジの方向ライン(慣性が最小の軸)とピクセル行riの交点にもっ
とも近いピクセルである。次にこのアルゴリズムは、続くイメージ・データの行
を吟味し、最大尤度を有する道路エッジ・パスを決定する。
【0069】 イメージ・データを通る最大尤度を有するエッジ・パスは、図23に示したパ
ス・メトリック2次元配列の使用によって決定される。パス・メトリック配列の
ポジションpm(33,1)に一致させて、イメージ内のビタビ・トラッカのブ
ロック初期ポジションが置かれる。この配列の目的は、道路エッジの明証の吟味
が行ごとにイメージ内を進むにつれて、パス・メトリックの累積がストアされる
ようにすることである。その後の各行においては、検討するブロックが左右に1
ブロックずつ延ばされる。つまり、たとえば行21では、イメージ・ピクセルの
3つのブロックが吟味されて、3本の可能性のあるパスに関するメトリックが累
積される。この拡張は、行Iのブロックjに現れたエッジは、最大でも+−45
度で延び、したがって行I+1においては、ブロックj−1、j、またはj+1
にそれが見つかるとするトラックの漸進モデルに基づいている。
【0070】 現在、ビタビのパス・メトリック配列は、9行の深さまで吟味されている。配
列の各行kkにおいて計算されるパス・メトリックは、2kk−1である。
【0071】 深さkkの各行において、その行内の各ブロックについて、最大の先行累積パ
ス・メトリックが見つけ出される。この値は、行kk−1内のポジションjj−
a、jj、jj+1のブロックを吟味し、これらのブロックがビタビのパス・メ
トリック配列の次元内にあるか否かを調べることによって決定される。ここで、
たとえば図V1に示したポジションpm(36,4)が、ポジションpm(35
,3)に可能性のある先行ブロックを1つだけ有することに注意されたい。最大
の先行累積パス・メトリック値が見つかると、その値が行kk+1に対する行k
kの遷移に関するパス・メトリックによりインクリメントされる。道路エッジが
行kk+1に移るとき、ポジションjj−1、jj、またはjj+1に移動する
と仮定していることから、その行の遷移に関するパス・メトリックは、単純に、
I(kk,jj)により指定されるパス・メトリック配列のポジションに一致す
るブロック・イメージの値となる。したがって、ポジションkk,jjに入れら
れるパス・メトリックは、最大の先行累積パス・メトリックpm.max(kk
−1,jj)+I(kk,jj)となる。パス・メトリック累積プロシージャの
計算は、すべての配列が満たされるまで続けられる。
【0072】 その後ビタビ・トラッカは、最大パス・メトリック値に関して、パス・メトリ
ック配列の最終行をスキャンする。この値は、最大尤度を有するパスの終了と関
係する。最大尤度パス上にあるすべてのブロックの座標を設定するため、ビタビ
・トラッカは、配列のルート・ノードまで戻る。最終行の最大尤度ノードについ
て、可能性のある各先行ノードを吟味し、最大パス・メトリック・ノードを決定
する。このノードは最大尤度パス上に存在するので、その座標がストアされる。
再度、反復する態様において、直前の行に関する最大尤度先行ノードが吟味され
、そのノードの座標が、配列の深度の2倍のサイズを有するパス・ロケーション
にストアされる。同様の態様で、ロケーション33,1においてパス・メトリッ
ク配列のルート・ノードに到達するまで、各行kk−1の吟味を繰り返す。この
時点においてパス・ロケーション配列に、イメージを通る最大尤度道路エッジの
パスが収められる。
【0073】 最後に、最大尤度ビタビ追跡方向としてラインの開始座標と終了座標の傾きが
計算される。この方向は、関連付けされたプライム道路エッジ候補のオブジェク
トを有する道路エッジのスコアを修正するために使用される。
【0074】 図19に示したバックグラウンド弁別器ロジック166は、ターゲット弁別器
ロジック136と並列に処理され、中間赤外線帯域および遠赤外線帯域のイメー
ジ・データがある場合にはその両方を処理し、シーカー・イメージ・データ36
を受け入れると、まずステップ172において、前提とするクラッタ・パターン
に基づき、そのイメージが有効であるか否かを判断する。イメージが有効であれ
ば、2つの方法、すなわちステップ174のビタビ特徴追跡および、ステップ1
76のベクトル量子化(VQ)セグメンテーションを使用して並列にその処理が
行われる。両方の方法を使用する目的は、シーカー・イメージ内に道路エッジの
候補が存在するか否かを判断することにある。
【0075】 ステップ174のビタビ特徴追跡は、オリジナルのイメージを通るライン特徴
を追跡し、これらのライン特徴が道路エッジを表すことの適格を決定する。この
種のトラッカは、オリジナルの赤外線反射率の擾乱に変動があり、道路エッジ自
体が量子化セグメンテーション・プロセスによって形成される領域の分断された
セットを招く場合に役立つ。また、ビタビ・トラッカは、センサ・チャンネル間
のDCオフセットが道路領域のセグメント間にリッジを形成しており、それ以外
ではセグメンテーション・レベルにおいて結合が困難な場合にも実行することが
できる。ビタビ追跡から計算される特徴は、トラックの図心およびトラックの方
向である。
【0076】 図24に示したバックグラウンド入力データのグラフ168は、ベクトル量子
化(VQ)セグメンテーションを使用してエリア・イメージ・データをクラス・
レベル167a〜fのセットにマップし、バックグラウンド・データのピクセル
配列を形成する方法を示しており、その後このピクセル配列が、コンポーネント
連結アルゴリズムによって処理されて、領域分けしたバックグラウンド・データ
120が生成される。クラス・レベルの数は可変であり、処理されるイメージに
依存する。
【0077】 ステップ176のベクトル量子化セグメンテーション・プロセスにおいては、
イメージがブロック・ベースで吟味され、道路が存在すると見込まれることを表
している変動の種類が決定される。各ブロックは、続いて最小ひずみが結果的に
もたらされる態様でクラス・レベル167a〜fにマップされるブロックを表す
ローカル・イメージの小セットに分類される。結果は、各ピクセルがクラス・イ
ンデクスに等しいピクセル配列になる。ステップ178においては、コンポーネ
ント連結アルゴリズムを使用したピクセル配列に対する領域ラベリングが実行さ
れる。ここで、バックグラウンド弁別器に使用しているコンポーネント連結プロ
セスは、ターゲット弁別器に使用しているそれに類似であることに注意されたい
。相違は、バックグラウンド弁別器の場合は、領域が、同一のクラス・インデク
スを有するピクセルの連続するセットからなることである。このようにして領域
がラベル付けされ、評価基準が適用されて、小さすぎる領域はその後の解析から
除外される。結果として得られるラベル付けされた領域のセットはスクリーニン
グされ手イメージのアーティファクトをもたらす可能性のある領域が除去される
。この種のアーティファクトの例としてDCオフセットがあり、センサ・チャン
ネルの間に存在することがしばしばある。このオフセットは、バックグラウンド
・シーンからのエコーにおける変動とともに、セグメント化されたイメージ内に
長く引き伸ばされた孤立領域を形成し、除去を行わないと道路エッジの候補とし
て含められることがある。領域が少なくとも2つのセンサ・チャンネルを占有し
ないときは、アーティファクトであるとしてステップ182において削除される
。道路エッジおよびシーカー・イメージの円形のエッジによって強い道路エッジ
が領域の境界を形成しているとき、イメージ・セグメンテーション・プロセスに
よって生成される可能性のあるエッジ/アーティファクトは、エッジ/除去アル
ゴリズムによって除去され、それにおいては、候補エッジ領域が、その候補領域
と競合し、それによって区切られる円形のセグメントの一定パーセンテージより
小さいことが求められる。残された領域は、ステップ186において、プライム
・エッジの明証に関して吟味される。この種の明証が見つかると、ステップ18
8においてエッジ検出に関連付けされた信頼度を判定するセカンダリ領域解析が
実行される。見つかったセカンダリ領域の数および、プライム・エッジに類似し
た方向を示している領域のパーセンテージは、エッジ識別スコアの修飾に使用さ
れる。ステップ192においては、ビタビ特徴トラッカ174から計算されたト
ラックの図心およびトラック方向と、見つかったセカンダリ領域が相関される。
道路の宣言および信頼度の計算を実行するステップ194においては、あらかじ
め選択した重み、伸び率、ビタビ追跡方向の角度および整列したセカンダリ・サ
ポート領域を使用して図心、方向、および信頼性スコアを評価し、続いてこれら
をステップ196のイメージ解析ロジックに渡す。
【0078】 図25に示したイメージ解析ロジックのブロック図190は、遠赤外線帯域お
よび中間赤外線帯域の両方から得られたターゲット検出器およびバックグラウン
ド検出器のデータを併合し、優先順位設定されたターゲット・リスト50を生成
する方法を示している。戦術データ56は、潜在的なターゲットのエリアに期待
される地勢ならびに天候条件に基づく重みベクトルを含む。捕捉シーン・データ
ベース(ASD)192は、ターゲット・エリア22の各スキャンからのイメー
ジ・スナップショット36に基づいてターゲット認識装置38によって決定され
たターゲット候補の集合からなる。ASD 192は、候補ターゲットのロケー
ションおよびスコア、候補ターゲットの信号対雑音比(SNR)、道路領域なら
びにその方向、および道路領域の信頼度等の情報を含んでいる。
【0079】 中間赤外線帯域ターゲット弁別器40aからの中間赤外線帯域ターゲット候補
44aおよび、中間赤外線帯域バックグラウンド弁別器42aからの中間赤外線
帯域バックグラウンド地勢特徴46aは、図25のステップ41において、各ス
キャンごとに、ターゲット弁別器によって決定されたターゲット候補データと、
バックグラウンド弁別器によって決定された道路の明証データを空間的に相関さ
せることによって併合される。バックグラウンド弁別器によってスキャンごとに
決定された道路の存在の信頼性およびロケーションは、ターゲット弁別器によっ
て決定されたターゲット候補のスコアに乗じる重み付け乗数を提供するために使
用される。この併合の結果は、スキャンごとをベースにした、ASDにおけるタ
ーゲット候補のスコアに対する修正であり、遠赤外線帯域ターゲット/地勢候補
データ45になる。
【0080】 遠赤外線帯域ターゲット弁別器40bからの遠赤外線帯域ターゲット候補44
bおよび、遠赤外線帯域バックグラウンド弁別器42bからの遠赤外線帯域バッ
クグラウンド地勢特徴46bは、43において、各スキャンごとに、ターゲット
弁別器によって決定された候補ターゲットのデータと、バックグラウンド弁別器
によって決定された道路の明証データを空間的に相関させることによって併合さ
れる。バックグラウンド弁別器によってスキャンごとに決定された道路の存在の
信頼性およびロケーションは、ターゲット弁別器によって決定された候補ターゲ
ットのスコアに乗じる重み付け乗数を提供するために使用される。この併合の結
果は、スキャンごとをベースにした、ASDにおける候補ターゲットのスコアに
対する修正であり、遠赤外線帯域ターゲット/地勢候補データ47になる。
【0081】 続いて、中間赤外線帯域/遠赤外線帯域併合デバイス49により、中間赤外線
帯域データ45と遠赤外線帯域データ47が処理されて、2色データ併合アルゴ
リズムを使用して1つのターゲット候補の合成リスト51が生成される。中間赤
外線帯域または遠赤外線帯域のいずれか一方が、戦術ダウンロード・データ56
に規定された軍事行動の優先帯域として選択される。この選択は、予測された展
開条件を基礎とする。優先帯域、ここでは中間赤外線帯域とするが、それに対応
するターゲット候補リストが最初のターゲット候補から最後までスキャンされる
。優先帯域内の候補ごとに、他方の帯域(この場合遠赤外線帯域)にあるすべて
の候補が、最初から最後まで同一のスキャン・イメージについてのみ吟味され、
他方の帯域のそれぞれの候補が、優先帯域の候補から幾何学距離Da内にあるか
否かが判断される。他方の帯域の候補が、検討している優先帯域の候補[k]か
ら距離Da内になければ、他方の帯域の候補リストにある次の候補との比較に進
む。逆に、他方の帯域の候補が距離Da内にあり、かつ同じスキャン内にあれば
、帯域コントラスト比、bcRatio[k]<crMax、さらにcrMin
=bsRatio[k]が更新される。このようにして、距離によって候補jに
関連付けられた他方の帯域の候補に関するbcRatio[]が決定される。優
先帯域の候補kに関連付けられた他方の帯域の各候補iによって、候補kのスコ
アもbパーセントだけ増加され、これにおいてパラメータbをここでは10にセ
ットしている。すべての関連付けされた他方の帯域の候補が見つかり、その数が
少なくとも1であれば、候補kのコントラスト比をbcRatio[k]=cr
Minにセットする。ここで、他方の帯域にある単一の候補iが、優先帯域にあ
る1ないしは複数の候補kと関連付けされることがある点に注意が必要である。
プロセスは、優先帯域のターゲット候補がすべて使用されてターゲット候補のリ
スト51が生成されると完了する。
【0082】 併合スキャン候補デバイス53は、合成ターゲット候補リスト52を生成する
。中間赤外線帯域および遠赤外線帯域それぞれからのターゲットおよびバックグ
ラウンドのデータを併合し、さらに中間赤外線帯域および遠赤外線帯域の合成タ
ーゲット候補リストからのデータを併合すると、ターゲット候補およびそれに関
連付けされたレコードのセットが確定する。各候補は、候補数をnとすると、1
からnまでのインデクス番号によって表される。1つの現実のターゲットから複
数の候補が作られる可能性もある。たとえば、単一のスキャン・イメージを用い
たとき、ターゲットのエコーがターゲット上の複数の熱源に起因して分断される
ことがある。また、複数のスキャンにわたって観察される単一のターゲットが移
動し、1つのターゲットから複数の候補のレコードが生成されることもある。こ
のため、1つの現実のターゲットを表していると考えられるターゲット候補を修
正し、併合して、続く処理のために1つのターゲット候補のレコードを生成する
ことが重要になる。
【0083】 ターゲット候補を併合するためには、n個の候補すべてを互いに関連付けて、
m<nとするm個のグループに編成する。相互に排他的な各グループは、同値類
(クラス)であり、グループ内のメンバ関係は、複数のスキャン・フィールド内
の単なる幾何学的な近接性のみを基礎とする。つまり、2つのターゲット候補が
配置されているロケーションのユークリッド空間における距離が、距離スレッシ
ョルドDtより小さいとき、2つの候補が結合されあるいは同値とされ、同値類
のメンバになる。ここで、ターゲット候補の同値類のメンバが、残りすべてのメ
ンバからDtピクセル内の距離にある必要ははく、クラス(類)の残りのメンバ
の1つからDtピクセル内の距離にあれば充分である。
【0084】 候補をm個のグループに結合するために、インデクスを付けたターゲット候補
のそれぞれを反復的に検討する。ターゲット候補リスト内の最初のターゲット候
補が、この繰り返しの最初に検討され、同値類インデクス1が割り当てられる。
2回目の繰り返しにおいては、2番目のターゲット候補が検討される。2番目の
ターゲット候補は、まず、その同値類のポインタがそれ独自のインデクス番号に
セットされて、第2の同値類のルートであるとして割り当てられる。しかしなが
ら、この2番目の候補が、最初のクラスからDt未満のユークリッド空間距離に
位置していると、候補1の同値類ポインタが候補2をポイントすべく変更され、
ターゲット候補1およびターゲット候補2がともに同一の同値類に含められる。
続くターゲット候補のそれぞれについて、同値類メンバ関係に関して検討され、
各繰り返しにおいて1つの候補の検討が行われる。各繰り返しにおいては、すで
に検討済みのjが、もっとも低いインデクスが付けられた候補から、新しい候補
の直前の、k−1がインデクスされた候補まで、順番にすべて吟味される。すで
に吟味した候補jのそれぞれは、2つの状態のいずれかにおいて比較するため、
現在の繰り返しに加えられる。それが同値類のルート・ノードとなることもあり
、その場合にはその同値類ポインタがそれ自体をポイントする。それ以外の場合
には、同値類の子メンバとなることがあり、その同値類ポインタは他のメンバを
ポイントすることになる。このメンバが、ルート・メンバをポイントすることも
ある。つまり、同値類は、各繰り返し段階に含めるエントリについて、多くとも
2つの継承レベルを有している。繰り返し段階の最初のステップにおいては、メ
ンバのポインタが、その同値類のルート・ノードをポイントすべくセットされる
。第2のステップにおいては、k番目の繰り返しの候補が候補jと比較される。
これらの候補が等しければ、同値類のルート・ポインタが候補jをポイントすべ
く変更され、すでに検討した候補のうちの次の候補が吟味される。このプロセス
は、すでに検討したj−1個の候補の比較がすべて完了し、同じ態様でj個の候
補の処理がすべて完了するまで続けられる。最後に続くステップにおいては、他
のルート・メンバをポイントしていないターゲット候補tすべてを、そのクラス
のルートにポイントさせる。この結果、1からjまでのターゲット候補のそれぞ
れが、1<I<=nとする値Iのポインタに帰することになり、これは同値類I
のメンバ関係であることを示す。
【0085】 このアルゴリズムの重要な側面は、互いにDtピクセル内にあるすべてのター
ゲット候補が1つの同値類に結合されることである。同値類のそれぞれは、1つ
の現実のターゲットを表すと見なされる。1つ静止オブジェクトが複数の視野に
現れることから、1つの視野にある1つのオブジェクトが複数の部分に別れて見
えることから、さらに移動するターゲットから連続したロケーションに複数のオ
ブジェクトが生成されることから、結果的に複数のターゲット候補のデータ・レ
コード/オブジェクトがもたらされる。図26は、ターゲット成分の仮定的な各
種の分散について、クラスタへの結合結果を例示している。ここで、ターゲット
候補の結合が、ターゲット・オブジェクトのシーンにわたって連続的に進められ
らることに注意されたい。
【0086】 各クラスが1つのターゲットを表すと仮定されていることから、次のステップ
は各同値類内のすべてのターゲット候補データを、合成データベースの特徴を表
す共通のデータ・レコードに併合することである。各同値類について、i番目の
合成ターゲットの座標に、同値類Iのターゲット候補のうち最後に観察された候
補の座標を割り当てることによって、合成ターゲット候補が形成される。結合し
たクラスのスコアおよび信号対雑音比は、それぞれメンバのスコアおよびSNR
の最大値とする。グループには新しい特徴も構成される。一方はクラス内のメン
バ数であり、他方はクラス内の距離の最大値、最小値、平均値および標準偏差か
らなる。すべての候補ターゲットが併合されると、併合後の同値類からなる新し
いターゲット・リストが生成される。
【0087】 ソート・スキャン候補ステップ57は、候補を攻撃優先順位の降順にソーティ
ングする。このステップは、ヒープ・ソーティング・アルゴリズムを使用し、も
っとも高いスコアから順にターゲット候補を、もっとも低いスコアまで並べる。
その後、認識装置から、優先順に並べられた候補のデータ・レコードを含む再イ
ンデクスされたターゲット候補リストがレポートされる。
【0088】 本発明の具体的な特徴が図面の一部に示され、他に示されていないが、本発明
に従って、それぞれの特徴が他の特徴のいずれかあるいはそのすべてと組み合わ
されることから、これは便宜のみを理由とするものである。
【0089】 当業者であれば、これ以外の実施例も可能であり、それは特許請求の範囲に含
められている。
【図面の簡単な説明】
【図1】 戦車等のターゲットに対する自己ターゲティング・ミサイルの運
用を示す斜視図である。
【図2】 本発明に従ったイメージング・ターゲット検出システムのブロッ
ク図である。
【図3】 図2に示したイメージング・ターゲット検出システムの実施例の
ブロック図である。
【図4】 マイクロプロセッサを使用した図2に示したイメージング・ター
ゲット検出システムのブロック図である。
【図5】 図2に示したイメージング・ターゲット検出システムに使用され
る赤外線シーカー/スキャナを表す断面図である。
【図6】 図5に示した赤外線シーカー/スキャナのコニカル・スキャン・
パターンを表す透視図である。
【図7】 図6に示したコニカル・スキャンの間に撮像される一連のエリア
・イメージ・スナップショットを表す透視図である。
【図8】 図2に示したイメージング・ターゲット検出システムのスキャナ
に備わるマイクロプロセッサのプログラムに使用されるロジックを表すフローチ
ャートである。
【図9】 図2に示したイメージング・ターゲット検出システムのターゲッ
ト認識装置をより詳細に表すブロック図である。
【図10】 図2に示したイメージング・ターゲット検出システムのより詳
細なブロック図であり、中間赤外線帯域のターゲットおよびバックグラウンド弁
別器を表す。
【図11】 図10と類似のブロック図であり、遠赤外線帯域のターゲット
およびバックグラウンド弁別器を表す。
【図12】 図2に示したイメージング・ターゲット検出システムのターゲ
ット弁別器に備わるマイクロプロセッサのプログラムに使用されるロジックを表
すフローチャートである。
【図13】 5ポイント・メジアン・フィルタのマスクである。
【図14】 図2に示したイメージング・ターゲット検出システムに使用さ
れるコンポーネント連結アルゴリズムの動作を説明するために示した7×7のピ
クセル配列である。
【図15】 ターゲット信号の振幅に基づいて、ターゲット・データを10
段階の離散的なレベルを有するピクセルにマップする方法を示すグラフィック表
現である。
【図16】 再量子化されたピクセル強度値を含むピクセル配列である。
【図17】 ピクセル強度値の累積分布関数である。
【図18】 図2に示したイメージング・ターゲット検出システムに使用さ
れるターゲット領域選択ロジックのフローチャートである。
【図19】 図2に示したイメージング・ターゲット検出システムに備わる
マイクロプロセッサのプログラムに使用されるバックグラウンド弁別器ロジック
のフローチャートである。
【図20】 シーカー・スキャン・アーティファクト除去に関する境界を形
成する半径の計算を図示している。
【図21】 スライスの面積の計算を図示している。
【図22】 プライマリ・エッジの方向とビタビ追跡のそれおよびセカンダ
リ領域のそれの比較を図示している。
【図23】 ビタビのパス・メトリック・データ構造である。
【図24】 バックグラウンド・データを、図2に示したイメージング・タ
ーゲット検出システムのバックグラウンド弁別器によって使用されるピクセルに
マップする方法を示すグラフィック表現である。
【図25】 図2に示したイメージング・ターゲット検出システムに使用さ
れるイメージ解析ロジックを表すブロック図である。
【図26】 シーン・データベースのターゲット候補のクラスタを表してい
る。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GE,GH,GM,HR ,HU,ID,IL,IS,JP,KE,KG,KP, KR,KZ,LC,LK,LR,LS,LT,LU,L V,MD,MG,MK,MN,MW,MX,NO,NZ ,PL,PT,RO,RU,SD,SE,SG,SI, SK,SL,TJ,TM,TR,TT,UA,UG,U Z,VN,YU,ZW (72)発明者 スティーヴン・ギルド・ジョンソン アメリカ合衆国・ロードアイランド・ 02837・リトル・コンプトン・サコネッ ト・トレイル・32 (72)発明者 メリンダ・リー・ノールクロス アメリカ合衆国・ニューハンプシャー・ 03051・ハドソン・ヘイゼルウッド・ドラ イブ・10 (72)発明者 アンソニー・ジョン・ポーラク アメリカ合衆国・ニューハンプシャー・ 03102・マンチェスター・サウス・メイ ン・ストリート・720

Claims (24)

    【特許請求の範囲】
  1. 【請求項1】 ターゲット・エリアのイメージを生成するスキャナ手段; 類似の強度レベルを有するイメージ・ピクセルを識別するためのターゲット・
    セグメンテーション手段;類似の強度レベルを有する連続したピクセルを領域に
    グループ化するためのターゲット領域分け手段;各ターゲット領域ごとに特徴の
    セットを計算するための手段;および、前記特徴に応じて、ターゲットの候補と
    して領域を分類するための手段;からなるターゲット弁別手段; 類似の強度レベルを有するイメージ・ピクセルを識別するためのバックグラウ
    ンド・セグメンテーション手段;類似の強度レベルを有する連続したピクセルを
    領域にグループ化するためのバックグラウンド領域分け手段;各バックグラウン
    ド領域ごとに特徴のセットを計算するための手段;および、前記特徴に応じて、
    地勢の特徴としてバックグラウンド領域を分類するための手段;からなるバック
    グラウンド弁別手段;および、 前記分類された地勢の特徴および前記分類されたターゲットの候補に応答して
    ターゲットの決定および優先順位設定を行うためのイメージ解析ロジック手段; を備えることを特徴とするイメージング・ターゲット検出システム。
  2. 【請求項2】 前記ターゲット弁別手段は、累積分布関数セグメンテーショ
    ン手段を包含することを特徴とする前記請求項1記載のイメージング・ターゲッ
    ト検出システム。
  3. 【請求項3】 前記バックグラウンド弁別手段は、ベクトル量子化セグメン
    テーション手段を包含することを特徴とする前記請求項1記載のイメージング・
    ターゲット検出システム。
  4. 【請求項4】 前記各ターゲット領域ごとに特徴セットを計算するための手
    段は、あらかじめ決定した数を超えるピクセルを含む領域およびそれを下回るピ
    クセルを含む領域を消去するための手段を包含することを特徴とする前記請求項
    1記載のイメージング・ターゲット検出システム。
  5. 【請求項5】 前記各バックグラウンド領域ごとに特徴セットを計算するた
    めの手段は、あらかじめ選択した数を超えるピクセルを含む領域およびそれを下
    回るピクセルを含む領域を消去するための手段を包含することを特徴とする前記
    請求項1記載のイメージング・ターゲット検出システム。
  6. 【請求項6】 前記バックグラウンド弁別手段は、前記イメージの前記ピク
    セルにおけるトラックを検出するためのビタビ追跡手段を含み、前記バックグラ
    ウンド領域をあらかじめ分類する手段は、前記ビタビ追跡手段および前記各バッ
    クグラウンド領域ごとに特徴セットを計算するための手段に応答し、地勢の特徴
    としてバックグラウンド領域をあらかじめ分類することを特徴とする前記請求項
    1記載のイメージング・ターゲット検出システム。
  7. 【請求項7】 前記スキャナ手段は、ターゲット・エリアを表す信号を提供
    するためのスキャニング・デバイスおよび、前記信号を前記ターゲット・エリア
    のイメージに変換するための幾何学的変換手段を備えることことを特徴とする前
    記請求項1記載のイメージング・ターゲット検出システム。
  8. 【請求項8】 前記イメージは、色の異なる少なくとも2つのイメージを含
    むことを特徴とする前記請求項1記載のイメージング・ターゲット検出システム
  9. 【請求項9】 前記異なる色は、中間および遠赤外線波長に含まれることを
    特徴とする前記請求項8記載のイメージング・ターゲット検出システム。
  10. 【請求項10】 各色のイメージごとに、ターゲット弁別手段およびバック
    グラウンド弁別手段を備えることを特徴とする前記請求項8記載のイメージング
    ・ターゲット検出システム。
  11. 【請求項11】 前記イメージ解析ロジックは、ターゲットの優先順位設定
    に関する信頼係数を提供することを特徴とする前記請求項1記載のイメージング
    ・ターゲット検出システム。
  12. 【請求項12】 ターゲット・エリアのイメージを生成するスキャナ手段; 類似の交差レベルを有するイメージ・ピクセルを識別するためのターゲット・
    セグメンテーション手段;類似の交差レベルを有する連続したピクセルを領域に
    グループ化するためのターゲット領域分け手段;各ターゲット領域ごとに特徴の
    セットを計算するための手段;および、前記特徴に応じて、可能性のあるターゲ
    ットとして領域を分類するための手段;からなるターゲット弁別手段; 類似の交差レベルを有するイメージ・ピクセルを識別するためのバックグラウ
    ンド・セグメンテーション手段;類似の交差レベルを有するピクセルを領域にグ
    ループ化するためのバックグラウンド領域分け手段;各バックグラウンド領域ご
    とに特徴のセットを計算するための手段;および、前記特徴に応じて、地勢の特
    徴としてバックグラウンド領域を分類するための手段;からなるバックグラウン
    ド弁別手段;および、 前記分類された地勢の特徴および前記分類された可能性のあるターゲットに応
    答してターゲットの決定および優先順位設定を行うためのイメージ解析ロジック
    手段; を備えることを特徴とするミサイル・イメージング・ターゲット検出システム
  13. 【請求項13】 ターゲット・エリアをスキャンしてターゲット・エリアの
    イメージを生成するステップ; 類似の強度レベルを有するイメージ・ピクセルを識別するステップ;類似の強
    度レベルを有する連続したピクセルを領域にグループ化するステップ;各領域ご
    とに特徴のセットを計算するステップ;および、前記特徴に応じて、可能性のあ
    るターゲットとして領域を分類するステップ;を包含するターゲットを弁別する
    ステップ; 類似の強度レベルを有するイメージ・ピクセルを識別するステップ;類似の強
    度レベルを有する連続したピクセルを領域にグループ化するステップ;各バック
    グラウンド領域ごとに特徴のセットを計算するステップ;および、前記特徴に応
    じて、地勢の特徴としてバックグラウンド領域を分類するステップ;を包含する
    バックグラウンドを弁別するステップ;および、 前記分類された地勢の特徴およびターゲットの候補を解析して、ターゲットの
    決定および優先順位設定を行うステップ; からなることを特徴とするイメージング・ターゲット検出方法。
  14. 【請求項14】 前記ターゲットを弁別するステップは、累積分布関数に従
    ったセグメンテーションを包含することを特徴とする前記請求項13記載のイメ
    ージング・ターゲット検出方法。
  15. 【請求項15】 前記バックグラウンドを弁別するステップは、ベクトル量
    子化のセグメンテーションを包含することを特徴とする前記請求項13記載のイ
    メージング・ターゲット検出方法。
  16. 【請求項16】 前記各ターゲット領域ごとに特徴のセットを計算するステ
    ップは、第1のあらかじめ決定した数を超えるピクセルを含む領域および第2の
    あらかじめ決定した数を下回るピクセルを含む領域を削除するステップを含むこ
    とを特徴とする前記請求項13記載のイメージング・ターゲット検出方法。
  17. 【請求項17】 前記各バックグラウンド領域ごとに特徴のセットを計算す
    るステップは、第1のあらかじめ選択した数を超えるピクセルを含む領域および
    第2のあらかじめ選択した数を下回るピクセルを含む領域を削除するステップを
    含むことを特徴とする前記請求項13記載のイメージング・ターゲット検出方法
  18. 【請求項18】 前記バックグラウンドを弁別するステップは、前記イメー
    ジの前記ピクセルにおけるトラックを検出するためのビタビ追跡を含み、前記バ
    ックグラウンド領域を分類するステップは、該ビタビ追跡と、前記各バックグラ
    ウンド領域ごとに計算された特徴のセットを相関させて、領域を地勢の特徴とし
    て分類することを特徴とする前記請求項13記載のイメージング・ターゲット検
    出方法。
  19. 【請求項19】 前記スキャンするステップは、ターゲット・エリアを表す
    信号を提供するステップおよび、前記信号をターゲット・エリアのイメージに幾
    何学的変換するステップを含むことを特徴とする前記請求項13記載のイメージ
    ング・ターゲット検出方法。
  20. 【請求項20】 前記イメージは、色の異なる少なくとも2つのイメージを
    含むことを特徴とする前記請求項13記載のイメージング・ターゲット検出方法
  21. 【請求項21】 前記異なる色は、中間および遠赤外線波長に含まれること
    を特徴とする前記請求項20記載のイメージング・ターゲット検出方法。
  22. 【請求項22】 ターゲットの弁別およびバックグラウンドの弁別は、各色
    のイメージごとに実行されることを特徴とする前記請求項20記載のイメージン
    グ・ターゲット検出方法。
  23. 【請求項23】 前記イメージのロジック解析は、ターゲットの優先順位設
    定に関する信頼係数を提供することを特徴とする前記請求項13記載のイメージ
    ング・ターゲット検出方法。
  24. 【請求項24】 ターゲット・エリアをスキャンしてそのイメージを生成す
    るステップ; 類似の強度レベルを有するイメージ・ピクセルを識別するステップ;類似の強
    度レベルを有する連続したピクセルを領域にグループ化するステップ;各領域ご
    とに特徴のセットを計算するステップ;および、前記特徴に応じて、可能性のあ
    るターゲットとして領域を分類するステップ;を包含するターゲットを弁別する
    ステップ; 類似の強度レベルを有するイメージ・ピクセルを識別するステップ;類似の強
    度レベルを有する連続したピクセルを領域にグループ化するステップ;各バック
    グラウンド領域ごとに特徴のセットを計算するステップ;および、前記特徴に応
    じて、地勢の特徴としてバックグラウンド領域を分類するステップ;を包含する
    バックグラウンドを弁別するステップ;および、 ターゲットの決定および優先順位設定を行うために、前記分類された地勢の特
    徴およびターゲットの候補を解析するステップ; からなることを特徴とするミサイル・イメージング・ターゲット検出方法。
JP2000523561A 1997-12-03 1998-11-30 イメージング・ターゲット検出方法および装置 Expired - Fee Related JP3340427B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/984,592 1997-12-03
US08/984,592 US6072889A (en) 1997-12-03 1997-12-03 Method and system for imaging target detection
PCT/US1998/025401 WO1999028759A1 (en) 1997-12-03 1998-11-30 Method and system for imaging target detection

Publications (2)

Publication Number Publication Date
JP2001525548A true JP2001525548A (ja) 2001-12-11
JP3340427B2 JP3340427B2 (ja) 2002-11-05

Family

ID=25530683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000523561A Expired - Fee Related JP3340427B2 (ja) 1997-12-03 1998-11-30 イメージング・ターゲット検出方法および装置

Country Status (7)

Country Link
US (1) US6072889A (ja)
EP (1) EP1036340B1 (ja)
JP (1) JP3340427B2 (ja)
AU (1) AU1996399A (ja)
DE (1) DE69824447T2 (ja)
ES (1) ES2226199T3 (ja)
WO (1) WO1999028759A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190053393A (ko) * 2017-11-10 2019-05-20 한화디펜스 주식회사 복수의 표적을 선정하고 사격을 수행하는 원격 화기 제어 장치 및 방법

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400830B1 (en) * 1998-02-06 2002-06-04 Compaq Computer Corporation Technique for tracking objects through a series of images
US6578017B1 (en) * 1999-02-26 2003-06-10 Information Decision Technologies, Llc Method to aid object detection in images by incorporating contextual information
JP3680922B2 (ja) * 1999-07-14 2005-08-10 シャープ株式会社 画像処理装置
AT408721B (de) 1999-10-01 2002-02-25 Cistem Biotechnologies Gmbh Pharmazeutische zusammensetzung enthaltend ein antigen
US6985609B2 (en) * 2000-08-30 2006-01-10 Giken Trastem Co., Ltd. Method for identifying an object image
US6885886B2 (en) * 2000-09-11 2005-04-26 Brainlab Ag Method and system for visualizing a body volume and computer program product
US6895102B2 (en) 2001-06-29 2005-05-17 Raytheon Company Probability weighted centroid tracker
JP4150844B2 (ja) * 2001-07-05 2008-09-17 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置および画像処理プログラム
FR2828315B1 (fr) * 2001-07-31 2005-08-05 Sagem Stabilisation des images d'une scene, correction des offsets de niveaux de gris, detection d'objets mobiles et harmonisation de deux appareils de prise de vues fondes sur la stabilisation des images
US7430303B2 (en) * 2002-03-29 2008-09-30 Lockheed Martin Corporation Target detection method and system
US7136505B2 (en) * 2002-04-10 2006-11-14 National Instruments Corporation Generating a curve matching mapping operator by analyzing objects of interest and background information
US7149356B2 (en) * 2002-07-10 2006-12-12 Northrop Grumman Corporation System and method for template matching of candidates within a two-dimensional image
US7146057B2 (en) * 2002-07-10 2006-12-05 Northrop Grumman Corporation System and method for image analysis using a chaincode
US7116823B2 (en) * 2002-07-10 2006-10-03 Northrop Grumman Corporation System and method for analyzing a contour of an image by applying a Sobel operator thereto
US7110602B2 (en) * 2002-08-21 2006-09-19 Raytheon Company System and method for detection of image edges using a polar algorithm process
US7032856B2 (en) * 2003-04-15 2006-04-25 Raytheon Company Modern thermal sensor upgrade for existing missile system
JP4113047B2 (ja) * 2003-05-30 2008-07-02 富士通株式会社 帳票処理装置、及びプログラム
US7483551B2 (en) * 2004-02-24 2009-01-27 Lockheed Martin Corporation Method and system for improved unresolved target detection using multiple frame association
GB2430574B (en) * 2004-05-26 2010-05-05 Bae Systems Information System and method for transitioning from a missile warning system to a fine tracking system in a directional infrared countermeasures system
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
IL168210A (en) * 2005-04-21 2012-03-29 Rafael Advanced Defense Sys Method for assisting a user to designate a target
US7548184B2 (en) * 2005-06-13 2009-06-16 Raytheon Company Methods and apparatus for processing data from multiple sources
US7536365B2 (en) * 2005-12-08 2009-05-19 Northrop Grumman Corporation Hybrid architecture for acquisition, recognition, and fusion
US7965866B2 (en) * 2007-07-03 2011-06-21 Shoppertrak Rct Corporation System and process for detecting, tracking and counting human objects of interest
US9778351B1 (en) 2007-10-04 2017-10-03 Hrl Laboratories, Llc System for surveillance by integrating radar with a panoramic staring sensor
US10621461B1 (en) * 2013-03-13 2020-04-14 Hrl Laboratories, Llc Graphical display and user-interface for high-speed triage of potential items of interest in imagery
US7733289B2 (en) 2007-10-31 2010-06-08 The Invention Science Fund I, Llc Electromagnetic compression apparatus, methods, and systems
US20090218524A1 (en) * 2008-02-29 2009-09-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Electromagnetic cloaking and translation apparatus, methods, and systems
US8638505B2 (en) * 2008-05-30 2014-01-28 The Invention Science Fund 1 Llc Negatively-refractive focusing and sensing apparatus, methods, and systems
US8531782B2 (en) * 2008-05-30 2013-09-10 The Invention Science Fund I Llc Emitting and focusing apparatus, methods, and systems
US8736982B2 (en) * 2008-05-30 2014-05-27 The Invention Science Fund I Llc Emitting and focusing apparatus, methods, and systems
US7869131B2 (en) * 2008-05-30 2011-01-11 The Invention Science Fund I Emitting and negatively-refractive focusing apparatus, methods, and systems
WO2009148548A1 (en) * 2008-05-30 2009-12-10 Searete Llc Emitting and focusing apparatus, methods, and systems
US9019632B2 (en) * 2008-05-30 2015-04-28 The Invention Science Fund I Llc Negatively-refractive focusing and sensing apparatus, methods, and systems
US8773776B2 (en) * 2008-05-30 2014-07-08 The Invention Science Fund I Llc Emitting and negatively-refractive focusing apparatus, methods, and systems
US7872812B2 (en) * 2008-05-30 2011-01-18 The Invention Science Fund I, Llc Emitting and focusing apparatus, methods, and systems
US7777962B2 (en) * 2008-05-30 2010-08-17 The Invention Science Fund I, Llc Negatively-refractive focusing and sensing apparatus, methods, and systems
US8817380B2 (en) * 2008-05-30 2014-08-26 The Invention Science Fund I Llc Emitting and negatively-refractive focusing apparatus, methods, and systems
US8773775B2 (en) * 2008-05-30 2014-07-08 The Invention Science Fund I Llc Emitting and negatively-refractive focusing apparatus, methods, and systems
US8164837B2 (en) * 2008-05-30 2012-04-24 The Invention Science Fund I, Llc Negatively-refractive focusing and sensing apparatus, methods, and systems
US8638504B2 (en) * 2008-05-30 2014-01-28 The Invention Science Fund I Llc Emitting and negatively-refractive focusing apparatus, methods, and systems
US8493669B2 (en) * 2008-05-30 2013-07-23 The Invention Science Fund I Llc Focusing and sensing apparatus, methods, and systems
US7830618B1 (en) * 2008-05-30 2010-11-09 The Invention Science Fund I Negatively-refractive focusing and sensing apparatus, methods, and systems
US8837058B2 (en) * 2008-07-25 2014-09-16 The Invention Science Fund I Llc Emitting and negatively-refractive focusing apparatus, methods, and systems
US8730591B2 (en) * 2008-08-07 2014-05-20 The Invention Science Fund I Llc Negatively-refractive focusing and sensing apparatus, methods, and systems
DE102009009896B4 (de) * 2009-02-20 2011-02-10 Eads Deutschland Gmbh Verfahren und Vorrichtung zur Erfassung von Zielobjekten
US8538071B2 (en) * 2009-03-18 2013-09-17 Raytheon Company System and method for target separation of closely spaced targets in automatic target recognition
US8471905B2 (en) * 2009-04-09 2013-06-25 Raytheon Company Methods and apparatus for imaging
JP5279653B2 (ja) 2009-08-06 2013-09-04 キヤノン株式会社 画像追尾装置、画像追尾方法、及びコンピュータプログラム
US8503767B2 (en) * 2009-09-16 2013-08-06 Microsoft Corporation Textual attribute-based image categorization and search
DE102009042691B3 (de) * 2009-09-23 2011-06-16 Diehl Bgt Defence Gmbh & Co. Kg Verfahren und System zur Aufklärung eines Zielgebiets
US8218870B2 (en) * 2010-02-18 2012-07-10 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting images with intensity-based label propagation and probabilistic of level sets
JP4977923B2 (ja) * 2010-03-03 2012-07-18 日本電気株式会社 アクティブ型車両視界補助装置及び車両視界補助方法
DE102010022728A1 (de) * 2010-06-04 2011-12-08 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Einweisen eines Flugkörpers auf ein Ziel
US8645305B2 (en) * 2010-10-26 2014-02-04 Raytheon Company Assigning sensors to paths
US8553933B2 (en) 2010-11-10 2013-10-08 Raytheon Company Edge diversity object detection
US8582884B2 (en) 2010-11-12 2013-11-12 Raytheon Company Approximation of an imaged object from edges detected from the underlying image
US8305650B2 (en) 2010-11-16 2012-11-06 Xerox Corporation Image to target comparator software
US8520074B2 (en) * 2010-12-14 2013-08-27 Xerox Corporation Determining a total number of people in an IR image obtained via an IR imaging system
AU2012229873A1 (en) * 2011-03-11 2013-05-02 The University Of Sydney Extraction processes
US8755627B2 (en) * 2011-04-14 2014-06-17 Lexmark International, Inc. Method and system for reducing speckles in a captured image
US9086484B2 (en) * 2011-06-30 2015-07-21 The Boeing Company Context-based target recognition
CN102646334B (zh) * 2012-04-25 2014-04-02 杭州海康威视数字技术股份有限公司 高速公路交通事件自动取证方法及其系统
KR20150087397A (ko) * 2012-11-21 2015-07-29 케이엘에이-텐코 코포레이션 프로세스 호환 세그먼팅된 타겟들 및 설계 방법들
US10877489B2 (en) 2018-03-26 2020-12-29 Simmonds Precision Products, Inc. Imaging seeker for a spin-stabilized projectile
DE102019105769B4 (de) 2019-03-07 2022-12-29 Rheinmetall Waffe Munition Gmbh Geschoss
US11037018B2 (en) 2019-04-09 2021-06-15 Simmonds Precision Products, Inc. Navigation augmentation system and method
US11367211B2 (en) * 2019-07-29 2022-06-21 Raytheon Company Inertially-assisted target detection
CN112819778B (zh) * 2021-01-28 2022-04-12 中国空气动力研究与发展中心超高速空气动力研究所 一种航天材料损伤检测图像多目标全像素分割方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method
US5341143A (en) * 1987-07-24 1994-08-23 Northrop Grumman Corporation Hierarchical tracker and method
US5341142A (en) * 1987-07-24 1994-08-23 Northrop Grumman Corporation Target acquisition and tracking system
US4905292A (en) * 1987-09-14 1990-02-27 The United States Of America As Represented By The Secretary Of The Army High probability of detection, low false alarm multisensor ATR
GB2219905A (en) * 1988-06-17 1989-12-20 Philips Electronic Associated Target detection system
US5265173A (en) * 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5149970A (en) * 1991-09-26 1992-09-22 Hughes Aircraft Company Dual-band optoelectronic imaging apparatus including "venetian blind" dichroic plate arrangement
FR2688909B1 (fr) * 1992-03-20 1994-05-13 Thomson Csf Procede de trajectographie de mobiles dans un environnement bruite.
US5612928A (en) * 1992-05-28 1997-03-18 Northrop Grumman Corporation Method and apparatus for classifying objects in sonar images
US5430445A (en) * 1992-12-31 1995-07-04 Raytheon Company Synthetic aperture radar guidance system and method of operating same
US5602760A (en) * 1994-02-02 1997-02-11 Hughes Electronics Image-based detection and tracking system and processing method employing clutter measurements and signal-to-clutter ratios
US5493539A (en) * 1994-03-11 1996-02-20 Westinghouse Electric Corporation Two-stage detection and discrimination system for side scan sonar equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190053393A (ko) * 2017-11-10 2019-05-20 한화디펜스 주식회사 복수의 표적을 선정하고 사격을 수행하는 원격 화기 제어 장치 및 방법
KR102290860B1 (ko) * 2017-11-10 2021-08-17 한화디펜스 주식회사 복수의 표적을 선정하고 사격을 수행하는 원격 화기 제어 장치 및 방법
US11441874B2 (en) 2017-11-10 2022-09-13 Hanwha Defense Co., Ltd. Remote weapon control device and method for targeting and shooting multiple objects

Also Published As

Publication number Publication date
DE69824447D1 (de) 2004-07-15
EP1036340A1 (en) 2000-09-20
EP1036340B1 (en) 2004-06-09
ES2226199T3 (es) 2005-03-16
JP3340427B2 (ja) 2002-11-05
AU1996399A (en) 1999-06-16
WO1999028759A1 (en) 1999-06-10
US6072889A (en) 2000-06-06
DE69824447T2 (de) 2005-06-23

Similar Documents

Publication Publication Date Title
JP3340427B2 (ja) イメージング・ターゲット検出方法および装置
Chadwick et al. Distant vehicle detection using radar and vision
US9600765B1 (en) Classification systems and methods using convex hulls
Novak et al. The automatic target-recognition system in SAIP
US8712098B2 (en) Method and system for detecting target objects
US4739401A (en) Target acquisition system and method
US5027413A (en) Target detection systems
US8705795B2 (en) Information processing apparatus, information processing method, and program
US7536365B2 (en) Hybrid architecture for acquisition, recognition, and fusion
CN110889324A (zh) 一种基于yolo v3面向末端制导的热红外图像目标识别方法
EP1380986A2 (en) System and method for analyzing a contour of an image by applying a sobel operator thereto
EP1380993A2 (en) System and method for template matching of candidates within a two-dimensional image
US8275172B2 (en) Multipass data integration for automatic detection and classification of objects
Chen et al. Advanced automatic target recognition (ATR) with infrared (IR) sensors
Tevyashev et al. Laser opto-electronic airspace monitoring system in the visible and infrared ranges
Fernandes et al. Drone, aircraft and bird identification in video images using object tracking and residual neural networks
Fang et al. A real-time anti-distractor infrared UAV tracker with channel feature refinement module
Wang et al. Fusion perception of vision and millimeter wave radar for autonomous driving
Subash Automatic road extraction from satellite images using extended Kalman filtering and efficient particle filtering
Antonakakis et al. A Two-Phase ResNet for Object Detection in Aerial Images
Bhuiyan et al. A Simple Deep Learning Network for Target Classification
Cook Results of ladar ATR captive flight testing experiments
Shafiq Drone Detection and Classification using Machine Learning
Ray et al. Discrimination of Birds from Aircraft in a Video Sequence for EO Tracking Systems Using Deep CNN
Chen Palm tree detection in UAV images: a hybrid approach based on multimodal particle swarm optimisation

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020709

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees