JP3345113B2 - 目標物認識方法及び標的同定方法 - Google Patents

目標物認識方法及び標的同定方法

Info

Publication number
JP3345113B2
JP3345113B2 JP19542493A JP19542493A JP3345113B2 JP 3345113 B2 JP3345113 B2 JP 3345113B2 JP 19542493 A JP19542493 A JP 19542493A JP 19542493 A JP19542493 A JP 19542493A JP 3345113 B2 JP3345113 B2 JP 3345113B2
Authority
JP
Japan
Prior art keywords
target
image
dimensional image
dimensional
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19542493A
Other languages
English (en)
Other versions
JPH06265620A (ja
Inventor
ルイス、ジー、マイナー
ロバート、ティー、キタハラ
Original Assignee
ロックヒード、マーティン、コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロックヒード、マーティン、コーポレーション filed Critical ロックヒード、マーティン、コーポレーション
Publication of JPH06265620A publication Critical patent/JPH06265620A/ja
Application granted granted Critical
Publication of JP3345113B2 publication Critical patent/JP3345113B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Electrotherapy Devices (AREA)
  • Burglar Alarm Systems (AREA)
  • Control Of Motors That Do Not Use Commutators (AREA)
  • Circuits Of Receivers In General (AREA)
  • Image Analysis (AREA)
  • Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ミサイルや滑空爆弾の
ような空中巡航武器とともに使用される誘導標的システ
ムに関し、さらに詳細には、標的を同定し、標的に向か
って武器を誘導するために使用される武器においてイメ
ージセンサを使用する目標物認識方法及び標的同定方法
に関する。
【0002】
【従来の技術】従来の多くの武器誘導装置及び標的装置
は、特定の標的を捕捉し、その捕捉された固定配置の特
定の標的に向けてミサイルまたは他の武器を誘導するた
めに利用される。これらの従来の装置は、透過赤外線、
MMW、TV、SAR、またはCOレーザレーダ(L
ADAR)センサのようなあるタイプのイメージセンサ
を使用する。これらの従来の装置の各々は、特定の標的
毎に標的基準を前処理することが必要である。従来の標
的基準の前処理は、典型的には標的の3次元のイメージ
またはモデルの発生を必要とし、さらに、3次元基準イ
メージ内に存在する目標物及び表面の同定を必要とす
る。次に、この標的基準イメージは、イメージセンサに
よって検出されたデータと比較するための基準を提供す
るためにミサイルの機上にロードされる。
【0003】容易に理解できるように、これらの標的基
準モデルを前処理することに関する困難性は、それを処
理するにあたって極端に多くの時間を費やし、さらに数
日の前処理期間を必要とすることである。多くの戦術的
なシナリオにおいて、この前処理期間、すなわち、状況
を変化させるための比較的短い応答時間は、重大な戦略
的または戦術的な問題を提起する。上述した説明から明
らかな他の問題は、偵察によって基準モデルの発生を容
易にするための十分な目視データを得なければならない
ばかりでなく、3次元モデル化を容易にするために物体
に関する情報及びステレオ対情報を提供しなければなら
ないことである。そうでなければ、このモデルは、誘導
を不正確にするエラーを含むことになる。
【0004】偵察データに基づいて基礎的な3次元モデ
ルがつくられると、追加の複雑なモデル化を適用して、
IRや、MMW、SAR等の特徴を予測し、攻撃中に武
器によって使用される標的基準モデルを提供しなければ
ならない。3次元の基準モデルがつくられると、武器用
の攻撃地理手段が選択され、武器にロードするために標
的基準ファイルがつくられる。この攻撃基準ファイル
は、しばしば、ミサイルの特定のイメージセンサによっ
て観測されてエッジの特徴が予測された後にモデル化さ
れたエッジマップである。攻撃中、攻撃基準ファイル
は、検出されたイメージと比較されて、標的が探索され
た時を決定し、ミサイル誘導装置に誘導情報を提供す
る。
【0005】
【発明が解決しようとする課題】上記したように、従来
の装置が有する顕著な問題は、ミサイルで使用する標的
基準ファイルを生成するために3次元標的基準モデルを
前処理する必要があることである。さらに、偵察データ
に基づいて関連するセンサによって認識される特徴の予
測を含むモデル化の複雑性も重大なことである。さらに
従来の装置は、典型的には偵察センサ視認方向からの攻
撃にほぼ拘束され、戦略的なオプションにはかなり制限
がある。
【0006】従って、本発明は、3次元イメージセンサ
を使用し、3次元モデルの前処理を必要としないで標的
の認識を行い、それによって特命プラン及び前処理操作
を最適化し簡単化する、武器を標的に向かって誘導する
ための目標物認識方法及び標的同定方法を提供すること
を目的とする。
【0007】
【課題を解決するための手段】上記目的を達成するため
に、本発明は3次元イメージ検出を介して選択された物
理的な目標物を認識する目標物認識方法であって、第1
のアイポイントから見た目標物の2次元イメージから目
標物の選択された表面を同定するステップと、ほぼ目標
物に向かって移動するハウジング内に取り付けられ、目
標物の3次元イメージを検出する第2のアイポイントを
画定するセンサを作動させて、目標物の3次元イメージ
を生成するステップと、目標物の検出部分を、第1のア
イポイントから見た変換イメージを形成するように、3
次元イメージを変換する処理を繰り返し実行するステッ
プと、2次元イメージの選択された表面を変換イメージ
の表面に一致させて目標物を同定するステップとを有す
ることを特徴とする。この方法は、特に、ミサイルや滑
空爆弾のような空中巡航武器に適している。一旦、物理
的な目標物が認識されると、それは標的として同定さ
れ、その標的同定結果は標的に向かって武器の誘導を行
いまたは制御するために使用される。
【0008】1つの好ましい実施例において、目標物の
選択された表面は、所定の目視点すなわち「アイポイン
ト」から見たとき目標物の全体的な2次元基準イメージ
に関して同定される。1つの特に好ましい実施例におい
て、基準イメージは、部分的に写真から抽出される。し
かしながら、基準イメージを提供するために合成開口面
レーダ(SAR)のようなイメージも使用可能である。
【0009】ミサイルまたは他の武器によって運ばれる
センサは、武器が標的に到達するとき、目標物すなわち
標的の3次元イメージを生成するために使用される。セ
ンサの位置は、目標物に関して第2のアイポイントを形
成する。1つの特に好ましい実施例においては、武器セ
ンサ機構としてソリッドステートレーダが使用される。
【0010】目標物の認識を容易にするために、検出さ
れた3次元イメージは、2次元基準イメージが得られる
アイポイントから目標物の検出位置を見たような目標物
の変換イメージを形成するために変換される。この変換
は、同様の特徴または特性を関連させることによって基
準イメージに関連づけられたイメージを提供する。特に
好ましい実施例において、このイメージは、基準イメー
ジ及びそれらの端点を通ってディジタル的に画定された
ラインを有する変換イメージの双方によってエッジマッ
チング技術の使用を介して関連づけされる。他の実施例
において、基準イメージと変換イメージとの間を関連づ
けるために平面または他の画定された表面または輝度の
データを使用してもよい。
【0011】一旦、変換イメージ及び基準イメージが十
分にマッチングされて、標的を同定するか、または標的
上の特定の照準点(またはデータの座標点)を特に同定
すると、エラー信号が発生され、武器の誘導装置と通信
して武器の進路を制御する。特に好ましい実施例におい
て、このエラー信号は、X、Y及びZ座標に関する位置
だけでなく角度エラーデータ及び角速度エラーデータを
含む。
【0012】
【実施例】ここに説明され図示された技術は、エッジイ
メージの確立を容易にする距離イメージ及び輝度イメー
ジの双方を提供するセンサ装置とともに用いるのに有益
である。しかしながら、この装置は、ソリッドステート
レーダ(SS−LADAR)センサ装置の使用を介して
動作させるのが好ましい。このような装置において、距
離データはレーダ探査器によって放射されたレーザ光パ
ルスの送信及び反射レーザ光パルスの受信の間の時間遅
れを測定することによって得られる。レーザ光パルス
は、外部に離して配置したダイオードレーザ、例えばG
aAlAsダイオードレーザによって構成されるNd;
YLF,Nd;YAG,またはNd;YVOレーザの
ようなQスイッチソリッドステートレーザによって供給
されるのが好ましい。
【0013】特に好ましい実施例において、ガリウムア
ルミニウムヒ素レーザは、ジンバル型光学装置上に取り
付けられ、標的を照射するために使用されるレーザ光エ
ネルギーを放射するソリッドステートレーザとして構成
される。レーザを構成するガリウムアルミニウムヒ素
は、結晶吸収帯域にソリッドステートレーザを供給する
のに適した波長の連続的な信号をつくる。このレーザ
は、好ましくはソリッドステートレーザを作動させるの
に十分な10ないし20ワットの範囲の出力を有する。
【0014】特に好ましい実施例において、ソリッドス
テートレーザは、10ないし20ナノ秒のパルス幅を持
ち、ほぼ10キロワットのピークパワーレベル、及び1
0〜120kHzの繰返し速度のパルスを生成するよう
に作動する従来と同一タイプの1つである。等価平均電
力は、1ないし4ワットの範囲である。出力放射の波長
の好ましい範囲は、近赤外線領域であり、例えば、1.
047または1.064ミクロンである。
【0015】さらに詳細に図面、特に図1を参照する
と、本発明による標的認識の例示的な方法が参照符号1
0で示されている全体的なフローチャートが示されてい
る。従来の装置に関して、参照符号12で指示される基
準の前処理のステップは大幅に簡単化されている。1枚
の写真のような標的の識別子は従来の偵察技術によって
撮影される(ステップ14)。同様に測定データは周知
の偵察技術によって編集される(ステップ16)。次
に、このようなデータは、搭載コンピュータ取り扱い標
的認識及び誘導処理によって使用するのに適した方法で
編集される(ステップ18)。この編集は、適当なイン
タラクティブワークステーション上で行われるのが好ま
しい。標的データは、以下にさらに詳細に説明するよう
に、基準イメージを生成するために使用される。オンミ
サイル処理18は、攻撃進行中にリアルタイムで実行さ
れる。
【0016】標的基準データは、オペレータによって同
定されたエッジイメージ照準点を含むが、測定データ
は、イメージアイポイントのようなデータ(即ち、基準
写真が撮られる点)を含む。この情報は、武器のコンピ
ュータ化された誘導装置によって使用され挿入するのに
適当なデータテープのようなカートリッジ型大容量記憶
装置上に保持される。
【0017】上述のレーダセンサは標的の3次元データ
を提供し、かつ標的の輝度データを提供し、それに基づ
いてレーダで検出された距離データ及び輝度データが3
次元デカルト座標系の図に変換される。
【0018】ミサイルが、当業者において知られている
グローバルポジショニングシステム(GPS)ナビゲー
ション機能を含む方法において、ミサイルの位置は、1
0から16メートルの半径内のオーダーのような顕著な
正確さで決定することができる。攻撃地理手段に応答し
て部分的に決定される所定の場所で、レーダ標的認識装
置が作動される。この作動は、レーダーイメージの「視
野」内に標的が存在する点で生じる。レーダは、視野内
で検出された輝度データ及び視野内で検出された距離デ
ータのマップを生成する(ステップ22、24)。標的
の位置を同定する標的データ、基準イメージに関するデ
ータ、武器攻撃地理及び時間を含む入力データに基づい
て(ステップ28)、検出されたレーダーイメージは、
それがあたかも偵察標的基準を生成するために使用され
るアイポイントから検出されたかのように、検出された
レーダーイメージを反映するようにデカルト座標系に変
換される(ステップ26)。この座標変換は、検出され
たレーダーイメージのスケーリング、回転及び各空間的
ゆがみを含む。その結果変換されたレーダーイメージ
は、一致されるまでエッジマッチング、特徴マッチング
または直接イメージ関連づけを介して比較される(ステ
ップ30)。
【0019】図2を参照すると、ステップ14によって
ディジタル化された偵察写真34が示されており、これ
から標的基準イメージ36が形成される。偵察写真34
で分かるように、照準点38が写真上に同定される。照
準点38は標的たる建物の表面上に同定された領域であ
る。しかしながら、さらに、SSレーダーイメージ形成
装置は、3次元での検出能力を提供するから、実際の照
準点は建物の内側のようなオフセット照準点に位置す
る。この照準点38は、ディジタル化されたイメージ3
6に関して参照符号40で行及び列を参照する等によっ
て標的基準に関する同定が行われる。
【0020】図3を参照すると、標的データ及び基準イ
メージデータに関する例示的な入力パラメータが示され
ている。入力される標的データは、例えば(メートル単
位で表現されるような)経度、緯度及び高度で表される
照準点46、起爆距離48、及びオフセット照準50に
よって表される照準点46を含む。図3に例示するよう
に、オフセット照準50は、同定された照準点に関して
Z軸線(垂直方向)に沿って3メートル(10フィー
ト)の深さ(deep)で示される。また、基準イメージに
関するデータ52も入力される。基準イメージは、偵察
写真が撮られるアイポイント54を含み、一旦、経度、
緯度及び高度で表現され、いくつかの実施例における影
56の存在が入力され、グリニッジ標準時のような時刻
基準によって表現された時間58、及び日付60が入力
される。もしアイポイント及びカメラのモデルが利用で
きないならば、イメージの顕著な特徴のために経度、緯
度及び高度を同定する5つまたはそれ以上の点を使用す
ることによって近似される。
【0021】図4を参照すると、視点間のイメージの変
換の例示的な表現が示されている。標的70は、アイポ
イント72から偵察イメージを撮ったときの斜視図とし
て描かれている。前述したようにこのアイポイントは、
その点をデカルト座標系に関して所定の空間点に位置さ
せるために経度、緯度及び高度に関して同定される。従
って、図4に例示される基準写真は、軸線74に沿って
撮られる。照準点76は、図2に関して説明されるよう
な標的70上に同定される。図3を参照するとき、照準
点は、経度、緯度及び高度によって所定の空間に正確に
同定されることに留意すべきである。
【0022】攻撃中のような次の時間において、レーダ
センサは軸線78に沿って異なる場所から標的70のイ
メージを形成する。前に説明したように、レーダセンサ
またはレーダアイポイント80は経度、緯度及び高度を
介して所定の空間に正確に同定される。座標変換ステッ
プ(図1のブロック26)は、軸線74に沿って検出さ
れたイメージと一致するまで(軸線78に沿って検出さ
れた)レーダーイメージの有効なアイポイントをシフト
させるステップと、照準点76とアイポイント72との
間の軸線の長さ及びレーダアイポイント80と照準点7
6との間の軸線78の長さの差分を補償するために、変
換されたイメージをスケーリングするステップとを含
む。
【0023】図5を参照すると、例示的なレーダーによ
って得られた距離イメージすなわちレーダ距離イメージ
84、及びレーダーによって得られた、標的を有する輝
度イメージすなわちレーダ輝度イメージ86が描かれて
いる。(図2の表現に対応する)例示的な偵察写真88
の表現を同定する。偵察写真88をそれぞれレーダ距離
イメージ84及び輝度イメージ86と比較して分かるよ
うに、レーダは、偵察写真88をほぼ45°回転させた
斜視図から建物を検知する。従って、コンピュータ変換
28を実行することによって、(図4に関して説明した
ような)偵察写真88について使用されるイメージに関
する共通のアイポイントに対応する変換されたレーダー
イメージを生成する。エッジマッチングによりイメージ
が一致するか否かを確認し(ステップ32)、一致エラ
ーが生成される(ステップ92)。この一致エラーは、
武器誘導装置によって使用されるエラー信号を発生する
ために使用される。
【0024】図6及び図7を参照すると、図1の参照符
号12で全体が示された基準表示の地上行動の前処理を
含む武器配備行動の特命プラン部分用のフローチャート
が描かれている。前に述べたように、偵察イメージがデ
ィジタル形式になっていなくて、写真のような他の形式
になっていれば、偵察イメージはディジタル化される
(ステップ102)。5つのイメージ制御点が入力され
る(ステップ104)。各イメージ制御点は、経度、緯
度及び高度を指示する測定点を表す。これらの5つのイ
メージ制御点はディジタル化イメージ内の行及び列の位
置と関連づけられる(ステップ104)。続いて、5つ
の制御点からのアイポイント及びカメラモデルが当業者
に知られた方法で生成される(ステップ106)。カメ
ラモデル及びアイポイントはすでに知られているなら
ば、制御点は必要ではない。
【0025】次に、ディジタル化されたイメージは、最
下点及び斜めの偵察イメージを他のイメージに対応する
ようにするためにゆがませられる(ステップ108)。
また、イメージのゆがみは、最下点及び斜めのイメージ
の双方が利用可能であるとき、アイポイントの計算及び
カメラのモデル化を改良するために使用される。偵察イ
メージ内に大きな影が存在するかどうかの決定が行われ
る(ステップ110)が、ここで影はイメージの重要な
詳細部分をほとんど覆い隠してしまうような存在であ
る。もし影が存在するならば、影の領域は、手動により
マークする(ステップ112)か、偵察写真が撮られる
時の太陽の位置に関連して予測される。従来技術でよく
知られるように太陽の位置は、時刻、日付及び問題の領
域の経度及び緯度から予測することができる。太陽の位
置のモデルを使用して影が予測されるならば、影は問題
を生じるゆがみから特徴に合致させるのに有益である。
【0026】(図2に関して説明したように)行及び列
を選択することによって基準イメージ上で照準点が同定
される。実際の所望の照準点が基準イメージ内で見るこ
とができない場合、照準をずらせる決定がなされる(ス
テップ116)。この状況下で、図3に関連して述べた
ように、オフセットが入力される(ステップ118)。
基準イメージ内のエッジは、ソーベル(Sobel)オペレ
ータのような従来のエッジオペレータ技術を介して抽出
される(ステップ120)。従来技術で知られるよう
に、ラインセグメントは、従来のイメージ処理技術を使
用して、抽出されたエッジに対する端点を見出すことに
よって抽出することができる。ラインの端点の画定は特
定のライン/エッジ識別子の入力を容易にする。小さい
ラインセグメントは、大きなラインセグメント内に合体
される(ステップ122)。この合体は、同定可能な小
さいラインセグメントが大きなラインセグメントの一部
として反映され、結果としてラインセグメントデータフ
ァイルの大きさを小さくし、それによって後者の処理の
簡単化を容易にする。最後に、データカートリッジがミ
サイルまたは他の武器にロードされる(ステップ12
6)。
【0027】図8ないし図10を参照すると、実際の行
動中、搭載コンピュータによって実行されるような標的
認識及び追跡操作の例示的なフローチャート130が示
されている。前述したように、誘導コンピュータは、正
確なミサイル位置を同定するためにイナーシャル測定ユ
ニット(IMU)及びGPSデータを読み込み、ミサイ
ルの姿勢(即ち、ロール、ピッチ及びヨー)を決定する
(ステップ132)。ミサイルが所定の標的捕捉点に到
達する(ステップ134)と、レーダは、投影された照
準点に関して作動され、距離イメージ及び輝度イメージ
が収集される(ステップ136)。投影された照準点
は、武器用の所定の攻撃プランを参照して確立される。
【0028】それから、標的を有する領域の距離及び輝
度のイメージピクセルは、イメージ捕捉時に基準の固定
フレームを生成するために基準とされるイメージ座標系
に関連づけられる。検出された距離イメージ及び輝度イ
メージは、基準フレームを使用するレーダスキャン期間
中ミサイルが巡航する結果生じる運動及び走査に関連し
て補正される(ステップ140)。従って、補正された
イメージは、イメージ捕捉の決定された時刻及び場所の
イメージを反映する。レーダーポーラスキャン座標系
は、当業者に知られた方法で基準イメージに関して使用
される座標系と関連づけられる直交座標系に変換される
(ステップ142)。
【0029】レーダ検出イメージは、距離ジャンプ(急
変)エッジ、距離傾斜(徐変)エッジ、及び輝度エッジ
を抽出するために分析される(ステップ144)。これ
らの抽出されたエッジは、単一の3次元イメージを形成
するために組み合わされる。さらに典型的にはエッジオ
ペレータによって付加されるエッジの厚さは可能な限り
薄くされる。単一の3次元イメージにおいて、エッジ及
びラインセグメントが同定され、ラインセグメントはデ
カルト座標系においてそれらの3次元端点(X
,Z)及び(X,Y,Z)に関して同定さ
れる。ディジタル基準イメージに関しては、小さいライ
ンセグメントが大きなラインセグメントに合体される
(ステップ148)。偵察基準イメージが確立されるア
イポイントから見ることのできないレーダーイメージ内
の領域が同定される(ステップ150)。
【0030】レーダーイメージの検出データが調整さ
れ、基準イメージのアイポントから見ることができない
データを消去すると、ラインセグメント端点を使用し
て、レーダで検出されたイメージのラインセグメントが
変換される。この操作を簡単にする場合、偵察カメラの
アイポイントに対してはっきりしないイメージは、これ
らの面がイメージマッチングで補助するために使用可能
な情報を提供せず一致の正確性を減少するから、変換さ
れない。
【0031】変換された3次元レーダーイメージライン
セグメントは、2次元イメージとして偵察または基準の
イメージ平面上に投影される(ステップ154)。次に
記憶された基準イメージのラインセグメントは、変換さ
れたレーダーイメージによって定義されたラインセグメ
ントと比較される(ステップ156)。
【0032】反復処理を介して、検出されたイメージラ
インセグメントを有する基準イメージラインセグメント
の最適な整合が達成される(ステップ158)。このよ
うな整合が一旦達成されると、照準点(すなわち、オフ
セット照準点)に関するエラーの置換が決定される(ス
テップ160)。上述したように、3つの軸の情報並び
に角速度エラー及び角度エラーの情報を含むエラーの置
換は、誘導機能を制御するためにミサイルのオートパイ
ロットによって使用することができる誘導命令を送るた
めのエラー信号を計算するために使用される(ステップ
162)。標的に衝突するまでミサイル誘導を連続的に
制御するために上述したイメージの同定及び変換ステッ
プが繰り返される(ステップ164)。
【0033】本発明を、写真を使用することによって部
分的に形成されるような2次元基準イメージを有する実
施例に関して説明した。しかしながら、本発明によって
使用される他のタイプの基準イメージは合成開口レーダ
(SAR)からのイメージである。典型的には、SAR
センサはほぼ、検出された領域の2次元平面をつくる。
SARセンサは、与えられた目標物の高さに関する基準
データを提供する。レーダは3次元イメージを検出する
から、与えられた場面のレーダ検出イメージの座標変換
は、与えられた領域の平面図をつくる。
【0034】太陽の影を予測するための一般的な方法に
おいて、SARセンサのアイポイントの知識からSAR
センサでの影が予測される。従って、SARデータは、
レーダ補正において使用するためのエッジマップを同定
するだけではなく、前述したレーダーイメージング技術
を介して予測される影領域を画定するためにも使用され
る。
【0035】本発明の精神及び目的から離れずに多くの
変更及び変形がここに説明され図示された技術及び構成
において行われうる。従って、ここに説明され図示され
た方法及び装置は説明のためのものであり、本発明を制
限するものではないことを理解すべきである。
【図面の簡単な説明】
【図1】本発明による標的同定の例示的な方法を概略的
に示す図。
【図2】偵察写真及びその偵察写真から生成された標的
基準イメージを示す図。
【図3】本発明による動作中に積極的な処理を行うため
に基準イメージの前処理中に使用される例示的な入力測
定データを示す図。
【図4】第1のアイポイントから得られる偵察データ及
び第2のアイポイントから得られるデータに基づき標的
に関する図1の変換プロセスを説明するための説明図。
【図5】潜在的標的の距離データ及び輝度データ並びに
基準イメージを同定するために使用される偵察写真に関
する変換イメージへの検出データの変換例を示す図。
【図6】本発明による図1で同定された規準前処理に含
まれる動作例の第1部分を示すフローチャート。
【図7】図6に第1部分として示すフローチャートに続
く第2部分を示すフローチャート。
【図8】本発明による仮想行動中、標的領域に関するレ
ーダ検出イメージの処理例の第1部分を示すフローチャ
ート。
【図9】図8に第1部分として示すフローチャートに続
く第2部分を示すフローチャート。
【図10】図9に第2部分として示すフローチャートに
続く第3部分を示すフローチャート。
【符号の説明】
70 標的 72 アイポイント 74 軸線 76 照準点 78 軸線 80 レーダアイポイント
フロントページの続き (72)発明者 ロバート、ティー、キタハラ アメリカ合衆国テキサス州、アーリント ン、シャドー、ドライブ、ダブリュ、 2703 (56)参考文献 特開 平4−291189(JP,A) 特開 昭61−180173(JP,A) 英国特許出願公開2164427(GB,A) 1.Paul K.William s,’TARGET INFRARED SIGNATURE USI (58)調査した分野(Int.Cl.7,DB名) G01S 3/00 - 17/00 F41G 7/22 F42B 15/01 H04N 5/232 H04N 7/18

Claims (13)

    (57)【特許請求の範囲】
  1. 【請求項1】第1のアイポイントから見た目標物の2次
    元イメージから前記目標物の選択された表面を同定する
    ステップと、 ほぼ前記目標物に向かって移動するハウジング内に取り
    付けられ、前記目標物の3次元イメージを検出する第2
    のアイポイントを画定するセンサを作動させて、前記目
    標物の3次元イメージを生成するステップと、 前記目標物の検出部分を、前記第1のアイポイントから
    見た変換イメージを形成するように、前記3次元イメー
    ジを変換する処理を繰り返し実行するステップと、 前記2次元イメージの前記選択された表面を前記変換イ
    メージの表面に一致させて前記目標物を同定するステッ
    プとを有する、3次元イメージ検出を介して選択された
    物理的な目標物を認識する目標物認識方法。
  2. 【請求項2】第1のアイポイントから見た標的の2次元
    イメージを生成するステップと、 レーダセンサを使用することによって第2のアイポイン
    トから定められる、前記標的を含む領域の3次元イメー
    ジを生成するステップと、 生成された前記3次元イメージを、この生成された3次
    元イメージを前記第1のアイポイントから見たように構
    成されたイメージに変換するステップと、 この変換されたイメージを前記2次元イメージに一致さ
    せて前記標的を同定するステップとを有する、空中巡航
    武器とともに使用するための標的同定方法。
  3. 【請求項3】前記標的の2次元イメージを生成するステ
    ップは、 前記標的の写真を得るステップと、 前記写真をディジタル化するステップとを有する請求項
    2に記載の方法。
  4. 【請求項4】前記生成された3次元イメージは、距離エ
    ッジ及び輝度エッジに対して、前記レーダセンサを使用
    して前記標的の3次元エッジ表現を生成する請求項2に
    記載の方法。
  5. 【請求項5】前記3次元イメージを生成するステップ
    は、前記レーダセンサを使用して前記標的の表面の3次
    元輝度データを生成するステップを含む請求項2に記載
    の方法。
  6. 【請求項6】生成された3次元イメージを変換イメージ
    に変換するステップは、前記生成された3次元イメージ
    のスケーリングを行うステップを有する請求項2に記載
    の方法。
  7. 【請求項7】第1のアイポイントから見た標的のディジ
    タル表現を生成するステップと、 空中巡航武器内のレーダセンサを作動させ、第2のアイ
    ポイントから見た、前記標的を含む領域の3次元イメー
    ジを生成するステップと、 生成された3次元イメージを、前記第1のアイポイント
    から見て得られた検出データであるかのように、ほぼ前
    記標的を含む領域の検出データを表す変換イメージに変
    換するステップと、 前記変換イメージを基準イメージに一致させて前記標的
    を同定するステップと、 前記空中巡航武器の進路を制御するために、エラー信号
    を発生し、このエラー信号を前記空中巡航武器の誘導装
    置に送るステップとを有する、空中巡航武器を誘導する
    のに使用するための標的同定方法。
  8. 【請求項8】前記基準イメージは2次元イメージである
    請求項7に記載の方法。
  9. 【請求項9】前記レーダセンサは検出された領域のエッ
    ジ境界を含む3次元イメージを生成する請求項7に記載
    の方法。
  10. 【請求項10】発生された前記エラー信号は、デカルト
    座標系でX,Y,Z軸に関して進路偏差表現を含んでい
    る請求項7に記載の方法。
  11. 【請求項11】発生された前記エラー信号は、角度エラ
    ーを表すデータを含んでいる請求項7に記載の方法。
  12. 【請求項12】発生された前記エラー信号は、角速度エ
    ラーを表すデータを含んでいる請求項7に記載の方法。
  13. 【請求項13】前記輝度イメージは、距離イメージを使
    用することによって3次元表面として解釈される請求項
    7に記載の方法。
JP19542493A 1992-07-13 1993-07-13 目標物認識方法及び標的同定方法 Expired - Fee Related JP3345113B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US912914 1992-07-13
US07/912,914 US5275354A (en) 1992-07-13 1992-07-13 Guidance and targeting system

Publications (2)

Publication Number Publication Date
JPH06265620A JPH06265620A (ja) 1994-09-22
JP3345113B2 true JP3345113B2 (ja) 2002-11-18

Family

ID=25432690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19542493A Expired - Fee Related JP3345113B2 (ja) 1992-07-13 1993-07-13 目標物認識方法及び標的同定方法

Country Status (5)

Country Link
US (1) US5275354A (ja)
EP (1) EP0579187B1 (ja)
JP (1) JP3345113B2 (ja)
AT (1) ATE282835T1 (ja)
DE (1) DE69333693T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230016304A (ko) * 2021-07-26 2023-02-02 엘아이지넥스원 주식회사 레이저를 이용한 유도 무기 무력화 시스템 및 유도 무기 무력화 방법

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5424823A (en) * 1993-08-17 1995-06-13 Loral Vought Systems Corporation System for identifying flat orthogonal objects using reflected energy signals
DE4401315B4 (de) * 1994-01-19 2006-03-09 Oerlikon Contraves Gmbh Vorrichtung zur Flugbahnkorrektur
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
DE19524693A1 (de) * 1995-07-06 1997-01-09 Deutsch Franz Forsch Inst Optische Detektiervorrichtung
US6037976A (en) * 1995-10-31 2000-03-14 Sarnoff Corporation Method and apparatus for determining ambient conditions from an image sequence, such as fog, haze or shadows
US5937078A (en) * 1996-04-10 1999-08-10 The United States Of America As Represented By The Secretary Of The Navy Target detection method from partial image of target
US6084989A (en) * 1996-11-15 2000-07-04 Lockheed Martin Corporation System and method for automatically determining the position of landmarks in digitized images derived from a satellite-based imaging system
US5881969A (en) * 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US7856750B2 (en) 1997-12-08 2010-12-28 Horus Vision Llc Apparatus and method for calculating aiming point information
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US6163372A (en) * 1999-02-09 2000-12-19 Marconi Aerospace Defense Systems Inc. Fiber optic laser detection and ranging system
DE19939935A1 (de) 1999-08-23 2001-03-01 Bodenseewerk Geraetetech Verfahren zur Bestimmung der Relativbewegung zwischen Flugkörper und Ziel
US6507392B1 (en) 2001-04-16 2003-01-14 Bae Systems Information And Electronic Systems Integration Inc. Single multiple aperture (“SMART”) lens system
US20040247157A1 (en) * 2001-06-15 2004-12-09 Ulrich Lages Method for preparing image information
EP1395852A1 (de) * 2001-06-15 2004-03-10 IBEO Automobile Sensor GmbH Verfahren zur bereitstellung von bildinformationen
DE60226978D1 (de) 2001-06-27 2008-07-17 Sony Corp Integrierte schaltungseinrichtung, informationsverarbeitungseinrichtung, informationsaufzeichnungseinrichtungsspeicher-verwaltungsverfahren, mobilendgeräteeinrichtung, integrierte halbleiterschaltungseinrichtung und kommunikationsverfahren mit tragbarem endgerät
US6943873B2 (en) * 2001-07-17 2005-09-13 Bae Systems Integrated Defense Solutions Inc. Fiber optical laser detection and ranging system
WO2003025842A1 (en) * 2001-09-19 2003-03-27 Barry George Blundell An image recognition method and system
GB0503212D0 (en) * 2005-02-15 2005-11-23 Ultra Electronics Ltd Improvements relating to target direction indication and acoustic pulse analysis
EP2479990A3 (en) 2005-06-23 2013-01-23 Israel Aerospace Industries Ltd. A system and method for tracking moving objects
US20090297049A1 (en) * 2005-07-07 2009-12-03 Rafael Advanced Defense Systems Ltd. Detection of partially occluded targets in ladar images
US7315485B1 (en) * 2005-12-20 2008-01-01 United States Of America As Represented By The Secretary Of The Navy System and method for target classification and clutter rejection in low-resolution imagery
GB0616688D0 (en) * 2006-08-23 2006-10-04 Qinetiq Ltd Target orientation
US7831098B2 (en) * 2006-11-07 2010-11-09 Recognition Robotics System and method for visual searching of objects using lines
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
US8103056B2 (en) * 2008-10-15 2012-01-24 Honeywell International Inc. Method for target geo-referencing using video analytics
WO2010132831A1 (en) 2009-05-15 2010-11-18 Dennis Sammut Apparatus and method for calculating aiming point information
US8768068B2 (en) * 2011-05-04 2014-07-01 Raytheon Company Automated building detecting
US8872852B2 (en) 2011-06-30 2014-10-28 International Business Machines Corporation Positional context determination with multi marker confidence ranking
WO2013106280A1 (en) 2012-01-10 2013-07-18 Horus Vision Llc Apparatus and method for calculating aiming point information
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
US9500444B2 (en) 2013-01-11 2016-11-22 Hvrt. Corp. Apparatus and method for calculating aiming point information
WO2014111923A1 (en) 2013-01-15 2014-07-24 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
JP6089812B2 (ja) * 2013-03-12 2017-03-08 三菱電機株式会社 誘導装置
US10240900B2 (en) * 2016-02-04 2019-03-26 Raytheon Company Systems and methods for acquiring and launching and guiding missiles to multiple targets
WO2020112197A2 (en) 2018-09-04 2020-06-04 Hvrt Corp. Reticles, methods of use and manufacture
CN110503679A (zh) * 2019-08-29 2019-11-26 四川轻化工大学 一种红外基准图制备与评价方法
DE102022000723A1 (de) 2022-03-01 2023-09-07 Diehl Defence Gmbh & Co. Kg Vorrichtung zur Zielübergabe

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
GB1568058A (en) * 1975-11-21 1980-05-21 Emi Ltd Tracking and/or huidance systems
US4383663A (en) * 1976-06-01 1983-05-17 The United States Of America As Represented By The Secretary Of The Navy Active optical terminal homing
GB2148465B (en) * 1983-10-20 1987-05-28 Nader Dadabhoy Daroga Missile control systems
GB2164427B (en) * 1984-09-10 1988-01-06 Nader Dadabhoy Daroga Missile control systems
CH675638A5 (en) * 1987-09-11 1990-10-15 Contraves Ag Opto-electronic aircraft identification system - uses comparison of actual two=dimensional image of aircraft with projection of aircraft model
DE4007712A1 (de) * 1990-03-10 1991-09-12 Tzn Forschung & Entwicklung Geschoss mit einem bugseitig angeordneten ir-suchsystem

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1.Paul K.Williams,’TARGET INFRARED SIGNATURE USI

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230016304A (ko) * 2021-07-26 2023-02-02 엘아이지넥스원 주식회사 레이저를 이용한 유도 무기 무력화 시스템 및 유도 무기 무력화 방법
KR102564734B1 (ko) * 2021-07-26 2023-08-08 엘아이지넥스원 주식회사 레이저를 이용한 유도 무기 무력화 시스템 및 유도 무기 무력화 방법

Also Published As

Publication number Publication date
ATE282835T1 (de) 2004-12-15
JPH06265620A (ja) 1994-09-22
EP0579187B1 (en) 2004-11-17
EP0579187A2 (en) 1994-01-19
EP0579187A3 (en) 1995-11-08
DE69333693T2 (de) 2006-01-05
US5275354A (en) 1994-01-04
DE69333693D1 (de) 2004-12-23

Similar Documents

Publication Publication Date Title
JP3345113B2 (ja) 目標物認識方法及び標的同定方法
CN109931939B (zh) 车辆的定位方法、装置、设备及计算机可读存储介质
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
EP2946365B1 (en) Method and arrangement for developing a three dimensional model of an environment
CA2883862C (en) Method for position and location detection by means of virtual reference images
FR2639127A1 (fr) Appareil de traitement electronique d'images pour determiner la distance ou la taille d'un objet
US8686326B1 (en) Optical-flow techniques for improved terminal homing and control
US10527423B1 (en) Fusion of vision and depth sensors for navigation in complex environments
JP7007137B2 (ja) 情報処理装置、情報処理方法および情報処理用プログラム
JP7011908B2 (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
CN112005077A (zh) 无人航空器的设置台、测量方法、测量装置、测量系统和程序
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
CN110750153A (zh) 一种无人驾驶车辆的动态虚拟化装置
EP0946851B1 (en) Lock-on-after launch missile guidance system using three-dimensional scene reconstruction
US11047958B1 (en) Sensor fusing using 3D fiber coupled scanning LIDAR
EP3255455A1 (en) Single pulse lidar correction to stereo imaging
EP2948791B1 (en) Improved laser range finding
JPH10318743A (ja) 飛行体を用いた測量方法及びその装置
Hintze Autonomous landing of a rotary unmanned aerial vehicle in a non-cooperative environment using machine vision
JP2022028894A (ja) 光学情報処理装置、光学情報処理方法および光学情報処理用プログラム
JP2746487B2 (ja) 垂直離着陸航空機の機体位置測定方法
ES2806391T3 (es) Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil
JP7169757B2 (ja) 測量装置、測量方法
EP4141384A1 (en) Hand-held observation device and method for obtaining a 3d point cloud
Collins et al. Targeting for future weapon systems

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees