JP4649695B2 - Infrared detector - Google Patents

Infrared detector Download PDF

Info

Publication number
JP4649695B2
JP4649695B2 JP36829999A JP36829999A JP4649695B2 JP 4649695 B2 JP4649695 B2 JP 4649695B2 JP 36829999 A JP36829999 A JP 36829999A JP 36829999 A JP36829999 A JP 36829999A JP 4649695 B2 JP4649695 B2 JP 4649695B2
Authority
JP
Japan
Prior art keywords
infrared
image
target
display
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36829999A
Other languages
Japanese (ja)
Other versions
JP2001183460A (en
Inventor
博 川瀬
寛司 広田
剛史 柳田
孝之 坪井
正洋 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP36829999A priority Critical patent/JP4649695B2/en
Publication of JP2001183460A publication Critical patent/JP2001183460A/en
Application granted granted Critical
Publication of JP4649695B2 publication Critical patent/JP4649695B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、全周走査型の赤外線探知装置に係る赤外線画像等の表示方式に関する。
【0002】
艦船等に搭載される全周走査型の赤外線探知装置は、360度の全方位において向首、近接飛来する航空機やミサイル等の目標物体が放射する赤外線を検出・追尾し、該目標物体の情報を画像と共にディスプレイ上に表示する際に、該画像や目標物体の方位の他、目標までの推定距離や高角も含めて視覚的に分かり易く表示することが求められている。
【0003】
【従来の技術】
図9は、従来の赤外線探知装置の原理説明図で、1は赤外線センサ部、2aは信号処理部、3aは全周画像メモリ部、4aは走査変換部、5は表示部であり、そして、11は光学系、12は赤外線撮像器、13はAD変換器、14はジンバルである。
【0004】
赤外線センサ部1は、光学系11と赤外線撮像器12とAD変換器13とジンバル14とから構成されている。
【0005】
赤外線センサ部1では、光学系11は入射した赤外線を集光し、集光された赤外線は赤外線撮像器12へ送られ、赤外線撮像器12では該赤外線をアナログ電気信号の赤外線画像信号に光電変換してAD変換器13に送られ、AD変換器13では該アナログ電気信号の赤外線画像信号をデジタル信号に変換する。
【0006】
一方、ジンバル14は動揺を修正する機能を持ったピッチ軸とロール軸及びヨー軸の3軸を持ち、更に旋回機能を有しており、光学系11と赤外線撮像器12とAD変換器13とはジンバル14上に固定設置されている。
【0007】
従って、赤外線センサ部1では、ジンバル14が例えば、1回転/秒の速度で旋回すると360度の全方位のデジタル赤外線画像信号が得られ、該赤外線画像信号と、対応したジンバル14での角度情報(方向と高さ)とが信号処理部2aと全周画像メモリ部3aとに送られる。
【0008】
信号処理部2aでは、該赤外線画像信号の点目標フィルタリング処理や赤外線受信強度算出処理を行って、赤外線受信強度が増加する画像部分を向首・接近してくる目標物体として検出し、該目標物体の方位情報を走査変換部4aに送る。
【0009】
全周画像メモリ部3aでは、該赤外線画像信号をデータとして蓄積する。
【0010】
走査変換部4aでは、全周画像メモリ部3aより該データを順次読み出し、信号処理部2aからの該目標物体の方位情報を基にシンボルキャラクタを該データの該当する部分に重畳し、また、ジャイロシステムからの艦船の艦首方位情報をも重畳し、そして、重畳した全方位の該データを3つまたは4つ等複数に分割して一画面に編集すると共にテレビジョン走査方式の表示フォーマットに変換したテレビジョン画面を表示部5に送出する。
【0011】
表示部5では、該テレビジョン画面をディスプレイ上に表示する。
【0012】
尚、上記とは別に、別途指定することにより、該テレビジョン画面上の任意の方位の画像部分を拡大表示することも出来る。
【0013】
図10は、従来の全方位赤外線画像の表示例と任意の方位の拡大表示例を示し、図9にて説明した内容を示している。
【0014】
71はディスプレイ、72は第一の方位画像、73は第二の方位画像、74は第三の方位画像、75は第一の目標物体のシンボルマーク、76は第二の目標物体のシンボルマーク、77は艦首方位表示、そして78は拡大表示画像である。
【0015】
ディスプレイ71に表示されている画像は図9にて説明した360度の全方位の赤外線画像を、第一の方位画像72と第二の方位画像73と第三の方位画像74とに3分割して同一画面上に表示したものである。即ち、基準方位(真北)を0度として、第一の方位画像72は0度から120度までの、第二の方位画像73は120度から240度までの、第三の方位画像74は240度から360度(0度)までのそれぞれ画像である。
【0016】
そして、第一の目標物体のシンボルマーク75は探知した一つの目標物体を示し、第二の目標物体のシンボルマーク76は探知した他の目標物体を示している。また、艦首方位表示77は赤外線探知装置が搭載されている艦船の艦首の向いている方位を示している。即ち、図10では艦首と同方位に該一つの目標物体が存在していることを示す。
【0017】
更に、拡大表示画像78は、第一の方位画像72内に表示されている第一の目標物体のシンボルマーク75の方位を別途指定することにより第一の方位画像72内の点線の範囲を拡大した別画面である。
【0018】
【発明が解決しようとする課題】
従って、全方位赤外線画像を複数に分割して一つの画面に表示するため、併せて方位を数値表示をしてはいるものの、真方位、或いは自艦船の艦首の方位を基準とすると目標物体が飛来して来る方位、更には目標物体の高角(水平面に対する高さ方向の角度)が把握しずらいと言う問題がある。
【0019】
また、レーダのように発射した電波の目標物体からの反射波を検知するアクティブセンサと異なり、赤外線探知装置は目標物体が発する赤外線を一方的に検知するパッシブセンサであるため、目標物体までの距離が判らず、従って画像上に距離を表示できないと言う課題もある。
【0020】
本発明は、この問題に鑑み、360度の全方位における画像と共に、目標物体の情報として、目標物体の方位の他、推定距離や高角も含めて視覚的に分かり易く表示する全周走査型の赤外線探知装置の提供を目的とする。
【0021】
【課題を解決するための手段】
上記の目的を達成するために、本発明に係る赤外線探知装置の表示方式では、赤外線センサにて撮像された全方位画像信号を全方位画像データとして蓄積する全周画像メモリ手段と、該全方位画像データから円形状に表示可能な全方位赤外線画像信号に変換処理をするアドレス変換手段と、信号処理手段からの抽出した向首・接近する物体の角度情報に基づくシンボルマークを該全方位赤外線画像信号に重畳し、且つ表示フォーマットに変換する走査変換手段と、該表示フォーマットに変換された画像信号を表示する表示手段とを備える。
【0022】
そして、本発明に係る赤外線探知装置の表示方式において、前記走査変換手段は、前記シンボルマークを重畳した全方位赤外線画像信号と同心円上に表示可能な、前記信号処理手段からの前記物体の距離情報に基づくシンボルマークを付したPPI画像信号を生成する走査変換手段でもよい。
【0023】
また、本発明に係る赤外線探知装置の表示方式において、前記信号処理手段は前記赤外線センサ手段が走査する毎に、前記全方位画像信号中の前記物体に対応するS/N比を計測し、該S/N比と、予め入力された気象条件と該物体を想定した目標条件をもとに計算された該物体に対するS/N比とから該物体までの距離を演算する信号処理手段であってもよい。
【0024】
更に、本発明に係る赤外線探知装置の表示方式において、前記走査変換手段は、前記全方位赤外線画像信号とは別に、前記信号処理手段からの前記物体の距離情報と前記赤外線センサ手段に端を発する高角情報とに基づいて、前記物体に対応するシンボルマークを付した高角情報画像信号を生成して、且つ表示フォーマットに変換する走査変換手段でもよい。
【0025】
加えて、本発明に係る赤外線探知装置の表示方式において、前記走査変換手段は、方位情報を含む表示切替指示により、前記全方位赤外線画像信号と前記PPI画像信号とは別に、該全方位赤外線画像信号中の該方位情報に対応する部分の拡大された指定方位画像信号を生成して、且つ表示フォーマットに変換する走査変換手段でもよい。
【0026】
赤外線センサにて撮像された全方位画像信号より向首・接近して来る物体を抽出して、該物体のS/N比を計測し、該S/N比と予め入力された気象条件(温度、湿度、視程)と目標条件(該物体の種類を想定した面積と速力)等から算出したS/N比とから演算された距離と該物体の角度情報(方位と高角)とを含む目標情報を生成する。
【0027】
一方、該全方位画像信号が全方位画像データとして蓄積され、該全方位画像データを変換して円形状に表示可能とし、該目標情報をもとに該物体の位置にシンボルマークを付した全方位赤外線画像信号と、該全方位赤外線画像信号と同心円上に表示可能で、該目標情報をもとにシンボルマークを付すことで該物体の距離を示すPPI画像信号とを一画面として表示する。
【0028】
また、高角表示への表示切替指示により、該目標情報をもとに該物体の距離と高角を示す高角情報画像信号を生成して画面表示する。更に、方位情報を含む表示切替指示により、該全方位赤外線画像信号中の該方位情報に対応する部分の拡大された指定方位画像信号を生成して画面表示する。
【0029】
従って、赤外線画像や目標物体の方位の他、目標までの推定距離や高角も含めて視覚的に分かり易く画面表示すること出来る。
【0030】
【発明の実施の形態】
以下本発明の実施の形態について図面を参照しながら説明する。
【0031】
図1は本発明の原理説明図であり、図2は本発明のメモリマッピング例である。
【0032】
図1において、1は赤外線センサ部、2は信号処理部、3は全周画像メモリ部、4は走査変換部、5は表示部、6はアドレス変換部である。
【0033】
赤外線センサ部1では、旋回することにより得られる360度の全方位のデジタル赤外線画像信号と、該赤外線画像信号と対応した角度情報(方位と高角)とが信号処理部2と全周画像メモリ部3とに送られる。
【0034】
信号処理部2では、赤外線センサ部1からの該全方位の赤外線画像信号について点状目標を抽出するフィルタリング処理や赤外線受信強度算出処理を行って、赤外線受信強度が増加する画像部分を向首・接近してくる目標物体として検出する。即ち、目標として検出される物体は当初遠距離に存在するため画像上では点状であり、接近して来るにしたがって画像上で大きくなり且つ赤外線受信強度も増加する結果、計測されるS/N比(信号対雑音比)が徐々に上昇する信号として観測される。そして、検出された目標物体に対応したS/N比値と赤外線センサ部1からの該角度情報が一走査毎(赤外線センサ部1が一回旋回する毎)に蓄積される。
【0035】
そして、該計測されるS/N比値が一定値を超えると「脅威となるべき目標物体」として捉える。
【0036】
該計測されるS/N比値にはばらつきがあるため、該一走査毎の該計測されるS/N比値から最小二乗近似演算によりS/N比値の増加率を算出する。即ち、n回目の走査時の最小二乗近似演算による換算S/N比値Q(n)は、
Q(n)=bean ───────(1)
となる。
【0037】
但し、aとbは次の二つの式の解として求められる。
【0038】
n ・logb+( Σt)・a =ΣlogZ(t)
( Σt)・logb+( Σt2)・a =Σt ・logZ(t)
ここで、tは変数(t=1,2,・・n)であり、Z(t)はt回目の走査時の計測されたS/N比値である。
【0039】
また、該角度情報(方位と高角)より、検出した該目標物体の中心の座標を後述する図2の(A)と同様に座標(x1 ,y1 )として捉える。
【0040】
一方、目標物体の距離Rにおける探知S/N比値は、
S/N=τ(R)×P/NEP ────(2)
となる。
【0041】
ここで、τ(R)は距離Rに於ける大気中の赤外線透過率で、気象条件(気温、湿度、視程)や赤外線の波長帯より大気透過率算出モデル(LOWTRAN:米空軍地球物理学研究所発行)により求めることができる。NEP(Noise Equivalent Powerの略)はセンサノイズと等しくなる赤外線放射強度でセンサ装置ごとに一定値である。
Pは目標物体が放射する赤外線放射強度で、
P =S ・∫((C1/ λ5)/(exp(C2/ λT)−1))dλ
となる。
【0042】
但し、Sは目標物体の面積、λは赤外線波長であって変数、C1 とC2 は定数であり、Tは目標物体の温度で目標物体の速力により決まる。即ち、
T =T a (1+γ((γ−1)/2)M2 )
となり、γは定数、Mは速力、T a は気温である。
【0043】
従って、気温と本発明の赤外線探知装置が搭載されている艦船の置かれている状況により、目標物体の種類を想定して目標物体の面積と速力を入力することによりPを求めることが出来る。
【0044】
そして、(1)式で最小二乗近似演算により算出された換算S/N比値と(2)式により算出した探知S/N比値とを照合することにより目標物体までの距離を推定出来る。そして、目標物体に対する該座標(x1 ,y1 )と得られた推定距離と脅威となるべき目標か否かの情報とをを目標情報として走査変換部4に送る。
【0045】
全周画像メモリ部3では、該デジタル赤外線画像信号をデータとして蓄積する。
【0046】
ここで、図2において、(A)は全周画像メモリ部3の書き込みマップで、31は蓄積データであり、赤外線センサ部1が一旋回して収集して得た一走査分の該データを(x,y)座標として蓄積した例を示す。ここでは、方位角(θ)の360度分が水平方向サンプルとして30,000サンプルをx軸方向に蓄積し、高さとして高角0度をベース角として2.4度迄が垂直方向サンプルとして200サンプルをy軸方向に蓄積した例を示す。尚、該ベース角は赤外線センサ部1にて任意に設定でき、該ベース角から該ベース角プラス2.4度迄が蓄積データ31を構成することになる。
【0047】
(B)は表示画面対応のマップで、71はディスプレイ、61(網かけ部分)は赤外線画像、41はPPI(Plan Position Indicatorの略で極座標表示)画像である。即ち、赤外線画像61はPPI画像41と同心円上に構成されており、そして、赤外線画像61とPPI画像41とは画素を単位として共通の(X,Y)座標構成とし、円状の赤外線画像61の直径方向の画素数はL個であり、画面の中央を軸に画面一周を360度として(A)の方位角(θ)に対応した例を示す。
【0048】
赤外線画像61には(A)の蓄積データ31を変換して赤外線画像として表示し、PPI画像41には信号処理部2にて算出された20Km以内の推定距離( 分かり易くするために中間に10Kmを示す円が表示されている。) を方位と共に極座標表示する例を示す。
【0049】
蓄積データ31のデータ量は200×30,000=6Mサンプルで、水平方向、垂直方向共に均一なデータ量であるのに対し、(B)にて例えば該L=768とすると赤外線画像61の円状画像内の画素数は(768/2)2 ×π−(256)2 ×π≒260K画素にすぎず、また、赤外線画像61は円形画像なので円の中心方向(垂直方向で高角が小さくなる方向)に行くに従ってますます画素数が少なくなるため、サンプルの間引きと共に座標の変換を行う必要がある。
【0050】
再び図1において、アドレス変換部6では、全周画像メモリ部3より図2(A)の蓄積データ31を読み込み該サンプルの間引きと共に座標の変換を行う。
【0051】
即ち、垂直方向の表示率(1−間引き率)はN/200で表される。但し、Nは図2(B)における赤外線画像61の垂直方向の画素数である。
【0052】
ちなみに、水平方向(円周方向)の表示率はDr(n)/30,000となる。但し、Dr(n)=Dv(n)×πであり、Dr(n)は赤外線画像61の最外周からn番目の円における円周の画素数であり、Dv(n)は赤外線画像61の最外周からn番目の円における直径に相当する画素数である。
【0053】
そして、該垂直方向の表示率を踏まえて、(x,y)座標から(X,Y)座標へは以下の式により変換される。
【0054】
X =L/2 +(M+(N−y ×N/200))sinθ ──(3)
Y =L/2 −(M+(N−y ×N/200))cosθ ──(4)
但し、θは方位角で、θ=(x×360/30,000)度であり、Lは円状の赤外線画像61の最外周円の直径に相当する画素数、MはPPI画像41の最外周円の半径に相当する画素数、Nは赤外線画像61の垂直方向の画素数である。
【0055】
ここで、xとyはそれぞれの軸のサンプル番号で、XとYはそれぞれの軸の画素番号なので何れも正の整数である。従って、(3)及び(4)式において得られたXとYそれぞれを四捨五入することによりそれぞれ一つの整数値を得るが、該それぞれ一つの整数値に該当するそれぞれ複数のxとyが存在する場合には、該四捨五入以前のX とYそれぞれが該一つの整数値に一番近い(x,y)座標のサンプル値を採用して該一つの整数値の(X,Y)座標の画素値とする。
【0056】
尚、以上単純に間引いて(X,Y)座標の画素値を採用する方法について記載したが、該複数の(x,y)座標のサンプル値の平均値を採用してもよく、最大値を採用してもよい。
【0057】
そして、得られた画素値を対応したXとYの値と共に走査変換部4に送る。
【0058】
走査変換部4では、アドレス変換部6からの画素値と対応したXとYの値を蓄積し、図2(B)の赤外線画像61に相当する画像信号を作成する。一方、信号処理部2からの目標物体に対する座標(x1 ,y1 )より式(3)と(4)により該目標物体に相当する座標(X1 ,Y1 )を算出して該赤外線画像61に相当する画像の該座標(X1 ,Y1 )と同じ座標位置にシンボルマークを重畳して赤外線画像信号を作成する。
【0059】
また、信号処理部2からの目標情報としてのx1 座標と推定距離とから座標(X2 ,Y2 )を算出してPPI画像41に相当する画像の該座標(X2 ,Y2 )と同じ座標位置に目標物体の距離を示すシンボルマークを示すことによりPPI画像を作成する。
【0060】
即ち、X2 とY2 はそれぞれ、
X2=L/2 +(M×R/R max )sinθ ───(5)
Y2=L/2 −(M×R/R max )cosθ ───(6)
但し、θは方位角で、θ=(x1 ×360/30,000)度であり、Lは円状の赤外線画像61の最外周円の直径に相当する画素数、MはPPI画像41の最外周円の半径に相当する画素数、Rは目標物体の推定距離(km)、Rmax はPPI画像の最外周円に割り当てた距離(図2のPPI画像41の例では20km)である。
【0061】
ここで、xはx軸のサンプル番号で、XとYはそれぞれの軸の画素番号なのでいずれも正の整数である。従って、(5)及び(6)式において得られたX2とY2それぞれを四捨五入することによりそれぞれ一つの整数値を得る。
【0062】
そして、該赤外線画像と該PPI画像とを重畳し、テレビジョン走査方式の表示フォーマットに変換したテレビジョン画像信号を表示部5に送出する。
【0063】
表示部5では、該テレビジョン画像信号をテレビジョン画面としてディスプレイ上に表示する。
【0064】
図3 は本発明の赤外線探知装置における実施形態を示す構成例で、1は赤外線センサ部、2は信号処理部、3は全周画像メモリ部、4は走査変換部、5は表示部、6はアドレス変換部であり、そして、11は光学系、12は赤外線撮像器、13はAD変換器、14はジンバル、21は目標抽出部、22は目標情報生成部、23は探知S/N算出部である。
【0065】
赤外線センサ部1は、光学系11と赤外線撮像器12とAD変換器13とジンバル14とから構成され、信号処理部2は目標抽出部21と目標情報生成部22と探知S/N算出部23とから構成されている。
【0066】
赤外線センサ部1では、光学系11は入射した赤外線を集光し、集光された赤外線は赤外線撮像器12へ送られ、赤外線撮像器12では該赤外線をアナログ電気信号の赤外線画像信号に光電変換してAD変換器13に送られ、AD変換器13では該アナログ電気信号の赤外線画像信号をデジタル信号に変換する。
【0067】
一方、ジンバル14は動揺を修正する機能を持ったピッチ軸とロール軸及びヨー軸の3軸を持ち、更に旋回機能を有しており、光学系11と赤外線撮像器12とAD変換器13とはジンバル14上に固定設置されている。
【0068】
従って、赤外線センサ部1では、ジンバル14が例えば、1回転/秒の速度で旋回すると360度の全方位のデジタル赤外線画像信号が得られ、該デジタル赤外線画像信号は目標抽出部21と全周画像メモリ部3とに送られ、該デジタル赤外線画像信号に対応したジンバル14での角度情報(方位と高さ)は目標情報生成部22と全周画像メモリ部3とに送られる。
【0069】
目標抽出部21では、該デジタル赤外線画像信号を、点状目標を抽出するフィルタリング処理や赤外線強度算出処理等を行って、点状の赤外線受信強度が増加する目標を向首・接近して来る物体として検出すると共に、該赤外線画像信号のS/N比値を計測する。そして、検出した物体に対応する計測されたS/N比値を目標情報生成部22に送る。
一方、探知S/N算出部23では、操作員により予め入力される該当時点の気象条件(気温、湿度、視程)と、予め記憶されている赤外線センサ部1固有の赤外線の波長帯とから前記の大気透過率算出モデルにより距離毎の大気中の赤外線透過率を算出し、そして、本発明の赤外線探知装置が搭載されている艦船の置かれている状況より該検出した物体の種類を想定して、操作員が入力する該物体の目標条件(面積、速力)と該気象条件とから赤外線放射強度を算出して、前記の式(2)により距離に対応する探知S/N比値を求め、該探知S/N比値(以降探知S/Nと称する)を目標情報生成部22に送出する。
【0070】
目標情報生成部22では、該計測されたS/N比値(以降計測S/Nと称する)が一定値以上になると「目標物体」と認識して、この時点を一回目の走査とし、更に走査を継続して該計測S/Nが規定値以上になると「脅威となるべき目標物体」と認識する。また、規定回数の走査時点より該計測S/Nを使って、最小二乗近似の前記の式(1)により換算S/N比値(以降換算S/Nと称する)を算出する。そして、探知S/N算出部23からの該探知S/Nと、該換算S/Nとを照合することにより目標物体までの距離を推定する。
【0071】
ここで、該目標物体までの距離を推定する過程を分かり易くするために図4と図5を参照して説明し、該目標物体等の認識状況例を表1にて説明する。
【0072】
即ち、図4は本発明の走査毎のS/Nを示すグラフ例であり、走査毎に計測S/Nと対応する算出された換算S/Nが示されている。また、図5は本発明の距離に対するS/Nを示すグラフ例であり、探知S/N算出部23で算出した離散的な探知S/Nを補間して連続的な線状グラフとして探知S/Nを示し、図4の走査毎の換算S/Nと同じ値を図5の探知S/N上で探索して、該当する距離を目標物体と赤外線探知装置との間の距離(推定距離)とする。
【0073】
表1は計測S/Nから換算S/Nと推定距離とを算出した具体例であり、走査回数と計測S/Nと換算S/Nと推定距離とを対応して例示している。そして、目標抽出部21からの計測S/Nが5を超えた時点で「目標物体」と認識して1回目の走査回数とし、3回目の走査回数の時点から前記の式(1)と(2)により算出した換算S/Nと推定距離とを示し、計測S/Nが13を超えた時点、即ち7回目の走査時点から「脅威となるべき目標物体」と認識する。
【0074】
【表1】

Figure 0004649695
また、目標情報生成部22では、赤外線センサ部1からの該方位情報(方位と高さ)を基に図2(A)に相当する目標物体の座標(x1 ,y1 )を走査ごとに生成する。
【0075】
そして、目標物体に対する座標(x1 ,y1 )と得られた該推定距離と該脅威となる目標物体か否かの情報とを目標情報として走査変換部4に送る。
【0076】
全周画像メモリ部3では、該デジタル赤外線画像信号をデータとして図2(A)で説明したように、赤外線センサ部1が一旋回して収集して得た一走査分の該データを(x,y)座標に対応して蓄積する。即ち、方位角(θ)の360度分が水平方向サンプルとして30,000サンプルをx軸対応で蓄積し、赤外線センサ1からの方位情報を基に、高角の前記ベース角プラス2.4度迄が垂直方向サンプルとして200サンプルをy軸対応で蓄積する。( 図2(A)では該ベース角が0度の場合を例示している。)そして、ベース角情報を走査変換部4に送る。
【0077】
アドレス変換部6では、全周画像メモリ部3より図2(A)の蓄積データ31を(x,y)対応で順次読み込み、前記の式(3)と(4)により図2(B)の赤外線画像61に対応した(X,Y)座標に変換を行う。また、この際、蓄積データ31のサンプル値から赤外線画像61の画素値への変換は前記の単純間引きによる。そして、該(X,Y)座標と該(X,Y)座標に対応した該画素値とを走査変換部4に送る。
【0078】
走査変換部4では、全周画像メモリ部3からの該ベース角情報を蓄積し、アドレス変換部6からの画素値と対応したXとYの値を蓄積し、図2の赤外線画像61に相当する画像信号を作成する。一方、信号処理部2からの目標物体に対する座標(x1 ,y1 )より式(3)と(4)により該目標物体に相当する座標(X1 ,Y1 )を算出して該赤外線画像61に相当する画像の該座標(X1 ,Y1 )と同じ座標位置にシンボルマークを重畳して全方位赤外線画像信号を作成する。
【0079】
また、信号処理部2からの目標情報としてのx1 座標と推定距離とから式(4)と(5)により座標(X2 ,Y2 )を算出してPPI画像41に相当する画像の該座標(X2 ,Y2 )と同じ座標位置にシンボルマークを重畳して目標物体の距離を示すPPI画像を作成する。
【0080】
因みに、図2(B)にて、Lを768画素、赤外線画像61の最内周円の半径に相当する画素数を128画素とすると、(x1 ,y1 )=(1000,120)とすると(X1 ,Y1 )=(448,84)となり、更にPPI画像41の外周円の位置(式(5),(6) の Rmax ) を20kmとし、推定距離が10kmであったとすると、(X2 ,Y2 )=(411,259)となる。
【0081】
そして、該全方位赤外線画像信号と該PPI画像と、また別のジャイロシステムからの艦船の艦首方位情報を得て図2(B)の座標(L/2,L/2)を中心にして極座標変換した艦首指示シンボルマークとを重畳し、テレビジョン走査方式の表示フォーマットに変換したテレビジョン画像信号と該テレビジョン画像信号と同期した該ベース角情報を表示部5に送出すると共に、表示部5では、テレビジョン画面をディスプレイ上に表示する。尚、説明は省くが該ベース角情報の表示は該テレビジョン画面に重畳してもよく、また、独立に表示してもよい。
【0082】
図6は本発明の第一の表示例であって、41はPPI画像、42は第一の目標距離シンボル、43は第二の目標距離シンボル、44は第一の目標距離軌跡、45は第二の目標距離軌跡、61は赤外線画像、62は指定方位画面、63は第一の目標シンボル、64は第二の目標シンボル、65は艦船シンボルである。
【0083】
PPI画像41と赤外線画像61とは、同心円で表示されており、方位0度(真北)は常に正面(図6では上方向)に固定されており、艦船シンボル65は艦船の進行方向(艦首方向)を表し、ここでは90度方向を向いている例を示しているが、艦船の進行方向が変化すると共に向きが変わる真方位表示例である。
【0084】
第一の目標距離シンボル42と第二の目標距離シンボル43とは、PPI画像41内に表示されているそれぞれ第一の目標物体とは第二の目標物体の距離を表すシンボルマークであり、第一の目標シンボル63と第二の目標シンボル64は赤外線画像内に表示されているそれぞれ第一の目標物体とは第二の目標物体とを表すシンボルマークである。従って、第一の目標距離シンボル42と第一の目標シンボル63の方位、第二の目標距離シンボル43と第二の目標シンボル64の方位はそれぞれ一致している。そして、第一の目標距離軌跡44と第二の目標距離軌跡45はそれぞれ第一の目標距離シンボル42と第二の目標距離シンボル43との過去(当該時点よりも前の走査時)に表示されたシンボルを目標物体の動き(軌跡)を便宜的に示したもので、実際の画面上では表示されない。また、PPI画像41と赤外線画像61との第一の目標物体のシンボルマーク間と、第二の目標物体のシンボルマーク間とを結ぶそれぞれの直線は便宜的に方位が同じことを説明するもので実際の画面上では表示されない。
【0085】
指定方位画面62は赤外線画像61内の第一の目標シンボル63近辺(点線で示す範囲)を拡大表示したものである。即ち、図3 の走査変換部4とアドレス変換部6に対して操作員より方位角度を含む表示切替指示が有ると、アドレス変換部6では、全周画像メモリ部3より図2(A)の蓄積データ31を(x,y)対応で順次読み込むこと中止し、走査変換部4にて、直接蓄積データ31の該方位角度±1.6度(x軸では±133サンプル)の範囲を(x,y)対応で順次読み込み、図2(B)と同じ(X,Y)座標に間引きをせずに変換した後、テレビジョン走査方式の表示フォーマットに変換したテレビジョン画像信号を表示部5に送出し、表示部5で表示した画面が指定方位画面62となる。
【0086】
つまり、図2(A)にて該方位角度をθ0 とすると対応するx軸のx0 は、
0 =30,000×( θ0/360) となり、走査変換部4では、xp =x0 −133 〜x0 +133 とy p =1 〜200 の座標(xp ,y p )( 但しxp は整数でy p は正の整数)に対応する全てのサンプル値を順次読み込むことになる。しかしながら実際には、xp が30,000超や1未満の場合には蓄積データ31のそれぞれ左側と右側から読み込む必要がある。
【0087】
つまり、y p は変換せず、xp >30,000の時はxp としてxp −30,000のサンプル値を読み出し、1 ≦xp ≦30,000の時はxp のサンプルを読み出し、xp <1 の時はxp としてxp +30,000のサンプル値を読み出す。
【0088】
そして、指定方位画面をディスプレイ71のほぼ中央に表示するために(xp ,y p )座標を次の(7)、(8)式により該(X,Y)座標に変換した後蓄積し、指定方位画面を作成する。
【0089】
X =xp −x0 +L/2 ───(7)
Y =y p −100 +L/2 ───(8)
更に、信号処理部2からの前記目標物体に対する座標(x1 ,y1 )が座標(xp ,y p )と一致するか否かを判定して、一致するものが有ればx1 とy1 をそれぞれ(7)、(8)式のxp とy p に代入して座標(XP ,YP )を算出して、該指定方位画面の(X,Y)座標上の座標(XP ,YP )と同じ座標位置にシンボルキャラクタを重畳する。
【0090】
そして、テレビジョン走査方式の表示フォーマットに変換したテレビジョン画像信号を表示部5に送出し、表示部5では指定方位画面62を表示する。
【0091】
図7は本発明の第二の表示例であって、41はPPI画像、42は第一の目標距離シンボル、43は第二の目標距離シンボル、44は第一の目標距離軌跡、45は第二の目標距離軌跡、61は赤外線画像、63は第一の目標シンボル、64は第二の目標シンボル、65は艦船シンボルである。
【0092】
PPI画像41と赤外線画像61とは、同心円で表示されていて、艦船の進行方向(艦首方向)は常に正面(図7では上方向)に固定されており、艦船シンボル65は艦船の進行方向(艦首方向)を表し、ここでは90度方向を向いている例を示しているが、艦船の進行方向が変化すると方位を含むPPI画像41と赤外線画像61とは連動して向きが変わる艦首方位表示例である。つまり、図7の艦首方位表示例は図6の真方位表示例を艦船の方位分だけ回転変換したものである。
【0093】
第一の目標距離シンボル42と第二の目標距離シンボル43とは、PPI画像41内に表示されているそれぞれ第一の目標物体とは第二の目標物体の距離を表すシンボルマークであり、第一の目標シンボル63と第二の目標シンボル64は赤外線画像内に表示されているそれぞれ第一の目標物体とは第二の目標物体とを表すシンボルマークである。従って、第一の目標距離シンボル42と第一の目標シンボル63の方位、第二の目標距離シンボル43と第二の目標シンボル64の方位はそれぞれ一致している。そして、第一の目標距離軌跡44と第二の目標距離軌跡45はそれぞれ第一の目標距離シンボル42と第二の目標距離シンボル43との過去(当該時点よりも前の走査時)に表示されたシンボルを目標物体の動き(軌跡)を便宜的に示したもので、実際の画面上では表示されない。また、PPI画像41と赤外線画像61との第一の目標物体のシンボルマーク間と、第二の目標物体のシンボルマーク間とを結ぶそれぞれの直線は便宜的に方位が同じことを説明するもので実際の画面上では表示されない。
【0094】
即ち、図3 の走査変換部4に対して操作員より艦首方位表示の表示切替指示が有ると、走査変換部4では、図6の真方位表示に対する(X,Y)座標をジャイロシステムからの艦首方位角(θS )分だけ極座標変換をした後、テレビジョン走査方式の表示フォーマットに変換したテレビジョン画像信号を表示部5に送出し、表示部5で表示する。
【0095】
図8は本発明の高角情報画面の例で、横軸(X軸)に距離を、縦軸(Y軸)に高角(高さ)の90度方向を示し、81は30度線、82は60度線、83はシンボルマークである。30度線81と60度線82とは高角の目安を示す補助線で、それぞれ高角30度の方向と高角60度の方向とを示し、目標物体の位置(距離と高角)はシンボルマーク83により示す。そして、XとYを画素数に対応させ、距離は最長20Kmとして、X軸上で20Kmを200画素とし、高角の実際の感覚と高角情報画面上での感覚を一致させるために、高角45度上ではX軸とY軸それぞれの画素数を同数としている。但し、X軸とY軸の表示は説明のため便宜的に示したもので、実際は表示されない。
【0096】
即ち、図3において、走査変換部4に対して操作員より高角表示への表示切替指示が有ると走査変換部4において、全周画像メモリ部3からのベース角と、目標情報生成部22からの目標情報の内の目標物体に対する座標(x1 ,y1 )と推定距離とからX軸とY軸上の位置を算出して、該位置にシンボルマーク83を重畳する。そして、高角は、
高角=ベース角+2.4 度×(1−x1 /200)
となり、ここで、目標物体の距離を6.5Km、高角を2度とするとXは65(画素)、Yは2(画素)(=65×tan2°) となり、座標(65,2)の位置を中心としてシンボルマーク83を重畳する。
【0097】
ここで、30度線81と60度線82とは予めそれぞれα=30°または60°として
Y=X・tan α の式で、Xを0から1ずつ増加させた結果を座標(X,Y)をプロットしたものである。
【0098】
そして、テレビジョン走査方式の表示フォーマットに変換したテレビジョン画像信号を表示部5に送出し、表示部5で表示する。
【0099】
尚、本明細書で画面上の画素数及び図2(A)でのサンプル数と高角の範囲を限定しており、図8における補助線( 30度線81と60度線82)は2本でそれぞれ30度と60度方向に限定しているが、これらの限定にこだわるものではない。
【0100】
【発明の効果】
前記のように、全方位の赤外線画像を目標物体の距離を表示するPPI画像と同心円上に構成して一画面として表示し、表示切替指示により赤外線画像の一部を拡大した指定方位画面や目標物体の高角と距離を表す高角情報画面を表示することにより、向首・接近する物体を視覚的に分かり易く表示する効果がある。
【図面の簡単な説明】
【図1】 本発明の原理説明図。
【図2】 本発明のメモリマッピング例。
【図3】 本発明の赤外線探知装置における実施形態を示す構成例。
【図4】 本発明の走査毎のS/Nを示すグラフ例。
【図5】 本発明の距離に対するS/Nを示すグラフ例。
【図6】 本発明の第一の表示例。
【図7】 本発明の第二の表示例。
【図8】 本発明の高角情報画面の例。
【図9】 従来の赤外線探知装置の原理説明図。
【図10】従来の全方位赤外線画像の表示例と任意の方位の拡大表示例。
【符号の説明】
1 赤外線センサ部
2、2a 信号処理部
3、3a 全周画像メモリ部
4、4a 走査変換部
5 表示部
6 アドレス変換部
21 目標抽出部
22 目標情報生成部
23 探知S/N算出部
31 蓄積データ
41 PPI画像
61 赤外線画像
62 指定方位画面[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display system for infrared images and the like according to an all-around scanning infrared detector.
[0002]
An all-around scanning infrared detector mounted on ships, etc. detects and tracks infrared rays emitted from target objects such as heads and flying aircraft and missiles in all directions of 360 degrees, and information on the target objects Is displayed on the display together with the image, the estimated distance to the target and the high angle, as well as the orientation of the image and the target object, are required to be displayed in a visually easy-to-understand manner.
[0003]
[Prior art]
FIG. 9 is a diagram for explaining the principle of a conventional infrared detector, wherein 1 is an infrared sensor unit, 2a is a signal processing unit, 3a is an all-round image memory unit, 4a is a scan conversion unit, 5 is a display unit, and 11 is an optical system, 12 is an infrared imaging device, 13 is an AD converter, and 14 is a gimbal.
[0004]
The infrared sensor unit 1 includes an optical system 11, an infrared imaging device 12, an AD converter 13, and a gimbal 14.
[0005]
In the infrared sensor unit 1, the optical system 11 condenses incident infrared rays, and the collected infrared rays are sent to an infrared imaging device 12, and the infrared imaging device 12 photoelectrically converts the infrared rays into an infrared image signal of an analog electrical signal. Is sent to the AD converter 13, which converts the infrared image signal of the analog electric signal into a digital signal.
[0006]
On the other hand, the gimbal 14 has three axes of a pitch axis, a roll axis, and a yaw axis that have a function of correcting shaking, and further has a turning function. The optical system 11, the infrared imager 12, the AD converter 13, Is fixedly installed on the gimbal 14.
[0007]
Therefore, in the infrared sensor unit 1, when the gimbal 14 turns at a speed of, for example, 1 rotation / second, a 360-degree digital infrared image signal is obtained, and the infrared image signal and angle information at the corresponding gimbal 14 are obtained. (Direction and height) are sent to the signal processing unit 2a and the all-round image memory unit 3a.
[0008]
The signal processing unit 2a performs point target filtering processing and infrared reception intensity calculation processing of the infrared image signal to detect an image portion where the infrared reception intensity increases as a target object that approaches and approaches the target object. Is sent to the scan converter 4a.
[0009]
The all-round image memory unit 3a stores the infrared image signal as data.
[0010]
The scan conversion unit 4a sequentially reads the data from the all-round image memory unit 3a, superimposes the symbol character on the corresponding portion of the data based on the azimuth information of the target object from the signal processing unit 2a, and the gyro It also superimposes the ship heading information from the system, then divides the superposed omnidirectional data into 3 or 4 etc. and edits it to a single screen and converts it to a television scanning format. The transmitted television screen is sent to the display unit 5.
[0011]
The display unit 5 displays the television screen on the display.
[0012]
In addition to the above, it is possible to display an enlarged image portion of an arbitrary orientation on the television screen by separately specifying.
[0013]
FIG. 10 shows a display example of a conventional omnidirectional infrared image and an enlarged display example of an arbitrary orientation, and shows the contents described in FIG.
[0014]
71 is a display, 72 is a first orientation image, 73 is a second orientation image, 74 is a third orientation image, 75 is a symbol mark of the first target object, 76 is a symbol mark of the second target object, 77 is a heading display, and 78 is an enlarged display image.
[0015]
The image displayed on the display 71 is obtained by dividing the 360 degree omnidirectional infrared image described in FIG. 9 into a first orientation image 72, a second orientation image 73, and a third orientation image 74. Are displayed on the same screen. That is, the reference azimuth (true north) is 0 degree, the first azimuth image 72 is from 0 degree to 120 degrees, the second azimuth image 73 is from 120 degrees to 240 degrees, Each image is from 240 degrees to 360 degrees (0 degrees).
[0016]
The symbol mark 75 of the first target object indicates one detected target object, and the symbol mark 76 of the second target object indicates another detected target object. Further, the heading direction display 77 indicates the direction in which the head of the ship on which the infrared detector is mounted is directed. That is, FIG. 10 shows that the one target object exists in the same direction as the bow.
[0017]
Further, the enlarged display image 78 enlarges the range of the dotted line in the first orientation image 72 by separately specifying the orientation of the symbol mark 75 of the first target object displayed in the first orientation image 72. This is another screen.
[0018]
[Problems to be solved by the invention]
Therefore, since the omnidirectional infrared image is divided into a plurality of parts and displayed on one screen, the azimuth is displayed numerically, but the target object is based on the true azimuth or the heading of the ship's ship. There is a problem that it is difficult to grasp the azimuth from which the aircraft comes, and also the high angle of the target object (the angle in the height direction with respect to the horizontal plane).
[0019]
Unlike an active sensor that detects the reflected wave of a radio wave emitted from a target object, such as a radar, the infrared detector is a passive sensor that unilaterally detects the infrared light emitted by the target object, so the distance to the target object There is also a problem that the distance cannot be displayed on the image.
[0020]
In view of this problem, the present invention is an all-around scanning type that displays information on the target object as well as the orientation of the target object as well as the estimated distance and high angle along with the 360 degree omnidirectional image. An object is to provide an infrared detector.
[0021]
[Means for Solving the Problems]
In order to achieve the above object, in the display method of the infrared detector according to the present invention, an omnidirectional image memory means for storing an omnidirectional image signal imaged by an infrared sensor as omnidirectional image data, and the omnidirectional image memory means Address conversion means for converting the image data into an omnidirectional infrared image signal that can be displayed in a circular shape, and symbol marks based on the angle information of the head and approaching object extracted from the signal processing means are displayed on the omnidirectional infrared image. Scan conversion means that superimposes the signal and converts it into a display format, and display means for displaying the image signal converted into the display format are provided.
[0022]
And in the display system of the infrared detector according to the present invention, the scanning conversion means can display the distance information of the object from the signal processing means that can be displayed concentrically with the omnidirectional infrared image signal on which the symbol mark is superimposed. Scan conversion means for generating a PPI image signal with a symbol mark based thereon is also possible.
[0023]
In the display system of the infrared detector according to the present invention, the signal processing unit measures an S / N ratio corresponding to the object in the omnidirectional image signal every time the infrared sensor unit scans, Signal processing means for calculating a distance to an object from an S / N ratio, a weather condition inputted in advance, and an S / N ratio for the object calculated based on a target condition assuming the object. Also good.
[0024]
Furthermore, in the display system of the infrared detector according to the present invention, the scanning conversion means originates in the distance information of the object from the signal processing means and the infrared sensor means, separately from the omnidirectional infrared image signal. Scan conversion means for generating a high-angle information image signal with a symbol mark corresponding to the object based on the high-angle information and converting it to a display format may be used.
[0025]
In addition, in the display method of the infrared detection apparatus according to the present invention, the scan conversion means may be configured to display the omnidirectional infrared image separately from the omnidirectional infrared image signal and the PPI image signal according to a display switching instruction including azimuth information. Scan conversion means for generating an enlarged designated azimuth image signal corresponding to the azimuth information in the signal and converting it to a display format may be used.
[0026]
An object heading and approaching is extracted from an omnidirectional image signal imaged by an infrared sensor, and an S / N ratio of the object is measured, and the S / N ratio and a pre-input weather condition (temperature) , Humidity, visibility) and target information including the distance calculated from the S / N ratio calculated from target conditions (area and speed assuming the type of the object) and angle information (azimuth and high angle) of the object Is generated.
[0027]
On the other hand, the omnidirectional image signal is stored as omnidirectional image data, and the omnidirectional image data can be converted to be displayed in a circular shape, and all the objects having a symbol mark attached to the position of the object based on the target information. The azimuth infrared image signal and the omnidirectional infrared image signal can be displayed on a concentric circle, and a PPI image signal indicating the distance of the object is displayed on one screen by attaching a symbol mark based on the target information.
[0028]
Further, a high-angle information image signal indicating the distance and high angle of the object is generated based on the target information and displayed on the screen in response to a display switching instruction to high-angle display. Further, in response to a display switching instruction including azimuth information, an enlarged designated azimuth image signal corresponding to the azimuth information in the omnidirectional infrared image signal is generated and displayed on the screen.
[0029]
Therefore, in addition to the infrared image and the azimuth of the target object, the estimated distance to the target and the high angle can be displayed on the screen in an easy-to-understand manner.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0031]
FIG. 1 is an explanatory diagram of the principle of the present invention, and FIG. 2 is an example of memory mapping of the present invention.
[0032]
In FIG. 1, 1 is an infrared sensor unit, 2 is a signal processing unit, 3 is an all-round image memory unit, 4 is a scan conversion unit, 5 is a display unit, and 6 is an address conversion unit.
[0033]
In the infrared sensor unit 1, a 360-degree omnidirectional digital infrared image signal obtained by turning, and angle information (azimuth and high angle) corresponding to the infrared image signal are a signal processing unit 2 and an omnidirectional image memory unit. Sent to 3.
[0034]
The signal processing unit 2 performs filtering processing and infrared reception intensity calculation processing for extracting point-like targets on the omnidirectional infrared image signal from the infrared sensor unit 1, and determines the image portion where the infrared reception intensity increases as Detect as a target object approaching. That is, since the object detected as a target is initially present at a long distance, it is point-like on the image, and as it approaches, it increases on the image and increases the infrared reception intensity. The ratio (signal to noise ratio) is observed as a gradually increasing signal. Then, the S / N ratio value corresponding to the detected target object and the angle information from the infrared sensor unit 1 are accumulated for each scan (each time the infrared sensor unit 1 turns once).
[0035]
When the measured S / N ratio value exceeds a certain value, it is regarded as a “target object to be a threat”.
[0036]
Since the measured S / N ratio value varies, the increase rate of the S / N ratio value is calculated from the measured S / N ratio value for each scan by the least square approximation calculation. That is, the converted S / N ratio value Q (n) by the least square approximation operation at the n-th scan is
Q (n) = be an ─────── (1)
It becomes.
[0037]
However, a and b are obtained as solutions of the following two expressions.
[0038]
n • logb + (Σt) • a = ΣlogZ (t)
(Σt) ・ logb + (Σt 2 ) ・ A = Σt ・ logZ (t)
Here, t is a variable (t = 1, 2,... N), and Z (t) is a measured S / N ratio value at the time of the t-th scanning.
[0039]
Further, from the angle information (azimuth and high angle), the detected coordinates of the center of the target object are coordinate (x) as in FIG. 1 , Y 1 ).
[0040]
On the other hand, the detection S / N ratio value at the distance R of the target object is
S / N = τ (R) x P / NEP (2)
It becomes.
[0041]
Here, τ (R) is the infrared transmittance in the atmosphere at distance R, and the atmospheric transmittance calculation model (LOWTRAN: US Air Force Geophysical Study) based on weather conditions (temperature, humidity, visibility) and infrared wavelength band. Issue). NEP (abbreviation of Noise Equivalent Power) is an infrared radiation intensity equal to sensor noise, and is a constant value for each sensor device.
P is the infrared radiation intensity emitted by the target object.
P = S ・ ∫ ((C 1 / λ Five ) / (exp (C 2 / λT) −1)) dλ
It becomes.
[0042]
Where S is the area of the target object, λ is the infrared wavelength and is a variable, C 1 And C 2 Is a constant, and T is the temperature of the target object and is determined by the speed of the target object. That is,
T = T a (1 + γ ((γ−1) / 2) M 2 )
Where γ is a constant, M is speed, and T a Is the temperature.
[0043]
Therefore, P can be obtained by inputting the area and speed of the target object assuming the type of the target object according to the temperature and the situation where the ship equipped with the infrared detector of the present invention is placed.
[0044]
Then, the distance to the target object can be estimated by collating the converted S / N ratio value calculated by the least square approximation calculation with the expression (1) and the detection S / N ratio value calculated with the expression (2). Then, the coordinates (x 1 , Y 1 ) And the obtained estimated distance and information on whether or not the target should be a threat is sent to the scan conversion unit 4 as target information.
[0045]
The all-round image memory unit 3 stores the digital infrared image signal as data.
[0046]
Here, in FIG. 2, (A) is a writing map of the all-round image memory unit 3, 31 is accumulated data, and the data for one scan obtained by the infrared sensor unit 1 collecting one turn is obtained. An example of accumulation as (x, y) coordinates is shown. Here, 30,000 samples of azimuth angle (θ) are accumulated in the x-axis direction as horizontal samples, and up to 2.4 ° with a high angle of 0 ° as a base angle and 200 samples as vertical samples. An example in which samples are accumulated in the y-axis direction is shown. The base angle can be arbitrarily set by the infrared sensor unit 1, and the accumulated data 31 is configured from the base angle to the base angle plus 2.4 degrees.
[0047]
(B) is a map corresponding to a display screen, 71 is a display, 61 (shaded part) is an infrared image, and 41 is a PPI (abbreviation of Plan Position Indicator) image. That is, the infrared image 61 is configured concentrically with the PPI image 41, and the infrared image 61 and the PPI image 41 have a common (X, Y) coordinate configuration in units of pixels, and the circular infrared image 61. The number of pixels in the diameter direction is L, and an example corresponding to the azimuth angle (θ) of (A) is shown with 360 degrees around the center of the screen as an axis.
[0048]
The stored data 31 of (A) is converted into an infrared image 61 and displayed as an infrared image, and the PPI image 41 has an estimated distance within 20 km calculated by the signal processing unit 2 (for the sake of clarity, 10 km in the middle) A circle indicating is displayed.) An example of displaying polar coordinates together with a bearing is shown.
[0049]
The data amount of the accumulated data 31 is 200 × 30,000 = 6 M samples, which is a uniform data amount in both the horizontal direction and the vertical direction. On the other hand, when L = 768 in FIG. The number of pixels in the image is (768/2) 2 × π- (256) 2 × π ≒ 260K pixels only, and since the infrared image 61 is a circular image, the number of pixels becomes smaller as it goes in the center direction of the circle (the direction in which the high angle decreases in the vertical direction). Conversion needs to be done.
[0050]
In FIG. 1 again, the address conversion unit 6 reads the accumulated data 31 of FIG. 2A from the all-round image memory unit 3 and performs coordinate conversion together with the thinning of the samples.
[0051]
That is, the display rate in the vertical direction (1-thinning rate) is represented by N / 200. However, N is the number of pixels in the vertical direction of the infrared image 61 in FIG.
[0052]
Incidentally, the display rate in the horizontal direction (circumferential direction) is Dr (n) / 30,000. However, Dr (n) = Dv (n) × π, Dr (n) is the number of pixels in the circumference of the nth circle from the outermost periphery of the infrared image 61, and Dv (n) is the infrared image 61 This is the number of pixels corresponding to the diameter in the nth circle from the outermost periphery.
[0053]
Based on the display rate in the vertical direction, the (x, y) coordinate is converted to the (X, Y) coordinate by the following expression.
[0054]
X = L / 2 + (M + (N−y × N / 200)) sinθ ── (3)
Y = L / 2-(M + (Ny x N / 200)) cosθ ── (4)
However, θ is an azimuth angle, θ = (x × 360 / 30,000) degrees, L is the number of pixels corresponding to the diameter of the outermost circle of the circular infrared image 61, and M is the maximum of the PPI image 41. The number of pixels corresponding to the radius of the outer circumference circle, N is the number of pixels in the vertical direction of the infrared image 61.
[0055]
Here, since x and y are sample numbers of the respective axes, and X and Y are pixel numbers of the respective axes, both are positive integers. Therefore, one integer value is obtained by rounding off each of X and Y obtained in the equations (3) and (4), and there are a plurality of x and y corresponding to the one integer value, respectively. In this case, the pixel value of the (X, Y) coordinate of the one integer value by adopting the sample value of the (x, y) coordinate closest to the one integer value for each of X and Y before the rounding And
[0056]
Although the method of adopting the pixel values of the (X, Y) coordinates by simply thinning out has been described above, an average value of the sample values of the plurality of (x, y) coordinates may be adopted. It may be adopted.
[0057]
Then, the obtained pixel value is sent to the scan conversion unit 4 together with the corresponding X and Y values.
[0058]
The scan conversion unit 4 accumulates X and Y values corresponding to the pixel values from the address conversion unit 6, and creates an image signal corresponding to the infrared image 61 in FIG. On the other hand, the coordinates (x 1 , Y 1 ) From (3) and (4), the coordinates (X 1 , Y 1 ) To calculate the coordinates of the image corresponding to the infrared image 61 (X 1 , Y 1 ) To create an infrared image signal by superimposing a symbol mark at the same coordinate position.
[0059]
Also, x as target information from the signal processing unit 2 1 Coordinates (X 2 , Y 2 ) To calculate the coordinates of the image corresponding to the PPI image 41 (X 2 , Y 2 ) To create a PPI image by showing a symbol mark indicating the distance of the target object at the same coordinate position.
[0060]
That is, X 2 And Y 2 Respectively
X 2 = L / 2 + (M x R / R max ) sinθ ─── (5)
Y 2 = L / 2-(M x R / R max ) cosθ ─── (6)
Where θ is the azimuth angle and θ = (x 1 × 360 / 30,000) degrees, L is the number of pixels corresponding to the diameter of the outermost circle of the circular infrared image 61, M is the number of pixels corresponding to the radius of the outermost circle of the PPI image 41, and R is Estimated distance of target object (km), R max Is a distance assigned to the outermost circumference circle of the PPI image (20 km in the example of the PPI image 41 in FIG. 2).
[0061]
Here, since x is a sample number of the x axis and X and Y are pixel numbers of the respective axes, both are positive integers. Therefore, X obtained in the equations (5) and (6) 2 And Y 2 One integer value is obtained by rounding each.
[0062]
Then, the infrared image and the PPI image are superimposed, and a television image signal converted into a television scanning display format is sent to the display unit 5.
[0063]
The display unit 5 displays the television image signal on the display as a television screen.
[0064]
FIG. 3 is a structural example showing an embodiment of the infrared detection apparatus of the present invention. 1 is an infrared sensor unit, 2 is a signal processing unit, 3 is an all-round image memory unit, 4 is a scan conversion unit, 5 is a display unit, 6 Is an address converter, 11 is an optical system, 12 is an infrared imager, 13 is an AD converter, 14 is a gimbal, 21 is a target extractor, 22 is a target information generator, and 23 is a detection S / N calculation. Part.
[0065]
The infrared sensor unit 1 includes an optical system 11, an infrared imaging device 12, an AD converter 13, and a gimbal 14, and the signal processing unit 2 includes a target extraction unit 21, a target information generation unit 22, and a detection S / N calculation unit 23. It consists of and.
[0066]
In the infrared sensor unit 1, the optical system 11 condenses incident infrared rays, and the collected infrared rays are sent to an infrared imaging device 12, and the infrared imaging device 12 photoelectrically converts the infrared rays into an infrared image signal of an analog electrical signal. Is sent to the AD converter 13, which converts the infrared image signal of the analog electric signal into a digital signal.
[0067]
On the other hand, the gimbal 14 has three axes of a pitch axis, a roll axis, and a yaw axis that have a function of correcting shaking, and further has a turning function. The optical system 11, the infrared imager 12, the AD converter 13, Is fixedly installed on the gimbal 14.
[0068]
Therefore, in the infrared sensor unit 1, when the gimbal 14 turns at a speed of, for example, 1 rotation / second, a 360 degree omnidirectional digital infrared image signal is obtained. The angle information (azimuth and height) at the gimbal 14 corresponding to the digital infrared image signal is sent to the memory unit 3 and to the target information generating unit 22 and the all-round image memory unit 3.
[0069]
The target extraction unit 21 performs a filtering process or infrared intensity calculation process for extracting the point-like target on the digital infrared image signal, so that the object whose point-like infrared reception intensity increases is headed or approached. And the S / N ratio value of the infrared image signal is measured. Then, the measured S / N ratio value corresponding to the detected object is sent to the target information generation unit 22.
On the other hand, in the detection S / N calculation unit 23, the meteorological conditions (temperature, humidity, visibility) at the corresponding time input in advance by the operator and the infrared wavelength band unique to the infrared sensor unit 1 are stored. Infrared transmittance in the atmosphere for each distance is calculated by the atmospheric transmittance calculation model, and the detected object type is assumed from the situation where the ship equipped with the infrared detector of the present invention is placed. The infrared radiation intensity is calculated from the target condition (area, speed) of the object and the weather condition input by the operator, and the detection S / N ratio value corresponding to the distance is obtained by the above equation (2). The detection S / N ratio value (hereinafter referred to as detection S / N) is sent to the target information generation unit 22.
[0070]
The target information generation unit 22 recognizes a “target object” when the measured S / N ratio value (hereinafter referred to as “measured S / N”) exceeds a certain value, and sets this point as the first scan. When the scanning is continued and the measured S / N exceeds a specified value, it is recognized as a “target object to be a threat”. In addition, a converted S / N ratio value (hereinafter referred to as a converted S / N) is calculated by the above-described equation (1) of least square approximation using the measured S / N from a specified number of times of scanning. Then, the distance to the target object is estimated by comparing the detection S / N from the detection S / N calculation unit 23 with the converted S / N.
[0071]
Here, in order to make it easy to understand the process of estimating the distance to the target object, an explanation will be given with reference to FIGS. 4 and 5, and an example of the recognition status of the target object will be described in Table 1.
[0072]
That is, FIG. 4 is a graph example showing the S / N for each scan of the present invention, and shows the calculated converted S / N corresponding to the measured S / N for each scan. FIG. 5 is an example of a graph showing the S / N with respect to the distance of the present invention. The detection S / N calculated by the detection S / N calculation unit 23 is interpolated to detect the detection S as a continuous linear graph. / N, the same value as the converted S / N for each scan in FIG. 4 is searched on the detection S / N in FIG. 5, and the corresponding distance is the distance between the target object and the infrared detection device (estimated distance). ).
[0073]
Table 1 is a specific example in which the converted S / N and the estimated distance are calculated from the measured S / N, and the number of scans, the measured S / N, the converted S / N, and the estimated distance are illustrated correspondingly. Then, when the measurement S / N from the target extraction unit 21 exceeds 5, it is recognized as a “target object” and is set as the first scan number, and the above formula (1) and ( The converted S / N calculated in 2) and the estimated distance are shown, and the measurement S / N is recognized as a “target object to be a threat” from the time when the S / N exceeds 13, that is, the seventh scanning time.
[0074]
[Table 1]
Figure 0004649695
Further, in the target information generation unit 22, the coordinates (x of the target object corresponding to FIG. 2A) based on the azimuth information (azimuth and height) from the infrared sensor unit 1. 1 , Y 1 ) For each scan.
[0075]
And the coordinates (x 1 , Y 1 ) And the obtained estimated distance and information on whether or not the target object is a threat are sent to the scan conversion unit 4 as target information.
[0076]
In the all-round image memory unit 3, as described with reference to FIG. 2A, the digital infrared image signal is used as data, and the data for one scan obtained by the infrared sensor unit 1 making a single turn is collected as (x , Y) Accumulate corresponding to the coordinates. That is, 30,000 samples of 360 degrees of azimuth angle (θ) are accumulated as horizontal samples corresponding to the x axis, and based on the azimuth information from infrared sensor 1, the high angle base angle is increased to 2.4 degrees. Accumulates 200 samples corresponding to the y-axis as vertical samples. (FIG. 2A illustrates the case where the base angle is 0 degree.) Then, the base angle information is sent to the scan conversion unit 4.
[0077]
The address conversion unit 6 sequentially reads the stored data 31 of FIG. 2A from the all-round image memory unit 3 in correspondence with (x, y), and uses the above equations (3) and (4) to generate the data shown in FIG. Conversion to (X, Y) coordinates corresponding to the infrared image 61 is performed. At this time, the conversion from the sample value of the accumulated data 31 to the pixel value of the infrared image 61 is based on the above-described simple thinning. Then, the (X, Y) coordinates and the pixel values corresponding to the (X, Y) coordinates are sent to the scan conversion unit 4.
[0078]
The scan conversion unit 4 accumulates the base angle information from the omnidirectional image memory unit 3, accumulates X and Y values corresponding to the pixel values from the address conversion unit 6, and corresponds to the infrared image 61 in FIG. Create an image signal. On the other hand, the coordinates (x 1 , Y 1 ) From (3) and (4), the coordinates (X 1 , Y 1 ) To calculate the coordinates of the image corresponding to the infrared image 61 (X 1 , Y 1 ) To create an omnidirectional infrared image signal by superimposing a symbol mark at the same coordinate position.
[0079]
Also, x as target information from the signal processing unit 2 1 From the coordinates and the estimated distance, the coordinates (X 2 , Y 2 ) To calculate the coordinates of the image corresponding to the PPI image 41 (X 2 , Y 2 ) To create a PPI image indicating the distance of the target object by superimposing the symbol mark at the same coordinate position.
[0080]
2B, when L is 768 pixels and the number of pixels corresponding to the radius of the innermost circle of the infrared image 61 is 128 pixels, (x 1 , Y 1 ) = (1000,120) (X 1 , Y 1 ) = (448, 84), and the position of the outer circumference circle of the PPI image 41 (R in equations (5) and (6)) max ) Is 20 km and the estimated distance is 10 km. 2 , Y 2 ) = (411, 259).
[0081]
Then, the omnidirectional infrared image signal, the PPI image, and the ship heading information from another gyro system are obtained, and the coordinates (L / 2, L / 2) in FIG. A television image signal converted into a television scanning display format and the base angle information synchronized with the television image signal are transmitted to the display unit 5 while being superimposed with the polar-indicated bow indication symbol mark and displayed. In part 5, the television screen is displayed on the display. Although not described, the display of the base angle information may be superimposed on the television screen or may be displayed independently.
[0082]
FIG. 6 is a first display example of the present invention, in which 41 is a PPI image, 42 is a first target distance symbol, 43 is a second target distance symbol, 44 is a first target distance locus, and 45 is a first target distance locus. The second target distance locus, 61 is an infrared image, 62 is a designated orientation screen, 63 is a first target symbol, 64 is a second target symbol, and 65 is a ship symbol.
[0083]
The PPI image 41 and the infrared image 61 are displayed in concentric circles, the azimuth of 0 degrees (true north) is always fixed to the front (upward in FIG. 6), and the ship symbol 65 is the ship traveling direction (ship This is an example of a true orientation display in which the direction of the ship changes as the traveling direction of the ship changes.
[0084]
The first target distance symbol 42 and the second target distance symbol 43 are symbol marks representing the distance of the second target object from the first target object displayed in the PPI image 41, respectively. The one target symbol 63 and the second target symbol 64 are symbol marks representing the first target object and the second target object displayed in the infrared image. Therefore, the azimuths of the first target distance symbol 42 and the first target symbol 63 and the azimuths of the second target distance symbol 43 and the second target symbol 64 are the same. The first target distance trajectory 44 and the second target distance trajectory 45 are displayed in the past of the first target distance symbol 42 and the second target distance symbol 43 (during scanning prior to the current time), respectively. The symbol represents the movement (trajectory) of the target object for convenience, and is not displayed on the actual screen. The straight lines connecting the first target object symbol marks and the second target object symbol marks in the PPI image 41 and the infrared image 61 have the same azimuth for convenience. It is not displayed on the actual screen.
[0085]
The designated orientation screen 62 is an enlarged display of the vicinity of the first target symbol 63 (the range indicated by the dotted line) in the infrared image 61. That is, when there is a display switching instruction including an azimuth angle from the operator to the scan conversion unit 4 and the address conversion unit 6 in FIG. 3, the address conversion unit 6 from the all-round image memory unit 3 in FIG. The reading of the accumulated data 31 sequentially in correspondence with (x, y) is stopped, and the range of the azimuth angle ± 1.6 degrees (± 133 samples in the x-axis) of the accumulated data 31 is directly set to (x , Y) sequentially read, converted to the same (X, Y) coordinates as in FIG. 2B without thinning, and then converted to a television scanning format display format on the display unit 5. The screen sent out and displayed on the display unit 5 becomes the designated orientation screen 62.
[0086]
That is, the azimuth angle in FIG. 0 Then the corresponding x-axis x 0 Is
x 0 = 30,000 × (θ 0 / 360), and in the scan conversion unit 4, x p = X 0 −133 to x 0 +133 and y p = 1 to 200 coordinates (x p , Y p (However, x p Is an integer y p All sample values corresponding to a positive integer) are read sequentially. In practice, however, x p Must be read from the left side and the right side of the stored data 31, respectively.
[0087]
That is, y p Does not convert, x p X> 30,000 p As x p Read -30,000 sample values, 1 ≤ x p X when ≤30,000 p Read the sample of x p <1 when x p As x p Read +30,000 sample values.
[0088]
Then, in order to display the designated orientation screen almost at the center of the display 71 (x p , Y p ) The coordinates are converted into the (X, Y) coordinates by the following formulas (7) and (8) and stored to create a designated orientation screen.
[0089]
X = x p -X 0 + L / 2 ─── (7)
Y = y p -100 + L / 2 (8)
Further, the coordinates (x 1 , Y 1 ) Is the coordinate (x p , Y p ), And if there is a match, x 1 And y 1 X in equations (7) and (8), respectively. p And y p Into the coordinates (X P , Y P ) To calculate the coordinates (X, Y) coordinates (X P , Y P ) The symbol character is superimposed at the same coordinate position.
[0090]
Then, the television image signal converted into the television scanning display format is sent to the display unit 5, and the display unit 5 displays the designated orientation screen 62.
[0091]
FIG. 7 shows a second display example of the present invention, in which 41 is a PPI image, 42 is a first target distance symbol, 43 is a second target distance symbol, 44 is a first target distance trajectory, and 45 is a first target distance trajectory. The second target distance locus, 61 is an infrared image, 63 is a first target symbol, 64 is a second target symbol, and 65 is a ship symbol.
[0092]
The PPI image 41 and the infrared image 61 are displayed in concentric circles, and the traveling direction (heading direction) of the ship is always fixed to the front (upward in FIG. 7), and the ship symbol 65 is the traveling direction of the ship. In this example, the direction is 90 degrees, but the ship changes direction in conjunction with the PPI image 41 including the azimuth and the infrared image 61 when the traveling direction of the ship changes. It is a heading display example. That is, the bow heading display example of FIG. 7 is obtained by rotationally converting the true heading display example of FIG. 6 by the ship heading direction.
[0093]
The first target distance symbol 42 and the second target distance symbol 43 are symbol marks representing the distance of the second target object from the first target object displayed in the PPI image 41, respectively. The one target symbol 63 and the second target symbol 64 are symbol marks representing the first target object and the second target object displayed in the infrared image. Therefore, the azimuths of the first target distance symbol 42 and the first target symbol 63 and the azimuths of the second target distance symbol 43 and the second target symbol 64 are the same. The first target distance trajectory 44 and the second target distance trajectory 45 are displayed in the past of the first target distance symbol 42 and the second target distance symbol 43 (during scanning prior to the current time), respectively. The symbol represents the movement (trajectory) of the target object for convenience, and is not displayed on the actual screen. The straight lines connecting the first target object symbol marks and the second target object symbol marks in the PPI image 41 and the infrared image 61 have the same azimuth for convenience. It is not displayed on the actual screen.
[0094]
That is, when the operator gives an instruction to switch the display of the heading direction to the scan conversion unit 4 in FIG. 3, the scan conversion unit 4 determines the (X, Y) coordinates for the true direction display in FIG. Bow azimuth (θ S ) After the polar coordinate conversion by the amount, the television image signal converted into the television scanning display format is sent to the display unit 5 and displayed on the display unit 5.
[0095]
FIG. 8 is an example of a high-angle information screen of the present invention, in which the horizontal axis (X-axis) indicates the distance, the vertical axis (Y-axis) indicates the 90-degree direction of the high angle (height), 81 is a 30-degree line, 82 is The 60 degree line and 83 are symbol marks. A 30-degree line 81 and a 60-degree line 82 are auxiliary lines indicating a high-angle guideline, indicating a direction of a high angle of 30 degrees and a direction of a high angle of 60 degrees, respectively, and the position (distance and high angle) of the target object is indicated by a symbol mark 83. Show. Then, X and Y are made to correspond to the number of pixels, the distance is 20 km at the longest, and 20 km on the X axis is 200 pixels. In the above, the number of pixels on the X axis and the Y axis is the same. However, the display of the X axis and the Y axis is shown for convenience of explanation, and is not actually displayed.
[0096]
In other words, in FIG. 3, when the operator gives a display switching instruction to the high-angle display to the scan conversion unit 4, the scan conversion unit 4 uses the base angle from the all-round image memory unit 3 and the target information generation unit 22. Coordinates for the target object in the target information of (x 1 , Y 1 ) And the estimated distance, a position on the X axis and the Y axis is calculated, and a symbol mark 83 is superimposed on the position. And the high angle is
High angle = Base angle + 2.4 degrees x (1-x 1 / 200)
Here, if the distance of the target object is 6.5 km and the high angle is 2 degrees, X is 65 (pixels), Y is 2 (pixels) (= 65 × tan2 °), and the position of the coordinates (65,2) The symbol mark 83 is superimposed with the center at the center.
[0097]
Here, the 30 degree line 81 and the 60 degree line 82 are preliminarily set as α = 30 ° or 60 °, respectively.
In the formula of Y = X · tan α, the coordinates (X, Y) are plotted as a result of increasing X by 1 from 0.
[0098]
Then, the television image signal converted into the television scanning format is sent to the display unit 5 and displayed on the display unit 5.
[0099]
In this specification, the number of pixels on the screen and the number of samples and the high angle range in FIG. 2A are limited, and two auxiliary lines (30 degree line 81 and 60 degree line 82) in FIG. However, it is not limited to these limitations.
[0100]
【The invention's effect】
As described above, the omnidirectional infrared image is concentrically formed with the PPI image that displays the distance of the target object and displayed as a single screen, and a specified azimuth screen and a target obtained by enlarging a part of the infrared image by a display switching instruction. By displaying a high-angle information screen showing the high angle and distance of the object, there is an effect that the heading and approaching object can be displayed visually and easily.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 shows an example of memory mapping according to the present invention.
FIG. 3 is a configuration example showing an embodiment of an infrared detection apparatus of the present invention.
FIG. 4 is a graph example showing S / N for each scan according to the present invention.
FIG. 5 is a graph example showing S / N with respect to the distance of the present invention.
FIG. 6 shows a first display example of the present invention.
FIG. 7 shows a second display example of the present invention.
FIG. 8 shows an example of a high angle information screen according to the present invention.
FIG. 9 is a diagram illustrating the principle of a conventional infrared detection device.
FIG. 10 shows a display example of a conventional omnidirectional infrared image and an enlarged display example of an arbitrary orientation.
[Explanation of symbols]
1 Infrared sensor
2, 2a Signal processor
3, 3a All-round image memory
4, 4a Scan converter
5 display section
6 Address converter
21 Target extraction unit
22 Target information generator
23 Detection S / N calculation part
31 Accumulated data
41 PPI images
61 Infrared image
62 Designated orientation screen

Claims (1)

360度の全方位において向首して接近する目標物体が放射する赤外線を検出して追尾し、前記目標物体の情報を画像と共にディスプレイ上に表示する赤外線探知装置において、
360度の全方位を走査して撮像する赤外線センサ手段と、
前記赤外線センサ手段が走査する毎に、前記全方位画像信号中の前記物体に対応するS/N比を計測し、前記S/N比と、予め入力された気象条件と前記物体を想定した目標条件をもとに計算された前記物体に対するS/N比とから前記物体までの距離を演算する信号処理手段と、
前記全方位画像信号を全方位画像データとして蓄積する全周画像メモリ手段と、
前記全方位画像データから円形状に表示可能な全方位赤外線画像信号に変換処理をするアドレス変換手段と、
前記信号処理手段からの前記物体の角度情報に基づくシンボルマークを前記全方位赤外線画像信号に重畳するとともに、前記シンボルマークを重畳した全方位赤外線画像信号と同心円上に表示可能な、前記信号処理手段からの前記物体の距離情報に基づくシンボルマークを付したPPI画像信号を生成し、且つ表示フォーマットに変換する走査変換手段と、
前記表示フォーマットに変換された画像信号を表示する表示手段とを、
備えることを特徴とする赤外線探知装置
In an infrared detector that detects and tracks infrared rays emitted from a target object that approaches and moves in all directions of 360 degrees, and displays information of the target object on a display together with an image .
Infrared sensor means for scanning 360 degrees in all directions and imaging;
Each time the infrared sensor means scans, the S / N ratio corresponding to the object in the omnidirectional image signal is measured, and the S / N ratio, the preliminarily input weather condition, and the target assuming the object are measured. Signal processing means for calculating a distance to the object from an S / N ratio for the object calculated based on a condition;
And the total circumferential image memory means for storing the omnidirectional image signal as omnidirectional image data,
Address converting means for the conversion process from said omnidirectional image data in the omnidirectional infrared image signal can be displayed in a circular shape,
Wherein the symbols based on the angle information of the object from the signal processing means together with superimposed on the omnidirectional infrared image signal, which can be displayed on the omnidirectional infrared image signals concentric obtained by superimposing the symbols, the signal processing means Scanning conversion means for generating a PPI image signal with a symbol mark based on the distance information of the object from the object and converting it to a display format;
And display means for displaying an image signal converted into the display format,
An infrared detection device comprising:
JP36829999A 1999-12-24 1999-12-24 Infrared detector Expired - Fee Related JP4649695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36829999A JP4649695B2 (en) 1999-12-24 1999-12-24 Infrared detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36829999A JP4649695B2 (en) 1999-12-24 1999-12-24 Infrared detector

Publications (2)

Publication Number Publication Date
JP2001183460A JP2001183460A (en) 2001-07-06
JP4649695B2 true JP4649695B2 (en) 2011-03-16

Family

ID=18491475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36829999A Expired - Fee Related JP4649695B2 (en) 1999-12-24 1999-12-24 Infrared detector

Country Status (1)

Country Link
JP (1) JP4649695B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003308A (en) * 2005-06-22 2007-01-11 Pasuko:Kk Method of estimating ground temperature and program for it
JP6113406B2 (en) * 2012-01-11 2017-04-12 三菱電機株式会社 Infrared target detection device
JP6360389B2 (en) * 2014-08-25 2018-07-18 日本放送協会 Video presentation apparatus and program
KR102450879B1 (en) * 2020-01-13 2022-10-04 곽동욱 Drilling guide apparatus for rock drilling equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6148283A (en) * 1984-08-14 1986-03-08 Furuno Electric Co Ltd Video display device
JPH02190787A (en) * 1989-01-19 1990-07-26 Mitsubishi Electric Corp Infrared detecting device
JPH0440386A (en) * 1990-06-06 1992-02-10 Fujitsu Ltd Display system for three-dimensional radar
JPH07174837A (en) * 1992-03-23 1995-07-14 Fujitsu Ltd Object distinguishing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6148283A (en) * 1984-08-14 1986-03-08 Furuno Electric Co Ltd Video display device
JPH02190787A (en) * 1989-01-19 1990-07-26 Mitsubishi Electric Corp Infrared detecting device
JPH0440386A (en) * 1990-06-06 1992-02-10 Fujitsu Ltd Display system for three-dimensional radar
JPH07174837A (en) * 1992-03-23 1995-07-14 Fujitsu Ltd Object distinguishing apparatus

Also Published As

Publication number Publication date
JP2001183460A (en) 2001-07-06

Similar Documents

Publication Publication Date Title
CN106525025B (en) A kind of Intelligent Mobile Robot route planning air navigation aid
CN103065323B (en) Subsection space aligning method based on homography transformational matrix
US20220043112A1 (en) Doppler radar flock detection systems and methods
JP2611173B2 (en) Positioning method and device using fisheye lens
KR20110001932A (en) Map constructing method of inhouse robot and start position determining method thereof
JP4649695B2 (en) Infrared detector
JP2006200932A (en) Radar signal processing system
JP3395393B2 (en) Vehicle periphery display device
KR20230106958A (en) Apparatus and method for providing position and orientation information of sea object based on camera
KR100957590B1 (en) Aparratus for display omni-directional image with object image
CN113450598B (en) Ship auxiliary navigation method and system based on infrared video
JPS5917103A (en) Position detector of moving body
CN110297235B (en) Radar and sonar data comprehensive processing method
WO2022047430A1 (en) Radar and colocated camera systems and methods
JP3226812B2 (en) Airport surveillance equipment
JP2004150898A (en) Marine search system and marine search method
JP3007430B2 (en) Target monitoring device
US20230215164A1 (en) Radar and colocated camera systems and methods
JP2656143B2 (en) Omnidirectional imaging device
JP2001296348A (en) Video display for three dimensional radar
JP2019144087A (en) Controlling device
JP3409455B2 (en) Infrared imaging device
JPH0886851A (en) Image target distance measuring apparatus
JP7187256B2 (en) Ship control system and ship control method
JP4931429B2 (en) Mobile track display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees