JP3719967B2 - Target classification method, computer program, and apparatus for radar - Google Patents

Target classification method, computer program, and apparatus for radar Download PDF

Info

Publication number
JP3719967B2
JP3719967B2 JP2001284109A JP2001284109A JP3719967B2 JP 3719967 B2 JP3719967 B2 JP 3719967B2 JP 2001284109 A JP2001284109 A JP 2001284109A JP 2001284109 A JP2001284109 A JP 2001284109A JP 3719967 B2 JP3719967 B2 JP 3719967B2
Authority
JP
Japan
Prior art keywords
target
class identification
mounting structure
radar
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001284109A
Other languages
Japanese (ja)
Other versions
JP2003090879A (en
Inventor
竜一 清宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001284109A priority Critical patent/JP3719967B2/en
Publication of JP2003090879A publication Critical patent/JP2003090879A/en
Application granted granted Critical
Publication of JP3719967B2 publication Critical patent/JP3719967B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、レーダエコーから作成されるISAR(逆合成開口レーダ)画像を用いてレーダにおける目標の類識別を行う類識別方法及び装置に係り、特に目標の特徴をベクトル表現し、ベクトル空間において解析を行うことで類識別を行う方法、コンピュータプログラム及び装置に関する。
【0002】
【従来の技術】
一般に、レーダにおいて目標から反射されるレーダエコーを処理して生成されるISAR画像から目標の識別を行うにあたっては、目標が様々に異なった方向に投影され、さらに識別に十分な情報が限られたフレームにしか含まれないという問題を考慮する必要がある。そこで従来は、この問題を解決するために、時系列のISAR画像から識別しやすい瞬間をとらえたフレームを選択し、予め用意した目標のモデルと比較する手法や、そのフレームに対して識別のための画像処理を施す手法を適用するのが一般的であった。しかしながら、このような処理にはしばしば手作業を介するため、オペレータへの負荷がネックとなり、自動的な類識別を高速に実現することは困難であった。
【0003】
一方、特開平11−281731号公報(以下、公知文献1と称する)には、最適的な観測時間を自動的に選択する手法が開示されている。しかし、この手法では、振幅が検波されたレーダ・ビデオでレンジ方向の広がりが一致するような閾値を設定し、その閾値を超えるレーダ・ビデオのみを抽出してISAR画像情報に変換するという過程を経ることが必要である。従って、この手法によって選択的に得られたISAR画像のみでは、目標の類識別に利用するために必ずしも十分とは言えない。
【0004】
また、MUSUMANらによって提案されているIEEE Transactions on Aerospaceand Electronic Systems Vol.32, No.4(以下、公知文献2と称する)に掲載されているISAR艦船画像の自動認識では、ハフ変換を用いて目標艦船の中心線を求めた上で、これを基に目標のその他の特徴を検出する技術が提案されており、識別の材料になる幾つかのパラメータを自動的に抽出することが可能とされている。しかし、この方法では目標艦船の中心線が必ずしも正確に船首、船尾を通過するように求まるとは限らず、類識別を必ずしも安定して行うことができない可能性がある。
【0005】
【発明が解決しようとする課題】
上述したように、従来の技術ではISAR画像を用いてレーダ目標の類識別を行う場合、一般に画像生成の原理から目標が様々な方向に変化して投影されることに関して、ISAR画像シーケンスから識別しやすい瞬間をとらえたフレームを選択し、そのフレームに対して識別のための画像処理を施しているが、その画像処理は手作業を介するため、オペレータへの負荷がネックとなり、自動的な類識別を高速に実現することは困難であった。また、上記公知文献1、2に記載された手法も、目標の類識別を容易に、かつ安定して行うことができないという問題点があった。
【0006】
本発明は、レーダにおいてオペレータへの負荷を低減しつつ、目標の類識別を高速かつ容易に安定して行うことのできる類識別方法、コンピュータプログラム及び装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するため、本発明に係るレーダにおける目標の類識別方法では、レーダエコーを処理して第1の時系列画像を生成し、第1の時系列画像から未知の目標の輪郭の特徴を抽出して少なくとも一つの第1の特徴ベクトルとして表現し、予め辞書として用意した第2の時系列画像に含まれる既知の目標の輪郭の特徴を少なくとも一つの第2の特徴ベクトルとして表現し、これら第1の特徴ベクトルと第2の特徴ベクトルとの照合に基づいて、未知の目標の第1の類識別を行い、さらに、第1の時系列画像から未知の目標の搭載構造物の情報を指摘し、指摘された未知の目標の搭載構造物の情報と、予め辞書として用意した第2の時系列画像に含まれる既知の目標の搭載構造物の情報との照合に基づいて、未知の目標の第2の類識別を行う。
【0008】
また、本発明に係るレーダにおける目標の類識別装置のためのコンピュータプログラムは、レーダエコーを処理して第1の時系列画像を生成する画像生成プログラムコードと、前記第1の時系列画像から未知の目標の輪郭の特徴を抽出する目標輪郭特徴抽出プログラムコードと、予め辞書として用意した第2の時系列画像に含まれる既知の目標の輪郭の特徴をベクトル表現した少なくとも一つの第2の特徴ベクトルを登録する目標輪郭特徴登録プログラムコードと、前記目標輪郭特徴抽出プログラムコードの実行によって抽出された輪郭の特徴をベクトル表現した少なくとも一つの第1の特徴ベクトルと前記第2の特徴ベクトルとの照合に基づいて、前記未知の目標の類識別を行う第1の類識別プログラムコードと、前記第1の時系列画像から未知の目標の搭載構造物の情報を指摘する目標搭載構造物指摘プログラムコードと、予め辞書として用意した第2の時系列画像に含まれる既知の目標の搭載構造物の情報を登録する目標搭載構造物情報登録プログラムコードと、前記目標搭載構造物情報指摘プログラムコードの実行によって指摘された搭載構造物の情報と前記目標搭載構造物情報登録プログラムコードの実行に登録された搭載構造物の情報との照合に基づいて、前記未知の目標の類識別を行う第2の類識別プログラムコードとを具備したことを特徴とする。
【0009】
また、本発明に係るレーダにおける目標の類識別装置は、レーダエコーを処理して第1の時系列画像を生成する画像生成手段と、
前記第1の時系列画像から未知の目標の輪郭の特徴を抽出する目標輪郭特徴抽出手段と、予め辞書として用意した第2の時系列画像に含まれる既知の目標の輪郭の特徴をベクトル表現した少なくとも一つの第2の特徴ベクトルを登録する目標輪郭特徴登録手段と、前記目標輪郭特徴抽出手段によって抽出された輪郭の特徴をベクトル表現した少なくとも一つの第1の特徴ベクトルと前記第2の特徴ベクトルとの照合に基づいて、前記未知の目標の類識別を行う第1の類識別手段と、前記第1の時系列画像から未知の目標の搭載構造物の情報を指摘する目標搭載構造物指摘手段と、予め辞書として用意した第2の時系列画像に含まれる既知の目標の搭載構造物の情報を登録する目標搭載構造物情報登録手段と、前記目標搭載構造物情報指摘手段によって指摘された搭載構造物の情報と前記目標搭載構造物情報登録手段に登録された搭載構造物の情報との照合に基づいて、前記未知の目標の類識別を行う第2の類識別手段とを具備したことを特徴とする。
【0010】
このようにレーダエコーを処理して作成される時系列画像から、様々に歪んで獲得される目標の輪郭の特徴を特徴ベクトルとして表現し、この特徴ベクトルを解析することで、目標の類識別を行うと共に、未知の目標の搭載構造物、例えばレーダ装置の位置、回転数の情報を指摘して、既知の目標の搭載構造物の情報と比較照合することで目標の類識別を行って、目標の類識別を二重に行うようにしたことにより、目標の類識別を容易かつ安定して行うことができる。
【0011】
また、本発明はコンピュータを当該発明に相当する手段として機能させるための(あるいはコンピュータに当該発明に相当する機能を実現させるための)プログラムを記録したコンピュータ読み取り可能な記録媒体としても成立する。
【0012】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について目標を艦船とした場合を例にとり説明する。
【0013】
図1は、本発明の一実施形態に係る類識別装置の全体構成を示すブロック図である。この類識別装置はISAR画像生成部11、目標輪郭特徴抽出部12、目標輪郭辞書作成部13及び第1目標識別部14、目標搭載構造物情報入力部15、目標搭載構造物辞書作成部16、第2目標識別部17から構成される。
【0014】
ISAR画像生成部11は、レーダエコーを入力とし、これを処理して時系列画像(第1の時系列画像)であるISAR画像を生成する。目標輪郭特徴抽出部12は、ISAR画像生成部11で生成されたISAR画像を処理して得られる未知の目標のシルエット等を特徴として抽出し、その抽出結果を第1目標識別部13に出力する。第1目標識別部14は、目標輪郭辞書作成部13で作成された辞書に予め登録されている種々の既知の目標の輪郭の特徴と、目標輪郭特徴抽出部12によって抽出された未知の目標の輪郭の特徴をベクトル空間おいて比較することで、目標の類識別を行う。
【0015】
また、目標搭載構造物情報入力部15は、オペレータの操作によりISAR画像中の未知の目標の搭載構造物に関する情報を入力するもので、この入力部15から入力された未知の目標の搭載構造物に関する情報は、第2目標識別部17に送られる。目標搭載構造物辞書作成部16は、予め既知の目標についてそれぞれの搭載構造物に関する情報を登録することで、目標搭載構造物辞書を作成する。第2目標識別部17は、目標搭載構造物情報入力部15からの未知の目標の搭載構造物情報について、目標搭載構造物辞書作成部16で作成された辞書に登録されている既知の目標の搭載構造物情報と比較照合し、一致する目標を検索することで、目標の類識別を行う。
【0016】
以下、図1の各部の詳細について順に説明する。
【0017】
(a)目標特徴抽出部12
図2は、目標輪郭特徴抽出部12の詳細な構成を示すブロック図である。このように目標輪郭特徴抽出部12は、目標特徴点検出部21、ISAR画像正規化部22及びISAR画像重畳部23から構成される。目標特徴点検出部21では、図1のISAR画像生成部11により生成されたISAR画像から目標の輪郭の特徴点を検出する。ISAR画像正規化部22では、目標特徴点抽出部21において検出された目標の輪郭の特徴点位置に基づき、ISAR画像における目標のフレーム毎の歪みを補正することで、正規化を行う。ISAR画像正規化部22で正規化された画像は、複数枚ごとにISAR画像重畳部12で輪郭などの情報にまとめられ、その出力は類識別に供するために図1の第1目標識別部14に入力される。
【0018】
(a−1)目標特徴点検出部21
図3に、図2における目標特徴点検出部21の詳細な構成例を示す。この目標特徴点検出部21は、第1の時系列画像において距離方向を表す軸に沿った輝度分布を求める距離方向輝度分布生成部31と、生成された輝度分布に従って第1の時系列画像中で目標が存在する領域を測定する目標領域設定部32と、特定された目標が存在する領域に基づいて、当該目標の特定の端部を特徴点として検出する目標端検出部33とから構成される。
【0019】
さらに詳細に説明すると、まず距離方向輝度分布生成部31では、図1のISAR画像生成部11で生成された第1の時系列画像であるISAR画像のレンジ(距離)方向の軸に沿った輝度値の分布を生成する。通常、ISAR画像の水平軸が目標のレンジ方向の広がりに、垂直軸が反射波のドップラ周波数にそれぞれ対応している。そこで、距離方向輝度分布生成部31では、例えば水平方向の軸を基準として、各水平座標において垂直方向の輝度値を観測(検出)し、例えばその最大値を選択していくことで距離方向輝度分布の値を生成する。
【0020】
すなわち、水平軸座標x=xk及び垂直軸座標y=yにおける輝度値をI(xk,y)、水平軸座標x=xkにおける輝度分布の値をH(xk)とすると、距離方向輝度分布の値であるH(xk)は次式により求められる。
【0021】
【数1】

Figure 0003719967
【0022】
なお、H(xk)として、最大値の代わりに垂直方向の輝度値の平均値等を利用しても構わない。
【0023】
次に、目標領域特定部32では、距離方向輝度分布生成部31により生成された距離方向輝度分布の値に従って、図1のISAR画像生成部11で生成されたISAR画像中で目標が存在する領域(以下、目標領域という)の特定を行う。ISAR画像の輝度値は目標が存在している領域で高くなるため、距離方向輝度分布の値も、理想的には目標が存在している領域において高くなる。従って、目標が概ねISAR画像の中央付近に位置することを考慮すると、これに対応して距離方向輝度分布も水平軸の中央付近に対応する部分で高い値を、両端部分で低い値をそれぞれとることになる。こうした距離方向輝度分布の特性を利用して、距離方向輝度分布の両端からそれぞれ中央に向かって値が急激に増加する点を検出することで、これらの2点の座標に挟まれた範囲によって、水平軸上で目標の距離方向の広がりの範囲、つまり目標領域を特定することができる。
【0024】
ここで、目標領域特定部32で適用する、距離方向輝度分布値が急激に変化する点の検出手法の一例を、水平軸左端から中央に向かって探索する場合について以下に示す。ここでは、水平軸方向(レンジ方向)の各点において、その点より左側の一定間隔における値の平均と、その点における値を比較し、その差が予め設定された閾値を超えた場合に、距離方向輝度分布の値が急激に増加したとみなす。この条件を式で表すと、次のようになる。
【0025】
【数2】
Figure 0003719967
【0026】
ここで、nは考慮した一定間隔に含まれる画素数、Thは閾値を表す。順に探索を行う過程で、このような条件を最初に満たす点をR0とおく。次に、上記とは逆に、水平軸右端から中央に向かって順に探索する場合については、この対称の条件を考えて
【数3】
Figure 0003719967
とすればよい。同様に、このような条件を最初に満たす点をR1とおくと、水平方向でR0<x<R1に相当する範囲は目標領域に含まれることになる。
【0027】
目標端検出部33では、目標領域特定部32で求められた目標領域に基づいて目標の特定の端部を特徴点として検出する。ISAR画像中の特徴点は、その性質から目標のうち比較的鋭角な特徴を持つ部分に現われやすい。目標が艦船の場合、船首や船尾の他、艦橋、煙突、アンテナ、砲台などの先端部などが、上述の鋭角な特徴をもつ部分にあたる。ここでは、目標端検出部33では図2のISAR画像正規化部22で利用可能な特徴点として、船首と船尾の検出を行う。
【0028】
さて、先に述べた目標領域特定部32で適用した目標領域特定手法によれば、距離方向輝度分布の値が急激に変化する点R0及びR1は、目標の距離方向の広がりの両端に対応する。また、目標が艦船の例では、船首と船尾は距離方向の広がりを定義する。よって、船首と船尾のいずれか一方はR0の付近に、他方はR1の付近にそれぞれ位置することになる。
【0029】
一方、船首と船尾は鋭角な部位であることから、ISAR画像において対応する画素の輝度値は高く、艦船の構造上、その周辺で局所的な最大値をとることが殆んどである。従って、水平軸方向の座標で見てR0及びR1の付近において輝度が局所極大値を持つ点を検出することで、船首と船尾を表す特徴点とすることが可能である。こうして目標端検出部33で検出された船首と船尾を表す特徴点をP,Qとおく。
【0030】
(a−2)ISAR画像正規化部22
図4に、図2のISAR画像正規化部22の詳細な構成例を示す。このISAR画像正規化部22は、目標特徴点検出部21により検出された目標の輪郭の特徴点に基づいて、目標の中心部分を貫通する直線を正規化の基準として設定する主軸設定部41と、IASR画像中で目標の形状が主軸の両側で反転して現れるか否かを示す位相を判定する位相判定部42及び位相判定部42により反転位相にあると判定されたフレームの画像については主軸に対して両側を互いに反転するように正規化を行う正規化処理部43からなる。
【0031】
さらに詳しく説明すると、ISAR画像正規化部22では図1のISAR画像生成部11で生成されたISAR画像に対して、目標特徴点検出部21で検出された目標の輪郭の特徴点に基づき、ピッチ、ロール、ヨウの変化により、各フレームで様々に異なった方向に歪んで現われる目標の形状を空間的に共通した枠組の中に収めるべく正規化を行う。
【0032】
主軸設定部41は、正規化の基準として目標の中心部分を通り抜ける直線(主軸)を設定する。この直線にはISAR画像における2次元の輝度分布に関する長軸を利用することも考えられるが、艦船に対するその位置は、艦橋などからの反射が艦船の姿勢変化に伴って時間的に変化する影響で、必ずしも一定したものとならない。そこで、図3の目標端検出部33で検出した船首と船尾の位置PとQを有効利用し、これら2点P,Qを通る直線を主軸と定義する。船首と船尾を通る直線は船体を貫通し、艦船の姿勢にかかわらず安定して得ることが可能である。この点P,Qを通る主軸をy=ax+bと記述する。ただしx,yは水平、垂直軸方向の変数、a,bは直線の傾きと位置を表す定数である。
【0033】
位相判定部42は、目標の姿勢、特にピッチ角の変化の方向が正負のいずれであるかに関する判定を行う。更に詳細に述べるならば、ISAR画像の各フレームが生成される時点におけるピッチ角が正か負のいずれの方向に変化しているかによって、画像中で目標形状が上下反転して現われるため、この反転が起こっているか否かを位相判定部42は判定する。
【0034】
この判定は、主軸設定部41によって設定された主軸を基準に、主軸の両側(上下)における相対的な輝度値の偏りを調べることで可能となる。例えば、輝度値の平均値を用いると、主軸の上側の(y>ax+b)となる領域ωuと、下側の(y<ax+b)となる領域ωlに含まれる画素数がそれぞれnu,nlであるとき、各領域ωu,ωlの輝度値Iの平均値Iu,Ilは次式に従う。
【0035】
【数4】
Figure 0003719967
【0036】
そこで、これらの値を比較し、Iu>Ilであれば画像中の目標が正の位相にあり、Iu<Ilであれば負の位相、つまり反転位相にあると判定する。一方、主軸の上下の領域での輝度平均がほぼ等しくIu〜Ilであるときは位相の判定は微妙なものとなる。そのため、例えば両者の比Iu/Ilが1に近いとき(1−δ<Iu/Il<1+δ)は位相判定不可とする。
【0037】
正規化処理部43では、主軸設定部41による主軸設定結果と位相判定部42からの位相判定結果に基づいて、ISAR画像に対する正規化処理を次のように行う。すなわち、主軸設定部41で設定された主軸が水平方向となるような変換によって、ISAR画像全体を正規化する。この際、位相判定部42で反転位相にあると判断されたフレームに関しては、正規化後の画像に対して主軸の両側、つまり上下を反転させて出力する。これにより、各フレームでピッチ、ロール、ヨウの変化により様々に異なった方向に歪んで現われる目標の形状が、いずれも水平面に沿って且つ主軸に直交する方向から見た場合の形状に揃えられることになる。
【0038】
(a−3)ISAR画像重畳部23
図5に、図2のISAR画像重畳部23の詳細な構成例を示す。ISAR画像重畳部23は、図2のISAR画像正規化部22によって正規化された画像(各フレームにおける目標を同じ方向から見た状況に揃えた画像)を重畳し、類識別に有用な情報を抽出するものであり、目標の運動の1周期以上の時間間隔でかつ該時間間隔の間における目標の移動量が所定レベル以下となる時間間隔を設定する周期設定部51と、設定された時間間隔を単位として、対応する時間内にISAR画像正規化部22により正規化された各フレームの画像を2値化した結果の論理和をとる2値化重畳部52から構成される。
【0039】
周期設定部51では、ISAR画像正規化部22によって正規化された各フレームからの出力を重畳する時間間隔、つまり周期を定める。海上を航行する目標物はヨウ(蛇角)を除いて揺れによる周期運動を繰り返している。一方、ある程度以上の時間にわたって目標を観察し続けると、目標が移動するに従って、その画像中の位置も少しづつのシフトを伴ってくる。
【0040】
そこで、フレーム出力を重畳する時間間隔(時間範囲)として、目標の運動の一周期を十分に含む程度の長さで、位置のシフトが顕著にならない程度の範囲(目標位置の移動量が所定レベル以下に抑えられる範囲)、例えば1周期以上2周期以下の時間を設定する。これにより、様々な位置から見た多フレームにわたっての出力を、基本的に同じ方向から見たものとして重ね合わせる。
【0041】
2値化重畳部52は、周期設定部51で設定された時間間隔(周期)における出力を重畳する。但し、艦船の胴体部分が常に高い輝度値をもつ一方で、艦橋の先端などに相当する部分は、ピッチ角の変化率が大きい場合のみに輝度値を持つため、ISAR画像正規化部22からの正規化画像をそのまま重畳していくと、胴体部分のみを強調した画像が得られてしまう。つまり、目標の特徴をよく表す艦橋などからの出力が相対的に微弱なものとなってしまう。このため、2値化重畳部52では各フレーム画像に関して、予め定められた閾値を超える輝度値については例えば1に変換し、超えない輝度値については0に変換する、いわゆる2値化処理を行う。
【0042】
そして、2値化重畳部52では、さらに2値化した各フレーム画像の論理和をとることにより、周期設定部51で設定された1周期内に出力される各フレームに現われた目標の特徴を失うことなく重畳する。具体的には、1秒あたり3フレームのISAR画像を生成している場合、目標の運動周期が8秒であって、周期設定部51において当該目標の運動周期に一致する周期を設定した場合を例にとると、この8秒間に出力される合計24フレームについての2値化画像を重ね合わせる。ただし、位相判定部42で位相判定不可となったフレームについては重畳の対象としない。2値化重畳部での重畳の結果、目標のシルエットの2値化画像が得られるため、これを目標輪郭特徴抽出部12の出力とする。
【0043】
(b)目標輪郭辞書作成部13
図1の目標輪郭辞書作成部13は、種類が既知である目標のISAR画像(第2の時系列画像)を収集し、それらに対して後述するように目標輪郭特徴抽出部12と同一の処理を施すことにより、既知の目標の特徴に関するデータを作成し、これを辞書として登録する。候補となり得る種類の目標データを収集するが、各候補について何通りものデータを収集することにより、辞書としての汎用性を高める効果が期待される。
【0044】
(c)第1目標識別部14
図6は、図1の第1目標識別部14の詳細な構成を示すブロック図である。図6に示すように、第1目標識別部14は輪郭ベクトル生成部61、辞書照合部62及び識別判定部63から構成される。
【0045】
輪郭ベクトル生成部61は、図1の目標輪郭特徴抽出部12により得られた目標のシルエットの2値化画像から、目標の輪郭ベクトルを生成する。辞書照合部62は、輪郭ベクトル生成部61において生成された目標の輪郭ベクトルと、予め図1の目標輪郭辞書作成部13で登録された既知の目標に対応する複数の輪郭ベクトルとを比較する。識別判定部63は、辞書照合部62における比較の結果に基づき、目標の輪郭の特徴の類識別を判定する。
【0046】
以下、図6における各部の詳細について順に説明する。
輪郭ベクトル生成部61は、図1の目標輪郭特徴抽出部12により得られた目標のシルエットの2値化画像から、目標の輪郭ベクトルを第1の特徴ベクトルとして生成する。ここでは艦船において、船首と船尾を結ぶ主軸の上側に位置する艦橋や砲台などの形状が目標を特徴付けていることを利用して、シルエットの2値化画像中、主軸上の各水平座標に対して垂直方向に主軸上部を探索し、シルエットの境界で画素が1から0に反転する垂直座標値を順に並べていくことで、艦船の輪郭をベクトル表現して、第1の特徴ベクトルとする。
【0047】
すなわち、第1の特徴ベクトルである輪郭ベクトルをsとすると、水平軸座標x=xk、垂直軸座標y=ykにおけるシルエットの2値化画像の画素値をB(xk,yk)で表すとき、sは各水平軸座標x=xkに対応する値s(xk)を要素として次式により定義される。
s(xk) ={yk|b(xk,yk)=1,b(xk,yk+1)=0}
これによれば、ISAR画像の両端で目標の存在する領域外では、s(xk)=0となるため、輪郭ベクトルsの定義からは、こうした領域を取り除くものとする。ここで、輪郭ベクトルsの長さは、同一の目標でも観測時点における進行方向により異なって現われるため、一定の長さ、例えばl=100に正規化する。一方、輪郭ベクトルsの要素値に関しても、その絶対値は目標の角速度などに依存して観測されるため、sのノルムが例えば|s|=1となるような正規化を施す。これらにより、様々な状況で得られたデータに関し、目標の形状のみが特徴として現われる条件下での比較が可能となる。
【0048】
辞書照合部62は、輪郭ベクトル生成部61で生成された未知の目標の輪郭ベクトル(第1の特徴ベクトル)と、予め図1の目標輪郭辞書作成部13において作成されている既知の目標の輪郭ベクトル(第2の特徴ベクトル)との比較を行う。ベクトル同士の比較であるから、基本的にはベクトル間の角度の開きから両者間の類似度を計算することができ、角度の開きが小さい程、高い類似度を表すことになる。従って、その角度をθとすればcosθをとることで、類似度が0〜1の範囲に数値化して表される。
【0049】
ここで、目標輪郭辞書作成部13は図2に詳細を示した目標輪郭特徴抽出部12と同様に、目標特徴点検出部とISAR画像正規化部及びISAR画像重畳部を有し、さらに輪郭ベクトル生成部とメモリ部を有する。そして、既知の目標を有するISAR画像から図2の目標特徴点検出部21と同様に既知の目標の輪郭の特徴点を検出し、この特徴点に基づき図2のISAR画像正規化部22と同様にISAR画像を正規化し、さらに正規化された画像を図2のISAR画像重畳部23と同様に重畳した後、この重畳された画像の輪郭ベクトルを第2の特徴ベクトルとして生成して、メモリ部に登録する。
【0050】
通常、目標輪郭辞書作成部13には第2の特徴ベクトルとして各目標の輪郭ベクトルを複数用意しておくから、実際の比較は輪郭ベクトル生成部61で未知の目標に関して第1の特徴ベクトルとして生成された輪郭ベクトルと、既知の目標に対応する複数の輪郭ベクトルが張る部分空間との間の距離を測ることになるが、これにはパターン認識手法としての部分空間方法などを利用すればよい。さらに、より安定した判定を期するため、相互部分空間法を利用することも考えられる。相互部分空間法では、未知の目標について複数の輪郭ベクトルを獲得した上で、それらの張る部分空間と辞書側に用意された目標の部分空間との間の距離を求める。この距離の基準としては、例えば各部分空間を張る固有ベクトルの間の最小正準角を用いることができる。
【0051】
識別判定部63は、辞書照合部62において既知の目標と未知の目標の特徴ベクトルの比較から数値化された類似度に基づいて、目標の類識別を行う。類識別の判定は、基本的には辞書の中から最も類似度の高かった目標を選択し、識別結果とする。ただし、幾つかの例外処理を行うことで、判定結果を補足することができる。例えば、選択された目標の類似度が予め設定された一定値を下回る場合は、辞書中に該当目標なしとする。また、選択された目標の類似度とその他の候補の類似度が非常に接近している場合は、判定の信頼度に注意が必要とする。
【0052】
(d)目標搭載構造物情報入力部15
ISAR画像に含まれる輪郭以外の情報には、艦船上で規則的に運動している構造物についての位置情報及び運動周期情報がある。例えば、艦船には、通常、レーダ装置が搭載されており、その空中線が一定の回転数で回転している。この動きはドップラー効果を伴うため、ISAR画像生成部11で生成されたISAR画像を表示した場合、その画面に映し出される目標のシルエット上に、空中線の動きに応じて変化する部位が存在することがわかる。また、その変化の周期から、空中線の回転数がわかる。図7にその表示画面例を示す。オペレータが、この表示画面のISAR画像から、目標全体に対する搭載レーダ装置の位置(艦船の全長に対する船首−構造物(レーダ装置)設置距離の比など)、空中線の回転数を把握して、図1の目標搭載構造物情報入力部15を入力操作することで、未知の目標の搭載レーダ装置の位置、回転数を取り込むことができる。搭載構造物情報としては、レーダ装置に限らず、マスト、砲の位置などでもよい。
【0053】
(e)目標搭載構造物辞書作成部16
図1の目標搭載構造物辞書作成部16は、種類が既知である目標のISAR画像(第2の時系列画像)を収集し、それらに対してレーダ装置の位置、回転数、マストや砲の位置等を目標搭載構造物辞書としてメモリ装置に登録しておく。
【0054】
(f)第2目標識別部17
図1の第2目標識別部17は、目標搭載構造物情報入力部15からの未知の目標の搭載構造物情報について、目標搭載構造物辞書作成部16で作成された辞書に登録されている既知の目標の搭載構造物情報と比較照合し、一致する目標を検索することで、目標の類識別を行う。この類識別によれば、輪郭が類似していても、搭載レーダが異なる(搭載位置、空中線回転数が異なる)目標を分離して類識別することが可能となる。
【0055】
図1に示す実施形態では、第1目標識別部13の識別結果について、第2目標識別部17で識別結果の絞り込みを行う。第1目標識別部13では、取得されるISAR画像の輪郭情報のみで類識別処理を行っているため、ISAR画像に含まれる輪郭以外の情報が類識別において有効に利用されていない。そこで、第2目標識別部17において、ISAR画像から判別可能なレーダ装置等の搭載構造物情報を類識別に利用することで、より精度の高い類識別が可能となる。
【0056】
なお、本発明は上記実施形態で記載した内容に限定されるものではない。例えば、ISAR画像に加えて目標の進行方向が入力として得られる場合は、ISAR画像に含まれる目標の領域から、目標の長さを算出することができ、その長さの情報を輪郭ベクトルの作成に反映させることで、目標判定の精度の向上が期待できる。
【0057】
また、目標輪郭特徴抽出部12において、出力の形式は目標の2値化シルエット画像としたが、途中の2値化処理を省略することによって得られる濃淡画像をそのまま入力とする方法も考えられる。この場合、第1目標識別部14では上述したように目標の輪郭をベクトル化する代わりに、目標を含む濃淡画像をその画素数を長さ、各画素の輝度値を要素とするベクトルとして表現すれば、以下は同様の類識別処理が適用できる。
【0058】
また、上記実施形態では、第1目標識別部14の識別結果について、第2目標識別部17で絞り込むようにしたが、第1目標識別部14と第2目標識別部17の目標類識別を平行処理し、両者の識別結果を比較照合するようにしてもよい。
【0059】
また、上記実施形態で説明した個々の処理は、コンピュータプログラムによってソフトウェア処理することが可能である。
【0060】
【発明の効果】
本発明によれば、レーダにおいて目標からのレーダエコーを処理してから作成される時系列画像であるISAR(逆合成開口レーダ)画像に対して、ノイズを伴って様々に歪んで獲得される目標の特徴の解析をベクトル空間において安定に行うことにより、レーダにおける高速な目標の類識別を容易にすることが可能となる。
【図面の簡単な説明】
【図1】 本発明の一実施形態に係るレーダにおける目標の類識別装置の全体構成を示すブロック図。
【図2】 図1の目標輪郭特徴抽出部12の詳細な構成を示すブロック図。
【図3】 図2の目標特徴点検出部21の詳細な構成を示すブロック図。
【図4】 図2のISAR画像正規化部22の詳細な構成を示すブロック図。
【図5】 図2のISAR画像重畳部23の詳細な構成を示すブロック図。
【図6】 図1の第1目標識別部14の詳細な構成を示すブロック図。
【図7】 図1の第2目標識別部17の目標類識別に利用される目標搭載構造物情報を説明するためのISAR画像を示す図。
【符号の説明】
11…ISAR画像生成部
12…目標輪郭特徴抽出部
13…目標輪郭辞書作成部
14…第1目標識別部
15…目標搭載構造物情報入力部
16…目標搭載構造物辞書作成部
17…第2目標識別部
21…目標特徴点検出部
22…ISAR画像正規化部
23…ISAR画像重畳部
31…距離方向輝度分布生成部
32…目標領域特定部
33…目標端検出部
41…主軸設定部
42…位相判定部
43…正規化処理部
51…周期設定部
52…2値化重畳部
61…輪郭ベクトル生成部
62…辞書照合部
63…識別判定部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a class identification method and apparatus for classifying a target in a radar using an ISAR (Inverse Synthetic Aperture Radar) image created from a radar echo, and in particular, represents a target feature as a vector and analyzes it in a vector space. The present invention relates to a method, a computer program, and an apparatus for performing class identification by performing.
[0002]
[Prior art]
In general, when identifying a target from an ISAR image generated by processing radar echoes reflected from the target in a radar, the target is projected in various different directions, and information sufficient for identification is limited. The problem of being included only in the frame needs to be considered. Therefore, conventionally, in order to solve this problem, a frame that captures an easily identifiable moment from a time-series ISAR image is selected and compared with a target model prepared in advance, It is common to apply the method of performing image processing. However, since such processing often involves manual work, the load on the operator becomes a bottleneck, and it has been difficult to realize automatic class identification at high speed.
[0003]
On the other hand, Japanese Patent Laid-Open No. 11-281731 (hereinafter referred to as publicly known document 1) discloses a method for automatically selecting an optimum observation time. However, in this method, a process is set in which a threshold value is set so that the spread in the range direction matches in the radar video whose amplitude is detected, and only the radar video exceeding the threshold value is extracted and converted into ISAR image information. It is necessary to go through. Therefore, only an ISAR image selectively obtained by this method is not necessarily sufficient to be used for target class identification.
[0004]
The automatic recognition of ISAR ship images published in IEEE Transactions on Aerospace and Electronic Systems Vol.32, No.4 (hereinafter referred to as well-known document 2) proposed by MUSUMAN et al. A technique for detecting the centerline of a ship and then detecting other features of the target based on the centerline has been proposed, and it is possible to automatically extract several parameters that can be used for identification. Yes. However, this method does not always require the center line of the target ship to accurately pass the bow and stern, and class identification may not always be performed stably.
[0005]
[Problems to be solved by the invention]
As described above, in the conventional technique, when an ISAR image is used to classify a radar target, it is generally recognized from an ISAR image sequence that the target is projected in various directions based on the principle of image generation. A frame that captures an easy moment is selected, and image processing for identification is performed on the frame. However, since the image processing is manual, the load on the operator becomes a bottleneck, and automatic classification is performed. It was difficult to realize the above at high speed. In addition, the methods described in the above-mentioned publicly known documents 1 and 2 also have a problem that the target type identification cannot be performed easily and stably.
[0006]
An object of the present invention is to provide a class identification method, a computer program, and an apparatus that can perform target class identification at high speed, easily and stably while reducing the load on an operator in a radar.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, in the method for classifying a target in a radar according to the present invention, a radar echo is processed to generate a first time-series image, and the contour of an unknown target is detected from the first time-series image. A feature is extracted and expressed as at least one first feature vector, and a known target contour feature included in a second time-series image prepared in advance as a dictionary is expressed as at least one second feature vector. Based on the comparison between the first feature vector and the second feature vector, the first class identification of the unknown target is performed, and further, the information on the mounting structure of the unknown target from the first time-series image. And the unknown target mounting structure information pointed to the unknown target mounting structure information included in the second time-series image prepared in advance as a dictionary. Target second class identification Do.
[0008]
A computer program for a target class identification device in a radar according to the present invention includes an image generation program code for processing a radar echo to generate a first time-series image, and an unknown from the first time-series image. A target contour feature extraction program code for extracting a target contour feature and at least one second feature vector representing a known target contour feature included in a second time-series image prepared in advance as a dictionary A target contour feature registration program code for registering the at least one first feature vector representing the feature of the contour extracted by executing the target contour feature extraction program code and the second feature vector. A first class identification program code for classifying the unknown target based on the first time-series image; Target mounted structure indication program code for pointing out information on an unknown target mounted structure and a target mounted structure for registering information on a known target mounted structure included in a second time-series image prepared in advance as a dictionary Object information registration program code, information on the mounting structure pointed out by execution of the target mounting structure information indication program code, and information on the mounting structure registered in execution of the target mounting structure information registration program code And a second class identification program code for classifying the unknown target based on the collation.
[0009]
In addition, a target class identification device in a radar according to the present invention includes an image generation means for processing a radar echo to generate a first time-series image;
A target contour feature extracting means for extracting a feature of an unknown target contour from the first time-series image, and a known target contour feature included in a second time-series image prepared as a dictionary in advance are expressed as vectors. Target contour feature registering means for registering at least one second feature vector, at least one first feature vector representing the contour feature extracted by the target contour feature extracting means, and the second feature vector First class identification means for classifying the unknown target based on the comparison with the target, and target mounting structure pointing means for pointing out information on the mounting structure of the unknown target from the first time-series image A target mounted structure information registering means for registering information on a known target mounted structure included in a second time-series image prepared in advance as a dictionary, and the target mounted structure information indicating means Therefore, second class identification means for classifying the unknown target based on collation between the information on the mounted structure pointed out and information on the mounted structure registered in the target mounted structure information registration means; It is characterized by comprising.
[0010]
From the time-series images created by processing radar echoes in this way, the features of the target outline obtained with various distortions are expressed as feature vectors, and this feature vector is analyzed to identify the target type. In addition, the target target structure is identified by pointing out the information on the position and rotation speed of the mounting structure of the unknown target, for example, the radar device, and comparing it with the information on the known target mounting structure. By performing the class identification twice, the target class identification can be easily and stably performed.
[0011]
The present invention can also be realized as a computer-readable recording medium recording a program for causing a computer to function as means corresponding to the invention (or for causing a computer to realize a function corresponding to the invention).
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, with reference to the drawings, an embodiment of the present invention will be described by taking a case where a target is a ship as an example.
[0013]
FIG. 1 is a block diagram showing the overall configuration of a class identification device according to an embodiment of the present invention. The class identification device includes an ISAR image generation unit 11, a target contour feature extraction unit 12, a target contour dictionary creation unit 13 and a first target identification unit 14, a target mounting structure information input unit 15, a target mounting structure dictionary creation unit 16, The second target identification unit 17 is configured.
[0014]
The ISAR image generation unit 11 receives a radar echo and processes it to generate an ISAR image that is a time-series image (first time-series image). The target outline feature extraction unit 12 extracts an unknown target silhouette or the like obtained by processing the ISAR image generated by the ISAR image generation unit 11 as a feature, and outputs the extraction result to the first target identification unit 13. . The first target identifying unit 14 includes various known target contour features registered in advance in the dictionary created by the target contour dictionary creating unit 13, and unknown target features extracted by the target contour feature extracting unit 12. The target features are identified by comparing the features of the contours in the vector space.
[0015]
The target mounting structure information input unit 15 is used to input information related to an unknown target mounting structure in the ISAR image by an operator's operation. The target mounting structure information input unit 15 inputs the unknown target mounting structure. The information regarding is sent to the second target identifying unit 17. The target mounting structure dictionary creation unit 16 creates a target mounting structure dictionary by registering information related to each mounting structure in advance for known targets. The second target identifying unit 17 uses the known target registered in the dictionary created by the target mounted structure dictionary creating unit 16 for the unknown target mounted structure information from the target mounted structure information input unit 15. The target type is identified by comparing with the mounted structure information and searching for a matching target.
[0016]
Hereinafter, the details of each unit in FIG. 1 will be described in order.
[0017]
(A) Target feature extraction unit 12
FIG. 2 is a block diagram showing a detailed configuration of the target contour feature extraction unit 12. As described above, the target contour feature extraction unit 12 includes the target feature point detection unit 21, the ISAR image normalization unit 22, and the ISAR image superimposition unit 23. The target feature point detection unit 21 detects feature points of the target contour from the ISAR image generated by the ISAR image generation unit 11 of FIG. The ISAR image normalization unit 22 performs normalization by correcting the distortion for each target frame in the ISAR image based on the feature point position of the target contour detected by the target feature point extraction unit 21. The images normalized by the ISAR image normalization unit 22 are grouped into information such as contours by the ISAR image superimposing unit 12 for each of a plurality of images, and the output is used for the first target identification unit 14 in FIG. Is input.
[0018]
(A-1) Target feature point detector 21
FIG. 3 shows a detailed configuration example of the target feature point detection unit 21 in FIG. The target feature point detection unit 21 includes a distance direction luminance distribution generation unit 31 for obtaining a luminance distribution along an axis representing the distance direction in the first time series image, and the first time series image according to the generated luminance distribution. The target area setting unit 32 that measures the area where the target is present and the target end detection part 33 that detects a specific end of the target as a feature point based on the area where the specified target exists. The
[0019]
More specifically, first, in the distance direction luminance distribution generation unit 31, the luminance along the range (distance) direction axis of the ISAR image that is the first time-series image generated by the ISAR image generation unit 11 of FIG. Generate a distribution of values. Normally, the horizontal axis of the ISAR image corresponds to the spread in the target range direction, and the vertical axis corresponds to the Doppler frequency of the reflected wave. Therefore, the distance direction luminance distribution generation unit 31 observes (detects) the luminance value in the vertical direction at each horizontal coordinate with the horizontal axis as a reference, for example, and selects the maximum value for example to detect the luminance in the distance direction. Generate distribution values.
[0020]
That is, the horizontal axis coordinate x = x k And the luminance value at the vertical axis coordinate y = y is I (x k , y), horizontal axis coordinate x = x k The value of the luminance distribution at H (x k ), H (x which is the value of the distance direction luminance distribution k ) Is obtained by the following equation.
[0021]
[Expression 1]
Figure 0003719967
[0022]
H (x k ), An average value of luminance values in the vertical direction or the like may be used instead of the maximum value.
[0023]
Next, the target region specifying unit 32 is a region where a target exists in the ISAR image generated by the ISAR image generation unit 11 of FIG. 1 according to the value of the distance direction luminance distribution generated by the distance direction luminance distribution generation unit 31. (Hereinafter referred to as a target area) is specified. Since the luminance value of the ISAR image is high in the area where the target is present, the value of the distance direction luminance distribution is ideally high in the area where the target is present. Accordingly, considering that the target is located approximately in the vicinity of the center of the ISAR image, the distance direction luminance distribution also has a high value in a portion corresponding to the vicinity of the center of the horizontal axis and a low value in both end portions. It will be. By using these characteristics in the distance direction luminance distribution, by detecting the point where the value suddenly increases from both ends of the distance direction luminance distribution toward the center, depending on the range sandwiched between the coordinates of these two points, A range of spread in the target distance direction on the horizontal axis, that is, a target area can be specified.
[0024]
Here, an example of a method of detecting a point where the distance direction luminance distribution value changes rapidly applied in the target area specifying unit 32 will be described in the case of searching from the left end of the horizontal axis toward the center. Here, at each point in the horizontal axis direction (range direction), when the average value at a certain interval on the left side of the point is compared with the value at that point, and the difference exceeds a preset threshold value, It is considered that the value of the luminance distribution in the distance direction has increased rapidly. This condition is expressed as follows.
[0025]
[Expression 2]
Figure 0003719967
[0026]
Here, n represents the number of pixels included in a fixed interval in consideration, and Th represents a threshold value. In the process of searching in order, the point that first satisfies such a condition is R 0 far. Next, in contrast to the above, when searching in order from the right end of the horizontal axis to the center, consider this symmetry condition.
[Equation 3]
Figure 0003719967
And it is sufficient. Similarly, the point that first satisfies such a condition is R 1 In the horizontal direction R 0 <X <R 1 The range corresponding to is included in the target area.
[0027]
The target end detection unit 33 detects a specific target end as a feature point based on the target region obtained by the target region specifying unit 32. A feature point in an ISAR image tends to appear in a portion having a relatively sharp feature in the target due to its nature. When the target is a ship, in addition to the bow and stern, the tip of the bridge, chimney, antenna, turret, etc., corresponds to the above-mentioned sharp features. Here, the target end detection unit 33 detects the bow and stern as feature points that can be used by the ISAR image normalization unit 22 of FIG.
[0028]
According to the target area specifying method applied by the target area specifying unit 32 described above, the point R where the value of the distance direction luminance distribution changes abruptly. 0 And R 1 Corresponds to both ends of the target spread in the distance direction. In the example where the target is a ship, the bow and stern define the spread in the distance direction. Therefore, either the bow or stern is R 0 Near the other is R 1 It will be located near each.
[0029]
On the other hand, since the bow and stern are sharp parts, the luminance value of the corresponding pixel in the ISAR image is high, and it is almost the case that the local maximum value is taken around the ship due to the structure of the ship. Therefore, R in terms of the horizontal axis 0 And R 1 By detecting a point where the luminance has a local maximum in the vicinity of, it is possible to obtain a feature point representing the bow and stern. The characteristic points representing the bow and stern detected by the target end detection unit 33 are set as P and Q.
[0030]
(A-2) ISAR image normalization unit 22
FIG. 4 shows a detailed configuration example of the ISAR image normalization unit 22 of FIG. This ISAR image normalization unit 22 is based on the feature point of the target contour detected by the target feature point detection unit 21, and a spindle setting unit 41 that sets a straight line that penetrates the center of the target as a standard for normalization. In the IASR image, the phase determination unit 42 for determining the phase indicating whether or not the target shape appears inverted on both sides of the main axis and the image of the frame determined to be in the inverted phase by the phase determination unit 42 The normalization processing unit 43 performs normalization so that both sides are reversed with respect to each other.
[0031]
More specifically, in the ISAR image normalization unit 22, the pitch of the ISAR image generated by the ISAR image generation unit 11 of FIG. 1 is determined based on the feature points of the target contour detected by the target feature point detection unit 21. Normalization is performed so that target shapes appearing distorted in different directions in each frame due to changes in roll and yaw are contained in a spatially common frame.
[0032]
The spindle setting unit 41 sets a straight line (spindle) that passes through the center of the target as a standard for normalization. It is possible to use the long axis related to the two-dimensional luminance distribution in the ISAR image for this straight line, but its position relative to the ship is due to the effect that the reflection from the bridge etc. changes with time as the attitude of the ship changes. , Not necessarily constant. Therefore, the bow and stern positions P and Q detected by the target end detector 33 in FIG. 3 are effectively used, and a straight line passing through these two points P and Q is defined as the main axis. A straight line passing through the bow and stern passes through the hull and can be obtained stably regardless of the attitude of the ship. A principal axis passing through the points P and Q is described as y = ax + b. However, x and y are variables in the horizontal and vertical axis directions, and a and b are constants representing the inclination and position of the straight line.
[0033]
The phase determination unit 42 determines whether the target posture, in particular, the change direction of the pitch angle is positive or negative. More specifically, since the target shape appears upside down in the image depending on whether the pitch angle at the time when each frame of the ISAR image is generated changes in the positive or negative direction, this inversion The phase determination unit 42 determines whether or not the error occurs.
[0034]
This determination can be made by examining a relative luminance value bias on both sides (up and down) of the main axis with reference to the main axis set by the main axis setting unit 41. For example, if the average value of luminance values is used, the region ω that becomes (y> ax + b) above the main axis u And the lower side region ω (y <ax + b) l The number of pixels included in each is n u , N l Each region ω u , Ω l Average value I of luminance values I of u , I l Follows the following formula.
[0035]
[Expression 4]
Figure 0003719967
[0036]
Therefore, these values are compared and I u > I l Then the target in the image is in positive phase and I u <I l If so, it is determined to be in a negative phase, that is, an inverted phase. On the other hand, the luminance averages in the upper and lower regions of the main axis are almost equal, Iu to I l When it is, the judgment of the phase becomes delicate. Therefore, for example, the ratio Iu / I of both l Is close to 1 (1-δ <Iu / I l <1 + δ) does not permit phase determination.
[0037]
In the normalization processing unit 43, normalization processing for the ISAR image is performed as follows based on the main shaft setting result from the main shaft setting unit 41 and the phase determination result from the phase determination unit. That is, the entire ISAR image is normalized by conversion such that the main axis set by the main axis setting unit 41 is in the horizontal direction. At this time, the frame determined to be in the inverted phase by the phase determination unit 42 is output by inverting both sides of the main axis, that is, up and down with respect to the normalized image. As a result, the target shape appearing distorted in various different directions due to changes in pitch, roll, and yaw in each frame should be aligned with the shape when viewed from the direction perpendicular to the main axis along the horizontal plane. become.
[0038]
(A-3) ISAR image superimposing unit 23
FIG. 5 shows a detailed configuration example of the ISAR image superimposing unit 23 of FIG. The ISAR image superimposing unit 23 superimposes the images normalized by the ISAR image normalizing unit 22 in FIG. 2 (images in which the targets in each frame are viewed in the same direction) and useful information for class identification. A period setting unit 51 for setting a time interval that is a time interval that is one or more cycles of the target motion and that is a target movement amount during the time interval that is less than or equal to a predetermined level; and a set time interval And a binarization superimposing unit 52 that takes the logical sum of the binarized results of the images of each frame normalized by the ISAR image normalizing unit 22 within the corresponding time.
[0039]
The period setting unit 51 determines a time interval, that is, a period, in which the output from each frame normalized by the ISAR image normalization unit 22 is superimposed. The target sailing on the sea repeats the periodic motion by shaking except for the yaw (snake angle). On the other hand, if the target is continuously observed over a certain period of time, the position in the image is gradually shifted as the target moves.
[0040]
Therefore, as a time interval (time range) for superimposing the frame output, it is long enough to contain one cycle of the target motion and a range where the position shift does not become noticeable (the movement amount of the target position is a predetermined level). For example, a time of 1 cycle or more and 2 cycles or less is set. As a result, the outputs over multiple frames viewed from various positions are superposed as viewed basically from the same direction.
[0041]
The binarization superimposing unit 52 superimposes the output in the time interval (cycle) set by the cycle setting unit 51. However, while the ship body part always has a high luminance value, the part corresponding to the tip of the bridge has a luminance value only when the change rate of the pitch angle is large. If the normalized image is superimposed as it is, an image in which only the body portion is emphasized is obtained. In other words, the output from the bridge or the like that well expresses the target characteristics is relatively weak. For this reason, the binarization superimposing unit 52 performs so-called binarization processing for each frame image in which a luminance value exceeding a predetermined threshold is converted to, for example, 1 and a luminance value not exceeding is converted to 0. .
[0042]
Then, the binarization superimposing unit 52 further calculates the logical characteristics of the respective binarized frame images, thereby obtaining the target characteristics appearing in each frame output within one cycle set by the cycle setting unit 51. Superimpose without losing. Specifically, when generating an ISAR image of 3 frames per second, the target motion cycle is 8 seconds, and the cycle setting unit 51 sets a cycle that matches the target motion cycle. As an example, the binarized images for a total of 24 frames output in 8 seconds are superimposed. However, a frame for which the phase determination cannot be performed by the phase determination unit 42 is not subject to superimposition. Since the binarized image of the target silhouette is obtained as a result of the superimposition in the binarization superimposing unit, this is used as the output of the target contour feature extracting unit 12.
[0043]
(B) Target outline dictionary creation unit 13
The target contour dictionary creation unit 13 in FIG. 1 collects target ISAR images (second time-series images) of known types, and performs the same processing as the target contour feature extraction unit 12 as will be described later. To create data about known target features and register them as a dictionary. The target data of a kind that can be a candidate is collected. By collecting various kinds of data for each candidate, an effect of improving the versatility as a dictionary is expected.
[0044]
(C) First target identification unit 14
FIG. 6 is a block diagram showing a detailed configuration of the first target identification unit 14 of FIG. As shown in FIG. 6, the first target identification unit 14 includes an outline vector generation unit 61, a dictionary collation unit 62, and an identification determination unit 63.
[0045]
The contour vector generation unit 61 generates a target contour vector from the binarized image of the target silhouette obtained by the target contour feature extraction unit 12 of FIG. The dictionary collation unit 62 compares the target contour vector generated by the contour vector generation unit 61 with a plurality of contour vectors corresponding to known targets registered in advance by the target contour dictionary creation unit 13 of FIG. The identification determination unit 63 determines the class identification of the target contour feature based on the comparison result in the dictionary collation unit 62.
[0046]
Hereinafter, the details of each unit in FIG. 6 will be described in order.
The contour vector generation unit 61 generates a target contour vector as a first feature vector from the binarized image of the target silhouette obtained by the target contour feature extraction unit 12 of FIG. Here, using the fact that the shape of the bridge or turret located above the main axis connecting the bow and stern of the ship characterizes the target, each horizontal coordinate on the main axis in the binarized image of the silhouette is used here. On the other hand, the upper part of the main axis is searched in the vertical direction, and the vertical coordinate values in which the pixels are inverted from 1 to 0 at the silhouette boundary are arranged in order, thereby expressing the outline of the ship as a first feature vector.
[0047]
That is, assuming that the contour vector as the first feature vector is s, the horizontal axis coordinate x = x k , Vertical axis coordinate y = y k The pixel value of the binarized image of the silhouette at B (x k , Y k ) Represents each horizontal axis coordinate x = x. k The value s (x corresponding to k ) Is defined by the following formula.
s (x k ) = {Y k | B (x k , Y k ) = 1, b (xk, y k +1) = 0}
According to this, outside the region where the target exists at both ends of the ISAR image, s (x k ) = 0, such a region is removed from the definition of the contour vector s. Here, the length of the contour vector s appears differently depending on the traveling direction at the time of observation even for the same target, and is thus normalized to a certain length, for example, l = 100. On the other hand, since the absolute value of the element value of the contour vector s is observed depending on the target angular velocity or the like, normalization is performed so that the norm of s is, for example, | s | = 1. As a result, the data obtained in various situations can be compared under conditions where only the target shape appears as a feature.
[0048]
The dictionary matching unit 62 includes an unknown target contour vector (first feature vector) generated by the contour vector generating unit 61 and a known target contour previously generated by the target contour dictionary generating unit 13 of FIG. Comparison with a vector (second feature vector) is performed. Since this is a comparison between vectors, basically, the similarity between the two can be calculated from the opening of the angle between the vectors, and the smaller the opening of the angle, the higher the similarity. Therefore, if the angle is θ, the similarity is expressed numerically in the range of 0 to 1 by taking cos θ.
[0049]
Here, like the target contour feature extraction unit 12 shown in detail in FIG. 2, the target contour dictionary creation unit 13 has a target feature point detection unit, an ISAR image normalization unit, and an ISAR image superimposition unit, and further includes a contour vector. A generation unit and a memory unit; Then, the feature point of the known target contour is detected from the ISAR image having the known target in the same manner as the target feature point detection unit 21 in FIG. 2, and based on this feature point, the same as the ISAR image normalization unit 22 in FIG. After normalizing the ISAR image and further superimposing the normalized image in the same manner as the ISAR image superimposing unit 23 of FIG. 2, the contour vector of the superimposed image is generated as a second feature vector, and the memory unit Register with.
[0050]
Usually, the target contour dictionary creation unit 13 prepares a plurality of contour vectors for each target as the second feature vector, so that the actual comparison is generated by the contour vector generation unit 61 as the first feature vector for the unknown target. The distance between the contour vector and the partial space spanned by a plurality of contour vectors corresponding to a known target is measured. For this purpose, a partial space method as a pattern recognition method may be used. Furthermore, in order to make a more stable determination, it is possible to use a mutual subspace method. In the mutual subspace method, after obtaining a plurality of contour vectors for an unknown target, the distance between the extended subspace and the target subspace prepared on the dictionary side is obtained. As a reference for this distance, for example, the minimum canonical angle between eigenvectors spanning each partial space can be used.
[0051]
The identification determination unit 63 performs target type identification based on the degree of similarity obtained by comparing the feature vectors of the known target and the unknown target in the dictionary matching unit 62. The determination of class identification basically selects the target with the highest similarity from the dictionary and uses it as the identification result. However, the determination result can be supplemented by performing some exception processing. For example, if the degree of similarity of the selected target falls below a predetermined value, the target is not found in the dictionary. In addition, when the similarity of the selected target and the similarity of other candidates are very close, it is necessary to pay attention to the reliability of determination.
[0052]
(D) Target mounting structure information input unit 15
The information other than the outline included in the ISAR image includes position information and motion cycle information about a structure that regularly moves on a ship. For example, a ship is usually equipped with a radar device, and its antenna rotates at a constant rotational speed. Since this movement is accompanied by a Doppler effect, when the ISAR image generated by the ISAR image generation unit 11 is displayed, there may be a part that changes in accordance with the movement of the antenna on the target silhouette displayed on the screen. Understand. Also, the rotation speed of the antenna can be found from the period of the change. FIG. 7 shows an example of the display screen. The operator grasps the position of the mounted radar device with respect to the entire target (ratio of the bow-structure (radar device) installation distance with respect to the total length of the ship), the rotation speed of the antenna from the ISAR image on this display screen, and FIG. By inputting the target mounted structure information input unit 15, it is possible to capture the position and rotation speed of an unknown target mounted radar apparatus. The mounted structure information is not limited to the radar device, but may be the position of a mast or a gun.
[0053]
(E) Target mounted structure dictionary creation unit 16
The target mounted structure dictionary creation unit 16 in FIG. 1 collects target ISAR images (second time-series images) of known types, and with respect to them, the position of the radar device, the number of revolutions, the mast and the gun The position and the like are registered in the memory device as a target mounted structure dictionary.
[0054]
(F) Second target identification unit 17
The second target identification unit 17 in FIG. 1 has the unknown target mounting structure information from the target mounting structure information input unit 15 registered in the dictionary created by the target mounting structure dictionary creation unit 16. The target type is identified by comparing and collating with the target mounting structure information of the target and searching for the matching target. According to this class identification, even if the outlines are similar, it is possible to classify and classify targets with different on-board radars (different mounting positions and antenna rotation speeds).
[0055]
In the embodiment shown in FIG. 1, the identification result of the first target identification unit 13 is narrowed down by the second target identification unit 17. Since the first target identification unit 13 performs the class identification process using only the outline information of the acquired ISAR image, information other than the outline included in the ISAR image is not effectively used for class identification. In view of this, the second target identification unit 17 makes it possible to perform class identification with higher accuracy by using the mounted structure information such as a radar device that can be identified from the ISAR image for class identification.
[0056]
In addition, this invention is not limited to the content described in the said embodiment. For example, when the target traveling direction is obtained as an input in addition to the ISAR image, the target length can be calculated from the target region included in the ISAR image, and the length information is generated as a contour vector. By reflecting the above, improvement in accuracy of target determination can be expected.
[0057]
In the target contour feature extraction unit 12, the output format is a target binarized silhouette image, but a method of inputting a grayscale image obtained by omitting the binarization process in the middle as it is is also conceivable. In this case, instead of vectorizing the target outline as described above, the first target identification unit 14 represents the grayscale image including the target as a vector having the number of pixels as a length and the luminance value of each pixel as an element. For example, a similar class identification process can be applied to the following.
[0058]
Moreover, in the said embodiment, although the 2nd target identification part 17 narrowed down the identification result of the 1st target identification part 14, the target class identification of the 1st target identification part 14 and the 2nd target identification part 17 is parallel. It is also possible to process and compare the identification results of both.
[0059]
The individual processes described in the above embodiments can be processed by software using a computer program.
[0060]
【The invention's effect】
According to the present invention, an ISAR (Inverse Synthetic Aperture Radar) image, which is a time-series image created after processing radar echoes from a target in a radar, is acquired with various distortions accompanied by noise. Thus, it is possible to easily identify a high-speed target type in the radar.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the overall configuration of a target class identification device in a radar according to an embodiment of the present invention.
2 is a block diagram showing a detailed configuration of a target contour feature extraction unit 12 in FIG. 1;
3 is a block diagram showing a detailed configuration of a target feature point detection unit 21 in FIG. 2;
4 is a block diagram showing a detailed configuration of an ISAR image normalization unit 22 in FIG. 2;
5 is a block diagram illustrating a detailed configuration of an ISAR image superimposing unit 23 in FIG. 2;
6 is a block diagram showing a detailed configuration of a first target identification unit 14 in FIG.
7 is a diagram showing an ISAR image for explaining target mounted structure information used for target class identification of the second target identification unit 17 in FIG. 1; FIG.
[Explanation of symbols]
11 ... ISAR image generator
12 ... Target contour feature extraction unit
13 ... Target outline dictionary creation part
14 ... 1st target identification part
15 ... Target loading structure information input section
16 ... Target mounted structure dictionary creation part
17 ... 2nd target identification part
21 ... Target feature point detection unit
22 ... ISAR image normalization part
23 ... ISAR image superimposing unit
31 ... Distance direction luminance distribution generation unit
32 ... Target area specifying part
33 ... Target end detection unit
41 ... Spindle setting section
42: Phase determination unit
43 ... Normalization processing unit
51. Period setting unit
52... Binarization superposition unit
61 ... contour vector generation unit
62 ... Dictionary collation unit
63 ... Identification determination unit

Claims (20)

レーダエコーを処理して第1の時系列画像を生成し、
前記第1の時系列画像から未知の目標の輪郭の特徴を抽出して少なくとも一つの第1の特徴ベクトルとして表現し、
予め辞書として用意した第2の時系列画像に含まれる既知の目標の輪郭の特徴を少なくとも一つの第2の特徴ベクトルとして表現し、
前記第1の特徴ベクトルと前記第2の特徴ベクトルとの照合に基づいて、前記未知の目標の第1の類識別を行い、
前記第1の時系列画像から未知の目標の搭載構造物の情報を指摘し、
指摘された未知の目標の搭載構造物の情報と、予め辞書として用意した第2の時系列画像に含まれる既知の目標の搭載構造物の情報との照合に基づいて、前記未知の目標の第2の類識別を行うことを特徴とするレーダにおける目標の類識別方法。
Processing radar echoes to generate a first time-series image;
Extracting a feature of an unknown target outline from the first time-series image and expressing it as at least one first feature vector;
Expressing a feature of a known target contour included in a second time-series image prepared in advance as a dictionary as at least one second feature vector;
Performing a first class identification of the unknown target based on a match between the first feature vector and the second feature vector;
Pointing out the information of the mounting structure of the unknown target from the first time-series image,
Based on the comparison between the information of the specified unknown target mounting structure and the information of the known target mounting structure included in the second time-series image prepared in advance as a dictionary, 2. A method of class identification of a target in a radar, characterized by performing class identification of 2.
前記目標の搭載構造物の情報は、レーダ装置の搭載位置であることを特徴とする請求項1記載のレーダにおける目標の類識別方法。2. The method of identifying a target type in a radar according to claim 1, wherein the information on the target mounting structure is a mounting position of the radar device. 前記目標の搭載構造物の情報は、レーダ装置の空中線回転数であることを特徴とする請求項1記載のレーダにおける目標の類識別方法。2. The method of identifying a target type in a radar according to claim 1, wherein the information on the target mounting structure is an antenna rotation speed of the radar apparatus. 前記第1の類識別を行った結果について、さらに前記第2の類識別を行って前記第1の類識別結果の正誤を判定することを特徴とする請求項1記載のレーダにおける目標の類識別方法。2. The target class identification in the radar according to claim 1, wherein the second class identification is further performed to determine whether the first class identification result is correct or not with respect to the result of the first class identification. Method. 前記第1の類識別と前記第2の類識別をそれぞれ並行処理し、それぞれの処理結果を比較照合することを特徴とする請求項1記載のレーダにおける目標の類識別方法。2. The target class identification method for a radar according to claim 1, wherein the first class identification and the second class identification are processed in parallel, and the respective processing results are compared and collated. レーダエコーを処理して第1の時系列画像を生成する画像生成プログラムコードと、
前記第1の時系列画像から未知の目標の輪郭の特徴を抽出する目標輪郭特徴抽出プログラムコードと、
予め辞書として用意した第2の時系列画像に含まれる既知の目標の輪郭の特徴をベクトル表現した少なくとも一つの第2の特徴ベクトルを登録する目標輪郭特徴登録プログラムコードと、
前記目標輪郭特徴抽出プログラムコードの実行によって抽出された輪郭の特徴をベクトル表現した少なくとも一つの第1の特徴ベクトルと前記第2の特徴ベクトルとの照合に基づいて、前記未知の目標の類識別を行う第1の類識別プログラムコードと、
前記第1の時系列画像から未知の目標の搭載構造物の情報を指摘する目標搭載構造物指摘プログラムコードと、
予め辞書として用意した第2の時系列画像に含まれる既知の目標の搭載構造物の情報を登録する目標搭載構造物情報登録プログラムコードと、
前記目標搭載構造物情報指摘プログラムコードの実行によって指摘された搭載構造物の情報と前記目標搭載構造物情報登録プログラムコードの実行に登録された搭載構造物の情報との照合に基づいて、前記未知の目標の類識別を行う第2の類識別プログラムコードと
を具備したことを特徴とするレーダにおける目標の類識別装置のためのコンピュータプログラム。
Image generation program code for processing a radar echo to generate a first time-series image;
A target contour feature extraction program code for extracting features of an unknown target contour from the first time-series image;
A target contour feature registration program code for registering at least one second feature vector representing a feature of a known target contour included in a second time-series image prepared in advance as a dictionary;
Based on the comparison between the second feature vector and at least one first feature vector representing the contour feature extracted by executing the target contour feature extraction program code, the class identification of the unknown target is performed. A first class identification program code to be performed;
A target mounting structure indication program code for pointing out information of an unknown target mounting structure from the first time-series image;
A target mounting structure information registration program code for registering information of a known target mounting structure included in the second time-series image prepared in advance as a dictionary;
Based on the comparison between the information on the mounting structure pointed out by executing the target mounting structure information indicating program code and the information on the mounting structure registered in the execution of the target mounting structure information registration program code, the unknown A computer program for a target class identification device in a radar, comprising: a second class identification program code for classifying the target class.
前記目標の搭載構造物の情報は、レーダ装置の搭載位置であることを特徴とする請求項6記載のレーダにおける目標の類識別装置のためのコンピュータプログラム。7. The computer program for a target type identification device in a radar according to claim 6, wherein the information on the target mounting structure is a mounting position of the radar device. 前記目標の搭載構造物の情報は、レーダ装置の空中線回転数であることを特徴とする請求項6記載のレーダにおける目標の類識別装置のためのコンピュータプログラム。7. The computer program for a target classification apparatus for a radar according to claim 6, wherein the information on the target mounting structure is an antenna rotation speed of the radar apparatus. 前記第2の類識別プログラムコードは、前記第1の類識別プログラムコードを実行した結果について前記第2の類識別を行って前記第1の類識別結果の正誤を判定することを特徴とする請求項6記載のレーダにおける目標の類識別装置のためのコンピュータプログラム。The second class identification program code performs the second class identification on a result of executing the first class identification program code to determine whether the first class identification result is correct or incorrect. Item 7. A computer program for a target classifier in a radar according to item 6. さらに、前記第1の類識別プログラムコードと前記第2の類識別プログラムコードの並行処理結果を比較照合する類識別照合プログラムコードを備えることを特徴とする請求項6記載のレーダにおける目標の類識別装置のためのコンピュータプログラム。7. The target class identification in the radar according to claim 6, further comprising a class identification collation program code for comparing and collating parallel processing results of the first class identification program code and the second class identification program code. Computer program for the device. レーダエコーを処理して第1の時系列画像を生成する画像生成手段と、
前記第1の時系列画像から未知の目標の輪郭の特徴を抽出する目標輪郭特徴抽出手段と、
予め辞書として用意した第2の時系列画像に含まれる既知の目標の輪郭の特徴をベクトル表現した少なくとも一つの第2の特徴ベクトルを登録する目標輪郭特徴登録手段と、
前記目標輪郭特徴抽出手段によって抽出された輪郭の特徴をベクトル表現した少なくとも一つの第1の特徴ベクトルと前記第2の特徴ベクトルとの照合に基づいて、前記未知の目標の類識別を行う第1の類識別手段と、
前記第1の時系列画像から未知の目標の搭載構造物の情報を指摘する目標搭載構造物指摘手段と、
予め辞書として用意した第2の時系列画像に含まれる既知の目標の搭載構造物の情報を登録する目標搭載構造物情報登録手段と、
前記目標搭載構造物情報指摘手段によって指摘された搭載構造物の情報と前記目標搭載構造物情報登録手段に登録された搭載構造物の情報との照合に基づいて、前記未知の目標の類識別を行う第2の類識別手段と
を具備したことを特徴とするレーダにおける目標の類識別装置。
Image generating means for processing a radar echo to generate a first time-series image;
Target contour feature extraction means for extracting features of an unknown target contour from the first time-series image;
A target contour feature registration means for registering at least one second feature vector representing a feature of a known target contour included in a second time-series image prepared in advance as a dictionary;
A first class identification of the unknown target based on a comparison between the second feature vector and at least one first feature vector representing the contour feature extracted by the target contour feature extraction means as a vector; Class identification means,
A target mounting structure pointing means for pointing out information on the mounting structure of an unknown target from the first time-series image;
A target mounting structure information registration means for registering information of a known target mounting structure included in the second time-series image prepared in advance as a dictionary;
Based on the collation between the information on the mounting structure pointed out by the target mounting structure information indication means and the information on the mounting structure registered in the target mounting structure information registration means, the class identification of the unknown target is performed. A target class identification device in a radar, comprising: a second class identification means for performing the operation.
前記目標の搭載構造物の情報は、レーダ装置の搭載位置であることを特徴とする請求項11記載のレーダにおける目標の類識別装置。12. The target classification apparatus for a radar according to claim 11, wherein the information on the target mounting structure is a mounting position of the radar apparatus. 前記目標の搭載構造物の情報は、レーダ装置の空中線回転数であることを特徴とする請求項11記載のレーダにおける目標の類識別装置。12. The target classification apparatus for a radar according to claim 11, wherein the information on the target mounting structure is an antenna rotation speed of the radar apparatus. 前記第2の類識別手段は、前記第1の類識別手段を行った結果について前記第2の類識別を行って前記第1の類識別結果の正誤を判定することを特徴とする請求項11記載のレーダにおける目標の類識別装置。12. The second class identification means performs the second class identification on the result of performing the first class identification means to determine whether the first class identification result is correct or incorrect. A target classifier for the radar described. さらに、前記第1の類識別手段と前記第2の類識別手段の並行処理結果を比較照合する類識別照合手段を備えることを特徴とする請求項11記載のレーダにおける目標の類識別装置。12. The target class identification device for a radar according to claim 11, further comprising a class identification collating unit for comparing and collating parallel processing results of the first class identifying unit and the second class identifying unit. 前記目標輪郭特徴抽出手段は、前記第1の時系列画像から前記未知の目標の輪郭特徴点を検出する輪郭特徴点検出手段と、該検出された輪郭特徴点に基づいて前記第1の時系列画像を正規化する正規化手段と、該正規化された画像を重畳する重畳手段とを有し、
前記第1の類識別手段は、前記重畳手段により重畳された画像の輪郭ベクトルを前記第1の特徴ベクトルとして生成して前記第2の特徴ベクトルと照合することを特徴とする請求項11記載のレーダにおける目標の類識別装置。
The target contour feature extraction unit includes a contour feature point detection unit that detects a contour feature point of the unknown target from the first time series image, and the first time series based on the detected contour feature point. Normalizing means for normalizing the image, and superimposing means for superimposing the normalized image,
12. The first class identification unit according to claim 11, wherein the first feature identification unit generates a contour vector of the image superimposed by the superimposition unit as the first feature vector, and collates with the second feature vector. A target classifier for radar.
前記目標輪郭特徴登録手段は、前記第2の時系列画像から前記既知の目標の輪郭特徴点を検出する輪郭特徴点検出手段と、該検出された輪郭特徴点に基づいて前記第2の時系列画像を正規化する正規化手段と、該正規化された画像を重畳する重畳手段と、該重畳された画像の輪郭ベクトルを前記第2の特徴ベクトルとして生成して登録することを特徴とする請求項11記載のレーダにおける目標の類識別装置。The target contour feature registration means detects contour feature point detection means for detecting the known target contour feature point from the second time series image, and the second time series based on the detected contour feature point. A normalizing unit that normalizes an image, a superimposing unit that superimposes the normalized image, and a contour vector of the superimposed image is generated and registered as the second feature vector. Item 12. A target classification apparatus for a radar according to Item 11. 前記未知または既知の目標の基準軸上の各座標に対して、該基準軸に対して交差する一定方向へ見た該目標の輪郭の広がりを数値化し、この数値の並びを前記第1または第2の特徴ベクトルとすることを特徴とする請求項11記載のレーダにおける目標の類識別装置。For each coordinate on the reference axis of the unknown or known target, the extent of the contour of the target viewed in a certain direction intersecting the reference axis is quantified, and this numerical sequence is converted into the first or 12. The target class identification device for a radar according to claim 11, wherein the target class identification device is a feature vector of two. 前記第1の類識別手段は、前記第1及び第2の特徴ベクトル間の類似度を求めることにより両ベクトルの照合を行い、該類似度に基づいて前記未知の目標の類識別を行うことを特徴とする請求項11記載のレーダにおける目標の類識別装置。The first class identifying means collates both vectors by obtaining a similarity between the first and second feature vectors, and classifies the unknown target based on the similarity. 12. The target class identification device for a radar according to claim 11, 前記第1の類識別手段は、複数の前記第1及び第2の特徴ベクトルの各々について定義される部分空間に基づき、部分空間法あるいは相互部分空間法を用いて前記類似度を求めることを特徴とする請求項19記載のレーダにおける目標の類識別装置。The first class identifying means obtains the similarity using a subspace method or a mutual subspace method based on a subspace defined for each of the plurality of first and second feature vectors. 20. The target class identification device for a radar according to claim 19.
JP2001284109A 2001-09-18 2001-09-18 Target classification method, computer program, and apparatus for radar Expired - Fee Related JP3719967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001284109A JP3719967B2 (en) 2001-09-18 2001-09-18 Target classification method, computer program, and apparatus for radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001284109A JP3719967B2 (en) 2001-09-18 2001-09-18 Target classification method, computer program, and apparatus for radar

Publications (2)

Publication Number Publication Date
JP2003090879A JP2003090879A (en) 2003-03-28
JP3719967B2 true JP3719967B2 (en) 2005-11-24

Family

ID=19107491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001284109A Expired - Fee Related JP3719967B2 (en) 2001-09-18 2001-09-18 Target classification method, computer program, and apparatus for radar

Country Status (1)

Country Link
JP (1) JP3719967B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5247155B2 (en) * 2008-01-07 2013-07-24 三菱電機株式会社 Radar equipment
KR101139588B1 (en) 2010-01-14 2012-04-27 영남대학교 산학협력단 Method of discriminating class of target in synthetic aperture radar image and apparatus thereof
JP5319634B2 (en) * 2010-09-16 2013-10-16 株式会社東芝 Image identification device and detection device
WO2020010620A1 (en) * 2018-07-13 2020-01-16 深圳市大疆创新科技有限公司 Wave identification method and apparatus, computer-readable storage medium, and unmanned aerial vehicle
CN111429479B (en) * 2020-03-26 2022-10-11 中国科学院长春光学精密机械与物理研究所 Space target identification method based on image integral mean value
CN111539385B (en) * 2020-05-28 2022-05-20 北京理工大学 Extremely narrow pulse radar ship identification method based on resolution pyramid model
CN111767806B (en) * 2020-06-12 2023-05-05 北京理工大学 Ultra-narrow pulse radar ship target identification method based on Attribute

Also Published As

Publication number Publication date
JP2003090879A (en) 2003-03-28

Similar Documents

Publication Publication Date Title
KR101588254B1 (en) Improvements in or relating to three dimensional close interactions
EP1783663A2 (en) Object recognizing method, program and storage medium for recognizing object, and object recognizing apparatus
US6118887A (en) Robust multi-modal method for recognizing objects
Hinz Fast and subpixel precise blob detection and attribution
US7916957B2 (en) Line noise eliminating apparatus, line noise eliminating method, and line noise eliminating program
US9147105B2 (en) Image recognizing apparatus, image recognizing method, and program
US8306318B2 (en) Image processing apparatus, image processing method, and computer readable storage medium
CN101609504A (en) A kind of method for detecting, distinguishing and locating infrared imagery sea-surface target
CN112381870B (en) Binocular vision-based ship identification and navigational speed measurement system and method
JP3719967B2 (en) Target classification method, computer program, and apparatus for radar
JP4570764B2 (en) Motion information recognition system
JP2007121111A (en) Target identifying technique using synthetic aperture radar image and device therof
JP3499807B2 (en) Target classification method and apparatus for radar
CN114549400A (en) Image identification method and device
CN107767366B (en) A kind of transmission line of electricity approximating method and device
JP3878590B2 (en) Time-series image processing method and apparatus
JP3484132B2 (en) Time series image processing apparatus and method
Magnier et al. A quantitative error measure for the evaluation of roof edge detectors
JP3640907B2 (en) Time-series image processing apparatus and method
JP4894747B2 (en) Partial region detection device, object identification device, and program
JP2004038713A (en) Object identification device, object identification method, dictionary creating device, and program
JP7117878B2 (en) processor and program
JP2003141511A (en) Method, apparatus and program for recognizing three- dimensional configuration
JP5319634B2 (en) Image identification device and detection device
Kong et al. A deep neural network method for detection and tracking ship for unmanned surface vehicle

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050906

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080916

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100916

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110916

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120916

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130916

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees