JP3499807B2 - Target classification method and apparatus for radar - Google Patents

Target classification method and apparatus for radar

Info

Publication number
JP3499807B2
JP3499807B2 JP2000186451A JP2000186451A JP3499807B2 JP 3499807 B2 JP3499807 B2 JP 3499807B2 JP 2000186451 A JP2000186451 A JP 2000186451A JP 2000186451 A JP2000186451 A JP 2000186451A JP 3499807 B2 JP3499807 B2 JP 3499807B2
Authority
JP
Japan
Prior art keywords
target
feature
image
unknown
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000186451A
Other languages
Japanese (ja)
Other versions
JP2002006034A (en
Inventor
淳人 牧
和広 福井
一則 小野口
賢一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000186451A priority Critical patent/JP3499807B2/en
Publication of JP2002006034A publication Critical patent/JP2002006034A/en
Application granted granted Critical
Publication of JP3499807B2 publication Critical patent/JP3499807B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、レーダエコーから
作成されるISAR(逆合成開口レーダ)画像を用いて
レーダにおける目標の類識別を行う類識別方法及び装置
に係り、特に目標の特徴をベクトル表現し、ベクトル空
間において解析を行うことで類識別を行う方法及び装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a classifying method and apparatus for classifying a target in a radar using an ISAR (Inverse Synthetic Aperture Radar) image created from radar echoes. The present invention relates to a method and a device for classifying by expressing and analyzing in a vector space.

【0002】[0002]

【従来の技術】一般に、レーダにおいて目標から反射さ
れるレーダエコーを処理して生成されるISAR画像か
ら目標の識別を行うにあたっては、目標が様々に異なっ
た方向に投影され、さらに識別に十分な情報が限られた
フレームにしか含まれないという問題を考慮する必要が
ある。そこで従来は、この問題を解決するために、時系
列のISAR画像から識別しやすい瞬間をとらえたフレ
ームを選択し、予め用意した目標のモデルと比較する手
法や、そのフレームに対して識別のための画像処理を施
す手法を適用するのが一般的であった。しかしながら、
このような処理にはしばしば手作業を介するため、オペ
レータへの負荷がネックとなり、自動的な類識別を高速
に実現することは困難であった。
2. Description of the Related Art Generally, in identifying a target from an ISAR image generated by processing a radar echo reflected from the target in a radar, the target is projected in various different directions, and further sufficient for identification. It is necessary to consider the problem that information is contained in only a limited number of frames. Therefore, conventionally, in order to solve this problem, a method of selecting a frame from a time-series ISAR image that captures a moment that is easy to identify and comparing it with a target model prepared in advance, or a method for identifying the frame It was general to apply the method of performing the image processing of. However,
Since such processing often requires manual work, the load on the operator becomes a bottleneck, and it has been difficult to realize automatic class identification at high speed.

【0003】一方、特開平11−281731号公報
(以下、公知文献1と称する)には、最適的な観測時間
を自動的に選択する手法が開示されている。しかし、こ
の手法では、振幅が検波されたレーダ・ビデオでレンジ
方向の広がりが一致するような閾値を設定し、その閾値
を超えるレーダ・ビデオのみを抽出してISAR画像情
報に変換するという過程を経ることが必要である。従っ
て、この手法によって選択的に得られたISAR画像の
みでは、目標の類識別に利用するために必ずしも十分と
は言えない。
On the other hand, Japanese Patent Laid-Open No. 11-281731 (hereinafter referred to as known document 1) discloses a method of automatically selecting an optimum observation time. However, in this method, a threshold is set so that the spread in the range direction is matched in the radar video whose amplitude is detected, and only the radar video exceeding the threshold is extracted and converted into ISAR image information. Need to go through. Therefore, it cannot be said that only the ISAR image selectively obtained by this method is sufficient for the purpose of classifying the target.

【0004】また、MUSUMANらによって提案されているI
EEE Transactions on AerospaceandElectronic Systems
Vol.32, No.4(以下、公知文献2と称する)に掲載さ
れているISAR艦船画像の自動認識では、ハフ変換を
用いて目標艦船の中心線を求めた上で、これを基に目標
のその他の特徴を検出する技術が提案されており、識別
の材料になる幾つかのパラメータを自動的に抽出するこ
とが可能とされている。しかし、この方法では目標艦船
の中心線が必ずしも正確に船首、船尾を通過するように
求まるとは限らず、類識別を必ずしも安定して行うこと
ができない可能性がある。
I proposed by MUSUMAN et al.
EEE Transactions on Aerospaceand Electronic Systems
In the automatic recognition of ISAR ship images published in Vol.32, No.4 (hereinafter referred to as known document 2), the target line of the target ship is obtained using Hough transformation, and then the target is based on this. Techniques for detecting other characteristics of the above have been proposed, and it is possible to automatically extract some parameters that are used as identification materials. However, this method does not always obtain the center line of the target ship so that it accurately passes through the bow and stern, and it may not always be possible to perform stable classification.

【0005】[0005]

【発明が解決しようとする課題】上述したように、従来
の技術ではISAR画像を用いてレーダ目標の類識別を
行う場合、一般に画像生成の原理から目標が様々な方向
に変化して投影されることに関して、ISAR画像シー
ケンスから識別しやすい瞬間をとらえたフレームを選択
し、そのフレームに対して識別のための画像処理を施し
ているが、その画像処理は手作業を介するため、オペレ
ータへの負荷がネックとなり、自動的な類識別を高速に
実現することは困難であった。また、上記公知文献1、
2に記載された手法も、目標の類識別を容易に、かつ安
定して行うことができないという問題点があった。
As described above, in the prior art, when a radar target is classified using an ISAR image, the target is generally projected in various directions according to the principle of image generation. With regard to this, a frame that captures an easily identifiable moment is selected from the ISAR image sequence, and image processing for identification is performed on the frame. However, since the image processing involves manual work, the load on the operator is increased. Was a bottleneck, and it was difficult to realize automatic class identification at high speed. Further, the above-mentioned known document 1,
The method described in No. 2 also has a problem that the target classification cannot be performed easily and stably.

【0006】本発明は、レーダにおいてオペレータへの
負荷を低減しつつ、目標の類識別を高速かつ容易に安定
して行うことのできる類識別方法及び装置を提供するこ
とを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a class identifying method and apparatus capable of quickly and easily and stably classifying a target while reducing a load on an operator in a radar.

【0007】[0007]

【課題を解決するための手段】上記の課題を解決するた
め、本発明ではレーダエコーを処理して第1の時系列画
像を生成し、第1の時系列画像から未知の目標の特徴を
抽出して少なくとも一つの第1の特徴ベクトルとして表
現し、予め辞書として用意した第2の時系列画像に含ま
れる既知の目標の特徴を少なくとも一つの第2の特徴ベ
クトルとして表現し、これら第1の特徴ベクトルと第2
の特徴ベクトルとの照合に基づいて、未知の目標の類識
別を行う。
In order to solve the above problems, according to the present invention, a radar echo is processed to generate a first time series image, and an unknown target feature is extracted from the first time series image. Are expressed as at least one first feature vector, and known target features included in the second time-series image prepared in advance as a dictionary are expressed as at least one second feature vector. Feature vector and second
Based on the matching with the feature vector of, the unknown target class is identified.

【0008】また、本発明に係る類識別装置は、レーダ
エコーを処理して第1の時系列画像を生成する画像生成
手段と、第1の時系列画像から未知の目標の特徴を抽出
する目標特徴抽出手段と、予め辞書として用意した第2
の時系列画像に含まれる既知の目標の特徴を少なくとも
一つの第2の特徴ベクトルとして登録する目標特徴登録
手段と、目標特徴抽出手段によって抽出された特徴をベ
クトル表現した少なくとも一つの第1の特徴ベクトルと
第2の特徴ベクトルとの照合に基づいて、未知の目標の
類識別を行う識別手段とを具備したことを特徴とする。
Further, the class identifying apparatus according to the present invention includes an image generating means for processing radar echoes to generate a first time series image, and a target for extracting an unknown target feature from the first time series image. Feature extraction means and a second prepared in advance as a dictionary
Target feature registration means for registering a known target feature included in the time-series image as at least one second feature vector, and at least one first feature expressing the feature extracted by the target feature extraction means as a vector. It is characterized in that it comprises an identifying means for identifying a class of an unknown target on the basis of matching between the vector and the second feature vector.

【0009】このようにレーダエコーを処理して作成さ
れる時系列画像から、様々に歪んで獲得される目標の特
徴を特徴ベクトルとして表現し、この特徴ベクトルを解
析することで、目標の類識別を容易かつ安定して行うこ
とができる。
The target feature obtained by distorting variously is expressed as a feature vector from the time-series image created by processing the radar echo as described above, and the feature vector is analyzed to identify the target type. Can be performed easily and stably.

【0010】また、本発明はコンピュータを当該発明に
相当する手段として機能させるための(あるいはコンピ
ュータに当該発明に相当する機能を実現させるための)
プログラムを記録したコンピュータ読み取り可能な記録
媒体としても成立する。
Further, the present invention causes a computer to function as means corresponding to the present invention (or causes the computer to realize the function corresponding to the present invention).
It also holds as a computer-readable recording medium recording a program.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について目標を艦船とした場合を例にとり説明
する。図1は、本発明の一実施形態に係る類識別装置の
全体構成を示すブロック図である。この類識別装置はI
SAR画像生成部11、目標特徴抽出部12、辞書作成
部13及び目標識別部14から構成される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings, taking a case where a target is a ship as an example. FIG. 1 is a block diagram showing the overall configuration of a class identification device according to an embodiment of the present invention. This classifier is I
The SAR image generation unit 11, the target feature extraction unit 12, the dictionary creation unit 13, and the target identification unit 14 are included.

【0012】ISAR画像生成部11は、レーダエコー
を入力とし、これを処理して時系列画像(第1の時系列
画像)であるISAR画像を生成する。目標特徴抽出部
12は、ISAR画像生成部11で生成されたISAR
画像を処理して得られる未知の目標のシルエット等を特
徴として抽出し、その抽出結果を目標識別部13に出力
する。目標識別部14は、辞書作成部13で予め登録さ
れている種々の既知の目標の特徴と、目標特徴抽出部1
2によって抽出された未知の目標の特徴をベクトル空間
おいて比較することで、目標の類識別を行う。以下、図
1の各部の詳細について順に説明する。
The ISAR image generator 11 receives the radar echo as an input and processes the radar echo to generate an ISAR image which is a time series image (first time series image). The target feature extraction unit 12 uses the ISAR generated by the ISAR image generation unit 11.
An unknown target silhouette or the like obtained by processing the image is extracted as a feature, and the extraction result is output to the target identifying unit 13. The target identifying unit 14 includes various known target features registered in advance in the dictionary creating unit 13, and the target feature extracting unit 1.
By comparing the characteristics of the unknown target extracted in 2 in the vector space, the target classification is performed. Hereinafter, details of each unit in FIG. 1 will be described in order.

【0013】(a)目標特徴抽出部12 図2は、目標特徴抽出部12の詳細な構成を示すブロッ
ク図である。このように目標特徴抽出部12は、目標特
徴点検出部21、ISAR画像正規化部22及びISA
R画像重畳部23から構成される。目標特徴点検出部2
1では、図1のISAR画像生成部11により生成され
たISAR画像から目標の特徴点を検出する。ISAR
画像正規化部22では、目標特徴点抽出部21において
検出された目標の特徴点位置に基づき、ISAR画像に
おける目標のフレーム毎の歪みを補正することで、正規
化を行う。ISAR画像正規化部22で正規化された画
像は、複数枚ごとにISAR画像重畳部12で輪郭など
の情報にまとめられ、その出力は類識別に供するために
図1の目標識別部14に入力される。
(A) Target Feature Extraction Unit 12 FIG. 2 is a block diagram showing a detailed configuration of the target feature extraction unit 12. As described above, the target feature extraction unit 12 includes the target feature point detection unit 21, the ISAR image normalization unit 22, and the ISA.
The R image superimposing unit 23 is included. Target feature point detector 2
In 1, the target feature point is detected from the ISAR image generated by the ISAR image generator 11 of FIG. ISAR
The image normalization unit 22 performs normalization by correcting the distortion for each target frame in the ISAR image based on the target feature point position detected by the target feature point extraction unit 21. The images normalized by the ISAR image normalization unit 22 are grouped into a plurality of pieces of information such as contours by the ISAR image superposition unit 12, and the output thereof is input to the target identification unit 14 of FIG. 1 for use in class identification. To be done.

【0014】(a−1)目標特徴点検出部21 図3に、図2における目標特徴点検出部21の詳細な構
成例を示す。この目標特徴点検出部21は、第1の時系
列画像において距離方向を表す軸に沿った輝度分布を求
める距離方向輝度分布生成部31と、生成された輝度分
布に従って第1の時系列画像中で目標が存在する領域を
測定する目標領域設定部32と、特定された目標が存在
する領域に基づいて、当該目標の特定の端部を特徴点と
して検出する目標端検出部33とから構成される。
(A-1) Target Feature Point Detecting Section 21 FIG. 3 shows a detailed configuration example of the target feature point detecting section 21 in FIG. The target feature point detection unit 21 calculates the luminance distribution along the distance direction along the axis representing the distance direction in the first time-series image, and the distance-direction luminance distribution generation unit 31 according to the generated luminance distribution. The target area setting unit 32 that measures the area where the target exists and the target edge detection unit 33 that detects the specific end of the target as a feature point based on the area where the specified target exists. It

【0015】さらに詳細に説明すると、まず距離方向輝
度分布生成部31では、図1のISAR画像生成部11
で生成された第1の時系列画像であるISAR画像のレ
ンジ(距離)方向の軸に沿った輝度値の分布を生成す
る。通常、ISAR画像の水平軸が目標のレンジ方向の
広がりに、垂直軸が反射波のドップラ周波数にそれぞれ
対応している。そこで、距離方向輝度分布生成部31で
は、例えば水平方向の軸を基準として、各水平座標にお
いて垂直方向の輝度値を観測(検出)し、例えばその最
大値を選択していくことで距離方向輝度分布の値を生成
する。
More specifically, first, in the distance direction luminance distribution generation unit 31, the ISAR image generation unit 11 of FIG.
The distribution of the luminance value along the axis in the range (distance) direction of the ISAR image, which is the first time-series image generated in (1), is generated. Normally, the horizontal axis of the ISAR image corresponds to the spread in the target range direction, and the vertical axis corresponds to the Doppler frequency of the reflected wave. Therefore, the distance-direction luminance distribution generation unit 31 observes (detects) the luminance value in the vertical direction at each horizontal coordinate with reference to the horizontal axis, for example, and selects the maximum value to determine the luminance in the distance direction. Generates distribution values.

【0016】すなわち、水平軸座標x=xk及び垂直軸
座標y=yにおける輝度値をI(xk,y)、水平軸座標
x=xkにおける輝度分布の値をH(xk)とすると、距
離方向輝度分布の値であるH(xk)は次式により求め
られる。
That is, the brightness value at the horizontal axis coordinate x = x k and the vertical axis coordinate y = y is I (x k , y), and the brightness distribution value at the horizontal axis coordinate x = x k is H (x k ). Then, H (x k ) that is the value of the luminance distribution in the distance direction is obtained by the following equation.

【0017】[0017]

【数1】 [Equation 1]

【0018】なお、H(xk)として、最大値の代わり
に垂直方向の輝度値の平均値等を利用しても構わない。
As H (x k ), an average value of vertical brightness values may be used instead of the maximum value.

【0019】次に、目標領域特定部32では、距離方向
輝度分布生成部31により生成された距離方向輝度分布
の値に従って、図1のISAR画像生成部11で生成さ
れたISAR画像中で目標が存在する領域(以下、目標
領域という)の特定を行う。ISAR画像の輝度値は目
標が存在している領域で高くなるため、距離方向輝度分
布の値も、理想的には目標が存在している領域において
高くなる。従って、目標が概ねISAR画像の中央付近
に位置することを考慮すると、これに対応して距離方向
輝度分布も水平軸の中央付近に対応する部分で高い値
を、両端部分で低い値をそれぞれとることになる。こう
した距離方向輝度分布の特性を利用して、距離方向輝度
分布の両端からそれぞれ中央に向かって値が急激に増加
する点を検出することで、これらの2点の座標に挟まれ
た範囲によって、水平軸上で目標の距離方向の広がりの
範囲、つまり目標領域を特定することができる。
Next, in the target area specifying unit 32, according to the value of the distance direction luminance distribution generated by the distance direction luminance distribution generating unit 31, the target in the ISAR image generated by the ISAR image generating unit 11 of FIG. The existing area (hereinafter referred to as the target area) is specified. Since the brightness value of the ISAR image is high in the area where the target is present, the value of the distance direction brightness distribution is ideally high in the area where the target is present. Therefore, considering that the target is located near the center of the ISAR image, correspondingly, the distance-direction luminance distribution also has a high value in the portion corresponding to the center of the horizontal axis and a low value in both end portions. It will be. By utilizing the characteristics of the luminance distribution in the distance direction, by detecting points at which the values sharply increase from both ends of the luminance distribution in the distance direction toward the center, respectively, the range sandwiched between the coordinates of these two points can be obtained. It is possible to specify the range of the spread of the target in the distance direction on the horizontal axis, that is, the target region.

【0020】ここで、目標領域特定部32で適用する、
距離方向輝度分布値が急激に変化する点の検出手法の一
例を、水平軸左端から中央に向かって探索する場合につ
いて以下に示す。ここでは、水平軸方向(レンジ方向)
の各点において、その点より左側の一定間隔における値
の平均と、その点における値を比較し、その差が予め設
定された閾値を超えた場合に、距離方向輝度分布の値が
急激に増加したとみなす。この条件を式で表すと、次の
ようになる。
Here, it is applied in the target area specifying section 32,
An example of a method of detecting a point where the luminance distribution value in the distance direction changes abruptly will be shown below in the case of searching from the left end of the horizontal axis toward the center. Here, the horizontal axis direction (range direction)
At each point of, the average of the values at a certain interval on the left side of that point is compared with the value at that point, and when the difference exceeds a preset threshold, the value of the distance direction luminance distribution rapidly increases. Consider it done. When this condition is expressed by an equation, it becomes as follows.

【0021】[0021]

【数2】 [Equation 2]

【0022】ここで、nは考慮した一定間隔に含まれる
画素数、Thは閾値を表す。順に探索を行う過程で、こ
のような条件を最初に満たす点をR0とおく。次に、上
記とは逆に、水平軸右端から中央に向かって順に探索す
る場合については、この対称の条件を考えて
Here, n represents the number of pixels included in the constant interval considered, and Th represents a threshold value. In the process of sequentially searching, the point that first satisfies such a condition is set as R 0 . Next, conversely to the above, in the case of sequentially searching from the right end of the horizontal axis toward the center, consider this symmetric condition.

【0023】[0023]

【数3】 [Equation 3]

【0024】とすればよい。同様に、このような条件を
最初に満たす点をR1とおくと、水平方向でR0<x<R
1に相当する範囲は目標領域に含まれることになる。
[0024] Similarly, if the point that first satisfies such a condition is R 1 , then R 0 <x <R in the horizontal direction.
The range corresponding to 1 will be included in the target area.

【0025】目標端検出部33では、目標領域特定部3
2で求められた目標領域に基づいて目標の特定の端部を
特徴点として検出する。ISAR画像中の特徴点は、そ
の性質から目標のうち比較的鋭角な特徴を持つ部分に現
われやすい。目標が艦船の場合、船首や船尾の他、艦
橋、煙突、アンテナ、砲台などの先端部などが、上述の
鋭角な特徴をもつ部分にあたる。ここでは、目標端検出
部33では図2のISAR画像正規化部22で利用可能
な特徴点として、船首と船尾の検出を行う。
In the target edge detecting section 33, the target area specifying section 3
The specific end of the target is detected as a feature point based on the target area obtained in 2. Characteristic points in an ISAR image tend to appear in a portion having a relatively acute-angled feature in the target due to its nature. When the target is a ship, in addition to the bow and stern, the bridge, chimney, antenna, and the tip of the turret are the parts with the above-mentioned acute angle. Here, the target edge detection unit 33 detects the bow and stern as the feature points that can be used by the ISAR image normalization unit 22 of FIG.

【0026】さて、先に述べた目標領域特定部32で適
用した目標領域特定手法によれば、距離方向輝度分布の
値が急激に変化する点R0及びR1は、目標の距離方向の
広がりの両端に対応する。また、目標が艦船の例では、
船首と船尾は距離方向の広がりを定義する。よって、船
首と船尾のいずれか一方はR0の付近に、他方はR1の付
近にそれぞれ位置することになる。
According to the target area specifying method applied by the target area specifying unit 32 described above, the points R 0 and R 1 at which the value of the brightness distribution in the distance direction changes rapidly are spread in the distance direction of the target. Corresponds to both ends of. Also, in the example where the target is a ship,
The bow and stern define the distance spread. Therefore, one of the bow and the stern is located near R 0 , and the other is located near R 1 .

【0027】一方、船首と船尾は鋭角な部位であること
から、ISAR画像において対応する画素の輝度値は高
く、艦船の構造上、その周辺で局所的な最大値をとるこ
とが殆んどである。従って、水平軸方向の座標で見てR
0及びR1の付近において輝度が局所極大値を持つ点を検
出することで、船首と船尾を表す特徴点とすることが可
能である。こうして目標端検出部33で検出された船首
と船尾を表す特徴点をP,Qとおく。
On the other hand, since the bow and stern are acute-angled parts, the luminance value of the corresponding pixel in the ISAR image is high, and due to the structure of the ship, it is almost always the local maximum value. is there. Therefore, when viewed in the horizontal axis direction, R
By detecting points where the luminance has a local maximum value in the vicinity of 0 and R 1 , it is possible to set characteristic points representing the bow and stern. The characteristic points representing the bow and stern detected by the target end detection unit 33 in this manner are set as P and Q.

【0028】(a−2)ISAR画像正規化部22 図4に、図2のISAR画像正規化部22の詳細な構成
例を示す。このISAR画像正規化部22は、目標特徴
点検出部21により検出された目標の特徴点に基づい
て、目標の中心部分を貫通する直線を正規化の基準とし
て設定する主軸設定部41と、IASR画像中で目標の
形状が主軸の両側で反転して現れるか否かを示す位相を
判定する位相判定部42及び位相判定部42により反転
位相にあると判定されたフレームの画像については主軸
に対して両側を互いに反転するように正規化を行う正規
化処理部43からなる。
(A-2) ISAR image normalization unit 22 FIG. 4 shows a detailed configuration example of the ISAR image normalization unit 22 of FIG. The ISAR image normalization unit 22 includes a main axis setting unit 41 that sets a straight line that penetrates the center portion of the target as a standard for normalization based on the target feature points detected by the target feature point detection unit 21, and an IASR. The phase determination unit 42 that determines the phase that indicates whether the target shape appears inverted on both sides of the main axis in the image, and the image of the frame that is determined to be in the inverted phase by the phase determination unit 42 with respect to the main axis And a normalization processing unit 43 that performs normalization so that both sides are inverted.

【0029】さらに詳しく説明すると、ISAR画像正
規化部22では図1のISAR画像生成部11で生成さ
れたISAR画像に対して、目標特徴点検出部21で検
出された目標の特徴点に基づき、ピッチ、ロール、ヨウ
の変化により、各フレームで様々に異なった方向に歪ん
で現われる目標の形状を空間的に共通した枠組の中に収
めるべく正規化を行う。
More specifically, in the ISAR image normalizing section 22, for the ISAR image generated by the ISAR image generating section 11 of FIG. 1, based on the target feature points detected by the target feature point detecting section 21, Normalization is performed so that the target shape, which appears distorted in various different directions in each frame due to changes in pitch, roll, and yaw, is included in a spatially common framework.

【0030】主軸設定部41は、正規化の基準として目
標の中心部分を通り抜ける直線(主軸)を設定する。こ
の直線にはISAR画像における2次元の輝度分布に関
する長軸を利用することも考えられるが、艦船に対する
その位置は、艦橋などからの反射が艦船の姿勢変化に伴
って時間的に変化する影響で、必ずしも一定したものと
ならない。そこで、図3の目標端検出部33で検出した
船首と船尾の位置PとQを有効利用し、これら2点P,
Qを通る直線を主軸と定義する。船首と船尾を通る直線
は船体を貫通し、艦船の姿勢にかかわらず安定して得る
ことが可能である。この点P,Qを通る主軸をy=ax
+bと記述する。ただしx,yは水平、垂直軸方向の変
数、a,bは直線の傾きと位置を表す定数である。
The spindle setting unit 41 sets a straight line (spindle) passing through the center portion of the target as a standard for normalization. It is conceivable to use the long axis for the two-dimensional luminance distribution in the ISAR image for this straight line, but its position with respect to the ship is due to the influence of the reflection from the bridge, etc., which changes with time as the attitude of the ship changes. , Not always constant. Therefore, the positions P and Q of the bow and stern detected by the target end detection unit 33 in FIG. 3 are effectively used, and these two points P,
A straight line passing through Q is defined as the main axis. A straight line passing through the bow and stern penetrates the hull and can be stably obtained regardless of the attitude of the ship. The main axis passing through these points P and Q is y = ax
Described as + b. However, x and y are variables in the horizontal and vertical axis directions, and a and b are constants representing the inclination and position of the straight line.

【0031】位相判定部42は、目標の姿勢、特にピッ
チ角の変化の方向が正負のいずれであるかに関する判定
を行う。更に詳細に述べるならば、ISAR画像の各フ
レームが生成される時点におけるピッチ角が正か負のい
ずれの方向に変化しているかによって、画像中で目標形
状が上下反転して現われるため、この反転が起こってい
るか否かを位相判定部42は判定する。
The phase determination unit 42 determines whether the target posture, particularly whether the direction of change in pitch angle is positive or negative. More specifically, the target shape appears upside down in the image depending on whether the pitch angle at the time each frame of the ISAR image is generated changes in the positive or negative direction. The phase determination unit 42 determines whether or not is occurring.

【0032】この判定は、主軸設定部41によって設定
された主軸を基準に、主軸の両側(上下)における相対
的な輝度値の偏りを調べることで可能となる。例えば、
輝度値の平均値を用いると、主軸の上側の(y>ax+
b)となる領域ωuと、下側の(y<ax+b)となる
領域ωlに含まれる画素数がそれぞれnu,nlであると
き、各領域ωu,ωlの輝度値Iの平均値Iu,Ilは次式
に従う。
This determination can be made by examining the relative deviation of the brightness values on both sides (upper and lower) of the spindle with the spindle set by the spindle setting section 41 as a reference. For example,
Using the average value of the luminance values, (y> ax +) above the main axis
b) and the area omega u consisting of lower (y <When the number of pixels included in ax + b) and a region omega l is n u, n l respectively, the luminance values I of the respective regions omega u, omega l The average values I u and I l follow the following equation.

【0033】[0033]

【数4】 [Equation 4]

【0034】そこで、これらの値を比較し、Iu>Il
あれば画像中の目標が正の位相にあり、Iu<Ilであれ
ば負の位相、つまり反転位相にあると判定する。一方、
主軸の上下の領域での輝度平均がほぼ等しくIu〜Il
あるときは位相の判定は微妙なものとなる。そのため、
例えば両者の比Iu/Ilが1に近いとき(1−δ<Iu
/Il<1+δ)は位相判定不可とする。
Then, these values are compared, and if I u > I l , it is determined that the target in the image is in the positive phase, and if I u <I l , it is in the negative phase, that is, the inverted phase. To do. on the other hand,
Determination of phase becomes subtle when the average brightness of the upper and lower region of the main shaft is substantially equal Iu~I l. for that reason,
For example, when both the ratio Iu / I l is close to 1 (1-δ <Iu
When / I l <1 + δ), the phase cannot be determined.

【0035】正規化処理部43では、主軸設定部41に
よる主軸設定結果と位相判定部42からの位相判定結果
に基づいて、ISAR画像に対する正規化処理を次のよ
うに行う。すなわち、主軸設定部41で設定された主軸
が水平方向となるような変換によって、ISAR画像全
体を正規化する。この際、位相判定部42で反転位相に
あると判断されたフレームに関しては、正規化後の画像
に対して主軸の両側、つまり上下を反転させて出力す
る。これにより、各フレームでピッチ、ロール、ヨウの
変化により様々に異なった方向に歪んで現われる目標の
形状が、いずれも水平面に沿って且つ主軸に直交する方
向から見た場合の形状に揃えられることになる。
The normalization processing section 43 performs the normalization processing on the ISAR image as follows based on the spindle setting result by the spindle setting section 41 and the phase determination result by the phase determination section 42. That is, the entire ISAR image is normalized by such a conversion that the main axis set by the main axis setting unit 41 is in the horizontal direction. At this time, with respect to the frame determined to be in the inverted phase by the phase determination unit 42, both sides of the main axis, that is, the upper and lower sides are inverted and output with respect to the normalized image. As a result, the target shapes that appear distorted in various different directions due to changes in pitch, roll, and yaw in each frame are aligned with the shapes when viewed from the direction along the horizontal plane and orthogonal to the main axis. become.

【0036】(a−3)ISAR画像重畳部23 図5に、図2のISAR画像重畳部23の詳細な構成例
を示す。ISAR画像重畳部23は、図2のISAR画
像正規化部22によって正規化された画像(各フレーム
における目標を同じ方向から見た状況に揃えた画像)を
重畳し、類識別に有用な情報を抽出するものであり、目
標の運動の1周期以上の時間間隔でかつ該時間間隔の間
における目標の移動量が所定レベル以下となる時間間隔
を設定する周期設定部51と、設定された時間間隔を単
位として、対応する時間内にISAR画像正規化部22
により正規化された各フレームの画像を2値化した結果
の論理和をとる2値化重畳部52から構成される。
(A-3) ISAR image superimposing section 23 FIG. 5 shows a detailed configuration example of the ISAR image superimposing section 23 in FIG. The ISAR image superimposing unit 23 superimposes the images normalized by the ISAR image normalizing unit 22 in FIG. 2 (images in which the targets in each frame are aligned in a situation where the targets are viewed from the same direction), and useful information for class identification is displayed. A cycle setting unit 51 for setting a time interval at which the target movement amount is equal to or less than a predetermined level in a time interval of one cycle or more of the target motion, and the set time interval. As a unit, within a corresponding time, the ISAR image normalization unit 22
It is composed of a binarization and superposition unit 52 which takes the logical sum of the binarization results of the images of each frame normalized by

【0037】周期設定部51では、ISAR画像正規化
部22によって正規化された各フレームからの出力を重
畳する時間間隔、つまり周期を定める。海上を航行する
目標物はヨウ(蛇角)を除いて揺れによる周期運動を繰
り返している。一方、ある程度以上の時間にわたって目
標を観察し続けると、目標が移動するに従って、その画
像中の位置も少しづつのシフトを伴ってくる。
The cycle setting section 51 determines a time interval, that is, a cycle in which the outputs from the respective frames normalized by the ISAR image normalizing section 22 are superimposed. Targets navigating over the sea repeat periodic motions due to shaking except for the yaw (snake angle). On the other hand, if the target is continuously observed for a certain period of time or more, as the target moves, the position in the image also gradually shifts.

【0038】そこで、フレーム出力を重畳する時間間隔
(時間範囲)として、目標の運動の一周期を十分に含む
程度の長さで、位置のシフトが顕著にならない程度の範
囲(目標位置の移動量が所定レベル以下に抑えられる範
囲)、例えば1周期以上2周期以下の時間を設定する。
これにより、様々な位置から見た多フレームにわたって
の出力を、基本的に同じ方向から見たものとして重ね合
わせる。
Therefore, as a time interval (time range) for superimposing the frame outputs, a range that sufficiently includes one cycle of the target motion and a position shift is not significant (amount of movement of the target position). Within a predetermined level), for example, a period of 1 cycle or more and 2 cycles or less is set.
This superimposes the output over multiple frames from different positions, essentially as viewed from the same direction.

【0039】2値化重畳部52は、周期設定部51で設
定された時間間隔(周期)における出力を重畳する。但
し、艦船の胴体部分が常に高い輝度値をもつ一方で、艦
橋の先端などに相当する部分は、ピッチ角の変化率が大
きい場合のみに輝度値を持つため、ISAR画像正規化
部22からの正規化画像をそのまま重畳していくと、胴
体部分のみを強調した画像が得られてしまう。つまり、
目標の特徴をよく表す艦橋などからの出力が相対的に微
弱なものとなってしまう。このため、2値化重畳部52
では各フレーム画像に関して、予め定められた閾値を超
える輝度値については例えば1に変換し、超えない輝度
値については0に変換する、いわゆる2値化処理を行
う。
The binarizing and superimposing section 52 superimposes the output in the time interval (cycle) set by the cycle setting section 51. However, while the body of the ship always has a high brightness value, the part corresponding to the tip of the bridge has a brightness value only when the rate of change in pitch angle is large. If the normalized image is superimposed as it is, an image in which only the body portion is emphasized is obtained. That is,
The output from the bridge that shows the characteristics of the target is relatively weak. Therefore, the binarizing and superimposing unit 52
Then, with respect to each frame image, so-called binarization processing is performed in which a luminance value exceeding a predetermined threshold value is converted into, for example, 1 and a luminance value not exceeding the threshold value is converted into 0.

【0040】そして、2値化重畳部52では、さらに2
値化した各フレーム画像の論理和をとることにより、周
期設定部51で設定された1周期内に出力される各フレ
ームに現われた目標の特徴を失うことなく重畳する。具
体的には、1秒あたり3フレームのISAR画像を生成
している場合、目標の運動周期が8秒であって、周期設
定部51において当該目標の運動周期に一致する周期を
設定した場合を例にとると、この8秒間に出力される合
計24フレームについての2値化画像を重ね合わせる。
ただし、位相判定部42で位相判定不可となったフレー
ムについては重畳の対象としない。2値化重畳部での重
畳の結果、目標のシルエットの2値化画像が得られるた
め、これを目標特徴抽出部12の出力とする。
Then, the binarizing and superimposing section 52 further outputs
By taking the logical sum of the binarized frame images, the target features appearing in each frame output in one cycle set by the cycle setting unit 51 are superimposed without loss. Specifically, in the case where an ISAR image of 3 frames per second is generated, the target motion cycle is 8 seconds, and the cycle setting unit 51 sets a cycle that matches the target motion cycle. As an example, the binarized images for a total of 24 frames output in the 8 seconds are superimposed.
However, frames for which phase determination cannot be performed by the phase determination unit 42 are not subject to superimposition. As a result of the superposition in the binarization superposition unit, a binarized image of the target silhouette is obtained, and this is used as the output of the target feature extraction unit 12.

【0041】(b)辞書作成部13 図1の辞書作成部13は、種類が既知である目標のIS
AR画像(第2の時系列画像)を収集し、それらに対し
て後述するように目標特徴抽出部12と同一の処理を施
すことにより、既知の目標の特徴に関するデータを作成
し、これを辞書として登録する。候補となり得る種類の
目標データを収集するが、各候補について何通りものデ
ータを収集することにより、辞書としての汎用性を高め
る効果が期待される。
(B) Dictionary creation unit 13 The dictionary creation unit 13 of FIG. 1 is a target IS whose type is known.
AR images (second time-series images) are collected and subjected to the same processing as that of the target feature extraction unit 12 to be described later, thereby creating data regarding known target features and using this as a dictionary. Register as. Although the target data of the kind that can be a candidate is collected, collecting various kinds of data for each candidate is expected to enhance the versatility of the dictionary.

【0042】(c)目標識別部14 図6は、図1の目標識別部14の詳細な構成を示すブロ
ック図である。図6に示すように、目標識別部14は輪
郭ベクトル生成部61、辞書照合部62及び識別判定部
63から構成される。
(C) Target Discriminating Unit 14 FIG. 6 is a block diagram showing the detailed structure of the target discriminating unit 14 in FIG. As shown in FIG. 6, the target identifying unit 14 includes a contour vector generating unit 61, a dictionary matching unit 62, and an identification determining unit 63.

【0043】輪郭ベクトル生成部61は、図1の目標特
徴抽出部1により得られた目標のシルエットの2値化画
像から、目標の輪郭ベクトルを生成する。辞書照合部6
2は、輪郭ベクトル生成部61において生成された目標
の輪郭ベクトルと、予め図1の辞書作成部13で登録さ
れた既知の目標に対応する複数の輪郭ベクトルとを比較
する。識別判定部63は、辞書照合部62における比較
の結果に基づき、目標の特徴の類識別を判定する。
The contour vector generation unit 61 generates a target contour vector from the binarized image of the target silhouette obtained by the target feature extraction unit 1 of FIG. Dictionary matching unit 6
2 compares the target contour vector generated by the contour vector generation unit 61 with a plurality of contour vectors corresponding to known targets registered in advance in the dictionary creation unit 13 of FIG. The identification determination unit 63 determines the target feature type identification based on the result of the comparison in the dictionary matching unit 62.

【0044】以下、図6における各部の詳細について順
に説明する。輪郭ベクトル生成部61は、図1の目標特
徴抽出部12により得られた目標のシルエットの2値化
画像から、目標の輪郭ベクトルを第1の特徴ベクトルと
して生成する。ここでは艦船において、船首と船尾を結
ぶ主軸の上側に位置する艦橋や砲台などの形状が目標を
特徴付けていることを利用して、シルエットの2値化画
像中、主軸上の各水平座標に対して垂直方向に主軸上部
を探索し、シルエットの境界で画素が1から0に反転す
る垂直座標値を順に並べていくことで、艦船の輪郭をベ
クトル表現して、第1の特徴ベクトルとする。
The details of each part in FIG. 6 will be described below in order. The contour vector generation unit 61 generates a target contour vector as a first feature vector from the binarized image of the target silhouette obtained by the target feature extraction unit 12 of FIG. Here, in a ship, the shape of the bridge, turret, etc. located above the main axis connecting the bow and stern characterizes the target, and in the binarized image of the silhouette, each horizontal coordinate on the main axis On the other hand, the upper part of the main axis is searched in the vertical direction, and the vertical coordinate values in which pixels are inverted from 1 to 0 at the boundary of the silhouette are arranged in order, whereby the contour of the ship is expressed as a vector and used as the first feature vector.

【0045】すなわち、第1の特徴ベクトルである輪郭
ベクトルをsとすると、水平軸座標x=xk、垂直軸座
標y=ykにおけるシルエットの2値化画像の画素値を
B(x k,yk)で表すとき、sは各水平軸座標x=xk
に対応する値s(xk)を要素として次式により定義さ
れる。 s(xk) ={yk|b(xk,yk)=1,b(xk,yk
+1)=0} これによれば、ISAR画像の両端で目標の存在する領
域外では、s(xk)=0となるため、輪郭ベクトルsの
定義からは、こうした領域を取り除くものとする。ここ
で、輪郭ベクトルsの長さは、同一の目標でも観測時点
における進行方向により異なって現われるため、一定の
長さ、例えばl=100に正規化する。一方、輪郭ベク
トルsの要素値に関しても、その絶対値は目標の角速度
などに依存して観測されるため、sのノルムが例えば|
s|=1となるような正規化を施す。これらにより、様
々な状況で得られたデータに関し、目標の形状のみが特
徴として現われる条件下での比較が可能となる。
That is, the contour which is the first feature vector
If the vector is s, horizontal axis coordinate x = xk, Vertical shaft seat
Mark y = ykThe pixel value of the binary image of the silhouette in
B (x k, Yk), S is each horizontal axis coordinate x = xk
The value s (xk) As an element
Be done. s (xk) = {Yk| B (xk, Yk) = 1, b (xk, yk
+1) = 0} According to this, the area where the target exists at both ends of the ISAR image.
Outside the area, s (xk) = 0, the contour vector s
By definition, these areas should be removed. here
So, the length of the contour vector s is
Since it appears differently depending on the direction of travel in
Normalize to length, eg l = 100. On the other hand, contour contour
The absolute value of the element value of Tor s is the target angular velocity.
The norm of s is, for example, |
Normalization is performed so that s | = 1. By these,
Regarding the data obtained in various situations, only the target shape is
It is possible to make a comparison under the conditions that appear as a characteristic.

【0046】辞書照合部62は、輪郭ベクトル生成部6
1で生成された未知の目標の輪郭ベクトル(第1の特徴
ベクトル)と、予め図1の辞書作成部13において作成
されている既知の目標の輪郭ベクトル(第2の特徴ベク
トル)との比較を行う。ベクトル同士の比較であるか
ら、基本的にはベクトル間の角度の開きから両者間の類
似度を計算することができ、角度の開きが小さい程、高
い類似度を表すことになる。従って、その角度をθとす
ればcosθをとることで、類似度が0〜1の範囲に数値
化して表される。
The dictionary matching unit 62 includes a contour vector generation unit 6
The unknown target contour vector (first feature vector) generated in 1 is compared with the known target contour vector (second feature vector) created in advance in the dictionary creating unit 13 of FIG. To do. Since the vectors are compared with each other, basically, the similarity between the vectors can be calculated from the angle difference between the vectors, and the smaller the angle difference is, the higher the similarity is. Therefore, if the angle is θ, cos θ is taken, and the degree of similarity is numerically expressed in the range of 0 to 1.

【0047】ここで、辞書作成部13は図2に詳細を示
した目標特徴抽出部12と同様に、目標特徴点検出部と
ISAR画像正規化部及びISAR画像重畳部を有し、
さらに輪郭ベクトル生成部とメモリ部を有する。そし
て、既知の目標を有するISAR画像から図2の目標特
徴点検出部12と同様に既知の目標の特徴点を検出し、
この特徴点に基づき図2のISAR画像正規化部22と
同様にISAR画像を正規化し、さらに正規化された画
像を図2のISAR画像重畳部23と同様に重畳した
後、この重畳された画像の輪郭ベクトルを第2の特徴ベ
クトルとして生成して、メモリ部に登録する。
Here, the dictionary creating unit 13 has a target feature point detecting unit, an ISAR image normalizing unit and an ISAR image superimposing unit, like the target feature extracting unit 12 shown in detail in FIG.
Further, it has a contour vector generation unit and a memory unit. Then, the feature point of the known target is detected from the ISAR image having the known target in the same manner as the target feature point detection unit 12 of FIG.
Based on this feature point, the ISAR image is normalized in the same manner as the ISAR image normalization unit 22 in FIG. 2, and the normalized image is superimposed in the same manner as in the ISAR image superimposing unit 23 in FIG. Is generated as a second feature vector and registered in the memory unit.

【0048】通常、辞書作成部13には第2の特徴ベク
トルとして各目標の輪郭ベクトルを複数用意しておくか
ら、実際の比較は輪郭ベクトル生成部61で未知の目標
に関して第1の特徴ベクトルとして生成された輪郭ベク
トルと、既知の目標に対応する複数の輪郭ベクトルが張
る部分空間との間の距離を測ることになるが、これには
パターン認識手法としての部分空間方法などを利用すれ
ばよい。さらに、より安定した判定を期するため、相互
部分空間法を利用することも考えられる。相互部分空間
法では、未知の目標について複数の輪郭ベクトルを獲得
した上で、それらの張る部分空間と辞書側に用意された
目標の部分空間との間の距離を求める。この距離の基準
としては、例えば各部分空間を張る固有ベクトルの間の
最小正準角を用いることができる。
Normally, the dictionary creating unit 13 prepares a plurality of contour vectors of each target as the second feature vector. Therefore, the actual comparison is performed by the contour vector generating unit 61 as the first feature vector for an unknown target. The distance between the generated contour vector and the subspace formed by a plurality of contour vectors corresponding to a known target is measured, and for this, a subspace method or the like as a pattern recognition method may be used. . In addition, the mutual subspace method may be used for more stable determination. In the mutual subspace method, a plurality of contour vectors are acquired for an unknown target, and then the distance between the subspace and the target subspace prepared on the dictionary side is obtained. As a standard of this distance, for example, the minimum canonical angle between eigenvectors straddling each subspace can be used.

【0049】識別判定部63は、辞書照合部62におい
て既知の目標と未知の目標の特徴ベクトルの比較から数
値化された類似度に基づいて、目標の類識別を行う。類
識別の判定は、基本的には辞書の中から最も類似度の高
かった目標を選択し、識別結果とする。ただし、幾つか
の例外処理を行うことで、判定結果を補足することがで
きる。例えば、選択された目標の類似度が予め設定され
た一定値を下回る場合は、辞書中に該当目標なしとす
る。また、選択された目標の類似度とその他の候補の類
似度が非常に接近している場合は、判定の信頼度に注意
が必要とする。
The discrimination determining unit 63 discriminates the target type based on the degree of similarity digitized by comparing the feature vectors of the known target and the unknown target in the dictionary matching unit 62. In the determination of class identification, basically, the target with the highest degree of similarity is selected from the dictionary and used as the identification result. However, the judgment result can be supplemented by performing some exception processing. For example, when the degree of similarity of the selected target is lower than a predetermined constant value, it is determined that there is no corresponding target in the dictionary. Further, when the similarity of the selected target and the similarities of the other candidates are very close to each other, it is necessary to pay attention to the reliability of the determination.

【0050】なお、本発明は上記実施形態で記載した内
容に限定されるものではない。例えば、ISAR画像に
加えて目標の進行方向が入力として得られる場合は、I
SAR画像に含まれる目標の領域から、目標の長さを算
出することができ、その長さの情報を輪郭ベクトルの作
成に反映させることで、目標判定の精度の向上が期待で
きる。
The present invention is not limited to the contents described in the above embodiment. For example, when the target traveling direction is obtained as an input in addition to the ISAR image, I
The target length can be calculated from the target area included in the SAR image, and the accuracy of the target determination can be expected to improve by reflecting the information on the target length in the creation of the contour vector.

【0051】また、目標特徴抽出部12において、出力
の形式は目標の2値化シルエット画像としたが、途中の
2値化処理を省略することによって得られる濃淡画像を
そのまま入力とする方法も考えられる。この場合、目標
識別部14では上述したように目標の輪郭をベクトル化
する代わりに、目標を含む濃淡画像をその画素数を長
さ、各画素の輝度値を要素とするベクトルとして表現す
れば、以下は同様の類識別処理が適用できる。
In the target feature extraction unit 12, the output format is the target binarized silhouette image, but a method of directly inputting a grayscale image obtained by omitting the binarization process in the middle is also considered. To be In this case, in the target identifying unit 14, instead of vectorizing the contour of the target as described above, if the grayscale image including the target is expressed as a vector having the number of pixels as the length and the brightness value of each pixel as an element, Similar classification processing can be applied to the following.

【0052】[0052]

【発明の効果】本発明によれば、レーダにおいて目標か
らのレーダエコーを処理してから作成される時系列画像
であるISAR(逆合成開口レーダ)画像に対して、ノ
イズを伴って様々に歪んで獲得される目標の特徴の解析
をベクトル空間において安定に行うことにより、レーダ
における高速な目標の類識別を容易にすることが可能と
なる。
According to the present invention, an ISAR (Inverse Synthetic Aperture Radar) image, which is a time-series image created after processing a radar echo from a target in a radar, is variously distorted with noise. By performing stable analysis of the characteristics of the target acquired in step S in the vector space, it becomes possible to facilitate high-speed target class identification in the radar.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態に係る類識別装置の全体構
成を示すブロック図
FIG. 1 is a block diagram showing an overall configuration of a class identification device according to an embodiment of the present invention.

【図2】図1の目標特徴抽出部12の詳細な構成を示す
ブロック図
FIG. 2 is a block diagram showing a detailed configuration of a target feature extraction unit 12 of FIG.

【図3】図2の目標特徴点検出部21の詳細な構成を示
すブロック図
3 is a block diagram showing a detailed configuration of a target feature point detection unit 21 of FIG.

【図4】図2のISAR画像正規化部22の詳細な構成
を示すブロック図
4 is a block diagram showing a detailed configuration of an ISAR image normalization unit 22 of FIG.

【図5】図2のISAR画像重畳部23の詳細な構成を
示すブロック図
5 is a block diagram showing a detailed configuration of an ISAR image superimposing unit 23 in FIG.

【図6】図1の目標識別部14の詳細な構成を示すブロ
ック図
6 is a block diagram showing a detailed configuration of a target identifying section 14 in FIG.

【符号の説明】[Explanation of symbols]

11…ISAR画像生成部 12…目標特徴抽出部 13…辞書作成部 14…目標識別部 21…目標特徴点検出部 22…ISAR画像正規化部 23…ISAR画像重畳部 31…距離方向輝度分布生成部 32…目標領域特定部 33…目標端検出部 41…主軸設定部 42…位相判定部 43…正規化処理部 51…周期設定部 52…2値化重畳部 61…輪郭ベクトル生成部 62…辞書照合部 63…識別判定部 11 ... ISAR image generator 12 ... Target feature extraction unit 13 ... Dictionary creation unit 14 ... Goal identification section 21 ... Target feature point detection unit 22 ... ISAR image normalization unit 23 ... ISAR image superimposing section 31 ... Distance direction luminance distribution generation unit 32 ... Target area specifying unit 33 ... Target end detection unit 41 ... Spindle setting section 42 ... Phase determination unit 43 ... Normalization processing unit 51 ... Cycle setting section 52 ... Binary superposition unit 61 ... Contour vector generation unit 62 ... Dictionary matching unit 63 ... Identification determination unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 前田 賢一 神奈川県川崎市幸区小向東芝町1番地 株式会社東芝研究開発センター内 (56)参考文献 特開 平9−33649(JP,A) 特開2000−3436(JP,A) 特開 平8−145826(JP,A) 特開 平9−138277(JP,A) 特開 平11−265452(JP,A) 特開 平7−311867(JP,A) 特開 平7−73327(JP,A) 特開2000−275338(JP,A) 特開 平9−43348(JP,A) 特開 平11−237476(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01S 7/00 - 7/42 G01S 13/00 - 13/95 G01T 1/00 - 1/20 G01T 3/00 - 5/50 G01T 7/00 - 7/60 G01T 9/00 - 9/40 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Kenichi Maeda 1 Komukai Toshiba Town, Komukai-shi, Kawasaki-shi, Kanagawa, Toshiba Research & Development Center Co., Ltd. (56) Reference JP-A-9-33649 (JP, A) Open 2000-3436 (JP, A) JP-A-8-145826 (JP, A) JP-A-9-138277 (JP, A) JP-A-11-265452 (JP, A) JP-A-7-311867 (JP , A) JP 7-73327 (JP, A) JP 2000-275338 (JP, A) JP 9-43348 (JP, A) JP 11-237476 (JP, A) (58) Survey Areas (Int.Cl. 7 , DB name) G01S 7 /00-7/42 G01S 13/00-13/95 G01T 1/00-1/20 G01T 3/00-5/50 G01T 7/00-7 / 60 G01T 9/00-9/40

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】レーダエコーを処理して第1の時系列画像
を生成する画像生成ステップと、 前記第1の時系列画像から未知の目標の特徴を抽出し、
該特徴をベクトル表現した第1の特徴ベクトルを生成す
る第1の特徴ベクトル生成ステップと、 第2の時系列画像に含まれる既知の目標の特徴を抽出
し、該特徴をベクトル表現した第2の特徴ベクトルを生
成して予め辞書として用意した第2の特徴ベクトル生成
ステップと、 前記第1の特徴ベクトルと前記第2の特徴ベクトルとの
照合に基づいて、前記未知の目標の類識別を行う識別ス
テップとを具備し、 前記第1及び第2の特徴ベクトル生成ステップは、 (a)前記第1または第2の時系列画像から前記未知ま
たは既知の目標の特徴点を検出し、 (b)検出された特徴点に基づいて前記未知または既知
の目標の中心部分を貫通する直線を正規化の基準となる
主軸として設定し、 (c)前記第1または第2の時系列画像中で前記未知ま
たは既知の目標の形状が前記主軸の両側で反転して現れ
るか否かを判定し、 (d)前記未知または既知の目標の形状が前記主軸の両
側で反転して現れると判定されたフレームの画像につい
ては前記主軸に対して両側が互いに反転するように各フ
レームの画像に対して前記主軸が水平方向となる変換に
より正規化を行い、 (e)正規化された各フレームの画像を2値化して重畳
することにより、前記未知または既知の目標のシルエッ
トの2値化画像を生成し、前記2値化画像から前記未知
または既知の目標の輪郭ベクトルを前記第1または第2
の特徴ベクトルとして生成することを特徴とするレーダ
における目標の類識別方法。
1. An image generation step of processing a radar echo to generate a first time-series image; extracting an unknown target feature from the first time-series image;
A first feature vector generating step of generating a first feature vector expressing the feature as a vector; a known target feature included in the second time series image; and a second feature expressing the feature as a vector. A second feature vector generation step that generates a feature vector and prepares it as a dictionary in advance, and an identification that performs the type identification of the unknown target based on the collation of the first feature vector and the second feature vector. The first and second feature vector generation steps include: (a) detecting the unknown or known target feature point from the first or second time series image; and (b) detecting A straight line passing through the central portion of the unknown or known target based on the determined feature points is set as a main axis serving as a reference for normalization, and (c) the unknown or the unknown in the first or second time series image. It is determined whether or not a known target shape appears inverted on both sides of the main axis, and (d) an image of a frame where the unknown or known target shape appears inverted on both sides of the main axis. With respect to, the normalization is performed on the image of each frame so that both sides are inverted with respect to the main axis by a conversion in which the main axis is in the horizontal direction, and (e) the normalized image of each frame is binarized. By generating a binary image of the silhouette of the unknown or known target by superimposing the contour vector of the unknown or known target from the binary image.
A method for classifying targets in a radar, which is characterized in that it is generated as a feature vector.
【請求項2】前記識別ステップは、前記第1及び第2の
特徴ベクトル間の類似度を求めることにより両ベクトル
の照合を行い、該類似度に基づいて前記未知の目標の類
識別を行うことを特徴とする請求項1記載のレーダにお
ける目標の類識別方法。
2. The identifying step includes matching the two vectors by obtaining the similarity between the first and second feature vectors, and performing the class identification of the unknown target based on the similarity. The method for identifying a target type in a radar according to claim 1, wherein:
【請求項3】前記識別ステップは、複数の前記第1及び
第2の特徴ベクトルの各々について定義される部分空間
に基づき、部分空間法あるいは相互部分空間法を用いて
前記類似度を求めることを特徴とする請求項2記載のレ
ーダにおける目標の類識別方法。
3. The identifying step includes determining the similarity using a subspace method or a mutual subspace method based on a subspace defined for each of the plurality of first and second feature vectors. The method for identifying a target type in a radar according to claim 2, wherein
【請求項4】レーダエコーを処理して第1の時系列画像
を生成する画像生成手段と、 前記第1の時系列画像から未知の目標の特徴を抽出し、
該特徴をベクトル表現した第1の特徴ベクトルを生成す
る第1の特徴ベクトル生成手段と、 第2の時系列画像に含まれる既知の目標の特徴を抽出
し、該特徴をベクトル表現した第2の特徴ベクトルを生
成して予め辞書として用意した第2の特徴ベクトル生成
手段と、 前記第1の特徴ベクトルと前記第2の特徴ベクトルとの
照合に基づいて、前記未知の目標の類識別を行う識別手
段とを具備し、 前記第1及び第2の特徴ベクトル生成手段は、 前記第1または第2の時系列画像から前記未知または既
知の目標の特徴点を検出する特徴点検出手段と、 前記特徴点検出手段により検出された特徴点に基づいて
前記未知または既知の目標の中心部分を貫通する直線を
正規化の基準となる主軸として設定する主軸設定手段
と、 前記第1または第2の時系列画像中で前記未知または既
知の目標の形状が前記主軸の両側で反転して現れるか否
かを判定する判定手段と、 前記未知または既知の目標の形状が前記主軸の両側で反
転して現れると判定されたフレームの画像については前
記主軸に対して両側が互いに反転するように各フレーム
の画像に対して前記主軸が水平方向となる変換により正
規化を行う正規化処理手段と、 正規化された各フレームの画像を2値化して重畳するこ
とにより、前記未知または既知の目標のシルエットの2
値化画像を得る重畳手段と、 前記2値化画像から前記未知または既知の目標の輪郭ベ
クトルを前記第1または第2の特徴ベクトルとして生成
する輪郭ベクトル生成手段とを有することを特徴とする
レーダにおける目標の類識別装置。
4. Image generation means for processing a radar echo to generate a first time-series image, and extracting an unknown target feature from the first time-series image,
First feature vector generation means for generating a first feature vector expressing the feature as a vector, and a known target feature included in the second time-series image, and a second feature vector expressing the feature. Second feature vector generation means that generates a feature vector and prepares it in advance as a dictionary, and identification for performing the type identification of the unknown target based on the collation of the first feature vector and the second feature vector. The first and second feature vector generation means, the feature point detection means for detecting the unknown or known target feature point from the first or second time-series image; Spindle setting means for setting a straight line that penetrates the central portion of the unknown or known target as a spindle serving as a reference for normalization based on the characteristic points detected by the point detecting means, and the first or second time Determination means for determining whether or not the shape of the unknown or known target in the column image appears on both sides of the main axis, and the shape of the unknown or known target appears on both sides of the main axis in reverse The image of the frame determined to be normalization processing means for normalizing the image of each frame by a conversion in which the main axis is in the horizontal direction so that both sides are inverted with respect to the main axis, By binarizing and superimposing the images of the respective frames, two of the unknown or known target silhouettes can be obtained.
A radar characterized by comprising: superimposing means for obtaining a binarized image; and contour vector generating means for producing the unknown or known target contour vector from the binarized image as the first or second feature vector. Target classifier in.
【請求項5】前記識別手段は、前記第1及び第2の特徴
ベクトル間の類似度を求めることにより両ベクトルの照
合を行い、該類似度に基づいて前記未知の目標の類識別
を行うことを特徴とする請求項4記載のレーダにおける
目標の類識別装置。
5. The identifying means collates both vectors by obtaining a similarity between the first and second feature vectors, and classifies the unknown target based on the similarity. 5. The target class identification device in a radar according to claim 4, wherein.
【請求項6】前記識別手段は、複数の前記第1及び第2
の特徴ベクトルの各々について定義される部分空間に基
づき、部分空間法あるいは相互部分空間法を用いて前記
類似度を求めることを特徴とする請求項5記載のレーダ
における目標の類識別装置。
6. The identification means comprises a plurality of the first and second plurality.
6. The target class identification device in a radar according to claim 5, wherein the similarity is obtained by using a subspace method or a mutual subspace method based on a subspace defined for each of the feature vectors of.
JP2000186451A 2000-06-21 2000-06-21 Target classification method and apparatus for radar Expired - Lifetime JP3499807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000186451A JP3499807B2 (en) 2000-06-21 2000-06-21 Target classification method and apparatus for radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000186451A JP3499807B2 (en) 2000-06-21 2000-06-21 Target classification method and apparatus for radar

Publications (2)

Publication Number Publication Date
JP2002006034A JP2002006034A (en) 2002-01-09
JP3499807B2 true JP3499807B2 (en) 2004-02-23

Family

ID=18686610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000186451A Expired - Lifetime JP3499807B2 (en) 2000-06-21 2000-06-21 Target classification method and apparatus for radar

Country Status (1)

Country Link
JP (1) JP3499807B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038713A (en) * 2002-07-05 2004-02-05 Toshiba Corp Object identification device, object identification method, dictionary creating device, and program
JP5247155B2 (en) * 2008-01-07 2013-07-24 三菱電機株式会社 Radar equipment
KR101056608B1 (en) 2009-12-28 2011-08-11 영남대학교 산학협력단 Method and apparatus for discriminating target in synthetic aperture radar image
KR101139588B1 (en) * 2010-01-14 2012-04-27 영남대학교 산학협력단 Method of discriminating class of target in synthetic aperture radar image and apparatus thereof
KR101103493B1 (en) 2010-07-13 2012-01-10 영남대학교 산학협력단 Method of discriminating target in inverse synthetic aperture radar image and apparatus thereof
KR101103416B1 (en) 2010-07-21 2012-01-06 영남대학교 산학협력단 Method of cross-range scaling for inverse synthetic aperture radar image and apparatus thereof
JP5319634B2 (en) * 2010-09-16 2013-10-16 株式会社東芝 Image identification device and detection device
JP5885583B2 (en) * 2012-05-18 2016-03-15 三菱電機株式会社 Target classifier
JP2018048862A (en) * 2016-09-20 2018-03-29 株式会社東芝 Radar signal processor, radar signal processing method, and radar signal processing program

Also Published As

Publication number Publication date
JP2002006034A (en) 2002-01-09

Similar Documents

Publication Publication Date Title
KR101588254B1 (en) Improvements in or relating to three dimensional close interactions
US5142592A (en) Method and apparatus for detection of parallel edges in image processing
US6647139B1 (en) Method of object recognition, apparatus of the same and recording medium therefor
US9639748B2 (en) Method for detecting persons using 1D depths and 2D texture
US6118887A (en) Robust multi-modal method for recognizing objects
CN101609504B (en) Method for detecting, distinguishing and locating infrared imagery sea-surface target
Hinz Fast and subpixel precise blob detection and attribution
US20020134151A1 (en) Apparatus and method for measuring distances
US9147105B2 (en) Image recognizing apparatus, image recognizing method, and program
JP2007121111A (en) Target identifying technique using synthetic aperture radar image and device therof
JP3499807B2 (en) Target classification method and apparatus for radar
CN109063669B (en) Bridge area ship navigation situation analysis method and device based on image recognition
CN114463362A (en) Three-dimensional collision avoidance sonar obstacle detection method and system based on deep learning
Tabatabaei et al. Automatic detection of the cracks on the concrete railway sleepers
KR20230101560A (en) Vehicle lidar system and object detecting method thereof
JP3719967B2 (en) Target classification method, computer program, and apparatus for radar
JP3878590B2 (en) Time-series image processing method and apparatus
Haselhoff et al. Radar-vision fusion for vehicle detection by means of improved haar-like feature and adaboost approach
JP3484132B2 (en) Time series image processing apparatus and method
Khaliluzzaman et al. Zebra-crossing detection based on geometric feature and vertical vanishing point
JP3640907B2 (en) Time-series image processing apparatus and method
JPH08210811A (en) Method and device for detecting circle or ellipse
CN113838051B (en) Robot closed-loop detection method based on three-dimensional point cloud
Shah Automatic human face texture analysis for age and gender recognition
Ferreira et al. Comparing region-based and feature-based methods for ROV vision-based motion estimation

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R151 Written notification of patent or utility model registration

Ref document number: 3499807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 10

EXPY Cancellation because of completion of term