JP2015021824A - Classification and identification filter generator and target classification and identification device - Google Patents

Classification and identification filter generator and target classification and identification device Download PDF

Info

Publication number
JP2015021824A
JP2015021824A JP2013149528A JP2013149528A JP2015021824A JP 2015021824 A JP2015021824 A JP 2015021824A JP 2013149528 A JP2013149528 A JP 2013149528A JP 2013149528 A JP2013149528 A JP 2013149528A JP 2015021824 A JP2015021824 A JP 2015021824A
Authority
JP
Japan
Prior art keywords
teacher
unit
images
teacher image
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013149528A
Other languages
Japanese (ja)
Inventor
啓 諏訪
Hiroshi Suwa
啓 諏訪
かおり 川上
Kaori Kawakami
かおり 川上
赳寛 星野
Takehiro Hoshino
赳寛 星野
照幸 原
Teruyuki Hara
照幸 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013149528A priority Critical patent/JP2015021824A/en
Publication of JP2015021824A publication Critical patent/JP2015021824A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a classification and identification filter with high classification and identification performance of a target without increasing a calculation amount.SOLUTION: A classification and identification filter generator is provided with a teacher image positioning unit 3 which calculates adaptation among a plurality of teacher images by using a spectral signal of a frequency region transformed by a two-dimensional Fourier transformation unit 2, classifies the plurality of teacher images into one or more clusters on the basis of the adaptation, and positions the teacher images belonging to the same cluster, in which a classification and identification filter synthesis unit 4 synthesizes the teacher images positioned by the teacher image positioning unit 3 with one another for every cluster classified by the teacher image positioning unit 3, and generates a classification and identification filter.

Description

この発明は、種類未知の目標のレーダ観測画像と類識別フィルタを照合して、目標の種類を判定する目標類識別装置と、その類識別フィルタを生成する類識別フィルタ生成装置とに関するものである。   The present invention relates to a target class identification device that compares a radar observation image of an unknown target with a class identification filter to determine a target type, and a class identification filter generation apparatus that generates the class identification filter. .

レーダ観測で得られた静止目標の観測画像と、事前に得られている機種既知の複数の目標の教師画像とのパターンマッチングを実施することで、目標の種類を判定する目標類識別方法が知られている。
教師画像としては、計算機シミュレーションによって事前に計算された画像や、事前に観測された機種既知の目標のレーダ観測画像から切り出された画像(目標が映っている部分の画像)などが使用される。
A target class identification method that determines the type of target is known by performing pattern matching between the observation image of a static target obtained by radar observation and a teacher image of a plurality of target targets that are obtained in advance. It has been.
As the teacher image, an image calculated in advance by computer simulation, an image cut out from a radar observation image of a known target that has been observed in advance (an image of a portion in which the target is reflected), or the like is used.

教師画像として、機種既知の目標のレーダ観測画像から切り出された画像を使用する場合、レーダ観測画像は、同一の目標を観測した画像であっても、目標の向きが異なると、画像が大きく異なるため、各目標について、あらゆる角度から観測された画像を教師画像として事前に揃えておく必要がある。それ故に、多数の教師画像を保存するための大きなメモリが必要になる問題がある。
また、目標の種類を判定する際に、多数の教師画像との間で、パターンマッチングを実施する必要があるため、演算量が増大する問題がある。
When an image cut out from a radar observation image of a target of a known model is used as a teacher image, even if the radar observation image is an image obtained by observing the same target, the image differs greatly if the direction of the target is different. Therefore, for each target, it is necessary to prepare images observed from all angles as teacher images in advance. Therefore, there is a problem that a large memory for storing a large number of teacher images is required.
In addition, there is a problem that the amount of calculation increases because it is necessary to perform pattern matching with a large number of teacher images when determining the type of target.

これらの問題を解決する方法として、以下の非特許文献1には、複数の観測諸元(目標主軸方向(向き))で観測された同一目標に対する複数の観測画像を統合して類識別フィルタを生成し、その類識別フィルタとの間で、パターンマッチングを実施する方法が開示されている。
以下の非特許文献1に開示されている方法を用いれば、各目標について、あらゆる角度から観測された画像を教師画像として事前に揃えておく必要がなく、多数の教師画像との間で、パターンマッチングを実施する必要もない。
このため、教師画像を保存するメモリの容量を低減することができるとともに、類識別処理の高速化を図ることができる。
As a method for solving these problems, Non-Patent Document 1 below includes a class identification filter by integrating a plurality of observation images for the same target observed in a plurality of observation specifications (target main axis direction (orientation)). A method of generating and performing pattern matching with the class identification filter is disclosed.
If the method disclosed in the following Non-Patent Document 1 is used, it is not necessary to prepare images observed from all angles in advance as teacher images for each target. There is no need to perform matching.
For this reason, the capacity of the memory for storing the teacher image can be reduced, and the speed of the class identification process can be increased.

ただし、類識別フィルタを生成するには、複数の観測画像を統合する前に、各々の観測画像に対して前処理(例えば、輝度調整処理、大きさの正規化処理、中心位置の位置合わせ処理など)を施す必要がある。とりわけ、中心位置の位置合わせ処理は、概して手動で実施する必要がある。
教師画像として、計算機シミュレーションで生成された画像を使用する場合には、画像内の目標の位置が既知であるため、中心位置の位置合わせは容易である。
しかし、教師画像として、事前に観測されたレーダ観測画像から切り出された画像を使用する場合には、画像内の目標の位置が未知であるため、得られた教師画像の位置を一つ一つ揃えておかなければならず、作業効率が悪くなる。
However, in order to generate a class identification filter, before integrating a plurality of observation images, preprocessing (for example, luminance adjustment processing, size normalization processing, center position alignment processing) is performed on each observation image. Etc.). In particular, the center position alignment process generally needs to be performed manually.
When an image generated by computer simulation is used as the teacher image, since the target position in the image is known, it is easy to align the center position.
However, when using an image cut out from a radar observation image observed in advance as the teacher image, the position of the target in the image is unknown. It must be aligned, and work efficiency will deteriorate.

ここで、図7は非特許文献1に開示されている方法を適用する類識別フィルタ生成装置を示す構成図である。
図7において、教師画像データファイル101は異なる観測条件で観測された目標の複数の観測画像からそれぞれ切り出されている目標の教師画像を示す教師画像データを格納している。
2次元フーリエ変換手段102は教師画像データファイル101により格納されている複数の教師画像データをそれぞれ2次元フーリエ変換する処理を実施する。
類識別フィルタ合成手段103は2次元フーリエ変換手段102による複数の教師画像データの2次元フーリエ変換結果を合成することで、MINACE(Minimum Noise And Correlation Energy)フィルタと呼ばれる類識別フィルタ104を生成する処理を実施する。
Here, FIG. 7 is a block diagram showing a class identification filter generating apparatus to which the method disclosed in Non-Patent Document 1 is applied.
In FIG. 7, a teacher image data file 101 stores teacher image data indicating a target teacher image cut out from a plurality of target observation images observed under different observation conditions.
The two-dimensional Fourier transform unit 102 performs a process of performing a two-dimensional Fourier transform on each of the plurality of teacher image data stored in the teacher image data file 101.
The class identification filter synthesizing unit 103 generates a class identification filter 104 called a MINACE (Minimum Noise Correlation Energy) filter by synthesizing two-dimensional Fourier transform results of a plurality of teacher image data by the two-dimensional Fourier transform unit 102. To implement.

図8は類識別フィルタ合成手段103による類識別フィルタの生成処理を示す概念図である。
以下、図7の類識別フィルタ生成装置の処理内容を説明する。
2次元フーリエ変換手段102は、教師画像データファイル101からN個の教師画像を示す教師画像データを入力すると、N個の教師画像データを2次元フーリエ変換する。
2次元フーリエ変換手段102は、N個の教師画像データを2次元フーリエ変換すると、その2次元フーリエ変換結果である2次元スペクトル信号をラスタスキャンしてベクトル化し、ベクトル化した2次元スペクトル信号x,x,・・・,xを類識別フィルタ合成手段103に出力する。
図8では、4個の教師画像A,B,C,Dを示す教師画像データが2次元フーリエ変換手段102に入力されて、4個のベクトル化した2次元スペクトル信号x,x,x,xが類識別フィルタ合成手段103に出力されている。
FIG. 8 is a conceptual diagram showing a class identification filter generation process by the class identification filter synthesis means 103.
Hereinafter, processing contents of the class identification filter generation device of FIG. 7 will be described.
When two-dimensional Fourier transform means 102 receives teacher image data indicating N teacher images from the teacher image data file 101, the two-dimensional Fourier transform means 102 performs two-dimensional Fourier transform on the N teacher image data.
The two-dimensional Fourier transform means 102 performs two-dimensional Fourier transform on the N pieces of teacher image data, raster scans the two-dimensional spectrum signal, which is the result of the two-dimensional Fourier transform, into a vector, and vectorizes the two-dimensional spectrum signal x 1. , X 2 ,..., X N are output to the class identification filter synthesis means 103.
In FIG. 8, teacher image data indicating four teacher images A, B, C, and D are input to the two-dimensional Fourier transform means 102, and four vectorized two-dimensional spectrum signals x 1 , x 2 , x 3, x N are output to the class identification filter synthesis unit 103.

類識別フィルタ合成手段103は、2次元フーリエ変換手段102からベクトル化された2次元スペクトル信号x,x,・・・,xを受けると、その2次元スペクトル信号x,x,・・・,xを下記の式(1)に代入して、類識別フィルタ104であるMINACEフィルタhを生成する。

Figure 2015021824
ただし、
Figure 2015021824

Figure 2015021824
Upon receiving the vectorized two-dimensional spectrum signals x 1 , x 2 ,..., X N from the two-dimensional Fourier transform unit 102, the class identification filter synthesis unit 103 receives the two-dimensional spectrum signals x 1 , x 2 , .., X N is substituted into the following equation (1) to generate a MINACE filter h that is a class identification filter 104.
Figure 2015021824
However,
Figure 2015021824

Figure 2015021824

また、Tは対角行列であり、その対角成分は、下記の式(4)に示すように、全ての教師画像の電力スペクトルの最大値で与えられる。

Figure 2015021824

Figure 2015021824
式(4)において、Wは雑音の共分散行列であり、全ての教師画像の電力スペクトルの値が雑音レベルの定数倍(c倍)を下回る場合、教師画像の電力スペクトルの代わりに、雑音レベルの定数倍(c倍)の値で置き換える。
なお、式(4)の最後のcWは、生成されるMINACEフィルタhの雑音耐性を高めるために導入されている。 T is a diagonal matrix, and the diagonal component is given by the maximum value of the power spectrum of all teacher images, as shown in the following equation (4).
Figure 2015021824

Figure 2015021824
In Expression (4), W is a noise covariance matrix, and when the power spectrum values of all the teacher images are less than a constant multiple (c times) of the noise level, the noise level is used instead of the power spectrum of the teacher image. Replace with a value that is a constant multiple of (c times).
Note that the last cW in the equation (4) is introduced in order to increase noise resistance of the generated MINACE filter h.

ここで、MINACEフィルタhは、ベクトル化した2次元スペクトル信号x,x,・・・,xの「重みづけ平均」の形で与えられており、2次元スペクトル空間内で定義されている。
よって、MINACEフィルタhを2次元逆フーリエ変換すると、図8の類識別フィルタ104に示すように、画像領域での目標類識別フィルタの形状が得られる。
なお、厳密には、MINACEフィルタhは、ベクトルの形で与えられているので、2次元フーリエ変換結果である2次元スペクトル信号をラスタスキャンしてベクトル化することで、2次元スペクトル信号x,x,・・・,xを得たのと逆の要領で、MINACEフィルタhを2次元信号に戻してから2次元逆フーリエ変換する必要がある。
Here, the MINACE filter h is given in the form of a “weighted average” of the vectorized two-dimensional spectrum signals x 1 , x 2 ,..., X N and is defined in the two-dimensional spectrum space. Yes.
Therefore, when the MINACE filter h is subjected to two-dimensional inverse Fourier transform, the shape of the target class identification filter in the image region is obtained as shown in the class identification filter 104 of FIG.
Strictly speaking, since the MINACE filter h is given in the form of a vector, the two-dimensional spectrum signal x 1 , It is necessary to perform a two-dimensional inverse Fourier transform after returning the MINACE filter h to a two-dimensional signal in the reverse manner of obtaining x 2 ,..., x N.

図8に示している類識別フィルタ(MINACEフィルタh)の合成処理では、複数の教師画像の位置合わせ処理が事前に手動で実施される。
しかし、手動での位置合わせ処理では、図8に描写されているように、複数の教師画像を精度よく位置合わせを行うことができず、ずれたまま合成されてしまうことがある。この問題は、教師画像が事前に観測されたレーダ観測画像から切り出された画像である場合に顕著になる。
位置合わせの精度が不十分である場合、得られる類識別フィルタ104は、図8に描写されているように、徒に広がりをもった形状になるため、類識別フィルタ104による目標識別性能の劣化を引き起こすことになる。
In the synthesizing process of the class identification filter (MINACE filter h) shown in FIG. 8, the alignment process of a plurality of teacher images is manually performed in advance.
However, in the manual alignment process, as illustrated in FIG. 8, the plurality of teacher images cannot be accurately aligned and may be combined while being shifted. This problem becomes prominent when the teacher image is an image cut out from a radar observation image observed in advance.
When the accuracy of the alignment is insufficient, the obtained class identification filter 104 has a shape with a wide spread as depicted in FIG. Will cause.

複数の教師画像の位置合わせ精度を高める方法として、複数の教師画像の中から、基準となる教師画像を基準画像として任意に選定し、残りの教師画像について、その基準画像と1画素ずつずらしながら重ね合わせを実施し、基準画像と教師画像との相関係数が最大になるところで、位置合わせを行う方法が以下の特許文献1に開示されている。   As a method for improving the alignment accuracy of a plurality of teacher images, a reference teacher image is arbitrarily selected as a reference image from among a plurality of teacher images, and the remaining teacher images are shifted by one pixel from the reference image. Patent Document 1 below discloses a method for performing registration when the correlation coefficient between the reference image and the teacher image is maximized.

特開2012−127920号公報JP2012-127920A

Rohit Patnaik,“Distortion-invariant Kernel Correlation Filters for General Object Recognition”, A project report for the degree of Master of Science, Carnegie Mellon University, Department of Electrical and Computer Engineering, April 10,1995Rohit Patnaik, “Distortion-invariant Kernel Correlation Filters for General Object Recognition”, A project report for the degree of Master of Science, Carnegie Mellon University, Department of Electrical and Computer Engineering, April 10,1995

従来の類識別フィルタ生成装置は以上のように構成されているので、基準画像と教師画像との相関係数が最大になるところで位置合わせを行えば、位置合わせの精度を高めることができるが、この位置合わせ処理が、画像領域での処理であるため、多くの演算量を必要とする課題があった。
また、複数の教師画像に存在している目標の向きが異なっている場合、基準画像と教師画像との相関係数が最大になるところで位置合わせを行っても、精度よく位置合わせを行うことができない課題があった。
Since the conventional class identification filter generation device is configured as described above, the alignment accuracy can be improved if alignment is performed where the correlation coefficient between the reference image and the teacher image is maximized, Since this alignment processing is processing in an image region, there is a problem that requires a large amount of calculation.
In addition, when the orientations of targets existing in a plurality of teacher images are different, alignment can be performed with high accuracy even when alignment is performed where the correlation coefficient between the reference image and the teacher image is maximized. There was a problem that could not be done.

さらに、あらゆる角度の画像を全て合成してしまうため、類識別フィルタ合成手段103により生成される類識別フィルタ104は、一般化され過ぎた類識別フィルタになる。このため、同一目標のクラスに含まれる観測画像ならば、角度によらず適合度が高くなる一方で、他の目標とも適合度が高くなってしまうため、目標の類識別性能が下がってしまう課題があった。
このため、一つの類識別フィルタに合成する目標角度範囲を予め決定しておく必要があるが、合成できる角度範囲を予め決定しておくことは一般に困難である。加えて、レーダ観測画像は、分解能によっては点像の集合体のように観察されるため、画像から目標の向きを判定するのが必ずしも容易でない。つまり、入手した教師画像に含まれている目標の向きを精度よく知ることが困難であるため、合成する角度範囲を予め決定しておいたとしても、その角度範囲に含まれるか否かを正確に確認することは困難である。
Further, since all the images of all angles are synthesized, the class identification filter 104 generated by the class identification filter synthesis unit 103 becomes an over-generalized class identification filter. For this reason, in the case of observation images included in the same target class, the fitness level is high regardless of the angle, but the fitness level of other targets is also high. was there.
For this reason, it is necessary to determine in advance a target angle range to be combined into one class identification filter, but it is generally difficult to determine in advance an angle range that can be combined. In addition, since the radar observation image is observed like a collection of point images depending on the resolution, it is not always easy to determine the target direction from the image. In other words, since it is difficult to accurately know the target orientation included in the acquired teacher image, even if the angle range to be synthesized is determined in advance, it is accurately determined whether it is included in the angle range. It is difficult to confirm.

この発明は上記のような課題を解決するためになされたもので、演算量の増加を招くことなく、目標の類識別性能が高い類識別フィルタを生成することができる類識別フィルタ生成装置を得ることを目的とする。
また、この発明は、複数の教師画像に存在している目標の向きが異なっている場合でも、目標の類識別性能が高い類識別フィルタを生成することができる類識別フィルタ生成装置を得ることを目的とする。
さらに、この発明は、目標の類識別性能が高い類識別フィルタを用いて、目標の種類を正確に識別することができる目標類識別装置を得ることを目的とする。
The present invention has been made to solve the above-described problems, and provides a class identification filter generation device capable of generating a class identification filter with high target class identification performance without increasing the amount of calculation. For the purpose.
In addition, the present invention provides a class identification filter generation device capable of generating a class identification filter having high target class identification performance even when the target orientations existing in a plurality of teacher images are different. Objective.
Another object of the present invention is to provide a target class identification device that can accurately identify the type of a target by using a class identification filter having a high target class identification performance.

この発明に係る類識別フィルタ生成装置は、異なる観測条件で観測された目標の複数の観測画像からそれぞれ切り出されている目標の教師画像を格納する教師画像格納手段と、教師画像格納手段により格納されている複数の教師画像を示す教師画像データを周波数領域のスペクトル信号にそれぞれ変換する周波数領域変換手段と、周波数領域変換手段により変換された周波数領域のスペクトル信号を用いて、複数の教師画像間の適合度を算出し、その適合度を基準にして複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせを行う教師画像位置合わせ手段とを設け、類識別フィルタ合成手段が、教師画像位置合わせ手段により分類されたクラスタ毎に、教師画像位置合わせ手段により位置合わせが行われた教師画像同士を合成して類識別フィルタを生成するようにしたものである。   A class identification filter generation device according to the present invention is stored by a teacher image storage unit that stores a target teacher image cut out from a plurality of target observation images observed under different observation conditions, and a teacher image storage unit. Frequency domain conversion means for converting each of the teacher image data indicating a plurality of teacher images into frequency domain spectrum signals, and using the frequency domain spectrum signals converted by the frequency domain conversion means, between the plurality of teacher images There is provided a teacher image alignment means for calculating the fitness, classifying the plurality of teacher images into one or more clusters based on the fitness, and aligning the teacher images belonging to the same cluster. For each cluster classified by the teacher image alignment means, the identification filter synthesis means performs the rank by the teacher image alignment means. Combined is obtained so as to generate a synthesized and kind identifying filter teacher images with each other is performed.

この発明によれば、周波数領域変換手段により変換された周波数領域のスペクトル信号を用いて、複数の教師画像間の適合度を算出し、その適合度を基準にして複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせを行う教師画像位置合わせ手段を設け、類識別フィルタ合成手段が、教師画像位置合わせ手段により分類されたクラスタ毎に、教師画像位置合わせ手段により位置合わせが行われた教師画像同士を合成して類識別フィルタを生成するように構成したので、演算量の増加を招くことなく、目標の類識別性能が高い類識別フィルタを生成することができる効果がある。   According to the present invention, the degree of adaptation between a plurality of teacher images is calculated using the frequency domain spectrum signal converted by the frequency domain conversion means, and the plurality of teacher images are converted into one or more teacher images based on the degree of adaptation. Teacher image alignment means for classifying the teacher images belonging to the same cluster and classifying the teacher images is provided for each cluster classified by the teacher image alignment means. Since the class identification filter is generated by combining the teacher images that have been aligned by the matching unit, a class identification filter with high target class identification performance is generated without increasing the amount of computation. There is an effect that can.

この発明の実施の形態1による類識別フィルタ生成装置を実装している目標類識別装置を示す構成図である。It is a block diagram which shows the target class identification device which mounts the class identification filter production | generation apparatus by Embodiment 1 of this invention. 教師画像位置合わせ部3及び類識別フィルタ合成部4による類識別フィルタの生成処理を示す概念図である。It is a conceptual diagram which shows the production | generation process of the class identification filter by the teacher image position alignment part 3 and the class identification filter synthetic | combination part 4. FIG. この発明の実施の形態1による類識別フィルタ生成装置の教師画像位置合わせ部3を示す構成図である。It is a block diagram which shows the teacher image position alignment part 3 of the class identification filter production | generation apparatus by Embodiment 1 of this invention. この発明の実施の形態2による類識別フィルタ生成装置を実装している目標類識別装置を示す構成図である。It is a block diagram which shows the target class identification apparatus which mounts the class identification filter production | generation apparatus by Embodiment 2 of this invention. この発明の実施の形態2による類識別フィルタ生成装置の教師画像位置合わせ部20を示す構成図である。It is a block diagram which shows the teacher image position alignment part 20 of the class identification filter production | generation apparatus by Embodiment 2 of this invention. この発明の実施の形態3による類識別フィルタ生成装置の教師画像位置合わせ部20を示す構成図である。It is a block diagram which shows the teacher image position alignment part 20 of the class identification filter production | generation apparatus by Embodiment 3 of this invention. 非特許文献1に開示されている方法を適用する類識別フィルタ生成装置を示す構成図である。It is a block diagram which shows the classification identification filter production | generation apparatus to which the method currently disclosed by the nonpatent literature 1 is applied. 類識別フィルタ合成手段103による類識別フィルタの生成処理を示す概念図である。It is a conceptual diagram which shows the production | generation process of the class identification filter by the class identification filter synthetic | combination means 103. FIG.

実施の形態1.
図1はこの発明の実施の形態1による類識別フィルタ生成装置を実装している目標類識別装置を示す構成図である。
図1において、教師画像格納部1は例えばRAMやハードディスクなどの記憶装置から構成されており、異なる観測条件(例えば、目標の主軸方向(向き)などの観測諸元)で観測された目標の複数の観測画像からそれぞれ切り出されている目標の教師画像を格納している。なお、教師画像格納部1は教師画像格納手段を構成している。
2次元フーリエ変換部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、教師画像格納部1により格納されている複数の教師画像を示す教師画像データに対する2次元フーリエ変換処理を実施することで、複数の教師画像データを周波数領域のスペクトル信号にそれぞれ変換する。なお、2次元フーリエ変換部2は周波数領域変換手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a target class identification device equipped with a class identification filter generation device according to Embodiment 1 of the present invention.
In FIG. 1, the teacher image storage unit 1 includes a storage device such as a RAM or a hard disk, and a plurality of targets observed under different observation conditions (for example, observation parameters such as a target main axis direction (orientation)). The target teacher images cut out from the observed images are stored. The teacher image storage unit 1 constitutes teacher image storage means.
The two-dimensional Fourier transform unit 2 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and applies to teacher image data indicating a plurality of teacher images stored by the teacher image storage unit 1. By performing a two-dimensional Fourier transform process, a plurality of teacher image data is converted into spectrum signals in the frequency domain. Note that the two-dimensional Fourier transform unit 2 constitutes frequency domain transforming means.

教師画像位置合わせ部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、2次元フーリエ変換部2により変換された周波数領域のスペクトル信号を用いて、複数の教師画像間の適合度を算出し、その適合度を基準にして複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせ処理を実施する。なお、教師画像位置合わせ部3は教師画像位置合わせ手段を構成している。   The teacher image alignment unit 3 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and a plurality of frequency domain spectral signals converted by the two-dimensional Fourier transform unit 2 are used. The degree of matching between the teacher images is calculated, the plurality of teacher images are classified into one or more clusters on the basis of the degree of matching, and the alignment processing of the teacher images belonging to the same cluster is performed. The teacher image alignment unit 3 constitutes a teacher image alignment unit.

類識別フィルタ合成部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、教師画像位置合わせ部3により分類されたクラスタ毎に、教師画像位置合わせ部3により位置合わせが行われた教師画像同士を合成して類識別フィルタを生成する処理を実施する。なお、類識別フィルタ合成部4は類識別フィルタ合成手段を構成している。
類識別フィルタ格納部5は例えばRAMやハードディスクなどの記憶装置から構成されており、類識別フィルタ合成部4により生成された類識別フィルタを格納する。
The class identification filter synthesis unit 4 is constituted by, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and for each cluster classified by the teacher image registration unit 3, the teacher image registration unit 3 A process for generating a class identification filter by combining the teacher images that have been aligned by the above is performed. The class identification filter synthesis unit 4 constitutes a class identification filter synthesis unit.
The class identification filter storage unit 5 is composed of a storage device such as a RAM or a hard disk, and stores the class identification filter generated by the class identification filter synthesis unit 4.

目標種類判定部6は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、類識別対象の目標の観測画像と類識別フィルタ格納部5により格納されている1以上の類識別フィルタとを照合して、目標の種類を判定する処理を実施する。なお、目標種類判定部6は目標種類判定手段を構成している。   The target type determination unit 6 includes, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and is stored in the observed image of the target to be classified and the class identification filter storage unit 1 A process for determining the type of target is performed by collating with the above-described class identification filter. The target type determination unit 6 constitutes a target type determination unit.

図1の例では、目標類識別装置の構成要素である教師画像格納部1、2次元フーリエ変換部2、教師画像位置合わせ部3、類識別フィルタ合成部4、類識別フィルタ格納部5及び目標種類判定部6のそれぞれが専用のハードウェアで構成されているものを想定しているが、目標類識別装置がコンピュータで構成されていてもよい。
目標類識別装置がコンピュータで構成されている場合、教師画像格納部1及び類識別フィルタ格納部5をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、2次元フーリエ変換部2、教師画像位置合わせ部3、類識別フィルタ合成部4及び目標種類判定部6の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2は教師画像位置合わせ部3及び類識別フィルタ合成部4による類識別フィルタの生成処理を示す概念図である。
In the example of FIG. 1, a teacher image storage unit 1, a two-dimensional Fourier transform unit 2, a teacher image alignment unit 3, a class identification filter synthesis unit 4, a class identification filter storage unit 5, and a target, which are components of the target class identification device. Although each of the type determination units 6 is assumed to be configured with dedicated hardware, the target class identification device may be configured with a computer.
When the target class identification device is configured by a computer, the teacher image storage unit 1 and the class identification filter storage unit 5 are configured on the internal memory or the external memory of the computer, and the two-dimensional Fourier transform unit 2, the teacher image alignment The program describing the processing contents of the unit 3, the class identification filter synthesis unit 4 and the target type determination unit 6 is stored in the memory of the computer, and the CPU of the computer executes the program stored in the memory. do it.
FIG. 2 is a conceptual diagram illustrating a class identification filter generation process performed by the teacher image registration unit 3 and the class identification filter synthesis unit 4.

図3はこの発明の実施の形態1による類識別フィルタ生成装置の教師画像位置合わせ部3を示す構成図である。
図3において、複素共役乗算部11はN個の教師画像の中の2個の教師画像の組み合わせ毎に、2次元フーリエ変換部2により変換された2個の2次元スペクトル信号(周波数領域のスペクトル信号)の複素共役を乗算することで、2個の教師画像のクロススペクトル信号を算出する処理を実施する。なお、複素共役乗算部11はクロススペクトル信号算出部を構成している。
FIG. 3 is a block diagram showing the teacher image alignment unit 3 of the class identification filter generation device according to Embodiment 1 of the present invention.
In FIG. 3, the complex conjugate multiplier 11 performs two two-dimensional spectrum signals (frequency domain spectrum) transformed by the two-dimensional Fourier transform unit 2 for each combination of two teacher images in N teacher images. Signal) is multiplied by a complex conjugate to calculate a cross spectrum signal of two teacher images. The complex conjugate multiplication unit 11 constitutes a cross spectrum signal calculation unit.

2次元逆フーリエ変換部12は2個の教師画像の組み合わせ毎に、複素共役乗算部11により算出されたクロススペクトル信号に対する2次元逆フーリエ変換処理を実施することで、そのクロススペクトル信号を空間領域の信号に変換する処理を実施する。なお、2次元逆フーリエ変換部12は空間領域変換部を構成している。
ピーク検出部13は2個の教師画像の組み合わせ毎に、2次元逆フーリエ変換部12により変換された空間領域の信号のピーク値を検出するとともに、そのピーク値の位置であるピーク位置を検出する処理を実施する。
The two-dimensional inverse Fourier transform unit 12 performs a two-dimensional inverse Fourier transform process on the cross spectrum signal calculated by the complex conjugate multiplication unit 11 for each combination of two teacher images, thereby converting the cross spectrum signal into a spatial domain. The process of converting to the signal is performed. The two-dimensional inverse Fourier transform unit 12 constitutes a spatial domain transform unit.
For each combination of two teacher images, the peak detection unit 13 detects the peak value of the signal in the spatial region converted by the two-dimensional inverse Fourier transform unit 12, and detects the peak position that is the position of the peak value. Implement the process.

クラスタリング部14はピーク検出部13により空間領域の信号から検出されたピーク値を2個の教師画像間の適合度とみなし、その適合度が予め設定された閾値より高ければ、その2個の教師画像を同一のクラスタに分類する処理を繰り返すことで、N個の教師画像をクラスタリングする。
平行移動量決定部15はピーク検出部13により検出されたピーク位置を用いて、クラスタリング部14により同一のクラスタに分類された教師画像同士の位置ずれ量を推定し、その位置ずれ量からクラスタリング部14により同一のクラスタに分類された教師画像の平行移動量を決定する処理を実施する。
教師画像平行移動部16は平行移動量決定部15により決定された平行移動量だけ教師画像を平行移動させる処理を実施する。
The clustering unit 14 regards the peak value detected from the signal in the spatial region by the peak detection unit 13 as the fitness between two teacher images. If the fitness is higher than a preset threshold, the two teachers By repeating the process of classifying images into the same cluster, N teacher images are clustered.
Using the peak position detected by the peak detector 13, the parallel movement amount determiner 15 estimates the amount of misalignment between the teacher images classified into the same cluster by the clustering unit 14, and the clustering unit based on the amount of misalignment. 14 is performed to determine the parallel movement amount of the teacher images classified into the same cluster.
The teacher image translation unit 16 performs a process of translating the teacher image by the translation amount determined by the translation amount determination unit 15.

次に動作について説明する。
2次元フーリエ変換部2は、教師画像格納部1からN個の教師画像を示す教師画像データを入力すると、N個の教師画像データに対する2次元フーリエ変換処理を実施することで、N個の教師画像データを周波数領域のスペクトル信号にそれぞれ変換する。
2次元フーリエ変換部2は、N個の教師画像データを2次元スペクトル信号(周波数領域のスペクトル信号)に変換すると、その2次元スペクトル信号をラスタスキャンしてベクトル化し、ベクトル化した2次元スペクトル信号x,x,・・・,xを教師画像位置合わせ部3に出力する。
図2では、4個の教師画像A,B,C,Dを示す教師画像データが2次元フーリエ変換部2に入力されて、4個のベクトル化した2次元スペクトル信号x,x,x,xが教師画像位置合わせ部3に出力されている。
Next, the operation will be described.
When the teacher image data indicating N teacher images is input from the teacher image storage unit 1, the two-dimensional Fourier transform unit 2 performs the two-dimensional Fourier transform process on the N teacher image data to thereby obtain N teacher images. Each of the image data is converted into a spectrum signal in the frequency domain.
The two-dimensional Fourier transform unit 2 converts N pieces of teacher image data into a two-dimensional spectrum signal (frequency domain spectrum signal), raster-scans the two-dimensional spectrum signal, and vectorizes the two-dimensional spectrum signal. x 1, x 2, and outputs ..., and x N to the teacher image registration unit 3.
In FIG. 2, teacher image data indicating four teacher images A, B, C, and D are input to the two-dimensional Fourier transform unit 2 and four vectorized two-dimensional spectrum signals x 1 , x 2 , x 3, x N are output to the teacher image registration unit 3.

教師画像位置合わせ部3は、2次元フーリエ変換部2からベクトル化された2次元スペクトル信号x,x,・・・,xを受けると、その2次元スペクトル信号x,x,・・・,xを用いて、N個の教師画像間の適合度を算出し、その適合度を基準にしてN個の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせ処理を実施する。
図2の例では、教師画像A,B,Dの相違が小さいため、同一のクラスタに分類されているが、教師画像Cは、教師画像A,B,Dと相違が大きいため、別のクラスタに分類されている。このため、同一のクラスタに属している教師画像A,B,Dの間で位置合わせ処理が実施される。教師画像Cは、同じクラスタ内に他の教師画像が分類されていないので、位置合わせ処理が実施されない。
以下、教師画像位置合わせ部3による教師画像の位置合わせ処理を具体的に説明する。
Upon receiving the vectorized two-dimensional spectrum signals x 1 , x 2 ,..., X N from the two-dimensional Fourier transform unit 2, the teacher image alignment unit 3 receives the two-dimensional spectrum signals x 1 , x 2 , .., X N is used to calculate the fitness between the N teacher images, and the N teacher images are classified into one or more clusters based on the fitness, and belong to the same cluster Perform alignment processing between teacher images.
In the example of FIG. 2, since the difference between the teacher images A, B, and D is small, they are classified into the same cluster. However, the teacher image C is different from the teacher images A, B, and D, so that another cluster is used. It is classified. For this reason, alignment processing is performed between the teacher images A, B, and D belonging to the same cluster. For the teacher image C, no other teacher images are classified in the same cluster, so that the alignment process is not performed.
Hereinafter, the teacher image alignment processing by the teacher image alignment unit 3 will be described in detail.

教師画像位置合わせ部3の複素共役乗算部11は、2次元フーリエ変換部2からベクトル化された2次元スペクトル信号x,x,・・・,xを受けると、N個の教師画像の中の2個の教師画像の組み合わせ毎に、2個の2次元スペクトル信号(周波数領域のスペクトル信号)の複素共役を乗算することで、2個の教師画像のクロススペクトル信号を算出する。
下記の式(6)は、2個の教師画像の組み合わせが、m番目の教師画像とn番目の教師画像である場合のクロススペクトル信号zm,nの算出式を示している。

Figure 2015021824

Figure 2015021824
式(6)では、クロススペクトル信号zm,nをxとxのエネルギーで正規化している。 When the complex conjugate multiplication unit 11 of the teacher image alignment unit 3 receives the two-dimensional spectrum signals x 1 , x 2 ,..., X N from the two-dimensional Fourier transform unit 2, N teacher images are obtained. The cross spectrum signal of two teacher images is calculated by multiplying the complex conjugate of two two-dimensional spectrum signals (frequency domain spectrum signals) for each combination of two teacher images.
Equation (6) below shows a formula for calculating the cross spectrum signal z m, n when the combination of two teacher images is the m-th teacher image and the n-th teacher image.
Figure 2015021824

Figure 2015021824
In Expression (6), the cross spectrum signal z m, n is normalized by the energy of x m and x n .

2次元逆フーリエ変換部12は、複素共役乗算部11が2個の教師画像の組み合わせ毎にクロススペクトル信号zm,nを算出すると、2個の教師画像の組み合わせ毎に、そのクロススペクトル信号zm,nに対する2次元逆フーリエ変換処理を実施することで、そのクロススペクトル信号zm,nを空間領域の信号に変換する。
空間領域の信号は、m番目の教師画像とn番目の教師画像との相互相関関数に相当することが知られている。
When the complex conjugate multiplication unit 11 calculates the cross spectrum signal z m, n for each combination of two teacher images, the two-dimensional inverse Fourier transform unit 12 calculates the cross spectrum signal z for each combination of two teacher images. m, by carrying out a two-dimensional inverse Fourier transform process on n, to convert the cross-spectrum signal z m, n to the signal in the spatial domain.
It is known that the signal in the spatial domain corresponds to a cross-correlation function between the mth teacher image and the nth teacher image.

ピーク検出部13は、2次元逆フーリエ変換部12が2個の教師画像の組み合わせ毎にクロススペクトル信号zm,nを空間領域の信号に変換すると、2個の教師画像の組み合わせ毎に、その空間領域の信号のピーク値として、2個の教師画像の相互相関関数の絶対値の最大値Pm,n(m=1,・・・,N−1; n=m+1,・・・,N)を検出する。
最大値Pm,nの値域は、0≦Pm,n≦1であり、m番目の教師画像とn番目の教師画像との適合度を表す指標として使用することができる。
ピーク検出部13は、m番目の教師画像とn番目の教師画像との適合度である最大値Pm,nを検出すると、最大値Pm,nに対応する相互相関関数の位置(xy座標)であるピーク位置を検出する。
When the two-dimensional inverse Fourier transform unit 12 converts the cross spectrum signal z m, n into a spatial domain signal for each combination of two teacher images, the peak detection unit 13 As the peak value of the signal in the spatial domain, the maximum value P m, n (m = 1,..., N−1; n = m + 1,. ) Is detected.
The range of the maximum value P m, n is 0 ≦ P m, n ≦ 1, and can be used as an index representing the degree of matching between the m-th teacher image and the n-th teacher image.
When the peak detection unit 13 detects the maximum value P m, n that is the fitness between the m-th teacher image and the n-th teacher image, the position of the cross-correlation function corresponding to the maximum value P m, n (xy coordinates) ) Is detected.

クラスタリング部14は、ピーク検出部13が2個の教師画像の組み合わせ毎に最大値Pm,nを検出すると、その最大値Pm,nをm番目の教師画像とn番目の教師画像との適合度とみなし、その適合度Pm,nを予め設定されている閾値Pthと比較する。
クラスタリング部14は、その適合度Pm,nが閾値Pthより大きければ、m番目の教師画像とn番目の教師画像との相違が小さいので、m番目の教師画像とn番目の教師画像を同一のクラスタに分類する。
クラスタリング部14は、2個の教師画像の組み合わせの全てについて、上記の処理を繰り返すことで、N個の教師画像をクラスタリングする。
When the peak detection unit 13 detects the maximum value P m, n for each combination of two teacher images, the clustering unit 14 determines the maximum value P m, n between the mth teacher image and the nth teacher image. The degree of conformity is regarded, and the degree of conformance Pm, n is compared with a preset threshold value Pth .
If the matching level P m, n is greater than the threshold value P th , the clustering unit 14 has a small difference between the m-th teacher image and the n-th teacher image. Classify to the same cluster.
The clustering unit 14 repeats the above process for all combinations of two teacher images, thereby clustering N teacher images.

この結果、N個の教師画像は、いくつかのクラスタに分類される。このとき、他の教師画像と同一のクラスタに分類されず、孤立してしまう教師画像も発生し得るが、その場合は、1つの教師画像で類識別フィルタを生成することになる。
以下では、クラスタリング部14によりQ個のクラスタが生成され、q番目のクラスタに含まれる教師画像の番号のセットをΩで表すことにする。
図2の例では、教師画像A,B,Dの相違が小さいため、同一のクラスタに分類されているが、教師画像Cは、教師画像A,B,Dと相違が大きいため、別のクラスタに分類されている。その結果、4個の教師画像A,B,C,Dは、2個のクラスタに分類されている。
As a result, the N teacher images are classified into several clusters. At this time, a teacher image that is not classified into the same cluster as other teacher images and is isolated may also be generated. In this case, a class identification filter is generated with one teacher image.
Hereinafter, Q-number of clusters generated by the clustering unit 14, to represent a set of numbers of teacher images included in the q-th cluster Omega q.
In the example of FIG. 2, since the difference between the teacher images A, B, and D is small, they are classified into the same cluster. However, the teacher image C is different from the teacher images A, B, and D, so that another cluster is used. It is classified. As a result, the four teacher images A, B, C, and D are classified into two clusters.

平行移動量決定部15は、ピーク検出部13により検出された最大値Pm,nに対応する相互相関関数のピーク位置を用いて、クラスタリング部14により同一のクラスタに分類された教師画像同士の位置ずれ量を推定する。
例えば、m番目の教師画像とn番目の教師画像が同一のクラスタに分類されている場合、最大値Pm,nに対応する相互相関関数のピーク位置がxy座標の原点を示していれば、m番目の教師画像とn番目の教師画像との間には位置ずれがないと判断される。
一方、最大値Pm,nに対応する相互相関関数のピーク位置がxy座標の原点を示していなければ、m番目の教師画像とn番目の教師画像との間に位置ずれがあり、そのピーク位置のx座標値がx方向の位置ずれ量、そのピーク位置のy座標値がy方向の位置ずれ量であると推定される。
The translation amount determination unit 15 uses the peak position of the cross-correlation function corresponding to the maximum value P m, n detected by the peak detection unit 13, and uses the peak position of the cross correlation function between the teacher images classified into the same cluster by the clustering unit 14. Estimate the amount of displacement.
For example, if the m-th teacher image and the n-th teacher image are classified into the same cluster, if the peak position of the cross-correlation function corresponding to the maximum value P m, n indicates the origin of the xy coordinates, It is determined that there is no displacement between the m-th teacher image and the n-th teacher image.
On the other hand, if the peak position of the cross-correlation function corresponding to the maximum value P m, n does not indicate the origin of the xy coordinates, there is a position shift between the m-th teacher image and the n-th teacher image, and the peak It is estimated that the x coordinate value of the position is the amount of positional deviation in the x direction, and the y coordinate value of the peak position is the amount of positional deviation in the y direction.

平行移動量決定部15は、同一のクラスタに分類された教師画像同士の位置ずれ量を推定すると、その位置ずれ量から同一のクラスタに分類された教師画像の平行移動量を決定する。
例えば、3個の教師画像(教師画像A,B,D)が同一のクラスタに分類されている場合、教師画像A,B,Dの中から任意の教師画像を基準画像として選択する。その基準画像が仮に教師画像Aであるとすれば、教師画像Aの平行移動量は0、教師画像Bの平行移動量は教師画像Aと教師画像Bの位置ずれ量、教師画像Dの平行移動量は教師画像Aと教師画像Dの位置ずれ量のように決定する。
When the amount of positional deviation between the teacher images classified into the same cluster is estimated, the parallel movement amount determination unit 15 determines the amount of parallel movement of the teacher images classified into the same cluster from the amount of positional deviation.
For example, when three teacher images (teacher images A, B, and D) are classified into the same cluster, an arbitrary teacher image is selected from the teacher images A, B, and D as a reference image. If the reference image is the teacher image A, the translation amount of the teacher image A is 0, the translation amount of the teacher image B is the amount of misalignment between the teacher images A and B, and the translation of the teacher image D. The amount is determined like the amount of misalignment between the teacher image A and the teacher image D.

教師画像平行移動部16は、平行移動量決定部15が同一のクラスタに分類された教師画像の平行移動量を決定すると、その教師画像の平行移動量に対応する変換行列D(n∈Ω)を生成する。
なお、変換行列D(n∈Ω)は対角行列であり、対角成分は位置ずれ量推定部15により推定された位置ずれ量に対応しており、フーリエ変換のシフト則に従って決まるリニアな位相成分を有する複素の信号である。
When the translation amount determination unit 15 determines the translation amount of the teacher images classified into the same cluster, the teacher image translation unit 16 converts the transformation matrix D n (nεΩ) corresponding to the translation amount of the teacher image. q ).
Note that the transformation matrix D n (n∈Ω q ) is a diagonal matrix, and the diagonal component corresponds to the positional deviation amount estimated by the positional deviation amount estimation unit 15 and is linear determined according to the Fourier transform shift rule. It is a complex signal having a correct phase component.

教師画像平行移動部16は、教師画像の平行移動量に対応する変換行列D(n∈Ω)を生成すると、同一のクラスタに分類された教師画像間の位置を揃えるために、その変換行列D(n∈Ω)を当該教師画像のスペクトル信号x(n∈Ω)に掛け合わせることで、その平行移動量分だけ教師画像を平行移動させる。
教師画像平行移動部16は、平行移動後の教師画像の2次元スペクトル信号Yを類識別フィルタ合成部4に出力する。

Figure 2015021824
When the teacher image translation unit 16 generates a transformation matrix D n (n∈Ω q ) corresponding to the translation amount of the teacher image, the transformation is performed to align the positions of the teacher images classified into the same cluster. By multiplying the matrix D n (nεΩ q ) by the spectrum signal x n (nεΩ q ) of the teacher image, the teacher image is translated by the amount of translation.
The teacher image translation unit 16 outputs the two-dimensional spectrum signal Y of the teacher image after translation to the class identification filter synthesis unit 4.
Figure 2015021824

この実施の形態1では、教師画像位置合わせ部3の複素共役乗算部11が、N個の教師画像の中の2個の教師画像の組み合わせ毎に、2個の教師画像のクロススペクトル信号を算出するものを示しているが、事前に適正な教師画像が選択されており、教師画像の位置合わせのみが必要な場合は、全ての2個の組み合わせについて、クロススペクトル信号を算出することは必須でない。
例えば、目標位置の基準とする教師画像を1つ選択し、その教師画像と、他のN−1個の教師画像との間でクロススペクトルを算出する方法も可能である。
In the first embodiment, the complex conjugate multiplication unit 11 of the teacher image registration unit 3 calculates cross spectrum signals of two teacher images for each combination of two teacher images in N teacher images. However, if an appropriate teacher image is selected in advance and only alignment of the teacher image is necessary, it is not essential to calculate cross-spectral signals for all two combinations. .
For example, it is possible to select one teacher image as a reference for the target position and calculate a cross spectrum between the teacher image and other N-1 teacher images.

類識別フィルタ合成部4は、教師画像位置合わせ部3により分類されたクラスタ毎に、教師画像位置合わせ部3から出力された平行移動後の2次元スペクトル信号Yを下記の式(8)に代入して、類識別フィルタであるMINACEフィルタhを生成し、その類識別フィルタを類識別フィルタ格納部5に格納する。
このとき、同一のクラスタに分類されている複数の教師画像間の位置が精度よく揃えられているため、図2に描写されているように、類識別フィルタの形状が徒に広がる問題が回避される。

Figure 2015021824
ただし、
Figure 2015021824
For each cluster classified by the teacher image registration unit 3, the class identification filter synthesis unit 4 substitutes the translated two-dimensional spectrum signal Y output from the teacher image registration unit 3 into the following equation (8). Then, a MINACE filter h that is a class identification filter is generated, and the class identification filter is stored in the class identification filter storage unit 5.
At this time, since the positions between the plurality of teacher images classified into the same cluster are accurately aligned, the problem that the shape of the class identification filter spreads as shown in FIG. 2 is avoided. The
Figure 2015021824
However,
Figure 2015021824

また、Tは対角行列であり、その対角成分は、下記の式(10)に示すように、全ての教師画像の電力スペクトルの最大値で与えられる。

Figure 2015021824

Figure 2015021824
式(10)において、Wは雑音の共分散行列であり、全ての教師画像の電力スペクトルの値が雑音レベルの定数倍(c倍)を下回る場合、教師画像の電力スペクトルの代わりに、雑音レベルの定数倍(c倍)の値で置き換える。
なお、式(10)の最後のcWは、生成されるMINACEフィルタhの雑音耐性を高めるために導入されている。 T is a diagonal matrix, and the diagonal component is given by the maximum value of the power spectrum of all the teacher images as shown in the following equation (10).
Figure 2015021824

Figure 2015021824
In Expression (10), W is a noise covariance matrix, and when the power spectrum values of all the teacher images are less than a constant multiple (c times) of the noise level, the noise level is used instead of the power spectrum of the teacher image. Replace with a value that is a constant multiple of (c times).
Note that the last cW in Expression (10) is introduced in order to increase the noise tolerance of the generated MINACE filter h.

ここで、MINACEフィルタhは、ベクトル化した2次元スペクトル信号D,D,・・・,Dの「重みづけ平均」の形で与えられており、2次元スペクトル空間内で定義されている。
よって、MINACEフィルタhを2次元逆フーリエ変換すると、図2の類識別フィルタに示すように、画像領域での目標類識別フィルタの形状が得られる。
なお、厳密には、MINACEフィルタhは、ベクトルの形で与えられているので、2次元フーリエ変換結果である2次元スペクトル信号をラスタスキャンしてベクトル化することで、2次元スペクトル信号x,x,・・・,xを得たのと逆の要領で、MINACEフィルタhを2次元信号に戻してから2次元逆フーリエ変換する必要がある。
Here, the MINACE filter h is given in the form of a “weighted average” of the vectorized two-dimensional spectrum signals D 1 x 1 , D 2 x 2 ,..., D N x N. It is defined in space.
Therefore, when the MINACE filter h is subjected to two-dimensional inverse Fourier transform, the shape of the target class identification filter in the image region is obtained as shown in the class identification filter of FIG.
Strictly speaking, since the MINACE filter h is given in the form of a vector, the two-dimensional spectrum signal x 1 , It is necessary to perform a two-dimensional inverse Fourier transform after returning the MINACE filter h to a two-dimensional signal in the reverse manner of obtaining x 2 ,..., x N.

図2の例では、3個の教師画像A,B,Dからなる類識別フィルタと、1個の教師画像Cからなる類識別フィルタとが生成され、2個の類識別フィルタが類識別フィルタ格納部5に格納される。   In the example of FIG. 2, a class identification filter including three teacher images A, B, and D and a class identification filter including one teacher image C are generated, and two class identification filters are stored in the class identification filter. Stored in the unit 5.

目標種類判定部6は、類識別対象の目標の観測画像を入力すると、その観測画像と類識別フィルタ格納部5により格納されている1以上の類識別フィルタとを照合して、その観測画像との一致度が事前に設定された閾値以上である類識別フィルタを探索し、その類識別フィルタに対応する目標の種類が類識別対象の目標の種類であると認定する。   When the target type determination unit 6 inputs the observation image of the target of the class identification target, the target type determination unit 6 compares the observation image with one or more class identification filters stored in the class identification filter storage unit 5, A class identification filter having a matching degree equal to or higher than a preset threshold is searched, and the target type corresponding to the class identification filter is recognized as the target type of the class identification target.

以上で明らかなように、この実施の形態1によれば、2次元フーリエ変換部2により変換された周波数領域のスペクトル信号を用いて、複数の教師画像間の適合度を算出し、その適合度を基準にして複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせを行う教師画像位置合わせ部3を設け、類識別フィルタ合成部4が、教師画像位置合わせ部3により分類されたクラスタ毎に、教師画像位置合わせ部3により位置合わせが行われた教師画像同士を合成して類識別フィルタを生成するように構成したので、演算量の増加を招くことなく、目標の類識別性能が高い類識別フィルタを生成することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the degree of fitness between a plurality of teacher images is calculated using the frequency domain spectrum signal transformed by the two-dimensional Fourier transform unit 2, and the degree of fitness is calculated. Is provided with a teacher image alignment unit 3 that classifies a plurality of teacher images into one or more clusters and aligns the teacher images belonging to the same cluster. Since the class identification filter is generated by synthesizing the teacher images aligned by the teacher image alignment unit 3 for each cluster classified by the alignment unit 3, the amount of calculation is increased. Without any effect, it is possible to generate a class identification filter having a high target class identification performance.

即ち、この実施の形態1によれば、複数の教師画像を合成する前に、教師画像間の互いの適合度を評価し、適合度が十分に高い教師画像同士を同一のクラスタに分類することで、過剰に多くの教師画像を合成してしまって、目標識別性能が低い類識別フィルタの生成を防ぐことができる。
また、複数の教師画像を合成する前に、教師画像間の相互相関関数のピーク位置から推定される位置ずれ量に基づいて、複数の教師画像の位置を揃えてから2次元スペクトル信号Yを合成して類識別フィルタを生成するため、その類識別フィルタが徒に広がってしまう問題を回避することができる。
さらに、相互相関関数を算出する際、クロススペクトルの計算を経ており、また、教師画像同士の位置合わせの処理を周波数領域で位相関数を掛け合わせることのみで実施しているため、上記の特許文献1に記載されている位置合わせ方法と比較して、演算速度の高速化を図ることができる。
That is, according to the first embodiment, before synthesizing a plurality of teacher images, the degree of matching between the teacher images is evaluated, and the teacher images having sufficiently high degrees of matching are classified into the same cluster. Therefore, it is possible to prevent the generation of a class identification filter having a low target identification performance by synthesizing an excessive number of teacher images.
In addition, before synthesizing the plurality of teacher images, the two-dimensional spectrum signal Y is synthesized after aligning the positions of the plurality of teacher images based on the positional deviation amount estimated from the peak position of the cross-correlation function between the teacher images. Thus, since the class identification filter is generated, the problem that the class identification filter spreads out can be avoided.
Furthermore, when calculating the cross-correlation function, the cross-spectrum calculation has been performed, and the alignment process between the teacher images is performed only by multiplying the phase function in the frequency domain. As compared with the alignment method described in No. 1, the calculation speed can be increased.

実施の形態2.
図4はこの発明の実施の形態2による類識別フィルタ生成装置を実装している目標類識別装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
教師画像位置合わせ部20は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、図1の教師画像位置合わせ部3と同様に、2次元フーリエ変換部2により変換された周波数領域のスペクトル信号を用いて、複数の教師画像間の適合度を算出し、その適合度を基準にして複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせ処理を実施するが、複数の教師画像に存在している目標の向きを合わせた状態で、複数の教師画像間の適合度を算出する点で、図1の教師画像位置合わせ部3と相違している。なお、教師画像位置合わせ部20は教師画像位置合わせ手段を構成している。
Embodiment 2. FIG.
FIG. 4 is a block diagram showing a target class identification device in which a class identification filter generation device according to Embodiment 2 of the present invention is mounted. In the figure, the same reference numerals as those in FIG. Omitted.
The teacher image alignment unit 20 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like. Like the teacher image alignment unit 3 in FIG. Using the converted frequency domain spectral signal, the degree of matching between a plurality of teacher images is calculated, the plurality of teacher images are classified into one or more clusters based on the degree of matching, and belong to the same cluster The teacher image position shown in FIG. 1 is calculated in that the degree of matching between the plurality of teacher images is calculated in a state where the orientations of the targets existing in the plurality of teacher images are aligned. This is different from the mating unit 3. The teacher image alignment unit 20 constitutes a teacher image alignment unit.

図4の例では、目標類識別装置の構成要素である教師画像格納部1、2次元フーリエ変換部2、教師画像位置合わせ部20、類識別フィルタ合成部4、類識別フィルタ格納部5及び目標種類判定部6のそれぞれが専用のハードウェアで構成されているものを想定しているが、目標類識別装置がコンピュータで構成されていてもよい。
目標類識別装置がコンピュータで構成されている場合、教師画像格納部1及び類識別フィルタ格納部5をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、2次元フーリエ変換部2、教師画像位置合わせ部20、類識別フィルタ合成部4及び目標種類判定部6の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
In the example of FIG. 4, a teacher image storage unit 1, a two-dimensional Fourier transform unit 2, a teacher image alignment unit 20, a class identification filter synthesis unit 4, a class identification filter storage unit 5, and a target that are components of the target class identification device. Although each of the type determination units 6 is assumed to be configured with dedicated hardware, the target class identification device may be configured with a computer.
When the target class identification device is configured by a computer, the teacher image storage unit 1 and the class identification filter storage unit 5 are configured on the internal memory or the external memory of the computer, and the two-dimensional Fourier transform unit 2, the teacher image alignment The program describing the processing contents of the unit 20, the class identification filter synthesis unit 4 and the target type determination unit 6 is stored in the memory of the computer, and the CPU of the computer executes the program stored in the memory. do it.

図5はこの発明の実施の形態2による類識別フィルタ生成装置の教師画像位置合わせ部20を示す構成図である。
図5において、対数極座標変換部21は2次元フーリエ変換部2から出力された2次元スペクトル信号x,x,・・・,xを対数極座標変換し、その変換結果である対数極座標変換信号ζ,ζ,・・・,ζを出力する処理を実施する。
2次元逆フーリエ変換部22は対数極座標変換部21から出力された対数極座標変換信号ζ,ζ,・・・,ζに対する2次元逆フーリエ変換処理を実施することで、その対数極座標変換信号ζ,ζ,・・・,ζを空間領域の信号に変換する処理を実施する。
FIG. 5 is a block diagram showing the teacher image alignment unit 20 of the class identification filter generation device according to Embodiment 2 of the present invention.
5, log-polar transformation unit 21 two-dimensional spectra output from the two-dimensional Fourier transform unit 2 signals x 1, x 2, · · ·, a x N logarithmic polar coordinate transformation, log-polar transform is the result of the conversion Processing for outputting signals ζ 1 , ζ 2 ,..., Ζ N is performed.
The two-dimensional inverse Fourier transform unit 22 log-polar transform signal zeta 1 output from the logarithmic polar coordinate transformation unit 21, zeta 2, by implementing ..., the two-dimensional inverse Fourier transform processing on the zeta N, the log-polar transform A process of converting the signals ζ 1 , ζ 2 ,..., Ζ N into a spatial domain signal is performed.

複素共役乗算部23はN個の教師画像の中の2個の教師画像の組み合わせ毎に、2次元逆フーリエ変換部22により変換された2個の空間領域の信号の複素共役を乗算する処理を実施する。
2次元フーリエ変換部24は複素共役乗算部23の乗算結果を2次元フーリエ変換する処理を実施する。
ピーク検出部25は2個の教師画像の組み合わせ毎に、2次元フーリエ変換部24の2次元フーリエ変換結果のピーク値を検出するとともに、そのピーク値の位置であるピーク位置を検出する処理を実施する。
回転量算出部26はピーク検出部25により検出されたピーク位置から、対数極座標変換部21から出力された対数極座標変換信号ζ,ζ,・・・,ζの間の位置ずれ量(複数の教師画像に存在している目標の向きのずれ量に相当し、複数の教師画像間のスケーリングと回転量に対応している)を推定し、その対数極座標変換信号ζ,ζ,・・・,ζの間の位置ずれ量から複数の教師画像の回転量をそれぞれ算出する処理を実施する。
なお、2次元逆フーリエ変換部22、複素共役乗算部23、2次元フーリエ変換部24、ピーク検出部25及び回転量算出部26から回転量算出手段が構成されている。
The complex conjugate multiplier 23 performs a process of multiplying the complex conjugate of the two spatial domain signals transformed by the two-dimensional inverse Fourier transform unit 22 for each combination of two teacher images in the N teacher images. carry out.
The two-dimensional Fourier transform unit 24 performs a process of performing a two-dimensional Fourier transform on the multiplication result of the complex conjugate multiplication unit 23.
For each combination of two teacher images, the peak detection unit 25 detects the peak value of the two-dimensional Fourier transform result of the two-dimensional Fourier transform unit 24 and detects the peak position that is the position of the peak value. To do.
The rotation amount calculation unit 26 detects a positional deviation amount between the logarithmic polar coordinate conversion signals ζ 1 , ζ 2 ,..., Ζ N output from the logarithmic polar coordinate conversion unit 21 from the peak position detected by the peak detection unit 25. Corresponding to the amount of deviation of the target direction existing in a plurality of teacher images and corresponding to the scaling and rotation amount between the plurality of teacher images), and logarithmic polar coordinate conversion signals ζ 1 , ζ 2 , ..., and it carries out a process of calculating respectively the amount of rotation of the plurality of teacher images from the amount of positional deviation between the zeta N.
The two-dimensional inverse Fourier transform unit 22, the complex conjugate multiplication unit 23, the two-dimensional Fourier transform unit 24, the peak detection unit 25, and the rotation amount calculation unit 26 constitute a rotation amount calculation means.

教師画像回転部27は回転量算出部26により算出された回転量だけ複数の教師画像をそれぞれ回転させる処理を実施する。
2次元フーリエ変換部28は教師画像回転部27により回転された複数の教師画像を示す教師画像データに対する2次元フーリエ変換処理を実施することで、複数の教師画像データを周波数領域のスペクトル信号にそれぞれ変換する。
なお、教師画像回転部27及び2次元フーリエ変換部28から教師画像回転手段が構成されている。
The teacher image rotation unit 27 performs a process of rotating a plurality of teacher images by the rotation amount calculated by the rotation amount calculation unit 26.
The two-dimensional Fourier transform unit 28 performs a two-dimensional Fourier transform process on the teacher image data indicating the plurality of teacher images rotated by the teacher image rotation unit 27, thereby converting the plurality of teacher image data into spectrum signals in the frequency domain. Convert.
The teacher image rotation unit 27 and the two-dimensional Fourier transform unit 28 constitute a teacher image rotation unit.

複素共役乗算部29はN個の教師画像の中の2個の教師画像の組み合わせ毎に、2次元フーリエ変換部28により変換された2個の2次元スペクトル信号(周波数領域のスペクトル信号)の複素共役を乗算することで、2個の教師画像のクロススペクトル信号を算出する処理を実施する。なお、複素共役乗算部29はクロススペクトル信号算出部を構成している。   The complex conjugate multiplier 29 is a complex of two two-dimensional spectrum signals (frequency domain spectrum signals) transformed by the two-dimensional Fourier transform unit 28 for each combination of two teacher images of N teacher images. A process of calculating cross spectrum signals of two teacher images is performed by multiplying the conjugate. The complex conjugate multiplication unit 29 constitutes a cross spectrum signal calculation unit.

2次元逆フーリエ変換部30は2個の教師画像の組み合わせ毎に、複素共役乗算部29により算出されたクロススペクトル信号に対する2次元逆フーリエ変換処理を実施することで、そのクロススペクトル信号を空間領域の信号に変換する処理を実施する。なお、2次元逆フーリエ変換部30は空間領域変換部を構成している。
ピーク検出部31は2個の教師画像の組み合わせ毎に、2次元逆フーリエ変換部30により変換された空間領域の信号のピーク値を検出するとともに、そのピーク値の位置であるピーク位置を検出する処理を実施する。
The two-dimensional inverse Fourier transform unit 30 performs a two-dimensional inverse Fourier transform process on the cross spectrum signal calculated by the complex conjugate multiplication unit 29 for each combination of two teacher images, thereby converting the cross spectrum signal into a spatial domain. The process of converting to the signal is performed. The two-dimensional inverse Fourier transform unit 30 constitutes a space domain transform unit.
For each combination of two teacher images, the peak detector 31 detects the peak value of the signal in the spatial region transformed by the two-dimensional inverse Fourier transform unit 30 and detects the peak position that is the position of the peak value. Implement the process.

クラスタリング部32はピーク検出部31により空間領域の信号から検出されたピーク値を2個の教師画像間の適合度とみなし、その適合度が予め設定された閾値より高ければ、その2個の教師画像を同一のクラスタに分類する処理を繰り返すことで、N個の教師画像をクラスタリングする。
平行移動量決定部33はピーク検出部31により検出されたピーク位置を用いて、クラスタリング部32により同一のクラスタに分類された教師画像同士の位置ずれ量を推定し、その位置ずれ量からクラスタリング部32により同一のクラスタに分類された教師画像の平行移動量を決定する処理を実施する。
教師画像平行移動部34は平行移動量決定部33により決定された平行移動量だけ教師画像を平行移動させる処理を実施する。
The clustering unit 32 regards the peak value detected from the spatial domain signal by the peak detection unit 31 as the fitness between two teacher images, and if the fitness is higher than a preset threshold, the two teachers By repeating the process of classifying images into the same cluster, N teacher images are clustered.
Using the peak position detected by the peak detection unit 31, the parallel movement amount determination unit 33 estimates the amount of misalignment between the teacher images classified into the same cluster by the clustering unit 32, and the clustering unit based on the amount of misalignment. The process of determining the parallel movement amount of the teacher images classified into the same cluster by 32 is performed.
The teacher image translation unit 34 performs a process of translating the teacher image by the translation amount determined by the translation amount determination unit 33.

2次元逆フーリエ変換部35は教師画像平行移動部34により平行移動させた複数の教師画像を示す教師画像データに対する2次元逆フーリエ変換処理を実施することで、その教師画像データを空間領域の信号に変換する処理を実施する。
教師画像逆回転部36は回転量算出部26により算出された回転量だけ、2次元フーリエ変換部35により変換された空間領域の信号(教師画像平行移動部34により平行移動させた複数の教師画像に対応する信号)をそれぞれ元の方向に逆回転させる処理を実施する。
2次元フーリエ変換部37は教師画像逆回転部36により逆回転させた複数の空間領域の信号に対する2次元フーリエ変換処理を実施することで、その空間領域の信号を周波数領域の信号に変換する処理を実施する。
なお、2次元逆フーリエ変換部35、教師画像逆回転部36及び2次元フーリエ変換部37から教師画像逆回転手段が構成されている。
The two-dimensional inverse Fourier transform unit 35 performs two-dimensional inverse Fourier transform processing on the teacher image data indicating a plurality of teacher images translated by the teacher image translation unit 34, thereby converting the teacher image data into a spatial domain signal. Perform the process of converting to.
The teacher image reverse rotation unit 36 is a spatial region signal converted by the two-dimensional Fourier transform unit 35 by the rotation amount calculated by the rotation amount calculation unit 26 (a plurality of teacher images translated by the teacher image translation unit 34). The signal corresponding to 1) is rotated in the original direction.
The two-dimensional Fourier transform unit 37 performs a two-dimensional Fourier transform process on a plurality of spatial domain signals reversely rotated by the teacher image reverse rotation unit 36, thereby converting the spatial domain signals into frequency domain signals. To implement.
The two-dimensional inverse Fourier transform unit 35, the teacher image reverse rotation unit 36, and the two-dimensional Fourier transform unit 37 constitute teacher image reverse rotation means.

上記実施の形態1では、教師画像位置合わせ部3が、2次元フーリエ変換部2により変換された周波数領域のスペクトル信号を用いて、複数の教師画像間の適合度を算出する際、複数の教師画像に存在している目標の向きを考慮せずに、複数の教師画像間の適合度を算出している。
このため、複数の教師画像に存在している目標の向きが異なっていても、複数の教師画像間の適合度が高くなって同一のクラスタに分類されることがあり、このような場合には、当該クラスタに属する教師画像から生成される類識別フィルタによる目標の類識別性能が低下する。
そこで、この実施の形態2では、複数の教師画像間の適合度を算出する際、複数の教師画像に存在している目標の向きが異なっていれば、複数の教師画像を回転させて、複数の教師画像に存在している目標の向きが揃っている状態で、複数の教師画像間の適合度を算出するようにする。
ただし、複数の教師画像に存在している目標の向きの異なりが限定的である場合には、適合度の算出精度に大きな影響が及ばないため、演算量を低減する観点で、上記実施の形態1のように、複数の教師画像に存在している目標の向きを考慮せずに、複数の教師画像間の適合度を算出する方が現実的である。
In the first embodiment, the teacher image alignment unit 3 uses the frequency domain spectrum signal transformed by the two-dimensional Fourier transform unit 2 to calculate the fitness between a plurality of teacher images. The degree of fitness between a plurality of teacher images is calculated without considering the direction of the target existing in the image.
For this reason, even if the orientations of the targets existing in the plurality of teacher images are different, the matching degree between the plurality of teacher images may be increased and classified into the same cluster. The target class identification performance by the class identification filter generated from the teacher image belonging to the cluster is degraded.
Therefore, in this second embodiment, when calculating the degree of fitness between a plurality of teacher images, if the orientations of the targets existing in the plurality of teacher images are different, the plurality of teacher images are rotated and a plurality of teacher images are rotated. The degree of matching between a plurality of teacher images is calculated in a state where the orientations of the targets existing in the teacher images are aligned.
However, in the case where the difference in target orientations existing in a plurality of teacher images is limited, the accuracy of calculation of the fitness level is not greatly affected. As shown in FIG. 1, it is more practical to calculate the degree of matching between a plurality of teacher images without considering the direction of the target existing in the plurality of teacher images.

次に動作について説明する。
ただし、教師画像位置合わせ部20以外は上記実施の形態1と同様であるため、ここでは、教師画像位置合わせ部20の処理内容だけを説明する。
教師画像位置合わせ部20の対数極座標変換部21は、2次元フーリエ変換部2からベクトル化された2次元スペクトル信号x,x,・・・,xを受けると、その2次元スペクトル信号x,x,・・・,xを対数極座標変換し、その変換結果である対数極座標変換信号ζ,ζ,・・・,ζを出力する。
即ち、対数極座標変換部21は、振幅スペクトルである2次元スペクトル信号x,x,・・・,xを対数変換し、高周波域を強調した形で対数極座標に変換する。
Next, the operation will be described.
However, since the components other than the teacher image alignment unit 20 are the same as those in the first embodiment, only the processing content of the teacher image alignment unit 20 will be described here.
When the logarithmic polar coordinate conversion unit 21 of the teacher image alignment unit 20 receives the two-dimensional spectral signals x 1 , x 2 ,..., X N from the two-dimensional Fourier transform unit 2, the two-dimensional spectral signal is received. x 1, x 2, · · ·, a x N logarithmic polar coordinate transformation, log-polar transform signal zeta 1 is a result of the conversion, zeta 2, · · ·, and outputs the zeta N.
That is, the logarithmic polar coordinate converter 21, two-dimensional spectrum signal x 1 is an amplitude spectrum, x 2, · · ·, a x N logarithmic transformation to convert the log-polar in emphasized form the high frequency region.

2次元逆フーリエ変換部22は、対数極座標変換部21から対数極座標変換信号ζ,ζ,・・・,ζを受けると、その対数極座標変換信号ζ,ζ,・・・,ζに対する2次元逆フーリエ変換処理を実施することで、その対数極座標変換信号ζ,ζ,・・・,ζを空間領域の信号に変換する。
複素共役乗算部23は、N個の教師画像の中の2個の教師画像の組み合わせ毎に、2次元逆フーリエ変換部22により変換された2個の空間領域の信号の複素共役を乗算する。
2次元フーリエ変換部24は、複素共役乗算部23の乗算結果を2次元フーリエ変換する。
When the two-dimensional inverse Fourier transform unit 22 receives the logarithmic polar coordinate conversion signals ζ 1 , ζ 2 ,..., Ζ N from the logarithmic polar coordinate conversion unit 21, the logarithmic polar coordinate conversion signals ζ 1 , ζ 2 ,. By performing a two-dimensional inverse Fourier transform process on ζ N , the logarithmic polar coordinate conversion signals ζ 1 , ζ 2 ,..., ζ N are converted into spatial domain signals.
The complex conjugate multiplier 23 multiplies the complex conjugate of the two spatial domain signals transformed by the two-dimensional inverse Fourier transform unit 22 for each combination of two teacher images in the N teacher images.
The two-dimensional Fourier transform unit 24 performs a two-dimensional Fourier transform on the multiplication result of the complex conjugate multiplication unit 23.

ピーク検出部25は、2個の教師画像の組み合わせ毎に、2次元フーリエ変換部24の2次元フーリエ変換結果のピーク値を検出するとともに、そのピーク値の位置であるピーク位置を検出する。
即ち、ピーク検出部25は、2個の教師画像の組み合わせ毎に、2次元フーリエ変換部24の2次元フーリエ変換結果のピーク値として、2個の教師画像の相互相関関数の絶対値の最大値Pm,n(m=1,・・・,N−1; n=m+1,・・・,N)を検出する。
ピーク検出部25は、m番目の教師画像とn番目の教師画像との適合度である最大値Pm,nを検出すると、最大値Pm,nに対応する相互相関関数の位置(xy座標)であるピーク位置を検出する。
The peak detection unit 25 detects the peak value of the two-dimensional Fourier transform result of the two-dimensional Fourier transform unit 24 for each combination of two teacher images and also detects the peak position that is the position of the peak value.
That is, for each combination of two teacher images, the peak detection unit 25 uses the maximum absolute value of the cross-correlation function of the two teacher images as the peak value of the two-dimensional Fourier transform result of the two-dimensional Fourier transform unit 24. P m, n (m = 1,..., N−1; n = m + 1,..., N) is detected.
When the peak detection unit 25 detects the maximum value P m, n that is the fitness between the m-th teacher image and the n-th teacher image, the position of the cross-correlation function corresponding to the maximum value P m, n (xy coordinates) ) Is detected.

回転量算出部26は、ピーク検出部25が2個の教師画像の組み合わせ毎に最大値Pm,nに対応する相互相関関数のピーク位置を検出すると、そのピーク位置を用いて、対数極座標変換部21から出力された対数極座標変換信号ζと対数極座標変換信号ζの間の位置ずれ量を推定する。対数極座標変換信号ζと対数極座標変換信号ζの間の位置ずれ量は、m番目の教師画像とn番目の教師画像に存在している目標の向きのずれ量に相当する。
例えば、最大値Pm,nに対応する相互相関関数のピーク位置がxy座標の原点を示していなければ、m番目の教師画像とn番目の教師画像に存在している目標の向きにずれ量があり、そのピーク位置のx座標値が目標の向きのずれ量であると推定される。
When the peak detection unit 25 detects the peak position of the cross-correlation function corresponding to the maximum value P m, n for each combination of two teacher images, the rotation amount calculation unit 26 performs logarithmic polar coordinate conversion using the peak position. The amount of positional deviation between the logarithmic polar coordinate conversion signal ζ m output from the unit 21 and the logarithmic polar coordinate conversion signal ζ n is estimated. The positional deviation amount between the logarithmic polar coordinate conversion signal ζ m and the logarithmic polar coordinate transformation signal ζ n corresponds to the deviation amount of the target direction existing in the mth teacher image and the nth teacher image.
For example, if the peak position of the cross-correlation function corresponding to the maximum value P m, n does not indicate the origin of the xy coordinates, the amount of deviation in the target direction existing in the m-th teacher image and the n-th teacher image It is estimated that the x coordinate value of the peak position is the deviation amount of the target direction.

回転量算出部26は、対数極座標変換信号ζ,ζ,・・・,ζの間の位置ずれ量を算出すると、例えば、その位置ずれ量に対して、予め設定された係数を乗算することで、N個の教師画像の回転量(回転量=位置ずれ量×係数)をそれぞれ算出する。
例えば、3個の教師画像(教師画像A,B,D)がある場合、教師画像A,B,Dの中から任意の教師画像を基準画像として選択する。その基準画像が仮に教師画像Aであるとすれば、教師画像Aの回転量は0、教師画像Bの回転量は教師画像Aと教師画像Bの位置ずれ量×係数、教師画像Dの回転量は教師画像Aと教師画像Dの位置ずれ量×係数のように決定する。
When calculating the amount of positional deviation between the logarithmic polar coordinate conversion signals ζ 1 , ζ 2 ,..., Ζ N , for example, the rotation amount calculating unit 26 multiplies the positional deviation amount by a preset coefficient. Thus, the rotation amount (rotation amount = position displacement amount × coefficient) of the N teacher images is calculated.
For example, when there are three teacher images (teacher images A, B, and D), an arbitrary teacher image is selected from the teacher images A, B, and D as a reference image. If the reference image is the teacher image A, the rotation amount of the teacher image A is 0, the rotation amount of the teacher image B is the displacement amount of the teacher image A and the teacher image B × coefficient, and the rotation amount of the teacher image D Is determined as follows: Misalignment between teacher image A and teacher image D × coefficient.

教師画像回転部27は、回転量算出部26がN個の教師画像の回転量を算出すると、その回転量分だけ、N個の教師画像をそれぞれ回転させる。
2次元フーリエ変換部28は、教師画像回転部27により回転されたN個の教師画像を示す教師画像データに対する2次元フーリエ変換処理を実施することで、N個の教師画像データを周波数領域のスペクトル信号にそれぞれ変換する。
2次元フーリエ変換部28は、N個の教師画像データを2次元スペクトル信号(周波数領域のスペクトル信号)に変換すると、その2次元スペクトル信号をラスタスキャンしてベクトル化し、ベクトル化した2次元スペクトル信号x,x,・・・,xを複素共役乗算部29に出力する。
ここでは、2次元フーリエ変換部28から複素共役乗算部29に出力される2次元スペクトル信号を、上記実施の形態1における2次元フーリエ変換部2から複素共役乗算部11に出力される2次元スペクトル信号と同じ記号(x,x,・・・,x)で表記しているが、2次元フーリエ変換部28から複素共役乗算部29に出力される2次元スペクトル信号は、上記の通り、目標の向きが揃えられている教師画像から得られている信号である点で相違している。
When the rotation amount calculation unit 26 calculates the rotation amount of the N teacher images, the teacher image rotation unit 27 rotates the N teacher images by the rotation amount.
The two-dimensional Fourier transform unit 28 performs a two-dimensional Fourier transform process on the teacher image data indicating the N teacher images rotated by the teacher image rotation unit 27, thereby converting the N teacher image data into a frequency domain spectrum. Convert each into a signal.
When the two-dimensional Fourier transform unit 28 converts N pieces of teacher image data into a two-dimensional spectrum signal (frequency domain spectrum signal), the two-dimensional spectrum signal is raster-scanned and vectorized, and the vectorized two-dimensional spectrum signal is obtained. x 1, x 2, and outputs ..., and x N complex conjugate multiplying unit 29.
Here, the two-dimensional spectrum signal output from the two-dimensional Fourier transform unit 28 to the complex conjugate multiplier 29 is used as the two-dimensional spectrum output from the two-dimensional Fourier transform unit 2 to the complex conjugate multiplier 11 in the first embodiment. The two-dimensional spectrum signal output from the two-dimensional Fourier transform unit 28 to the complex conjugate multiplication unit 29 is represented by the same symbol (x 1 , x 2 ,..., X N ) as the signal. The difference is that the signal is obtained from a teacher image in which the target orientation is aligned.

複素共役乗算部29は、2次元フーリエ変換部28からベクトル化された2次元スペクトル信号x,x,・・・,xを受けると、図3の複素共役乗算部11と同様に、N個の教師画像の中の2個の教師画像の組み合わせ毎に、2個の2次元スペクトル信号(周波数領域のスペクトル信号)の複素共役を乗算することで、2個の教師画像のクロススペクトル信号を算出する。
2個の教師画像の組み合わせが、m番目の教師画像とn番目の教師画像である場合のクロススペクトル信号zm,nは、上記の式(6)で表される。
When the complex conjugate multiplier 29 receives the vectorized two-dimensional spectrum signals x 1 , x 2 ,..., X N from the two-dimensional Fourier transform unit 28, as in the complex conjugate multiplier 11 of FIG. Cross spectrum signals of two teacher images by multiplying a complex conjugate of two two-dimensional spectrum signals (frequency domain spectrum signals) for each combination of two teacher images in N teacher images. Is calculated.
The cross spectrum signal z m, n when the combination of the two teacher images is the m-th teacher image and the n-th teacher image is expressed by the above equation (6).

2次元逆フーリエ変換部30は、複素共役乗算部29が2個の教師画像の組み合わせ毎にクロススペクトル信号zm,nを算出すると、図3の2次元逆フーリエ変換部12と同様に、2個の教師画像の組み合わせ毎に、そのクロススペクトル信号zm,nに対する2次元逆フーリエ変換処理を実施することで、そのクロススペクトル信号zm,nを空間領域の信号に変換する。
空間領域の信号は、m番目の教師画像とn番目の教師画像との相互相関関数に相当することが知られている。
When the complex conjugate multiplication unit 29 calculates the cross spectrum signal z m, n for each combination of two teacher images, the two-dimensional inverse Fourier transform unit 30 is similar to the two-dimensional inverse Fourier transform unit 12 in FIG. By performing a two-dimensional inverse Fourier transform process on the cross spectrum signal z m, n for each combination of teacher images, the cross spectrum signal z m, n is converted into a spatial domain signal.
It is known that the signal in the spatial domain corresponds to a cross-correlation function between the mth teacher image and the nth teacher image.

ピーク検出部31は、2次元逆フーリエ変換部30が2個の教師画像の組み合わせ毎にクロススペクトル信号zm,nを空間領域の信号に変換すると、図3のピーク検出部13と同様に、2個の教師画像の組み合わせ毎に、その空間領域の信号のピーク値として、2個の教師画像の相互相関関数の絶対値の最大値Pm,n(m=1,・・・,N−1; n=m+1,・・・,N)を検出する。
最大値Pm,nの値域は、0≦Pm,n≦1であり、m番目の教師画像とn番目の教師画像との適合度を表す指標として使用することができる。
ピーク検出部31は、m番目の教師画像とn番目の教師画像との適合度である最大値Pm,nを検出すると、最大値Pm,nに対応する相互相関関数の位置(xy座標)であるピーク位置を検出する。
When the two-dimensional inverse Fourier transform unit 30 converts the cross spectrum signal z m, n into a spatial domain signal for each combination of two teacher images, the peak detection unit 31 is similar to the peak detection unit 13 of FIG. For each combination of two teacher images, the maximum value P m, n (m = 1,..., N− 1; n = m + 1,..., N) are detected.
The range of the maximum value P m, n is 0 ≦ P m, n ≦ 1, and can be used as an index representing the degree of matching between the m-th teacher image and the n-th teacher image.
When the peak detection unit 31 detects the maximum value P m, n that is the fitness between the m-th teacher image and the n-th teacher image, the position of the cross-correlation function corresponding to the maximum value P m, n (xy coordinates) ) Is detected.

クラスタリング部32は、ピーク検出部31が2個の教師画像の組み合わせ毎に最大値Pm,nを検出すると、図3のクラスタリング部14と同様に、その最大値Pm,nをm番目の教師画像とn番目の教師画像との適合度とみなし、その適合度Pm,nを予め設定されている閾値Pthと比較する。
クラスタリング部32は、その適合度Pm,nが閾値Pthより大きければ、m番目の教師画像とn番目の教師画像との相違が小さいので、m番目の教師画像とn番目の教師画像を同一のクラスタに分類する。
クラスタリング部32は、2個の教師画像の組み合わせの全てについて、上記の処理を繰り返すことで、N個の教師画像をクラスタリングする。
The clustering unit 32, the maximum value for each combination of the peak detector 31 are two teacher image P m, detects a n, similarly to the clustering unit 14 of FIG. 3, the maximum value P m, the n of the m-th The degree of matching between the teacher image and the nth teacher image is considered, and the degree of matching P m, n is compared with a preset threshold value P th .
Since the difference between the m-th teacher image and the n-th teacher image is small if the matching degree P m, n is larger than the threshold value P th , the clustering unit 32 determines the m-th teacher image and the n-th teacher image. Classify to the same cluster.
The clustering unit 32 clusters the N teacher images by repeating the above processing for all combinations of the two teacher images.

平行移動量決定部33は、図3の平行移動量決定部15と同様に、ピーク検出部31により検出された最大値Pm,nに対応する相互相関関数のピーク位置を用いて、クラスタリング部32により同一のクラスタに分類された教師画像同士の位置ずれ量を推定する。
平行移動量決定部33は、同一のクラスタに分類された教師画像同士の位置ずれ量を推定すると、その位置ずれ量から同一のクラスタに分類された教師画像の平行移動量を決定する。
Similar to the parallel movement amount determination unit 15 in FIG. 3, the parallel movement amount determination unit 33 uses the peak position of the cross-correlation function corresponding to the maximum value P m, n detected by the peak detection unit 31 to use the clustering unit. 32, the amount of misalignment between the teacher images classified into the same cluster is estimated.
When the amount of positional deviation between the teacher images classified into the same cluster is estimated, the parallel movement amount determination unit 33 determines the amount of parallel movement of the teacher images classified into the same cluster from the amount of positional deviation.

教師画像平行移動部34は、平行移動量決定部33が同一のクラスタに分類された教師画像の平行移動量を決定すると、図3の教師画像平行移動部16と同様に、その教師画像の平行移動量に対応する変換行列D(n∈Ω)を生成する。
教師画像平行移動部34は、教師画像の平行移動量に対応する変換行列D(n∈Ω)を生成すると、同一のクラスタに分類された教師画像間の位置を揃えるために、その変換行列D(n∈Ω)を当該教師画像のスペクトル信号x(n∈Ω)に掛け合わせることで、その平行移動量分だけ教師画像を平行移動させる。
教師画像平行移動部34は、平行移動後の教師画像の2次元スペクトル信号Yを類識別フィルタ合成部4に出力する。
When the translation amount determination unit 33 determines the translation amount of the teacher image classified into the same cluster, the teacher image translation unit 34 determines that the teacher image parallel unit 34 is parallel to the teacher image. A transformation matrix D n (nεΩ q ) corresponding to the movement amount is generated.
When the teacher image translation unit 34 generates the transformation matrix D n (n∈Ω q ) corresponding to the translation amount of the teacher image, the transformation is performed in order to align the positions of the teacher images classified into the same cluster. By multiplying the matrix D n (nεΩ q ) by the spectrum signal x n (nεΩ q ) of the teacher image, the teacher image is translated by the amount of translation.
The teacher image translation unit 34 outputs the two-dimensional spectrum signal Y of the teacher image after translation to the class identification filter synthesis unit 4.

2次元逆フーリエ変換部35は、教師画像平行移動部34から平行移動後の教師画像の2次元スペクトル信号Yを受けると、その2次元スペクトル信号Yに対する2次元逆フーリエ変換処理を実施することで空間領域の信号に変換する。
教師画像逆回転部36は、回転量算出部26により算出された回転量だけ、2次元フーリエ変換部35により変換された空間領域の信号(教師画像平行移動部34により平行移動させた複数の教師画像に対応する信号)をそれぞれ元の方向に逆回転させることで、元の教師画像を推定された位置ずれの分だけ平行移動した画像を得る。
2次元フーリエ変換部37は、教師画像逆回転部36により逆回転させた複数の空間領域の信号に対する2次元フーリエ変換処理を実施することで、その空間領域の信号を周波数領域の信号に変換する。
When the two-dimensional inverse Fourier transform unit 35 receives the two-dimensional spectrum signal Y of the teacher image after translation from the teacher image translation unit 34, the two-dimensional inverse Fourier transform unit 35 performs a two-dimensional inverse Fourier transform process on the two-dimensional spectrum signal Y. Convert to spatial domain signal.
The teacher image reverse rotation unit 36 is a signal of the spatial region converted by the two-dimensional Fourier transform unit 35 by a rotation amount calculated by the rotation amount calculation unit 26 (a plurality of teachers translated by the teacher image translation unit 34). The signal corresponding to the image) is rotated in the original direction, thereby obtaining an image obtained by translating the original teacher image by the estimated positional deviation.
The two-dimensional Fourier transform unit 37 performs a two-dimensional Fourier transform process on a plurality of spatial domain signals reversely rotated by the teacher image reverse rotation unit 36, thereby converting the spatial domain signals into frequency domain signals. .

以上で明らかなように、この実施の形態2によれば、教師画像位置合わせ部20が、複数の教師画像に存在している目標の向きを合わせた状態で、複数の教師画像間の適合度を算出するように構成しているので、複数の教師画像に存在している目標の向きが異なっている場合でも、目標の類識別性能が高い類識別フィルタを生成することができる効果を奏する。
また、この実施の形態2によれば、対数極座標変換を活用し、対数極座標変換後の信号のシフト量の推定によって異なる教師画像間の回転量を推定しているので、回転量の推定に必要な演算を低く抑えることができる。この結果、適合度の高い教師画像を過不足なくクラスタリングすることができるため、目標識別性能の低下を防ぐことができる効果を奏する。
As apparent from the above, according to the second embodiment, the degree of fitness between the plurality of teacher images in a state where the teacher image alignment unit 20 matches the orientations of the targets existing in the plurality of teacher images. Therefore, even when the orientations of targets existing in a plurality of teacher images are different, it is possible to generate a class identification filter with high target class identification performance.
In addition, according to the second embodiment, logarithmic polar coordinate conversion is used, and the rotation amount between different teacher images is estimated by estimating the shift amount of the signal after logarithmic polar coordinate conversion. Can be kept low. As a result, it is possible to cluster teacher images having a high degree of fitness without excess or deficiency, and thus it is possible to prevent a reduction in target identification performance.

実施の形態3.
図6はこの発明の実施の形態3による類識別フィルタ生成装置の教師画像位置合わせ部20を示す構成図であり、図において、図5と同一符号は同一または相当部分を示すので説明を省略する。
画像位置・回転微調整部38は教師画像平行移動部34により平行移動された同一のクラスタに属する教師画像の位置及び向きの微調整量を変えながら、その微調整量で位置及び向きを微調整した場合のエントロピーを算出して、そのエントロピーが最小になる微調整量を特定し、その微調整量で同一のクラスタに属する教師画像の位置及び向きを調整する処理を実施する。なお、画像位置・回転微調整部38は調整手段を構成している。
Embodiment 3 FIG.
FIG. 6 is a block diagram showing the teacher image alignment unit 20 of the class identification filter generating device according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG. .
The image position / rotation fine adjustment unit 38 finely adjusts the position and orientation with the fine adjustment amount while changing the fine adjustment amount of the position and orientation of the teacher image belonging to the same cluster translated by the teacher image translation unit 34. In this case, the entropy is calculated, the fine adjustment amount that minimizes the entropy is specified, and the position and orientation of the teacher images belonging to the same cluster are adjusted by the fine adjustment amount. The image position / rotation fine adjustment unit 38 constitutes an adjustment unit.

上記実施の形態2では、教師画像位置合わせ部20が、複数の教師画像に存在している目標の向きを合わせた状態で、複数の教師画像間の適合度を算出するものを示したが、レーダ観測画像では、目標が回転すると、レイオーバの影響や反射の位相中心が変化することにより、教師画像を単純に回転させても目標の像が一致しないことがある。教師画像を回転させた場合に目標の像が一致する場合は、教師画像の回転量を精度良く推定することが可能であるが、教師画像を回転させても目標の像が完全に一致しない場合には、回転量の推定精度が劣化することがある。
そこで、この実施の形態3では、教師画像の回転と平行移動を実施したのち、教師画像の位置及び向きを微調整する画像位置・回転微調整部38を備えるようにしている。
In the second embodiment, the teacher image alignment unit 20 calculates the fitness between the plurality of teacher images in the state where the orientations of the targets existing in the plurality of teacher images are aligned. In the radar observation image, when the target rotates, the influence of the layover and the phase center of reflection change, so that the target image may not match even if the teacher image is simply rotated. If the target image matches when the teacher image is rotated, it is possible to accurately estimate the rotation amount of the teacher image, but the target image does not completely match even if the teacher image is rotated In some cases, the estimation accuracy of the rotation amount may deteriorate.
Therefore, in the third embodiment, an image position / rotation fine adjustment unit 38 that finely adjusts the position and orientation of the teacher image is provided after the teacher image is rotated and translated.

以下、画像位置・回転微調整部38の処理内容を具体的に説明する。
画像位置・回転微調整部38は、2次元逆フーリエ変換部35から教師画像の回転と平行移動が実施された教師画像を示す教師画像データζを受けると、その教師画像データζに対する様々な微小回転量Δθ及び微小平行移動量(Δx,Δy)を仮定する。
画像位置・回転微調整部38は、様々な微小回転量Δθ及び微小平行移動量(Δx,Δy)を仮定すると、下記の式(12)に示すように、その仮定した微小回転量Δθ及び微小平行移動量(Δx,Δy)で、回転及び平行移動後の各教師画像の位置合わせを実施する。

Figure 2015021824
式(12)では、q番目のクラスタに分類されている教師画像について示しており、n∈Ω番目の教師画像を微小回転量Δθだけ回転させて、微小平行移動量(Δx,Δy)平行移動させていることを表している。
ただし、式(12)の処理においては、q番目のクラスタに分類されている教師画像のいずれかを基準に設定しており、基準に設定した教師画像については回転も移動もさせていない。即ち、基準画像については、常に(Δθ,Δx,Δy)=(0,0,0)である。 The processing contents of the image position / rotation fine adjustment unit 38 will be specifically described below.
When the image position / rotation fine adjustment unit 38 receives the teacher image data ζ n indicating the teacher image rotated and translated from the teacher image from the two-dimensional inverse Fourier transform unit 35, the image position / rotation fine adjustment unit 38 performs various processing on the teacher image data ζ n . A small rotation amount Δθ and a small parallel movement amount (Δx, Δy) are assumed.
Assuming various minute rotation amounts Δθ and minute parallel movement amounts (Δx, Δy), the image position / rotation fine adjustment unit 38 assumes the assumed minute rotation amount Δθ and minute amount as shown in the following equation (12). Alignment of each teacher image after rotation and translation is performed with the translation amount (Δx, Δy).
Figure 2015021824
Equation (12) shows the teacher image classified into the q-th cluster, and the nεΩ q- th teacher image is rotated by the minute rotation amount Δθ to be parallel to the minute parallel movement amount (Δx, Δy). Indicates that it is moved.
However, in the processing of Expression (12), one of the teacher images classified into the qth cluster is set as a reference, and the teacher image set as the reference is neither rotated nor moved. That is, for the reference image, (Δθ, Δx, Δy) = (0, 0, 0) is always established.

画像位置・回転微調整部38では、相互相関関数ではなく、以下に定義するエントロピーEを指標として位置合わせを実施する。
即ち、画像位置・回転微調整部38では、様々な微小回転量Δθ及び微小平行移動量(Δx,Δy)を仮定して、微小な回転と平行移動を加えたχ,(n∈Ω)の組み合わせについて次の共分散行列を定義する。χはラスタスキャンしてベクトル化したものである。

Figure 2015021824
式(13)で与えられる共分散行列RΩqの固有値をλとすると、エントロピーEは、下記の式(14)で定義される。
Figure 2015021824
The image position / rotation fine adjustment unit 38 performs alignment using not the cross-correlation function but the entropy E defined below as an index.
That is, the image position / rotation fine adjustment unit 38 assumes various micro rotation amounts Δθ and micro translation amounts (Δx, Δy), and adds χ n , (n∈Ω q ) To define the following covariance matrix: χ n is a vector obtained by raster scanning.
Figure 2015021824
When the eigenvalue of the covariance matrix R Ωq given by the equation (13) is λ i , the entropy E is defined by the following equation (14).
Figure 2015021824

画像位置・回転微調整部38は、全てのχ,(n∈Ω)の組み合わせについてエントロピーEを算出し、そのエントロピーEが最小になる微小回転量及び微小平行移動量(Δθ,Δx,Δy)n∈Ωの組み合わせを探索する。
画像位置・回転微調整部38は、エントロピーEが最小になる微小回転量及び微小平行移動量(Δθ,Δx,Δy)n∈Ωの組み合わせを探索すると、その微小回転量及び微小平行移動量(Δθ,Δx,Δy)n∈Ωで、当該クラスタに分類されている教師画像の向きと位置を微調整し、微調整後の教師画像を示す教師画像データを教師画像逆回転部36に出力する。
The image position / rotation fine adjustment unit 38 calculates entropy E for all combinations of χ n , (n∈Ω q ), and the minute rotation amount and minute translation amount (Δθ, Δx, to explore the combination of Δy) n∈Ω q.
When the image position / rotation fine adjustment unit 38 searches for a combination of a minute rotation amount and a minute translation amount (Δθ, Δx, Δy) nεΩ q that minimizes entropy E, the minute rotation amount and minute translation amount. (Δθ, Δx, Δy) nεΩ q is used to finely adjust the orientation and position of the teacher image classified in the cluster, and the teacher image data indicating the teacher image after the fine adjustment is supplied to the teacher image reverse rotation unit 36. Output.

以上で明らかなように、この実施の形態3によれば、画像位置・回転微調整部38が、教師画像平行移動部34により平行移動された同一のクラスタに属する教師画像の位置及び向きの微調整量を変えながら、その微調整量で位置及び向きを微調整した場合のエントロピーを算出して、そのエントロピーが最小になる微調整量を特定し、その微調整量で同一のクラスタに属する教師画像の位置及び向きを調整するように構成したので、レイオーバの影響や反射の位相中心が変化することに起因する画像の歪が発生しても、相互相関の低下に伴う回転量の推定誤差の影響を低減して、目標識別性能の低下を防止することができる効果を奏する。   As is apparent from the above, according to the third embodiment, the image position / rotation fine adjustment unit 38 is used to finely adjust the position and orientation of the teacher images belonging to the same cluster translated by the teacher image translation unit 34. While changing the adjustment amount, calculate the entropy when the position and orientation are fine-adjusted with the fine adjustment amount, identify the fine adjustment amount that minimizes the entropy, and use the fine adjustment amount to identify teachers belonging to the same cluster Since it is configured to adjust the position and orientation of the image, even if image distortion occurs due to the influence of layover or the phase center of reflection, the estimation error of the rotation amount due to the decrease in cross-correlation It is possible to reduce the influence and prevent the target identification performance from being lowered.

この実施の形態3では、教師画像位置合わせ部20が、様々に仮定した微調整量で位置及び向きを微調整した場合のエントロピーEを算出して、そのエントロピーEが最小になる微調整量を特定し、その微調整量で同一のクラスタに属する教師画像の位置及び向きを調整するものを示したが、様々に仮定した微調整量で位置及び向きを微調整した場合の相互情報量(光学画像の位置合わせで一般的に使用される情報量であって、2つの確率変数の相互依存の尺度を表す量などが考えられる)を算出して、その相互情報量が最大になる微調整量を特定し、その微調整量で同一のクラスタに属する教師画像の位置及び向きを調整するようにしてもよく、同様の効果を奏することができる。   In the third embodiment, the teacher image registration unit 20 calculates entropy E when the position and orientation are finely adjusted with various assumed fine adjustment amounts, and the fine adjustment amount that minimizes the entropy E is calculated. It was specified that the position and orientation of the teacher images belonging to the same cluster are adjusted with the fine adjustment amount, but the mutual information amount (optical) when the position and orientation are finely adjusted with various assumed fine adjustment amounts The amount of information that is generally used for image alignment, which can be an amount that represents a measure of the interdependence of two random variables), and the amount of fine adjustment that maximizes the amount of mutual information The position and orientation of the teacher images belonging to the same cluster may be adjusted with the fine adjustment amount, and the same effect can be obtained.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 教師画像格納部(教師画像格納手段)、2 2次元フーリエ変換部(周波数領域変換手段)、3 教師画像位置合わせ部(教師画像位置合わせ手段)、4 類識別フィルタ合成部(類識別フィルタ合成手段)、5 類識別フィルタ格納部、6 目標種類判定部(目標種類判定手段)、11 複素共役乗算部(クロススペクトル信号算出部)、12 2次元逆フーリエ変換部(空間領域変換部)、13 ピーク検出部、14 クラスタリング部、15 平行移動量決定部、16 教師画像平行移動部、20 教師画像位置合わせ部(教師画像位置合わせ手段)、21 対数極座標変換部、22 2次元逆フーリエ変換部(回転量算出手段)、23 複素共役乗算部(回転量算出手段)、24 2次元フーリエ変換部(回転量算出手段)、25 ピーク検出部(回転量算出手段)、26 回転量算出部(回転量算出手段)、27 教師画像回転部(教師画像回転手段)、28 2次元フーリエ変換部(教師画像回転手段)、29 複素共役乗算部(クロススペクトル信号算出部)、30 2次元逆フーリエ変換部(空間領域変換部)、31 ピーク検出部、32 クラスタリング部、33 平行移動量決定部、34 教師画像平行移動部、35 2次元逆フーリエ変換部(教師画像逆回転手段)、36 教師画像逆回転部(教師画像逆回転手段)、37 2次元フーリエ変換部(教師画像逆回転手段)、38 画像位置・回転微調整部(調整手段)、101 教師画像データファイル、102 2次元フーリエ変換手段、103 類識別フィルタ合成手段、104 類識別フィルタ。   DESCRIPTION OF SYMBOLS 1 Teacher image storage part (teacher image storage means), 2 Two-dimensional Fourier-transform part (frequency domain conversion means), 3 Teacher image position alignment part (teacher image position alignment means), 4 Class identification filter composition part (Class identification filter composition) Means) 5 type identification filter storage unit, 6 target type determination unit (target type determination unit), 11 complex conjugate multiplication unit (cross spectrum signal calculation unit), 12 two-dimensional inverse Fourier transform unit (spatial domain conversion unit), 13 Peak detection unit, 14 clustering unit, 15 translation amount determination unit, 16 teacher image translation unit, 20 teacher image alignment unit (teacher image alignment unit), 21 log polar coordinate conversion unit, 22 two-dimensional inverse Fourier transform unit ( Rotation amount calculation means), 23 complex conjugate multiplication section (rotation amount calculation means), 24 two-dimensional Fourier transform section (rotation amount calculation means), 25 peak detection Unit (rotation amount calculation unit), 26 rotation amount calculation unit (rotation amount calculation unit), 27 teacher image rotation unit (teacher image rotation unit), 28 two-dimensional Fourier transform unit (teacher image rotation unit), 29 complex conjugate multiplication unit (Cross spectrum signal calculation unit), 30 two-dimensional inverse Fourier transform unit (spatial domain transform unit), 31 peak detection unit, 32 clustering unit, 33 translation amount determination unit, 34 teacher image translation unit, 35 two-dimensional inverse Fourier Conversion unit (teacher image reverse rotation unit), 36 Teacher image reverse rotation unit (teacher image reverse rotation unit), 37 Two-dimensional Fourier transform unit (teacher image reverse rotation unit), 38 Image position / rotation fine adjustment unit (adjustment unit) , 101 teacher image data file, 102 two-dimensional Fourier transform means, 103 type identification filter synthesis means, 104 type identification filter.

Claims (7)

異なる観測条件で観測された目標の複数の観測画像からそれぞれ切り出されている目標の教師画像を格納する教師画像格納手段と、
前記教師画像格納手段により格納されている複数の教師画像を示す教師画像データを周波数領域のスペクトル信号にそれぞれ変換する周波数領域変換手段と、
前記周波数領域変換手段により変換された周波数領域のスペクトル信号を用いて、前記複数の教師画像間の適合度を算出し、前記適合度を基準にして前記複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせを行う教師画像位置合わせ手段と、
前記教師画像位置合わせ手段により分類されたクラスタ毎に、前記教師画像位置合わせ手段により位置合わせが行われた教師画像同士を合成して類識別フィルタを生成する類識別フィルタ合成手段と
を備えた類識別フィルタ生成装置。
Teacher image storage means for storing a target teacher image cut out from a plurality of observation images of the target observed under different observation conditions;
Frequency domain conversion means for converting teacher image data indicating a plurality of teacher images stored by the teacher image storage means, respectively, into spectrum signals in the frequency domain;
Using the frequency domain spectrum signal transformed by the frequency domain transforming means, the fitness between the plurality of teacher images is calculated, and the teacher images are classified into one or more clusters based on the fitness. And teacher image alignment means for aligning teacher images belonging to the same cluster,
A class identification filter synthesizing unit that generates a class identification filter by synthesizing the teacher images aligned by the teacher image alignment unit for each cluster classified by the teacher image alignment unit; Identification filter generation device.
前記教師画像位置合わせ手段は、
前記複数の教師画像の中の2個の教師画像の組み合わせ毎に、前記周波数領域変換手段により変換された周波数領域のスペクトル信号を用いて、2個の教師画像のクロススペクトル信号を算出するクロススペクトル信号算出部と、
2個の教師画像の組み合わせ毎に、前記クロススペクトル信号算出部により算出されたクロススペクトル信号を空間領域の信号に変換する空間領域変換部と、
2個の教師画像の組み合わせ毎に、前記空間領域変換部により変換された空間領域の信号のピーク値を検出するとともに、前記ピーク値の位置であるピーク位置を検出するピーク検出部と、
前記ピーク検出部により空間領域の信号から検出されたピーク値を2個の教師画像間の適合度とみなし、前記適合度が予め設定された閾値より高ければ、前記2個の教師画像を同一のクラスタに分類することで、前記複数の教師画像をクラスタリングするクラスタリング部と、
前記ピーク検出部により検出されたピーク位置を用いて、前記クラスタリング部により同一のクラスタに分類された教師画像同士の位置ずれ量を推定し、前記位置ずれ量から前記クラスタリング部により同一のクラスタに分類された教師画像の平行移動量を決定する平行移動量決定部と、
前記平行移動量決定部により決定された平行移動量だけ前記教師画像を平行移動させる教師画像平行移動部とから構成されていることを特徴とする請求項1記載の類識別フィルタ生成装置。
The teacher image alignment means includes:
A cross spectrum for calculating a cross spectrum signal of two teacher images using a frequency domain spectrum signal converted by the frequency domain conversion means for each combination of two teacher images of the plurality of teacher images. A signal calculator;
A spatial domain conversion unit that converts the cross spectrum signal calculated by the cross spectrum signal calculation unit into a spatial domain signal for each combination of two teacher images;
For each combination of two teacher images, a peak detection unit that detects a peak value of a signal of the spatial region converted by the spatial region conversion unit and detects a peak position that is a position of the peak value;
The peak value detected from the signal in the spatial region by the peak detection unit is regarded as the fitness between two teacher images. If the fitness is higher than a preset threshold, the two teacher images are identical. A clustering unit for clustering the plurality of teacher images by classifying them into clusters,
Using the peak positions detected by the peak detection unit, the amount of misalignment between teacher images classified into the same cluster by the clustering unit is estimated, and the clustering unit classifies the misalignment amount from the position deviation amount into the same cluster. A translation amount determining unit for determining a translation amount of the teacher image that has been
The class identification filter generation device according to claim 1, further comprising: a teacher image translation unit that translates the teacher image by a translation amount determined by the translation amount determination unit.
前記教師画像位置合わせ手段は、前記複数の教師画像に存在している目標の向きを合わせた状態で、前記複数の教師画像間の適合度を算出することを特徴とする請求項1記載の類識別フィルタ生成装置。   2. The class according to claim 1, wherein the teacher image alignment unit calculates a degree of matching between the plurality of teacher images in a state where the orientations of targets existing in the plurality of teacher images are aligned. Identification filter generation device. 前記教師画像位置合わせ手段は、
前記周波数領域変換手段により変換された各々のスペクトル信号を対数極座標変換し、その変換結果である対数極座標変換信号を出力する対数極座標変換部と、
前記対数極座標変換部から出力された各々の対数極座標変換信号から、前記複数の教師画像に存在している目標の向きのずれ量をそれぞれ推定し、前記ずれ量から前記複数の教師画像の回転量をそれぞれ算出する回転量算出手段と、
前記回転量算出手段により算出された回転量だけ前記複数の教師画像をそれぞれ回転させる教師画像回転手段と、
前記教師画像回転手段により回転された複数の教師画像の中の2個の教師画像の組み合わせ毎に、前記周波数領域変換手段により変換された周波数領域のスペクトル信号を用いて、2個の教師画像のクロススペクトル信号を算出するクロススペクトル信号算出部と、
2個の教師画像の組み合わせ毎に、前記クロススペクトル信号算出部により算出されたクロススペクトル信号を空間領域の信号に変換する空間領域変換部と、
2個の教師画像の組み合わせ毎に、前記空間領域変換部により変換された空間領域の信号のピーク値を検出するとともに、前記ピーク値の位置であるピーク位置を検出するピーク検出部と、
前記ピーク検出部により空間領域の信号から検出されたピーク値を2個の教師画像間の適合度とみなし、前記適合度が予め設定された閾値より高ければ、前記2個の教師画像を同一のクラスタに分類することで、前記複数の教師画像をクラスタリングするクラスタリング部と、
前記ピーク検出部により検出されたピーク位置を用いて、前記クラスタリング部により同一のクラスタに分類された教師画像同士の位置ずれ量を推定し、前記位置ずれ量から前記クラスタリング部により同一のクラスタに分類された教師画像の平行移動量を決定する平行移動量決定部と、
前記平行移動量決定部により決定された平行移動量だけ前記教師画像を平行移動させる教師画像平行移動部と、
前記回転量算出手段により算出された回転量だけ、前記教師画像平行移動部により平行移動された複数の教師画像をそれぞれ元の方向に逆回転させる教師画像逆回転手段とから構成されていることを特徴とする請求項3記載の類識別フィルタ生成装置。
The teacher image alignment means includes:
A logarithmic polar coordinate conversion unit for logarithmic polar coordinate conversion of each spectrum signal converted by the frequency domain conversion means, and outputting a logarithmic polar coordinate conversion signal as a result of the conversion;
From each logarithmic polar coordinate conversion signal output from the logarithmic polar coordinate conversion unit, a deviation amount of the target direction existing in the plurality of teacher images is estimated, respectively, and the rotation amount of the plurality of teacher images is calculated from the deviation amount. Rotation amount calculating means for calculating
Teacher image rotation means for rotating each of the plurality of teacher images by the rotation amount calculated by the rotation amount calculation means;
For each combination of two teacher images of the plurality of teacher images rotated by the teacher image rotating means, the frequency domain spectrum signal converted by the frequency domain converting means is used to generate two teacher images. A cross spectrum signal calculation unit for calculating a cross spectrum signal;
A spatial domain conversion unit that converts the cross spectrum signal calculated by the cross spectrum signal calculation unit into a spatial domain signal for each combination of two teacher images;
For each combination of two teacher images, a peak detection unit that detects a peak value of a signal of the spatial region converted by the spatial region conversion unit and detects a peak position that is a position of the peak value;
The peak value detected from the signal in the spatial region by the peak detection unit is regarded as the fitness between two teacher images. If the fitness is higher than a preset threshold, the two teacher images are identical. A clustering unit for clustering the plurality of teacher images by classifying them into clusters,
Using the peak positions detected by the peak detection unit, the amount of misalignment between teacher images classified into the same cluster by the clustering unit is estimated, and the clustering unit classifies the misalignment amount from the position deviation amount into the same cluster. A translation amount determining unit for determining a translation amount of the teacher image that has been
A teacher image translation unit that translates the teacher image by the translation amount determined by the translation amount determination unit;
A plurality of teacher images translated by the teacher image translation unit by a rotation amount calculated by the rotation amount calculation unit, respectively, and a teacher image reverse rotation unit that reversely rotates the teacher images in their original directions. The class identification filter generation device according to claim 3, wherein:
前記教師画像位置合わせ手段は、前記教師画像平行移動部により平行移動された同一のクラスタに属する教師画像の位置及び向きの調整量を変えながら、前記調整量で位置及び向きを調整した場合のエントロピーを算出して、前記エントロピーが最小になる前記調整量を特定し、前記調整量で前記教師画像の位置及び向きを調整する調整手段を備えていることを特徴とする請求項4記載の類識別フィルタ生成装置。   The teacher image alignment means is an entropy when the position and orientation are adjusted by the adjustment amount while changing the adjustment amount of the position and orientation of the teacher image belonging to the same cluster translated by the teacher image translation unit. 5. The class identification according to claim 4, further comprising: an adjustment unit that calculates the position of the teacher image by adjusting the position and orientation of the teacher image by specifying the adjustment amount that minimizes the entropy. Filter generation device. 前記教師画像位置合わせ手段は、前記教師画像平行移動部により平行移動された同一のクラスタに属する教師画像の位置及び向きの調整量を変えながら、前記調整量で位置及び向きを調整した場合の相互情報量を算出して、前記相互情報量が最大になる前記調整量を特定し、前記調整量で前記教師画像の位置及び向きを調整する調整手段を備えていることを特徴とする請求項4記載の類識別フィルタ生成装置。   The teacher image alignment unit is configured to perform mutual adjustment when the position and orientation are adjusted by the adjustment amount while changing the adjustment amount of the position and orientation of the teacher image belonging to the same cluster translated by the teacher image translation unit. 5. The apparatus according to claim 4, further comprising: an adjustment unit that calculates an information amount, specifies the adjustment amount that maximizes the mutual information amount, and adjusts the position and orientation of the teacher image by the adjustment amount. The kind identification filter production | generation apparatus of description. 異なる観測条件で観測された目標の複数の観測画像からそれぞれ切り出されている目標の教師画像を格納する教師画像格納手段と、
前記教師画像格納手段により格納されている複数の教師画像を示す教師画像データを周波数領域のスペクトル信号にそれぞれ変換する周波数領域変換手段と、
前記周波数領域変換手段により変換された周波数領域のスペクトル信号を用いて、前記複数の教師画像間の適合度を算出し、前記適合度を基準にして前記複数の教師画像を1以上のクラスタに分類するとともに、同一のクラスタに属する教師画像同士の位置合わせを行う教師画像位置合わせ手段と、
前記教師画像位置合わせ手段により分類されたクラスタ毎に、前記教師画像位置合わせ手段により位置合わせが行われた教師画像同士を合成して類識別フィルタを生成する類識別フィルタ合成手段と、
類識別対象の目標の観測画像と前記類識別フィルタ合成手段により生成された類識別フィルタを照合して、前記目標の種類を判定する目標種類判定手段と
を備えた目標類識別装置。
Teacher image storage means for storing a target teacher image cut out from a plurality of observation images of the target observed under different observation conditions;
Frequency domain conversion means for converting teacher image data indicating a plurality of teacher images stored by the teacher image storage means, respectively, into spectrum signals in the frequency domain;
Using the frequency domain spectrum signal transformed by the frequency domain transforming means, the fitness between the plurality of teacher images is calculated, and the teacher images are classified into one or more clusters based on the fitness. And teacher image alignment means for aligning teacher images belonging to the same cluster,
A class identification filter synthesizing unit that generates a class identification filter by synthesizing the teacher images registered by the teacher image alignment unit for each cluster classified by the teacher image alignment unit;
A target class identification apparatus comprising: a target type determination unit that compares an observed image of a target to be identified with a class identification filter generated by the class identification filter synthesis unit to determine the type of the target.
JP2013149528A 2013-07-18 2013-07-18 Classification and identification filter generator and target classification and identification device Pending JP2015021824A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013149528A JP2015021824A (en) 2013-07-18 2013-07-18 Classification and identification filter generator and target classification and identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013149528A JP2015021824A (en) 2013-07-18 2013-07-18 Classification and identification filter generator and target classification and identification device

Publications (1)

Publication Number Publication Date
JP2015021824A true JP2015021824A (en) 2015-02-02

Family

ID=52486402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013149528A Pending JP2015021824A (en) 2013-07-18 2013-07-18 Classification and identification filter generator and target classification and identification device

Country Status (1)

Country Link
JP (1) JP2015021824A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045302A (en) * 2016-09-12 2018-03-22 キヤノン株式会社 Information processing device, information processing method and program
WO2019207642A1 (en) * 2018-04-24 2019-10-31 日本電気株式会社 Image comparison device
CN111289954A (en) * 2020-03-31 2020-06-16 四川长虹电器股份有限公司 Point cloud division and track matching method for millimeter wave radar target tracking
JP2021110565A (en) * 2020-01-07 2021-08-02 株式会社東芝 Classification device and classification method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271952A (en) * 2002-03-18 2003-09-26 Mitsubishi Electric Corp Device for compositing filter, and image processor using the same
JP2003331289A (en) * 2002-05-08 2003-11-21 Mitsubishi Electric Corp Image discriminator, and radar system provided with the same
JP2004093166A (en) * 2002-08-29 2004-03-25 Mitsubishi Electric Corp Target distinguishing device
JP2009112468A (en) * 2007-11-05 2009-05-28 Toshiba Corp Image positioning device, method, and program
US20090184865A1 (en) * 2006-05-15 2009-07-23 Valoe Hilde Method and system for automatic classification of objects
JP2012127920A (en) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp Target type identification apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271952A (en) * 2002-03-18 2003-09-26 Mitsubishi Electric Corp Device for compositing filter, and image processor using the same
JP2003331289A (en) * 2002-05-08 2003-11-21 Mitsubishi Electric Corp Image discriminator, and radar system provided with the same
JP2004093166A (en) * 2002-08-29 2004-03-25 Mitsubishi Electric Corp Target distinguishing device
US20090184865A1 (en) * 2006-05-15 2009-07-23 Valoe Hilde Method and system for automatic classification of objects
JP2009112468A (en) * 2007-11-05 2009-05-28 Toshiba Corp Image positioning device, method, and program
JP2012127920A (en) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp Target type identification apparatus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KYU-HWA JEONG: ""THE CORRENTROPY MACE FILTER FOR IMAGE RECOGNITION"", A DISSERTATION PRESENTED TO THE GRADUATE SCHOOL OF THE UNIVERSITY OF FLORIDA IN PARTIAL FULFILLMENT, JPN6016048272, 2007, pages 64 - 78, ISSN: 0003461299 *
山浦愛子、外1名: ""移動カメラ画像における位相限定相関法による移動物体とその位置の検出法"", 電子情報通信学会技術研究報告, vol. 106, no. 535, JPN6016048270, 16 February 2007 (2007-02-16), pages 11 - 16, ISSN: 0003461298 *
谷口慶治、外1名 編, 「画像処理工学 応用事例編」, vol. 初版, JPN6016048267, 25 May 2005 (2005-05-25), pages 180 - 181, ISSN: 0003461296 *
金子倫規、外3名: ""画像間微小回転検出法の検討"", 電子情報通信学会2004年総合大会講演論文集, vol. 情報・システム2, JPN6016048268, 8 March 2004 (2004-03-08), pages 135, ISSN: 0003461297 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018045302A (en) * 2016-09-12 2018-03-22 キヤノン株式会社 Information processing device, information processing method and program
WO2019207642A1 (en) * 2018-04-24 2019-10-31 日本電気株式会社 Image comparison device
JPWO2019207642A1 (en) * 2018-04-24 2021-03-18 日本電気株式会社 Image collation device
JP6992880B2 (en) 2018-04-24 2022-02-03 日本電気株式会社 Image collation device
US11748442B2 (en) 2018-04-24 2023-09-05 Nec Corporation Image matching device
JP2021110565A (en) * 2020-01-07 2021-08-02 株式会社東芝 Classification device and classification method
CN111289954A (en) * 2020-03-31 2020-06-16 四川长虹电器股份有限公司 Point cloud division and track matching method for millimeter wave radar target tracking

Similar Documents

Publication Publication Date Title
Zhao et al. Rotationally invariant image representation for viewing direction classification in cryo-EM
Quinquis et al. Some radar imagery results using superresolution techniques
CN107450047B (en) Compressed sensing DOA estimation method based on unknown mutual coupling information under nested array
CN105188133B (en) A kind of subspaces KR DOA estimation method based on quasi- stationary signal part covariance matching
JP2015021824A (en) Classification and identification filter generator and target classification and identification device
CN111656394B (en) Image comparison device
Wu et al. Gridless DOA estimation with multiple frequencies
CN112001257A (en) SAR image target recognition method and device based on sparse representation and cascade dictionary
Shadlou Jahromi et al. Feature extraction in fractional Fourier domain for classification of passive sonar signals
CN109870669A (en) How soon a kind of two dimension claps mesh free compression Wave beam forming identification of sound source method
WO2019207642A1 (en) Image comparison device
Eom Time-varying autoregressive modeling of HRR radar signatures
Batioua et al. 3D Image representation using separable discrete orthogonal moments
Tuţă et al. A robust adaptive filtering method based on independent component analysis (ICA)
JP6665488B2 (en) Image processing method and image processing apparatus
CN114895234A (en) Two-dimensional DOA estimation method of co-prime area array descending dimension Capon
Dehkordi et al. Region of interest based adaptive high resolution parameter estimation with applications in automotive radar
Zhang et al. Multiple ultrasonic partial discharge DOA estimation performance of KPCA Pseudo-Whitening mnc-FastICA
WO2020003343A1 (en) Wave-source-direction estimation device, wave-source-direction estimation method, and program storage medium
Yadav et al. A review of image fusion using ihs with wavelet transform
Bhuiyan et al. Power enhanced extended maximum average correlation height filter for target detection
Liu et al. Real-domain GMUSIC algorithm based on unitary-transform for low-angle estimation
CN114609581B (en) Array super-resolution direction finding method for comparing maximum value of vector projection in scanning direction
Zhao et al. A decision tree SVM classification method based on the construction of ship-radiated noise multidimension feature vector
JP2005315837A (en) Target-identifying device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704